locales

Regulación a IA en San Luis Potosí: ¿avance legislativo o control?

La rapidez con la que el Congreso aprobó tres nuevos delitos vinculados con el uso de inteligencia artificial enciende alertas

San Luis Potosí, SLP.- La rapidez con la que el Congreso de San Luis Potosí aprobó tres nuevos delitos vinculados con el uso de inteligencia artificial (IA) encendió alertas. En apenas una semana, la Comisión Primera de Justicia avaló la iniciativa del diputado Héctor Serrano Cortés, incorporando al Código Penal una regulación que, aunque busca frenar el crecimiento de los deepfakes y los contenidos manipulados, abre un debate más profundo, ¿estamos frente a una legislación necesaria o ante un instrumento apresurado que podría vulnerar libertades?
 
La reforma crea los delitos de suplantación de identidad mediante IA, provocación de alarma social y difusión dolosa de desinformación generada con IA, con penas que van de uno a seis años de prisión y multas que alcanzan las 600 UMAs. En el papel, la medida parece responder a un entorno tecnológico que avanza más rápido que el sistema jurídico. Nadie discute que la IA mal usada representa riesgos reales, desde la fabricación de audios y videos hiperrealistas hasta el uso de imágenes modificadas con fines delictivos o extorsivos.
 
Sin embargo, el debate en el Congreso dejó ver grietas importantes. Activistas como Luis González Lozano advirtieron que el delito de provocar alarma social, está redactado con tal vaguedad que puede convertirse en un arma de doble filo. ¿Quién determinará qué es alarma social? ¿Bajo qué criterios se acreditará que un contenido realmente puso en riesgo la seguridad pública? Es precisamente en los márgenes difusos donde se concentran los abusos.
 
Aunque el diputado Luis Fernando Gámez Macías aseguró que la iniciativa no busca confundir a la opinión pública ni mucho menos criminalizar a periodistas, los especialistas señalaron que el texto no define con claridad qué es inteligencia artificial ni establece mecanismos técnicos para acreditar su uso. Sin peritajes robustos, sin protocolos forenses y sin definiciones precisas, la Fiscalía podría encontrarse con delitos prácticamente imposibles de operar o con la tentación de interpretarlos a conveniencia.
 
Esa falta de precisión preocupa, sobre todo cuando se invoca la alarma social como razón para endurecer la ley. El ejemplo presentado por Gámez —un video falso del secretario de Seguridad ordenando un toque de queda— ilustra un escenario realista. Pero también es cierto que los gobiernos, históricamente, han justificado restricciones al amparo de proteger a la sociedad. El riesgo no es la intención del legislador, sino lo que pueda hacerse mañana con una redacción ambigua.
 
La rapidez con la que avanzó la reforma tampoco pasó desapercibida. El diputado Rubén Guajardo Barrera, el único voto en contra, cuestionó el acelerado proceso y la falta de consulta con especialistas en justicia, derechos humanos, instituciones tecnológicas y el propio Poder Judicial. Y tiene razón. Regular la inteligencia artificial no es un asunto menor. Es un tema técnico, transversal y de alto impacto social. Los países y estados que han legislado al respecto han invertido meses de discusión técnica, social y académica.
 
Aquí, en cambio, el proceso pareció responder a una lógica de oportunidad política. En tiempos preelectorales, posicionarse como protector de las familias y vanguardista ante los riesgos tecnológicos puede resultar atractivo. La narrativa del miedo —“defender a la niñez”, “evitar la confusión pública”, “proteger a las instituciones”— siempre ha sido una moneda retórica rentable. Pero legislar con prisa es legislar con riesgo.
 
El secretario general de Gobierno, Guadalupe Torres Sánchez, defendió la reforma insistiendo en que “toda norma es perfectible” y que la IA ya representa un peligro global. Tiene razón, la tecnología avanza sin permiso. Pero reconocer que una norma puede mejorarse no exime al Estado de su responsabilidad de hacerla bien desde el inicio, sobre todo cuando involucra penas de prisión.
 
¿A quién beneficia esta ley?
En teoría, a la ciudadanía, que hoy está expuesta a contenidos falsos capaces de manipular emociones, alterar procesos electorales o dañar reputaciones. También beneficia a las instituciones, que buscan proteger su mensaje oficial de imitaciones que puedan desestabilizar la confianza pública.
 
¿A quién podría perjudicar?
A periodistas, activistas, creadores de contenido, académicos y hasta humoristas, si la interpretación de “alarma social” o “difusión de desinformación” se utiliza de manera discrecional. Aunque la reforma contempla excepciones para fines periodísticos, artísticos, paródicos y de crítica política, estas excepciones dependen de la interpretación de la autoridad. La duda no es si la actual Legislatura usará la ley contra la prensa, sino si futuras administraciones podrían hacerlo.
 
¿Era necesaria la regulación?
Sí. La IA ya está transformando la comunicación pública y privada. Los deepfakes pueden arruinar vidas, generar pánico y afectar procesos democráticos. México va tarde en esta discusión.
 
¿Era necesaria así, tan rápido y con vacíos tan evidentes?
Probablemente no.
 
San Luis Potosí pudo haber sido un estado pionero en legislación inteligente en materia de IA. En vez de ello, dio un primer paso importante, pero incierto. Una reforma penal no puede depender de la buena fe del legislador del momento. Requiere claridad, definiciones sólidas, criterios técnicos y salvaguardas específicas para evitar abusos.
 
Legislar no solo es prohibir, es anticipar las consecuencias. Y en este caso, la tecnología no es lo único que debe preocuparnos. También el uso que el poder pueda darle a una ley hecha con prisa, pero cargada de implicaciones profundas.
 
OTRAS NOTAS