1 de diciembre de 2025
El futuro ya llegó. El Gobierno bonaerense pone un escudo ético ante el uso de la IA.
Por
Lucas
Moyano (*)
"El futuro llegó hace rato", decía uno de los versos de la icónica canción "Todo un palo" de Patricio Rey y sus Redonditos de Ricota, que cerraba -allá por 1988- el tercero de sus discos: "Un baión para el ojo idiota".
Aquello ya es enteramente una verdad. Específicamente, por culpa de la Inteligencia Artificial, que se metió totalmente en nuestras vidas sin pedir permiso alguno.
Hoy la IA no es una película de ciencia ficción. Es esa pieza central que usamos desde que, al despertar, revisamos el feed hasta que, cuando nos vamos a acostar, apagamos la tablet.
Está en tu trabajo, en tus juegos y hasta en cómo la Administración Pública resuelve trámites.
Pero junto a estas promesas, también emergen complejos desafíos sobre su impacto futuro, la ética de su desarrollo y cómo garantizar que siempre beneficie a la sociedad.
Es así que surgen, con esta tecnología increíble, preguntas claves.
¿Si una máquina toma decisiones que nos afectan, quién la controla?, es una de ellas. Y otra, preponderante, es ¿quién le pone límites a esa máquina?
La Provincia de Buenos Aires dio el primer paso a estas preguntas. Y recientemente aprobó las "Reglas para el uso responsable de la IA", a través de una resolución identificada con los números 9/2025.
El mensaje es claro y directo: la tecnología es una herramienta, no el jefe; por lo que esa tecnología debe estar al servicio de las personas
El objetivo central de esta norma es proteger tus derechos fundamentales. La Provincia, al hacer esto, se une a un debate global y necesario, alineándose con los marcos éticos de la Unión Europea (Reglamento de Inteligencia Artificial de la UE -AI Act-), la OCDE y la Unesco.
La reglamentación fija un escudo de principios claros, al darle un "norte" ético a la IA.
Esta nueva regulación no busca frenar la innovación, sino darle una guía moral.
Los principios son nuestra mejor defensa y hay que pensar que las personas van primero, siempre.
El punto de partida es el respeto por tus derechos humanos.
Por muy eficiente que sea un algoritmo, nunca puede pasar por encima de tu dignidad.
Por ejemplo, si estás pidiendo una ayuda social o un turno médico, el algoritmo es sólo un medio.
Entre sus objetivos centrales, la resolución publicada en el Boletín Oficial establece la protección de los derechos y garantías fundamentales de la ciudadanía y el uso "razonable y confiable" de estas tecnologías.
El nuevo marco también establece una clasificación de riesgos para los sistemas de IA.
Riesgo inaceptable, cuyo uso queda prohibido, como sistemas que manipulen comportamientos mediante técnicas subliminales, exploten vulnerabilidades o generen perfiles de "scoring social".
Alto riesgo, que deberán cumplir requisitos estrictos y evaluaciones de impacto, como los sistemas de identificación biométrica, gestión de infraestructuras críticas, justicia o procesos laborales;
Riesgo limitado, como chatbots genéricos sin tratamiento de datos sensibles;
Riesgo nulo, con impacto insignificante sobre derechos o seguridad.
¿Por qué se tomó esta decisión?
La norma exige que la IA no sea una "caja negra".
Si un sistema te rechaza un trámite, tenés el derecho a saber cómo llegó a esa conclusión. Esto se llama Transparencia y Trazabilidad, y genera confianza.
La inclusión, privacidad y protección de datos personales es un punto clave, ya que los sistemas deben ser equitativos y evitar que los viejos sesgos (discriminación por género o clase social) se automaticen.
Lo más importante es siempre tener el control de tus datos personales (Autodeterminación Informativa).
La IA funciona con una sola cosa: tus datos. Cada "like", cada búsqueda, es información. Por eso, la gestión de datos es el cimiento de la IA.
Es fundamental tener presente que este esfuerzo ético se superpone a la Ley Nacional de Protección de Datos Personales (Ley 25.326).
La necesidad de su urgente actualización se hace evidente, ya que un marco legal moderno y robusto es indispensable para asegurar que los sistemas de IA cumplan con los más altos estándares de protección y seguridad en Argentina.
Si bien la tecnología promete grandes beneficios, lo cierto es que no por ello se encuentra exenta de desafíos en su camino, que no podemos ignorar. No se trata sólo de escribir la ley, sino de hacerla cumplir. Y esto es especialmente complejo para los organismos públicos.
Consideraciones
Si la IA falla y alguien sufre un daño (por ejemplo, te niega un subsidio): ¿quién paga los platos rotos, el funcionario, el programador?
La norma obliga a tener mecanismos claros para auditar y señalar dónde estuvo la falla.
La calidad de los datos es otra cuestión importante, ya que la IA sólo funciona con ellos y en el Estado los datos suelen estar fragmentados o incompletos.
Si los datos históricos con los que aprende un algoritmo reflejan desigualdades o sesgos sociales, el sistema de IA los va a perpetuar y amplificar, atentando directamente contra el principio de inclusión.
El desafío es limpiar y estandarizar la información para asegurar que la IA sea un motor de equidad.
Mientras la ley "camina", la tecnología "corre". Y así, la IA evoluciona rapidísimo.
Por eso, el desafío es crear reglas que protejan tus derechos; pero que no queden obsoletas en seis meses.
Además, para que el Estado pueda fiscalizar, auditar y hacer cumplir la norma necesita personal cualificado (científicos de datos, expertos en ética algorítmica). Y todo eso es un reto de inversión en el talento humano y en interoperabilidad (que los sistemas de las distintas oficinas hablen entre sí), ya que la falta de capacidad técnica genera el riesgo de una dependencia excesiva de los proveedores privados de tecnología.
Un gran paso
Con sus beneficios y desafíos por delante, la Provincia de Buenos Aires dio un paso fundamental.
Ahora no sólo regula el uso de la IA, sino que establece un espejo de los valores que queremos para nuestra sociedad en la era digital, con la dignidad humana como el eje principal.
Alinear estos principios con los del contexto internacional -donde iniciativas como el Reglamento de Inteligencia Artificial de la UE (AI Act) demuestran que la regulación ética es posible- sirve para construir una base sólida para que la IA sea una aliada y no una amenaza.
Es un primer paso. Y como todo camino nuevo, requerirá esfuerzo y compromiso.
Pero al poner la ética y la persona como ejes se está asegurando que esta poderosa herramienta tecnológica se configure para brindar un mejor servicio público al ciudadano.
A seguir pensando el futuro, que ya es hoy.
(*) Especialista en Ciberdelitos y Evidencia Digital. Autor del libro "Ciberdelitos. Cómo investigar en Entornos Digitales", de editorial Hammurabi.
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
Con la participación de cinco pugilista de la ciudad, el gimnasio de Azul Athletic Club recibirá desde el 3 al 7 de diciembre una nueva edición del torneo nacional que reunirá una importante camada de boxeadores y boxeadoras entre 15 y 16 años, quienes representarán a distintas provincias del país.
1 de diciembre de 2025
1 de diciembre de 2025
El Colectivo Mariposa de Madera convoca a artistas y a la comunidad al Encuentro de Arte "La calle se vuelve escenario", que se realizará el sábado 13 de diciembre a las 18 en calle Moreno, entre San Martín e Irigoyen, Azul.
1 de diciembre de 2025
1 de diciembre de 2025
30 de noviembre de 2025
30 de noviembre de 2025
30 de noviembre de 2025
30 de noviembre de 2025
30 de noviembre de 2025
30 de noviembre de 2025
29 de noviembre de 2025
28 de noviembre de 2025
28 de noviembre de 2025