Top

La primera ley que regula la inteligencia artificial en Nueva York y por qué debería importarnos en Argentina

OPINIÓN

Nueva York está a punto de tomar una decisión que, aunque parezca lejana, nos toca de cerca. Se trata de la "Ley RAISE" 2025-S6953B , un intento pionero por ponerle reglas a las inteligencias artificiales más poderosas del planeta. Es una discusión que tarde o temprano tendremos que dar aquí.

IA. Foto: X


Nueva York está a punto de tomar una decisión que, aunque parezca lejana, nos toca de cerca. Se trata de la "Ley RAISE" 2025-S6953B , un intento pionero por ponerle reglas a las inteligencias artificiales más poderosas del planeta. Es una discusión que tarde o temprano tendremos que dar aquí.

Para los que quieran ir directo a la fuente y que se encuentra a la firma de la gobernadora del mencionado estado; el proyecto de ley completo se puede leer en la web del Senado de Nueva York pueden ingresar en este link.

Primero, entendamos de qué se trata esta ley en Nueva York. Piénsalo así: es como una "licencia para operar" para las IA más avanzadas. La idea es simple: no se puede dejar que una empresa lance una tecnología con el poder de afectar a millones de personas sin antes revisar que sea segura.

La ley no apunta al programador que arma una aplicación en su casa, sino a los gigantes tecnológicos que invierten más de 100 millones de dólares en entrenar un solo modelo, y determinada capacidad de operaciones en su costo computacional que define un modelo de frontera.Y, ¿qué les exige concretamente? Cuatro cosas que son de puro sentido común:

-Tener un plan de seguridad por escrito. Antes de lanzar su IA, la empresa debe explicar cómo va a evitar "daños críticos", como ciberataques masivos, desinformación a gran escala o la no facilitación de actividades criminales.

-Pasar una auditoría externa. No vale que ellos mismos se den el visto bueno. Una empresa independiente tiene que revisar cada año que ese plan de seguridad se cumpla de verdad.

-Avisar si algo sale mal. Si la IA se sale de control o sufre un ataque, la compañía tiene 72 horas para confirmárselo a las autoridades. Se acabaron los secretos.

-Proteger al que da la voz de alarma. Si un empleado denuncia que la empresa está tomando atajos peligrosos, la ley lo protege para que no lo echen. Una pieza clave para que la ética no quede solo en el papel.

La importancia de esta ley es que es el primer paso serio en Estados Unidos para pasar de las "buenas intenciones" a las "reglas claras", sentando un precedente para el resto del mundo.

Ahora, la pregunta del millón: ¿qué tiene que ver todo esto con Argentina?

Aunque aquí no desarrollamos estos modelos gigantescos, sí se lo usan todos los días (ver la cantidad de suscriptores que aumentaron estos desarrollos en LLM. Pensemos en cosas que ya nos pasan: cuando una app nos niega un préstamo sin darnos explicaciones, cuando el algoritmo de una prepaga decide cuánto vamos a pagar, o cuando un portal de empleo descarta nuestro currículum antes de que lo vea una persona. Detrás de todo eso hay IA. Regular no es ciencia ficción, es una necesidad para defender nuestros derechos hoy.

Inspirados en la ley de Nueva York, aquí hay cuatro ideas que Argentina podría empezar a discutir:

Enfocarse en cómo se usa la IA, no en cómo se crea. Mientras Nueva York regula a los creadores, nosotros podemos liderar regulando el uso. Podríamos exigir que un banco, una empresa de medicina prepaga o un organismo del Estado que use IA para tomar decisiones importantes sobre la gente, deba cumplir con ciertos requisitos de transparencia y justicia, como ser que la ultima palabra la tenga un humano.

Implementar "Evaluaciones de Impacto". Antes de que una empresa lance un sistema de IA de alto riesgo, tendría que presentar un informe que responda preguntas clave: ¿Puede discriminar por género o nivel socioeconómico? ¿Se puede explicar cómo toma sus decisiones? ¿Están seguros los datos de los argentinos que usa y su origen?

Crear un registro público de fallos. Si el algoritmo de una fintech calcula mal los intereses o el de una app de delivery asigna viajes de forma injusta, la empresa debería tener la obligación de reportarlo. Esto le daría a la gente el derecho a saber qué pasó y a reclamar.

Cuidar a nuestro talento tecnológico. Proteger por ley a los programadores y especialistas que alerten sobre riesgos en los sistemas que desarrollan es una idea de bajo costo y altísimo impacto. Fomenta la ética y posiciona a Argentina como un lugar seguro y responsable para innovar.

¿Esto frena la innovación?

Una línea de pensamiento alega que las reglas claras generan confianza. Las empresas que demuestren ser responsables no solo se ganarán a sus clientes, sino que atraerán al mejor talento. No se trata de prohibir, sino de construir sobre bases sólidas para que la innovación nos beneficie a todos.

Habrá que definir quién audita estos sistemas o cómo evitar que todo se vuelva pura burocracia. Esos son los debates importantes que tenemos que empezar a tener.

En definitiva, aunque nuestra escala sea otra, los principios de responsabilidad y transparencia son universales. Argentina tiene la oportunidad de dejar de ser un simple consumidor de tecnología para empezar a poner las reglas, protegiendo a su gente y fomentando un futuro digital que sea justo para todos.

En lugar de enmarcar esto como un freno a la innovación, el verdadero debate consiste en establecer prioridades. La pregunta fundamental no es si avanzamos, sino bajo qué condiciones. Se trata de proteger principios esenciales, como la dignidad y la libertad humanas, como un límite infranqueable para cualquier desarrollo tecnológico. Este enfoque supera la falsa dicotomía entre progreso y seguridad, que a menudo sirve para enmascarar intereses comerciales por encima del bienestar colectivo.

*Por Alejandro Urueña: Investigando la IA, su relación con el Derecho y las actividades productivas. Project Management I.A. Abogado. Diplomado en Derecho del Trabajo y Relaciones Laborales, Universidad Austral; Diplomado en Derecho 4.0, Universidad Austral; Magister en Derecho del Trabajo y Relaciones Laborales, Universidad Austral (T.P); Posgrado de Inteligencia Artificial y Derecho, I.A.L.A.B, U.B.A. Posgrado en Metaverso, U.B.A. Programa (IA) Universidad Austral. Magister en Inteligencia Artificial Centro Europeo de Posgrado. Programa MIT en desarrollo y diseño en productos y servicios en IA con Insignia de Asignación Ejemplar.  Bootcamp internacional inteligencia artificial aplicada al Derecho. Actualmente, cursando Maestría en Ciencias de Datos, Universidad Austral.