El senador estatal Steve Padilla (D-San Diego) presentó hoy el Proyecto de Ley 420 (SB 420), una iniciativa legislativa que busca establecer un marco para equilibrar los beneficios tecnológicos, económicos y sociales de la inteligencia artificial (IA), al mismo tiempo que implementa protecciones para los consumidores.
A medida que la IA se integra en diversos sectores, han crecido las preocupaciones sobre la falta de supervisión y regulaciones que guíen su uso. Actualmente, las empresas privadas que desarrollan esta tecnología establecen sus propios estándares de protección. SB 420 busca crear una estructura regulatoria que priorice los derechos humanos, la equidad, la transparencia y la rendición de cuentas.
La propuesta legislativa sigue los esfuerzos nacionales para regular la IA. En octubre de 2023, el presidente Joe Biden emitió una orden ejecutiva sobre el “Desarrollo y Uso Seguro, Confiable y Responsable de la Inteligencia Artificial”, que establecía lineamientos para equilibrar los beneficios de la IA y proteger los derechos civiles y los intereses de los consumidores. Antes de esto, la administración presentó un Plan para una Carta de Derechos de la IA, que identificaba cinco principios clave, incluyendo protecciones contra sistemas inseguros, discriminación algorítmica y prácticas abusivas de datos.
Sin embargo, en enero de 2025, el presidente Donald Trump derogó la orden ejecutiva de Biden, eliminando las protecciones federales sobre la IA. Críticos argumentan que esta decisión debilita el liderazgo de Estados Unidos en el desarrollo responsable de la IA y aumenta los riesgos relacionados con sesgos, desigualdad de ingresos y concentración del mercado.
El senador Padilla enfatizó la necesidad de acción a nivel estatal ante los cambios en la política federal. “California tiene un legado orgulloso como cuna de la innovación tecnológica, mientras mantiene estándares éticos y de seguridad alineados con esos valores, no en oposición a ellos”, dijo. “Sin embargo, la mala gestión a nivel federal ha dejado al público vulnerable ante los peligros de la IA. California debe intervenir para establecer directrices que brinden protecciones sensatas para los consumidores, sin dejar de fomentar la innovación”.
SB 420 establece la intención de la legislatura de desarrollar una Carta de Derechos de la IA en California, sentando las bases para regulaciones estatales en la materia. Esta iniciativa se suma al trabajo continuo de Padilla en el ámbito de la IA, incluyendo el Proyecto de Ley 243, presentado a principios de este mes, que busca proteger a los niños de prácticas depredadoras de chatbots.
A medida que la IA sigue evolucionando, los legisladores de California buscan posicionar al estado como un líder en el desarrollo de marcos regulatorios que equilibren la innovación y la protección del consumidor.
El Proyecto de Ley 243 cuenta con el respaldo de investigadores que trabajan en la intersección de la inteligencia artificial (IA) y los consumidores, así como de defensores del bienestar infantil.
“Tenemos razones cada vez mayores para preocuparnos por los riesgos que los chatbots relacionales representan para la salud de los menores”, dijo la Dra. Jodi Halpern, MD, PhD, profesora de Bioética en UC Berkeley y codirectora del Centro Kavli de Ética, Ciencia y Sociedad. “Nunca permitiríamos que los menores estuvieran expuestos a productos que podrían dañarlos sin pruebas de seguridad y medidas de protección. Este es el primer proyecto de ley a nivel nacional que conocemos que da un paso importante hacia la creación de esas protecciones mediante la supervisión de seguridad. Aplaudimos al senador Padilla por reunir a múltiples partes interesadas para abordar de manera proactiva este problema emergente”.
“El Instituto de Defensa Infantil de la Facultad de Derecho de la Universidad de San Diego felicita al senador Padilla por presentar el Proyecto de Ley 243, una iniciativa que busca prevenir los dos peores aspectos de la amenaza de los chatbots de IA para la seguridad infantil: que los niños sean engañados para creer que están hablando con una persona real y que sean manipulados por las grandes empresas tecnológicas, cuyo único interés es el lucro, para volverse adictos a interactuar con falsos compañeros de IA que no están diseñados para velar por su bienestar, en lugar de relacionarse con sus verdaderos amigos y familiares”, dijo Ed Howard, asesor principal del Instituto de Defensa Infantil, que recientemente publicó un artículo de opinión sobre los peligros de los chatbots de compañía.
“Con casi la mitad de los adolescentes en EE.UU. enfrentando desafíos de salud mental y el suicidio como la segunda causa principal de muerte entre jóvenes de 10 a 24 años, no podemos ignorar los riesgos de la IA sin regulación”, afirmó Ria Babaria, directora de Políticas de Salud Mental en Youth Power Project. “A medida que los chatbots se vuelven más sofisticados, los jóvenes vulnerables pueden acudir a ellos en busca de apoyo para sus luchas, emociones o pensamientos dañinos, sin darse cuenta de la falta de supervisión humana y responsabilidad. Este proyecto de ley es un paso fundamental para garantizar que la IA no manipule la interacción, promueva conductas dañinas o reemplace el apoyo humano real. Si la IA va a existir en estos espacios, debemos regularla porque la salud mental de los jóvenes debe ser la prioridad”.
“Estamos orgullosos de apoyar al senador Padilla en el establecimiento de protecciones sólidas para los chatbots generativos de IA, que cada vez más influyen en la vida de los jóvenes y pueden causarles daño”, dijo Amina Fazlullah, directora de Políticas Tecnológicas de Common Sense Media. “El Proyecto de Ley 243 incluye disposiciones que aportarán una mayor transparencia sobre los riesgos de esta tecnología y, en última instancia, ayudarán al público a comprender y abordar el profundo impacto que las interacciones impulsadas por IA pueden tener en el desarrollo de los jóvenes”.