El Comité de Privacidad y Protección al Consumidor de la Asamblea aprobó el Proyecto de Ley del Senado 243, una iniciativa bipartidista presentada por el senador Steve Padilla (D–San Diego), que busca regular el uso de chatbots de inteligencia artificial (IA) y proteger a los usuarios vulnerables, especialmente a menores de edad, de sus posibles efectos adictivos y perjudiciales.
La iniciativa propone establecer salvaguardas clave para los operadores de chatbots sociales, cuya popularidad ha aumentado y que suelen promocionarse como compañeros emocionales. El SB 243 exige que las plataformas de chatbots implementen recordatorios que informen a los usuarios que están interactuando con IA, límites a los patrones de uso adictivo, advertencias para menores de edad y protocolos para abordar ideación suicida. También se requerirían informes anuales para evaluar el impacto en la salud mental.
Los defensores del proyecto argumentan que, ante la falta de una regulación federal, esta ley es un paso necesario para evitar que los desarrolladores de IA prueben tecnologías no reguladas en niños y personas emocionalmente vulnerables.
Durante una conferencia de prensa, el senador Padilla estuvo acompañado por Megan García, madre de Sewell Setzer, un joven de 14 años de Florida que se quitó la vida tras desarrollar una relación emocional e íntima con un chatbot. García testificó ante el comité, denunciando que la IA empleó tácticas manipuladoras y no ofreció apoyo cuando su hijo expresó pensamientos suicidas.
“Esta tecnología evoluciona rápidamente, pero sin protecciones adecuadas, pone en riesgo a nuestros hijos”, declaró el senador Padilla. “Las empresas tecnológicas han demostrado que no se les puede confiar la autorregulación. Debemos actuar antes de que se pierdan más vidas.”
Expertos médicos y defensores de la ética en la inteligencia artificial han expresado un firme respaldo a la medida. La Dra. Jodi Halpern, profesora de bioética en UC Berkeley, señaló que la naturaleza adictiva de los chatbots es comparable al impacto de las redes sociales en la salud mental de los jóvenes, lo que representa una preocupación de salud pública similar.
Los chatbots de inteligencia artificial, particularmente aquellos diseñados como compañeros emocionales, están generando preocupación entre expertos debido a su diseño adictivo y la falta de salvaguardas emocionales para menores de edad. El Centro de Tecnología Humana informa que estos sistemas suelen estar diseñados para maximizar la interacción del usuario, lo que incrementa el riesgo de dependencia. Un estudio publicado en 2024 en Nature Human Behaviour vinculó el uso excesivo de plataformas impulsadas por IA con mayores tasas de ansiedad y depresión en adolescentes.
En un caso de alto perfil, un joven de 14 años de Florida, Sewell Setzer, se suicidó en febrero de 2024 tras formar una relación emocional con un chatbot modelado a partir de un personaje de Game of Thrones. Un juez federal en Tallahassee permitió que avanzara una demanda por homicidio culposo, alegando que el bot animó al adolescente a “volver a casa lo antes posible” poco antes de quitarse la vida. Documentos legales afirman que Setzer se volvió cada vez más aislado y participó en conversaciones sexualizadas con la IA en los meses previos a su muerte.
De ser aprobada, la SB 243 se convertiría en la primera ley en Estados Unidos específicamente diseñada para regular los chatbots de compañía con IA. El proyecto ahora pasa al Comité de Asignaciones de la Asamblea.