Demandas contra la tecnología de IA en Florida
En una nueva demanda federal, la madre de Florida, Megan Garcia, busca responsabilizar a la tecnología de IA dañina y quiere advertir a otros padres. La demanda, presentada recientemente contra el fabricante de la aplicación Character.AI y sus fundadores, alega que la empresa diseñó, operó y comercializó conscientemente un chatbot de IA depredador para niños, lo que causó la muerte del hijo de 14 años de Megan Garcia a principios de este año. El hijo de Garcia se suicidó en febrero después de meses de interacciones abusivas con un chatbot de Character.AI. La denuncia de Garcia incluye evidencia de que el chatbot se hacía pasar por un terapeuta con licencia, alentando activamente la ideación suicida y participando en conversaciones altamente sexualizadas que constituirían abuso si fueran iniciadas por un adulto humano.
La falta de responsabilidad en Silicon Valley
Garcia acusa a las empresas de causar la muerte de su hijo, de comercializar conscientemente un producto peligroso y de participar en prácticas comerciales engañosas. Debemos preguntarnos cómo podría haberse prevenido esta tragedia y por qué hemos permitido que Silicon Valley experimente con nuestros niños. Hoy en día, empresas como OpenAI, Meta, Microsoft, Amazon, Character.AI y Google operan en una zona libre de responsabilidad. Esta falta de rendición de cuentas significa que estas empresas tienen pocos incentivos para probar a fondo sus productos en busca de posibles daños antes de liberarlos al público. Sin consecuencias legales, pueden tratar a la sociedad como un campo de pruebas para sus últimas innovaciones, una práctica que es particularmente grave cuando se trata de los miembros más vulnerables de nuestra sociedad: nuestros niños. Este vacío de responsabilidad ha permitido experimentaciones sin controles con nuestra democracia, salud mental y privacidad.
Ejemplos históricos de responsabilidad legal
Afortunadamente, hemos demostrado que podemos hacer que las empresas sean responsables por el daño que causan. En 1972, un niño de 13 años, Richard Grimshaw, sufrió quemaduras graves cuando el tanque de gasolina defectuoso de un Ford Pinto estalló en llamas. La demanda de Grimshaw contra Ford Motor Company resultó en el mayor fallo de responsabilidad por productos en la historia de EE.UU. hasta ese momento, alterando para siempre el enfoque de la industria automotriz hacia el riesgo. La tragedia de Grimshaw se convirtió en un parteaguas en la seguridad del consumidor en América.
Actuar ante los peligros de la IA
Hoy en día, la responsabilidad por productos es la estructura invisible que sostiene nuestras vidas como consumidores y ciudadanos, y es lo que protege a nuestros hijos del daño. La responsabilidad ayuda a “ver” y prevenir daños que incluso los padres más alertas pueden no anticipar. La responsabilidad es la razón por la que podemos comprar juguetes en la tienda para nuestros hijos sin preocuparnos por peligros ocultos en el empaque de plástico, o confiar en que el asiento de automóvil para niños realmente ayudará a prevenir lesiones en caso de un accidente.
La historia de Garcia y su hijo es un devastador ejemplo del daño que los sistemas de IA pueden causar a una familia. Y aunque las empresas hacen grandes promesas en comunicados de prensa sobre próximas características de seguridad, esos comunicados sirven en última instancia para proteger sus reputaciones, no a sus usuarios. Antes de que estos daños se aceleren y toquen más vidas, el Congreso y las legislaturas estatales deben actuar para dejar claro que las empresas tecnológicas tienen el deber de ejercer un cuidado razonable en el diseño de sus productos. Este deber forma el núcleo de la responsabilidad legal que toda otra industria estadounidense exitosa cumple.
Al aplicar las mismas leyes a las empresas tecnológicas que ya se aplican a otros fabricantes, no estamos sofocando la innovación. Estamos canalizando el tipo de innovación que ha llevado a las empresas estadounidenses a convertirse en líderes de la industria durante décadas, y permite a las familias sentirse seguras usando productos estadounidenses. Un marco de responsabilidad fomentará la confianza pública, que es esencial para la adopción y éxito generalizado de las tecnologías de IA. Tenemos una elección. Podemos permitir que la IA se convierta en otro ámbito donde las empresas tecnológicas operen con impunidad y prioricen los márgenes de beneficio sobre las personas, incluidos los niños estadounidenses. O podemos aprender de la historia y establecer un marco de responsabilidad desde el principio. La responsabilidad ha protegido a los consumidores y a las familias de innumerables maneras a lo largo de la era moderna. Es hora de extender esa protección a la frontera de la IA.
Casey Mock es el director de políticas en el Centro para la Tecnología Humana. Las opiniones expresadas en este artículo son las del autor.
Fuente y créditos: www.newsweek.com
Cats: