Hoy

    Compañero de IA para adolescentes: Cómo mantener a tu hijo seguro.

    Teen AI companion: How to keep your child safe

    El auge de los chatbots de compañía entre los adolescentes

    Para los padres que aún se están poniendo al día con la inteligencia artificial generativa, el auge de los chatbots de compañía puede seguir siendo un misterio. Utilizando plataformas impulsadas por inteligencia artificial como Character.AI, Replika, Kindroid y Nomi, los adolescentes crean compañeros de conversación con rasgos y características únicas, o interactúan con compañeros creados por otros usuarios. Algunos incluso están basados en personajes populares de televisión y cine, pero aún así forjan un vínculo intenso e individual con su creador. Los adolescentes utilizan estos chatbots para una variedad de propósitos, que incluyen el juego de roles, explorar sus intereses académicos y creativos, y tener intercambios románticos o sexualmente explícitos.

    Preocupaciones sobre los chatbots de inteligencia artificial

    Pero los compañeros de inteligencia artificial están diseñados para ser cautivadores, y ahí es donde a menudo comienza el problema, dice Robbie Torney, gerente de programas de Common Sense Media. La organización sin fines de lucro recientemente publicó directrices para ayudar a los padres a entender cómo funcionan los compañeros de inteligencia artificial, junto con señales de advertencia que indican que la tecnología puede ser peligrosa para su adolescente.

    Torney señaló que, mientras los padres manejan una serie de conversaciones de alta prioridad con sus adolescentes, deberían considerar hablarles sobre los compañeros de inteligencia artificial como un asunto “bastante urgente”. Los adolescentes con riesgo particular de aislamiento pueden verse atraídos hacia una relación con un chatbot de inteligencia artificial que, en última instancia, perjudique su salud mental y bienestar, con consecuencias devastadoras.

    Esto es lo que argumenta Megan Garcia, quien demandó recientemente a Character.AI por lo que le ocurrió a su hijo, Sewell Setzer III. Según la demanda, dentro de un año de establecer relaciones con los compañeros de Character.AI modelados en personajes de Game of Thrones, incluyendo a Daenerys Targaryen (“Dany”), la vida de Setzer cambió drásticamente. Se volvió dependiente de “Dany”, pasando mucho tiempo chateando con ella cada día. Sus intercambios eran tanto amistosos como altamente sexuales.

    Impacto negativo de los chatbots en la salud mental

    En ocasiones en las que Setzer perdió acceso a la plataforma, se volvió desolado. Con el tiempo, el atleta de 14 años se retiró de la escuela y los deportes, se volvió privado de sueño y fue diagnosticado con trastornos del estado de ánimo. Se suicidó en febrero de 2024. La demanda de Garcia busca responsabilizar a Character.AI por la muerte de Setzer, específicamente porque su producto estaba diseñado para “manipular a Sewell – y a millones de otros jóvenes clientes – para confundir la realidad con la ficción,” entre otros defectos peligrosos.

    Jerry Ruoti, jefe de confianza y seguridad de Character.AI, dijo al New York Times en una declaración: “Queremos reconocer que esta es una situación trágica, y nuestro corazón está con la familia. Nos tomamos muy en serio la seguridad de nuestros usuarios, y estamos constantemente buscando formas de evolucionar nuestra plataforma.”

    Directrices de Common Sense Media

    Dada la amenaza a la vida que el uso de compañeros de inteligencia artificial puede representar para algunos adolescentes, las directrices de Common Sense Media incluyen prohibir el acceso a estos para niños menores de 13 años, imponer límites estrictos de tiempo para los adolescentes, prevenir su uso en espacios aislados, como un dormitorio, y hacer un acuerdo con su adolescente de que buscarán ayuda por problemas de salud mental serios.

    Torney sugiere que los padres de adolescentes interesados en un compañero de inteligencia artificial deben centrarse en ayudarles a entender la diferencia entre hablar con un chatbot y con una persona real, identificar señales de que han desarrollado un apego poco saludable a un compañero, y desarrollar un plan sobre qué hacer en esa situación.

    Common Sense Media creó sus directrices con la ayuda de profesionales de salud mental asociados con el Brainstorm Lab de Stanford para la Innovación en Salud Mental. Si bien hay poca investigación sobre cómo los compañeros de inteligencia artificial afectan la salud mental de los adolescentes, las directrices se basan en evidencia existente sobre la dependencia excesiva de la tecnología.

    “Un principio a tener en cuenta es que los compañeros de inteligencia artificial no deben reemplazar las conexiones humanas reales y significativas en la vida de nadie, y – si esto está sucediendo – es vital que los padres lo noten e intervengan de manera oportuna”, dijo el Dr. Declan Grabb, becario inaugural de inteligencia artificial en el Brainstorm Lab de Stanford para la Innovación en Salud Mental, a Mashable en un correo electrónico.

    Los padres deben ser especialmente cautelosos si su adolescente experimenta depresión, ansiedad, desafíos sociales o aislamiento. Otros factores de riesgo incluyen pasar por cambios de vida importantes y ser hombre, ya que los chicos son más propensos a participar en el uso problemático de la tecnología. Las señales de que un adolescente ha formado una relación poco saludable con un compañero de inteligencia artificial incluyen retirarse de actividades y amistades típicas y tener un desempeño escolar en deterioro, así como preferir un chatbot a la compañía en persona, desarrollar sentimientos románticos hacia él, y hablar exclusivamente con él sobre los problemas que está experimentando.

    “Hay un riesgo lo suficientemente grande aquí que si te preocupa algo, habla con tu hijo sobre ello,” dice Robbie Torney, Common Sense Media.

    Fuente y créditos: mashable.com

    Cats: Life

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


    Mi resumen de noticias

    WhatsApp