Error en las respuestas de IA de Meta
Meta, la empresa matriz de Facebook, ha enfrentado críticas tras un incidente en el que su asistente de inteligencia artificial afirmó incorrectamente que el reciente intento de asesinato del expresidente Donald Trump no ocurrió. Joel Kaplan, el jefe de políticas global de Meta, describió las respuestas de la IA respecto al tiroteo como “desafortunadas”. Según Kaplan, la IA de Meta fue inicialmente programada para no responder preguntas sobre el intento de asesinato, pero esa restricción se levantó cuando los usuarios comenzaron a notarlo. Sin embargo, admitió que “en un pequeño número de casos, la IA de Meta siguió proporcionando respuestas incorrectas, incluyendo a veces la aseveración de que el evento no sucedió, lo cual estamos trabajando para solucionar rápidamente”.
Desafíos de la IA generativa
Kaplan explicó que este tipo de respuestas son conocidas como “alucinaciones”, un problema común en la industria que afecta a todos los sistemas de IA generativa, y representa un desafío continuo sobre cómo la IA maneja eventos en tiempo real. “Al igual que todos los sistemas de IA generativa, los modelos pueden devolver salidas inexactas o inapropiadas, y continuaremos abordando estos problemas y mejorando estas características a medida que evolucionen y más personas compartan sus comentarios”, añadió.
Reacción de Google y la industria tecnológica
No solo Meta está en el centro de esta controversia. Google también tuvo que desmentir afirmaciones sobre su función de autocompletado en la búsqueda, que supuestamente estaba censurando resultados relacionados con el intento de asesinato. Trump reaccionó en Truth Social diciendo: “Aquí vamos de nuevo, ¡otro intento de MANIPULAR LAS ELECCIONES! ¡VAMOS CONTRA META Y GOOGLE!”
El impacto de ChatGPT en la industria
Desde la aparición de ChatGPT, la industria tecnológica se ha visto obligada a lidiar con la tendencia de la IA generativa a propagar falsedades. Algunas empresas, como Meta, han intentado apoyar a sus chatbots con datos de calidad y resultados de búsqueda en tiempo real como una forma de compensar las alucinaciones. Sin embargo, como este ejemplo demuestra, sigue siendo complicado superar lo que los grandes modelos de lenguaje están inherentemente diseñados para hacer: inventar información.
Fuente y créditos: www.theverge.com
Cats: