Explorando el contenido generado por inteligencia artificial
Esta publicación es parte de la serie “Exponiendo a la IA” de Lifehacker. Estamos explorando seis tipos diferentes de medios generados por IA, destacando las peculiaridades, subproductos y características comunes que ayudan a diferenciar entre el contenido artificial y el creado por humanos. Desde el momento en que ChatGPT presentó al mundo la IA generativa a finales de 2022, quedó claro que, de ahora en adelante, ya no se puede confiar en que lo que estás leyendo fue escrito por un ser humano. Puedes pedirle a un programa de IA como ChatGPT que escriba algo—cualquier cosa—y lo hará en cuestión de segundos. ¿Cómo puedes confiar en que lo que estás leyendo proviene de la mente de una persona y no del producto de un algoritmo?
Si la continua desinflación de la burbuja de IA nos ha mostrado algo, es que a la mayoría de las personas no les agrada la IA en general, lo que significa que probablemente no están entusiasmadas con la idea de que lo que están leyendo ha sido pensado por una máquina sin consideración. Aun así, algunos han abrazado plenamente la capacidad de la IA para generar texto realista, para mejor o, a menudo, para peor. El año pasado, CNET comenzó a publicar contenido generado por IA junto a artículos escritos por humanos, solo para enfrentarse al desprecio y la reacción negativa de sus propios empleados. La antigua empresa matriz de Lifehacker, G/O Media, también publicó contenido generado por IA en sus sitios, pero lo hizo abiertamente y experimentó la misma reacción; tanto por implementar la tecnología sin la intervención de sus empleados como porque el contenido en sí era horrible.
Cómo funciona la escritura de IA
La IA generativa no es una conciencia digital omnisciente que pueda responder a tus preguntas como lo haría un humano. No es realmente “inteligente” en absoluto. Las herramientas de IA actuales están impulsadas por modelos de lenguaje grande (LLMs), que son algoritmos de aprendizaje profundo entrenados en grandes conjuntos de datos; en este caso, conjuntos de datos de texto. Este entrenamiento informa todas sus respuestas a las consultas del usuario. Cuando le pides a ChatGPT que escriba algo, la IA descompone tu pregunta e identifica lo que “piensa” que son los elementos más importantes en tu consulta. Luego “predice” cuál sería la secuencia correcta de palabras para responder a tu solicitud, basada en su comprensión de la relación entre las palabras.
Modelos más poderosos pueden absorber más información a la vez, así como devolver resultados más largos y naturales. Además, es común que los chatbots sean programados con instrucciones personalizadas que se aplican a todos los comandos, lo que, si se usa estratégicamente, puede potencialmente enmascarar los signos usuales del texto generado por IA.
Señales de texto generado por IA
A pesar de todo, sin importar cómo coerzas a la IA a responder, está sujeta a su entrenamiento, y probablemente habrá signos de que un texto fue generado por un LLM. Aquí hay algunas cosas a tener en cuenta:
Palabras y frases comunes
Debido a que los chatbots han sido entrenados para buscar las relaciones entre palabras, tienden a usar ciertas palabras y frases más a menudo de lo que lo haría una persona. No existe una lista específica de palabras y frases que sirvan como señales de alerta, pero si usas una herramienta como ChatGPT con suficiente frecuencia, es posible que comiences a notar patrones. Por ejemplo, ChatGPT usa frecuentemente la palabra “delve” (profundizar), especialmente durante las transiciones en la escritura. También tiende a expresar cómo una idea “subraya” el argumento general y cómo una cosa es “un testimonio de” otra. Este hilo de Reddit de r/chatgpt menciona varias de estas palabras generadas comúnmente.
Estilo de escritura
Es impresionante cuán rápido puede generar una respuesta la IA, especialmente cuando se trabaja con un LLM poderoso. Y aunque parte de esa escritura puede parecer natural, si lees con atención, comenzarás a notar peculiaridades que la mayoría de los escritores humanos no usarían. La IA a menudo utiliza un lenguaje florido, como si hubiese sido entrenada principalmente con textos de marketing. Frecuentemente intenta convencerte de lo que está hablando de manera excesiva.
Revisar hechos y corrección
Los LLM son cajas negras. Su entrenamiento es tan intrincado que no podemos ver cómo han establecido su comprensión de las relaciones entre las palabras. Lo que sí sabemos es que toda IA tiene la capacidad (y la tendencia) a alucinar, es decir, a generar contenido incorrecto. Si estás leyendo un texto y ves una afirmación que sabes que no es cierta, especialmente sin una fuente, mantente escéptico.
Detección de texto de IA
Los detectores de IA, al igual que los LLM, se basan en modelos de IA. Sin embargo, en lugar de estar entrenados en grandes volúmenes de texto general, están entrenados específicamente en texto de IA. En teoría, esto significa que deberían ser capaces de identificar texto de IA cuando se presenta con una muestra. Sin embargo, esto no siempre es el caso. Es mejor analizar el texto tú mismo; el texto de IA se está volviendo más realista, pero aún presenta muchas señales que lo delatan.
Fuente y créditos: lifehacker.com
Cats: Tech