Los Multitudes en los Actos de Kamala Harris No Son Generadas por IA. Aquí Te Explicamos Cómo Distinguirlo.

Kamala Harris' Rally Crowds Aren't AI-Generated. Here's How You Can Tell

La Credibilidad de las Fuentes Directas

Suficiente decir que esta montaña de evidencia de fuentes directas pesa más que imágenes manipuladas de comentaristas conservadores como Chuck Callesto y Dinesh D’Souza, quienes han sido sorprendidos divulgando desinformación electoral en el pasado. En lo que respecta a acusaciones de falsedades generadas por IA, cuantas más fuentes de información dispares tengas, mejor. Mientras que una única fuente puede generar fácilmente una imagen plausible de un evento, múltiples fuentes independientes que muestren el mismo evento desde diferentes ángulos son mucho menos propensas a estar involucradas en la misma falsedad. Las fotos que coinciden con evidencia en video son aún mejores, especialmente porque crear videos convincentes a largo plazo de humanos o escenas complejas sigue siendo un desafío para muchas herramientas de IA.

Importancia de la Fuente Original

También es importante rastrear la fuente original de cualquier imagen generada por IA que estés examinando. Es increíblemente fácil para un usuario de redes sociales crear una imagen generada por IA, afirmar que proviene de un informe de noticias o de grabaciones en vivo de un evento, y luego usar fallos evidentes en esa imagen falsa como “evidencia” de que el evento en sí fue simulado. Los enlaces a imágenes originales desde el propio sitio web de una fuente original o cuenta verificada son mucho más fiables que capturas de pantalla que podrían haber tenido su origen en cualquier lugar (y/o haber sido modificadas por cualquiera).

Señales Reveladoras

Mientras que rastrear fuentes originales y/o corroborantes es útil para un evento noticioso importante como un mitin presidencial, confirmar la autenticidad de imágenes y videos de fuente única puede ser más complicado. Herramientas como el Detector de Imágenes AI de Winston o IsItAI.com afirman utilizar modelos de aprendizaje automático para determinar si una imagen es o no generada por IA. Pero, aunque las técnicas de detección continúan evolucionando, estos tipos de herramientas generalmente se basan en teorías no demostradas que no han demostrado ser fiables en estudios amplios, haciendo que la posibilidad de falsos positivos/negativos sea un riesgo real.

En LinkedIn, el profesor de UC Berkeley Hany Farid citó dos modelos de GetReal Labs como que mostraban “sin evidencia de generación por IA” en las fotos del mitin de Harris publicadas por Trump. Farid continuó citando partes específicas de la imagen que apuntan a su autenticidad. “El texto en los carteles y el avión no muestran ninguna de las señales habituales de la IA generativa”, escribe Farid. “Si bien la falta de evidencia de manipulación no es evidencia de que la imagen sea real. No encontramos evidencia de que esta imagen sea generada por IA o alterada digitalmente.”

Y incluso cuando partes de una foto parecen ser signos sin sentido de manipulación por IA (como manos deformadas en algunos modelos de imágenes de IA), considera que puede haber una explicación simple para algunas ilusiones ópticas aparentes. La BBC señala que la falta de un reflejo de la multitud en el avión en algunas fotos del mitin de Harris podría ser causada por una gran área vacía de asfalto entre el avión y la multitud, como se muestra en ángulos reversos de la escena. Simplemente rodear cosas extrañas en una foto con un marcador rojo no es necesariamente una prueba sólida de manipulación por IA por sí misma.

Fuente y créditos: www.wired.com

Cats: Business

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Mi resumen de noticias

WhatsApp