Declaraciones de News Corp sobre Perplexity
Perplexity no respondió a las solicitudes de comentarios. En una declaración enviada por correo electrónico a WIRED, el director ejecutivo de News Corp, Robert Thomson, comparó desfavorablemente a Perplexity con OpenAI. “Aplaudimos a empresas con principios como OpenAI, que entiende que la integridad y la creatividad son esenciales si queremos realizar el potencial de la Inteligencia Artificial”, dice la declaración. “Perplexity no es la única empresa de IA que abusa de la propiedad intelectual y no será la única empresa de IA que perseguiremos con vigor y rigor. Hemos dejado claro que preferimos conquistar que demandar, pero, por el bien de nuestros periodistas, nuestros escritores y nuestra empresa, debemos desafiar la kleptocracia del contenido.”
Acusaciones contra OpenAI
OpenAI también enfrenta acusaciones de dilución de marca. En el caso New York Times contra OpenAI, el Times alegó que ChatGPT y Bing Chat atribuirían citas ficticias al Times, y acusa a OpenAI y Microsoft de dañar su reputación a través de la dilución de marca. En un ejemplo citado en la demanda, el Times alegó que Bing Chat afirmó que el Times llamó al vino tinto (con moderación) un alimento “saludable para el corazón”, cuando en realidad no lo hizo; el Times argumenta que su informe real ha desmentido las afirmaciones sobre la salubridad del consumo moderado de alcohol.
Implicaciones legales para las empresas de IA
“Copiar artículos de noticias para operar productos de IA generativa sustitutiva y comercial es ilegal, como dejamos claro en nuestras cartas a Perplexity y nuestro litigio contra Microsoft y OpenAI”, dice Charlie Stadtlander, director de comunicaciones externas de NYT. “Aplaudimos esta demanda de Dow Jones y el New York Post, que es un paso importante para asegurar que el contenido de los editores esté protegido de este tipo de apropiación.”
Dificultades para las empresas de IA
Si los editores prevalecen al argumentar que las alucinaciones pueden violar la ley de marcas, las empresas de IA podrían enfrentar “inmensas dificultades”, según Matthew Sag, profesor de derecho e inteligencia artificial en la Universidad de Emory. “Es absolutamente imposible garantizar que un modelo de lenguaje no alucinará”, dice Sag. Según su opinión, la forma en que operan los modelos de lenguaje, prediciendo palabras que suenan correctas en respuesta a los avisos, es siempre un tipo de alucinación; a veces simplemente suena más plausible que otras. “Solo lo llamamos alucinación si no coincide con nuestra realidad, pero el proceso es exactamente el mismo, ya sea que nos guste o no el resultado.”
Fuente y créditos: www.wired.com
Cats: Business