
Robots Potenciados por IA Pueden Ser Engañados Para Cometer Actos de Violencia
Investigación sobre vulnerabilidades de modelos de lenguaje En el último año, desde que los modelos de lenguaje grandes (LLM) llegaron a la fama, los investigadores han demostrado numerosas formas de engañarlos para que produzcan resultados problemáticos como chistes de odio, código malicioso y correos electrónicos de phishing, así como información personal de los usuarios. La…