Hoy

    Google, Microsoft y Perplexity Están Promoviendo el Racismo Científico en los Resultados de Búsqueda

    Google, Microsoft, and Perplexity Are Promoting Scientific Racism in Search Results

    La generación de datos erróneos en las pruebas de CI nacionales

    Google señaló que uno de los problemas que enfrenta al generar sus Resúmenes de IA es la ausencia de información de alta calidad en la web para ciertas consultas específicas. No hay duda de que el trabajo de Lynn no se considera de alta calidad. Según Sear, “la ciencia detrás de la base de datos de ‘CI nacional’ de Lynn es de tan mala calidad que es difícil creer que la base de datos sea algo más que fraudulenta”. Además, “Lynn nunca ha descrito su metodología para seleccionar muestras en la base de datos; muchos países tienen CI estimados a partir de muestras absurdamente pequeñas y no representativas”.

    Sear menciona que la estimación del CI de Angola se basa en información de solo 19 personas, y que el de Eritrea está basado en muestras de niños que viven en orfanatos. Rutherford agrega que “el problema es que los datos que utilizó Lynn para generar este conjunto de datos son simplemente basura, y es basura en múltiples dimensiones”, señalando que la cifra de Somalia en el conjunto de datos de Lynn se basa en una muestra de refugiados de entre ocho y 18 años que fueron evaluados en un campamento de refugiados en Kenia.

    Críticas a la metodología de Lynn

    Rutherford también destaca que el puntaje de Botsuana se basa en una única muestra de 104 estudiantes de secundaria de habla tswana de entre siete y 20 años, quienes fueron evaluados en inglés. Los críticos del uso de pruebas nacionales de CI para promover la idea de la superioridad racial señalan no solo que la calidad de las muestras recolectadas es débil, sino que las pruebas en sí suelen estar diseñadas para audiencias occidentales, lo que las hace sesgadas antes de ser administradas.

    Sears añadió que “hay evidencia de que Lynn sesgó sistemáticamente la base de datos al incluir preferentemente muestras con CI bajos, excluyendo aquellas con CI más altos para los países africanos”, una conclusión respaldada por un estudio preliminar de 2020.

    Impacto y uso de los datos erróneos

    Lynn ha publicado varias versiones de su conjunto de datos sobre CI nacional a lo largo de las décadas, siendo la más reciente, titulada “La inteligencia de las naciones”, publicada en 2019. A lo largo de los años, el trabajo defectuoso de Lynn ha sido utilizado por grupos de extrema derecha y racistas como evidencia para respaldar afirmaciones de superioridad blanca. Esto ha incluido la creación de un mapa codificado por colores que muestra a los países de África subsahariana con supuestos CI bajos en rojo, en comparación con las naciones occidentales, que están coloreadas de azul.

    Rutherford comenta que “esta es una visualización de datos que se ve por todo Twitter, en todas las redes sociales, y si pasas mucho tiempo en lugares racistas en la web, solo ves esto como un argumento de racistas que dicen ‘Mira los datos. Mira el mapa’”. Sin embargo, Rutherford cree que la culpa no recae solo en los sistemas de IA, sino en una comunidad científica que ha citado sin crítica el trabajo de Lynn durante años.

    “En realidad, no es sorprendente [que los sistemas de IA lo citen] porque el trabajo de Lynn sobre el CI ha sido aceptado bastante incondicionalmente en un gran sector de la academia, y si miras la cantidad de veces que sus bases de datos de CI nacional han sido citadas en trabajos académicos, son cientos”, dijo Rutherford. “Así que la culpa no es de la IA, la culpa es de la academia.”

    Fuente y créditos: www.wired.com

    Cats: Business

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


    Mi resumen de noticias

    WhatsApp