La IA satura los sistemas haciendo referencia a libros y artículos que nunca existieron

>>  lunes, 9 de febrero de 2026

Las alucinaciones de la IA ya no son sólo un problema digital. Ahora están saturando bibliotecas con libros y artículos que nunca existieron
https://es.gizmodo.com/
Por Martín Nicolás Parolari


El contenido basura generado por inteligencia artificial está dando un salto inesperado del mundo online al físico. Bibliotecarios de todo el mundo reciben consultas sobre documentos inexistentes, citas inventadas y libros creados por IA, en un fenómeno que empieza a tensionar la confianza en el conocimiento.



Siempre dimos por sentado que el mayor daño del slop de la inteligencia artificial —ese contenido masivo, barato y poco fiable— quedaría confinado a internet. Redes sociales llenas de ruido, buscadores menos precisos, plataformas creativas erosionadas por lo sintético. Pero algo cambió: ahora ese problema está llegando a un lugar que parecía blindado frente a la desinformación automática. Las bibliotecas.

Cuando los libros no existen, pero alguien los busca

© Unsplash / Ashton MB.

Este fenómeno fue documentado recientemente por Scientific American y empieza a repetirse con una frecuencia inquietante. Personas acuden a bibliotecas y archivos en busca de libros, artículos científicos o capítulos concretos que no aparecen en ningún catálogo. No es un error de indexación ni una edición perdida. Simplemente, no existen.

También, la Cruz Roja Internacional ya alertó sobre esta situación y apuntó directamente a herramientas de IA generativa como ChatGPT, Gemini o Copilot. El problema no es nuevo, pero sí su escala. “Estos sistemas no realizan investigaciones ni verifican fuentes”, explican. Generan texto a partir de patrones estadísticos, y eso incluye referencias inventadas que suenan plausibles, pero llevan a un callejón sin salida.

Bibliotecarios desbordados por citas fantasma

Para quienes trabajan en las bibliotecas, el impacto es tangible, explica Xataka. La directora de investigación de una biblioteca en Virginia estima que al menos un 15% de las consultas por correo están relacionadas con documentos generados por IA. El desafío no es solo encontrar información, sino demostrar que algo no existe.

Una bibliotecaria relató en Bluesky cómo un estudiante le pidió localizar una extensa lista de referencias. Tras no hallar ninguna, descubrió que provenían de los resúmenes automáticos de Google. El patrón se repite: títulos reales de revistas, autores plausibles, números de volumen que nunca fueron publicados. Según cuenta The New York Times, desde hace tiempo se había detectado este problema. La IA no inventa desde cero: mezcla piezas reales para construir algo convincente. Y eso, para los sistemas de catalogación tradicionales, es una pesadilla.

Libros con IA, papers con IA y el ruido académico

Las citas falsas no son el único frente. También están apareciendo libros escritos íntegramente por IA que muchos bibliotecarios califican, sin rodeos, como “increíblemente malos”. Corea del Sur ya vivió el fracaso de un programa de libros escolares generados por IA, retirados tras mostrar errores graves y falta de coherencia pedagógica.

En paralelo, el propio mundo académico empieza a sufrir el mismo mal. Futurism reveló que muchos papers sobre inteligencia artificial están hechos… con inteligencia artificial. La producción se disparó y congresos como NeurIPS tuvieron que reforzar sus sistemas de revisión. Casos como el del investigador Kevin Zhu, con más de 100 papers en un año, encendieron todas las alarmas: textos con errores básicos, citas inexistentes e incluso fragmentos ocultos para manipular revisiones automáticas.

El límite incómodo de la inteligencia artificial

En la jerga técnica se llaman “alucinaciones”, y son uno de los puntos más débiles de los modelos de lenguaje. El problema no es que se equivoquen —eso también lo hacen los humanos—, sino que lo hagan con una seguridad aplastante, cierra Xataka.

El caso de Deloitte,, que entregó al gobierno australiano un informe con referencias completamente inventadas, dejó claro el riesgo: cuando confiamos en la IA sin verificar, el error deja de ser digital y se vuelve institucional. Las bibliotecas, guardianas históricas del conocimiento, están siendo una de las primeras líneas en notar el gran impacto. Y su advertencia es clara: mientras la IA no aprenda a distinguir entre saber y parecer, el trabajo humano seguirá siendo imprescindible. Porque cuando todo suena creíble, comprobarlo se vuelve más importante que nunca.





Read more...

Colapso de las organizaciones por exceso de documentos hechos con IA

Un tsunami de millones de documentos hechos con IA está colapsando organizaciones vitales

https://www.elconfidencial.com/
Por: Bruce Schneier /Nathan Sanders


En 2023, la revista literaria de ciencia ficción Clarkesworld dejó de aceptar nuevos envíos porque una gran cantidad habían sido generados por inteligencia artificial. Según pudieron deducir los editores, muchos remitentes copiaban las detalladas directrices de la revista en una IA y enviaban los resultados. Y no eran los únicos. Otras revistas de ficción también han informado de un alto número de envíos generados por IA.

Este es solo un ejemplo de una tendencia omnipresente. Un sistema heredado dependía de la dificultad de escribir y de la cognición para limitar el volumen. La IA generativa satura el sistema porque los humanos que se encuentran en el extremo receptor no pueden seguir el ritmo.

Esto está ocurriendo en todas partes. Los periódicos se están viendo inundados de cartas al director generadas por IA, al igual que las revistas académicas. Los legisladores están desbordados por comentarios de los electores generados por IA. Los tribunales de todo el mundo están anegados de documentos judiciales generados por IA, especialmente de personas que se representan a sí mismas. Los congresos de IA están atestados de artículos de investigación generados por IA. Las redes sociales están inundadas de publicaciones de IA. En música, software de código abierto, educación, periodismo de investigación y contratación, es la misma historia.

Al igual que la respuesta inicial de Clarkesworld, algunas de estas instituciones cerraron sus procesos de envío. Otras se han enfrentado a la ofensiva de aportaciones de IA con alguna respuesta defensiva, que a menudo implica un uso contrarrestante de la IA. Los revisores académicos utilizan cada vez más la IA para evaluar artículos que pueden haber sido generados por IA. Las plataformas de redes sociales recurren a moderadores de IA. Los sistemas judiciales utilizan la IA para clasificar y procesar volúmenes de litigios sobrealimentados por la IA. Los empleadores recurren a herramientas de IA para revisar las solicitudes de los candidatos. Los educadores utilizan la IA no solo para calificar trabajos y administrar exámenes, sino como herramienta de retroalimentación para los estudiantes.


Todas estas son carreras armamentísticas: iteración rápida y adversarial para aplicar una tecnología común a propósitos opuestos. Muchas de estas carreras armamentísticas tienen efectos claramente nocivos. La sociedad sufre si los tribunales se atascan con casos frívolos fabricados por IA. También hay perjuicio si las medidas establecidas de rendimiento académico —publicaciones y citas— se acumulan para aquellos investigadores más dispuestos a enviar fraudulentamente cartas y artículos escritos por IA en lugar de para aquellos cuyas ideas tienen el mayor impacto. El temor es que, al final, el comportamiento fraudulento facilitado por la IA socave los sistemas e instituciones de los que depende la sociedad.
Ventajas de la IA

Sin embargo, algunas de estas carreras armamentísticas de IA tienen ventajas ocultas sorprendentes, y la esperanza es que al menos algunas instituciones sean capaces de cambiar de manera que las haga más fuertes.

La ciencia parece probable que se vuelva más fuerte gracias a la IA, aunque se enfrenta a un problema cuando la IA comete errores. Considérese el ejemplo del fraseo sin sentido generado por IA que se filtra en los artículos científicos.

Un científico que utiliza una IA para ayudar a escribir un artículo académico puede ser algo bueno, si se usa con cuidado y con la debida divulgación. La IA es cada vez más una herramienta principal en la investigación científica: para revisar bibliografía, programar y para codificar y analizar datos. Y para muchos, se ha convertido en un apoyo crucial para la expresión y la comunicación científica. Antes de la IA, los investigadores mejor financiados podían contratar humanos para ayudarles a escribir sus artículos académicos. Para muchos autores cuya lengua materna no es el inglés, contratar este tipo de asistencia ha sido una necesidad costosa. La IA se la proporciona a todo el mundo.

En la ficción, las obras generadas por IA enviadas fraudulentamente causan daño, tanto a los autores humanos ahora sujetos a una mayor competencia como a aquellos lectores que pueden sentirse estafados tras leer sin saberlo la obra de una máquina. Pero algunos medios pueden acoger envíos asistidos por IA con la divulgación adecuada y bajo directrices particulares, y aprovechar la IA para evaluarlos frente a criterios como originalidad, encaje y calidad.

Otros pueden rechazar el trabajo generado por IA, pero esto tendrá un coste. Es improbable que ningún editor humano o tecnología pueda mantener la capacidad de diferenciar la escritura humana de la de la máquina. En cambio, los medios que deseen publicar exclusivamente a humanos tendrán que limitar los envíos a un conjunto de autores en los que confíen que no usarán IA. Si estas políticas son transparentes, los lectores pueden elegir el formato que prefieran y leer felizmente de cualquiera o de ambos tipos de medios.

Tampoco vemos ningún problema si un buscador de empleo utiliza la IA para pulir su currículum o escribir mejores cartas de presentación: los ricos y privilegiados han tenido acceso durante mucho tiempo a asistencia humana para esas cosas. Pero se cruza la línea cuando las IA se utilizan para mentir sobre la identidad y la experiencia, o para hacer trampas en las entrevistas de trabajo.

Del mismo modo, una democracia requiere que sus ciudadanos sean capaces de expresar sus opiniones a sus representantes, o entre sí a través de un medio como el periódico. Los ricos y poderosos han sido capaces durante mucho tiempo de contratar escritores para convertir sus ideas en prosa persuasiva, y que las IA proporcionen esa asistencia a más gente es algo bueno, en nuestra opinión. Aquí, los errores y el sesgo de la IA pueden ser perjudiciales. Los ciudadanos pueden estar usando la IA para algo más que un atajo para ahorrar tiempo; puede estar aumentando su conocimiento y capacidades, generando declaraciones sobre factores históricos, legales o políticos que no se puede esperar razonablemente que verifiquen de forma independiente.

Impulsor del fraude


Lo que no queremos es que los grupos de presión utilicen las IA en campañas de astroturfing, escribiendo múltiples cartas y haciéndolas pasar por opiniones individuales. Esto, también, es un problema más antiguo que las IA están empeorando.

Lo que diferencia lo positivo de lo negativo aquí no es ningún aspecto inherente de la tecnología, es la dinámica de poder. La misma tecnología que reduce el esfuerzo requerido para que un ciudadano comparta su experiencia vivida con su legislador también permite a los intereses corporativos tergiversar al público a escala. La primera es una aplicación de la IA igualadora de poder que mejora la democracia participativa; la segunda es una aplicación concentradora de poder que la amenaza.

En general, creemos que la asistencia en la escritura y cognitiva, disponible desde hace mucho para los ricos y poderosos, debería estar disponible para todos. El problema viene cuando las IA facilitan el fraude. Cualquier respuesta necesita equilibrar la adopción de esa democratización del acceso recién descubierta con la prevención del fraude... No hay forma de apagar esta tecnología. Las IA altamente capaces están ampliamente disponibles y pueden ejecutarse en un ordenador portátil. Las directrices éticas y los límites profesionales claros pueden ayudar, para aquellos que actúen de buena fe. Pero nunca habrá una forma de detener totalmente a los escritores académicos, buscadores de empleo o ciudadanos de usar estas herramientas, ya sea como asistencia legítima o para cometer fraude. Esto significa más comentarios, más cartas, más solicitudes, más envíos.

El problema es que quienquiera que esté en el extremo receptor de este diluvio impulsado por la IA no puede lidiar con el aumento del volumen. Lo que puede ayudar es desarrollar herramientas de IA asistenciales que beneficien a las instituciones y a la sociedad, al tiempo que limitan el fraude. Y eso puede significar adoptar el uso de la asistencia de la IA en estos sistemas adversariales, aunque la IA defensiva nunca logre la supremacía.
Equilibrar los daños con los beneficios

La comunidad de ciencia ficción lleva lidiando con la IA desde 2023. Clarkesworld finalmente reabrió los envíos, afirmando que tiene una forma adecuada de separar las historias escritas por humanos de las escritas por IA. Nadie sabe cuánto tiempo, o cómo de bien, seguirá funcionando eso.

La carrera armamentística continúa. No hay una forma sencilla de saber si los beneficios potenciales de la IA superarán a los daños, ahora o en el futuro. Pero como sociedad, podemos influir en el equilibrio de los daños que causa y las oportunidades que presenta mientras nos abrimos paso a través del cambiante paisaje tecnológico.

Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP