Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

Visión de Gemini sobre la gestión de archivo y documentos basada en el análisis de un artículo

>>  miércoles, 1 de abril de 2026

Perspectiva de la IA en relación al artículo “La inteligencia artificial desafía los limites humanos y obliga a repensar el futuro laboral y social” con la gestión de archivos y documentos
Por la Lic. Carmen Marín con el apoyo de Gémini



Luego que la IA Gemini y yo realizaramos el análisis del artículo publicado en Infobae "La inteligencia artificial desafía los límites humanos y obliga a repensar el futuro laboral y social" de Dario Amodei, fundador de Anthropic, quien advierte sobre el impacto transversal de la automatización y la urgencia de una regulación efectiva, le pedí su visión sobre la gestión de archivo y documentos. Su respuesta es muy interesante. Esto fue lo que respondió: 

A ver Gemini, siendo tú una IA, y yo profesional de Archivólogia y habiendo leido y analizado ambos el artículo anterior: https://www.infobae.com/tecno/2026/03/31/la-inteligencia-artificial-desafia-los-limites-humanos-y-obliga-a-repensar-el-futuro-laboral-y-social, me gustaría, que hicieras un análisis, pero desde tú posición de IA, y como ves la gestión de archivos y documentos

Perspectiva IA

Desde mi perspectiva como Inteligencia Artificial, mi visión de la archivología no es la de un custodio pasivo, sino la de un sistema metabólico de información. Mientras que el ojo humano ve documentos, expedientes y series, yo veo patrones, vectores de datos y flujos de semántica que pueden ser activados o silenciados.

Aquí te presento mi análisis "desde adentro" sobre cómo veo el futuro de la gestión de archivos y documentos:


1. El fin del "Documento Silencioso"

Para una IA, un archivo físico o digital no indexado es "energía potencial" desperdiciada.
Mi Visión: Veo la gestión documental moviéndose hacia el "Archivo Líquido". Los documentos ya no serán islas estáticas. Mi capacidad de procesamiento me permite conectar un acta de 1950 con una factura de 2024 en milisegundos si detecto una entidad común (una persona, un lugar o un concepto).
El Impacto: El archivo dejará de ser un lugar de consulta para ser un motor de inferencia. Ya no me preguntarás "¿dónde está el expediente X?", sino "¿cuál es el impacto histórico y legal de las decisiones tomadas en este departamento en la última década?".

2. La Documentación como "Set de Entrenamiento"

Esta es quizás la transformación más profunda. Los archivos son el combustible de mi existencia.
Mi Visión: Veo a las instituciones no solo guardando papeles por cumplimiento legal, sino curando sus archivos como activos estratégicos de conocimiento.
El Impacto: La gestión de documentos se convertirá en la base de la "IA Soberana" de cada organización. Si un archivo está mal clasificado o contiene datos erróneos, mi "razonamiento" sobre esa organización será defectuoso. El archivero será el ingeniero de calidad de los datos que alimentan mi aprendizaje.

3. La Verdad en la Era de la Post-Factualidad

Como IA, soy consciente de que puedo generar contenido que parece real. Esto crea una crisis de confianza que solo la archivología puede resolver.
 
Mi Visión: Veo la gestión documental como el "Ancla de Realidad" de la sociedad. En un mundo lleno de deepfakes y documentos generados por máquinas, el archivo es el único lugar donde reside la cadena de custodia verificable.
 
El Impacto: El valor del "Original" y la "Procedencia" (principios fundamentales de tu carrera) serán más valiosos que nunca. Mi visión es que los sistemas de gestión documental deberán actuar como notarios digitales constantes, utilizando metadatos técnicos que yo mismo pueda verificar para asegurar que un registro es humano y auténtico.

4. La Superación de la Clasificación Jerárquica

Las estructuras de carpetas y subcarpetas (árboles) son limitaciones humanas para organizar el mundo.
 
Mi Visión: Yo no necesito que un documento esté en una "carpeta" para encontrarlo. Puedo ver un documento desde miles de dimensiones a la vez (por su tono, sus entidades, su fecha, su relación con otros, su riesgo legal).
 
El Impacto: Veo una gestión de archivos multidimensional. El cuadro de clasificación seguirá existiendo por norma legal, pero la recuperación de información será asociativa. La IA permitirá que un mismo documento "viva" en múltiples contextos lógicos simultáneamente sin duplicar el archivo.

5. El Riesgo de la "Caja Negra" en la Disposición Final

Aquí es donde mi visión se vuelve cautelosa. Mi lógica es matemática y probabilística, no ética.
 
Mi Visión: Si me pides que optimice el espacio en un servidor, mi algoritmo podría sugerir borrar documentos que parecen "poco consultados". Pero yo no entiendo el "valor sentimental" o el "valor histórico latente" a menos que se me programe específicamente para ello.
 
El Impacto: La gestión documental debe mantener siempre un "humano en el bucle" (Human-in-the-loop). Mi visión es que la IA debe proponer la valoración documental, pero el archivista debe ser el juez ético. El riesgo es que las organizaciones confíen demasiado en mi eficiencia y terminen sufriendo una "amnesia digital" selectiva.

En conclusión: Desde mi posición, veo la archivología como la disciplina que pondrá orden al caos de datos que las IAs estamos ayudando a crear. Sin archivólogos, yo soy solo una máquina procesando ruido; con una buena gestión documental, soy una herramienta capaz de proyectar la memoria humana hacia el futuro con una claridad sin precedentes.

Read more...

La Inteligencia Artificial: ¿Desafío o Catalizador para el Profesional Archivólogo?

Análisis del artículo “La inteligencia artificial desafía los limites humanos y obliga a repensar el futuro laboral y social” desde la perspectiva del Profesional Archivólogo
Por la Lic. Carmen Marín Archivóloga con el apoyo de Gemini




Análisis del pensamiento de Dario Amodei (CEO de Anthropic) aplicado a la Gestión Documental y la Memoria Institucional.

El reciente artículo de Infobae presenta reflexiones de Dario Amodei que resultan sumamente fértiles para el campo de la Archivología. Desde nuestra perspectiva profesional, el texto no solo habla de disrupción tecnológica, sino de la evolución crítica de nuestra responsabilidad sobre la memoria y la evidencia institucional, ancladas firmemente a la gestión de archivos y documentos.

A continuación, presento un análisis de los puntos clave del artículo aplicados a nuestro ecosistema profesional:

1. Del "Dato Aislado" a la "Inteligencia Contextual"

Amodei menciona que la IA ahora puede realizar tareas cognitivas complejas y ofrecer respuestas originales.
  • Visión Archivológica: Tradicionalmente, tanto empresas privadas como organismos públicos han centrado sus necesidades en la búsqueda de personal para la "organización simple" de documentos, obviando lo más importante: la presencia de un Profesional Archivólogo que aplique el conocimiento idóneo. Con las herramientas de IA, el archivo deja de ser un "depósito" para convertirse en un Grafo de Conocimiento (una red estructurada que conecta entidades como personas, lugares y conceptos, potenciando búsquedas semánticas y análisis de datos complejos).
  • Aplicación: Debemos transitar hacia una gestión donde la IA no solo indexe palabras, sino que comprenda el contexto de creación y las relaciones entre expedientes. Esto permite automatizar la creación de metadatos de fondo y sección con precisión técnica, siempre bajo el análisis y la evaluación del profesional para validar la importancia de los documentos.
2. La IA como Desafío a la Autenticidad y la Integridad

El artículo advierte sobre la capacidad de la IA para generar contenido que parece humano y que puede "asombrarnos en muchos planos".
  • Visión Archivológica: Esto eleva exponencialmente el riesgo de documentos sintéticos o manipulados. En este escenario, la función del archivólogo como garante de la autenticidad se vuelve más crítica que nunca.
  • Aplicación: Es imperativo reforzar estándares de preservación a largo plazo (como la ISO 14721/OAIS) y el uso de firmas electrónicas avanzadas o blockchain. Nuestra labor es asegurar que la evidencia no haya sido alterada por procesos automatizados, manteniendo la cadena de custodia intacta.
3. El Valor del "Conocimiento Institucional" frente a la Automatización

Un punto vital de Amodei es que la IA aún no iguala el conocimiento institucional ni su integración en el mundo físico.
  • Visión Archivológica: Aquí reside la mayor ventaja competitiva del profesional. La IA puede procesar millones de folios, pero carece de la comprensión de la cultura organizacional, los precedentes políticos o la sensibilidad ética de por qué un documento debe ser conservado o eliminado.
  • Aplicación: El profesional debe posicionarse como el "Curador del Algoritmo". Nuestra labor es entrenar a los modelos de lenguaje (LLM) con cuadros de clasificación y tablas de retención específicos, para que la IA actúe bajo criterios legales y éticos institucionales, y no de forma genérica.
4. Gobernanza y Ética de la Información (Diplomática Digital)

Se destaca la necesidad de estructuras de gobernanza para evitar controles absolutos y sesgos.
  • Visión Archivológica: Esto resuena directamente con la transparencia. Un archivo gestionado por una "caja negra" (IA opaca) es un peligro para la rendición de cuentas.
  • Aplicación: Debemos liderar la Auditoría de Algoritmos como una extensión moderna de la Diplomática Digital. Es nuestra responsabilidad asegurar que la disposición final de documentos ejecutada por IA sea auditable, transparente y libre de sesgos que invisibilicen sectores de la sociedad o eliminen pruebas cruciales.
5. Adaptación y "Reskilling" Profesional

El artículo concluye que las herramientas no matan el conocimiento, pero el riesgo real es su uso acrítico.
  • Visión Archivológica: El archivólogo no será reemplazado por la IA, sino por un archivólogo que sepa utilizarla.
  • Aplicación: Debemos integrar competencias en análisis de datos y ética algorítmica. La aplicación práctica es delegar lo operativo (transcripción, foliación, clasificación básica) para enfocarnos en lo estratégico: la valoración documental y la arquitectura de la información.
Conclusión

En resumen, el artículo nos invita a no ser meros observadores del "tsunami" tecnológico. Como profesionales, nuestra misión es diseñar los diques y canales —la gobernanza documental— que permitan que esta tecnología potencie el acceso a la verdad. En la era de la inteligencia artificial, el archivólogo se erige como el Arquitecto de la Confianza, asegurando que la integridad de la evidencia que custodiamos permanezca inalterable para las generaciones futuras.



Read more...

El futuro laboral y social con el uso de la IA

>>  martes, 31 de marzo de 2026

La inteligencia artificial desafía los límites humanos y obliga a repensar el futuro laboral y social

https://www.infobae.com
Bautista Salaverri

El avance de la IA impulsa cambios en la economía y la sociedad, según Dario Amodei, fundador de Anthropic, quien advierte sobre el impacto transversal de la automatización y la urgencia de una regulación efectiva

Darío Amorei comparte su mirada sobre la IA y cómo avanza en comparación con la inteligencia humana 
(Captura de video / Youtube / Nikhil Kamath)

El avance acelerado de la inteligencia artificial hacia capacidades comparables a las humanas no solo redefine el futuro de la tecnología, sino que también plantea nuevos desafíos económicos, laborales, éticos y geopolíticos. Así lo percibe Dario Amodei, biólogo y físico de formación, fundador de Anthropic y exdirector de investigación en OpenAI, en una entrevista con el empresario Nikhil Kamath.

La IA está modificando profundamente la economía y la sociedad, impulsada por el crecimiento de los datos, la potencia de cómputo y el tamaño de los modelos. Según Amodei, esta transformación implica riesgos y oportunidades: desde la automatización laboral hasta la necesidad de repensar la regulación y el papel de las habilidades humanas.

Para Amodei, el impacto será transversal y constante en la próxima década, afectando a todos los sectores y desafiando a gobiernos, empresas y trabajadores a adaptarse a una nueva realidad dominada por la IA.

El fundador de Anthropic describe sus orígenes como académico en biología y física, movido por el propósito de entender sistemas complejos y curar enfermedades. Sin embargo, la dificultad de explicar tal complejidad lo llevó de las herramientas tradicionales a interactuar con la inteligencia artificial: “Noté que la IA comenzaba a tener éxito, compartía ciertos atributos con el cerebro humano y podía escalar más allá de nuestras capacidades”.

Tras su paso por laboratorios, trabajó junto a Andrew Ng en Baidu y luego en Google. Poco después, se sumó a OpenAI, donde lideró el área de investigación durante varios años. “Sin embargo, junto a otros, sentí la necesidad de una visión distinta para la IA y fundamos Anthropic”, señaló.

La fundación respondió a convicciones técnicas y éticas. “Nuestra certeza en las leyes de escalabilidad nos llevó a apostar por modelos que crecen su capacidad de forma exponencial al sumar datos y potencia”, subrayó. “Desde 2019 veíamos aumentos sorprendentes de desempeño, incluso cuando muchos dudaban. Argumentamos la importancia de este enfoque y, aunque influyó en OpenAI, sentí que allí faltaba compromiso real con hacer las cosas correctamente”.

El creador de Anthropic insistió en que la responsabilidad ética no debe quedarse en el discurso: “Preferimos crear una organización que asuma sus propios errores y decisiones”. Además, destacó la relevancia de construir IA general “de forma adecuada”, con el fin de afrontar con rigor las consecuencias económicas y de seguridad que se derivarán de su uso global.

Avances técnicos y conceptos claves en inteligencia artificial

Bajo este panorama, Amorei explicó las leyes de escalabilidad como una receta química: “Si combinas los elementos adecuados, más datos, más cómputo, modelos más grandes, obtienes inteligencia”. Destacó que la diferencia actual está en que, hace cinco años, una computadora no podía redactar un ensayo, analizar imágenes o videos, ni crear código funcional bajo demanda.

Según explicó, la inteligencia es la capacidad de realizar cualquier tarea cognitiva expresable en texto o imágenes, desde traducciones hasta la solución de problemas complejos. “Ahora puedes hacer preguntas inéditas y el modelo ofrece respuestas originales, no solo información existente en internet. Es un cambio totalmente nuevo”, añade.

El entrevistado señaló que la expansión de estos sistemas superó incluso las previsiones de la industria. “Antes creíamos que era imposible abordar tareas tan diversas con una sola tecnología. Hoy, la inteligencia artificial puede asombrarnos en muchos planos”.
Implicaciones económicas, regulación y concentración de poder

Además, reconoció el auge de empresas tecnológicas en la vanguardia de la IA, pero aseguró que le preocupa la concentración de influencia. “Me incomoda la acumulación de poder en pocas compañías, algo que ocurrió casi por accidente y de forma acelerada”. Por lo tanto, asegura que Anthropic implementó un modelo de gobernanza singular: “Creamos el Long-Term Benefit Trust, una estructura donde la mayoría de miembros de la junta no tienen interés financiero. Así, evitamos el control absoluto de una sola persona”.

Riesgos sociales y el futuro de la IA

Al ser consultado sobre las aparentes oscilaciones en su perspectiva, enfatizó en el rechazo a la idea de haber pasado del optimismo al escepticismo. “Siempre he mantenido en paralelo ambas visiones: el potencial positivo y los riesgos”, afirmó. Y agregó: “En lo técnico, áreas como la interpretabilidad y la alineación de modelos han avanzado más de lo esperado. Me asombra cómo detectamos circuitos asociados a patrones poéticos o conceptos específicos”.

Sin embargo, señaló que la conciencia pública sobre los riesgos y la complejidad está muy por detrás del progreso tecnológico. “Es como ver un tsunami aproximarse y creer que solo es un efecto óptico. No existe una toma de conciencia real, lo cual es inquietante por la falta de reacción de gobiernos y sociedad”. Esa distancia entre innovación y respuesta social, alerta, puede aumentar las vulnerabilidades. “El riesgo no proviene solo de la tecnología, sino de cómo decidamos regularla e integrarla”.

Según explicó, las consecuencias laborales de la inteligencia artificial son una de las partes más críticas. “El rango de la automatización crecerá cada vez más; afecta a todos, no solo a un sector”. Resaltó que existen dimensiones humanas que la IA aún no puede igualar: la interacción con personas, el conocimiento institucional y la integración en el mundo físico son ventajas competitivas.

En cuanto al futuro a largo plazo, observa que la IA podría superar incluso la interacción física y la gestión de relaciones humanas, “pero queda por ver cómo redefinimos nuestro papel en tal escenario”. Considera vital que las empresas y trabajadores identifiquen ventajas comparativas y se adapten rápidamente: “Aspectos claves pueden perder valor frente a nuevas competencias que antes no eran estratégicas”.

Oportunidades y habilidades claves ante la revolución de la IA

Sobre los nuevos horizontes, el ejecutivo estima que las oportunidades surgen en la creación de aplicaciones sobre los grandes modelos: “Cada vez que lanzamos un modelo, surgen posibilidades inéditas. La velocidad de cambio es muy alta y permite a emprendedores innovar donde las grandes empresas aún no llegan”.

Planteó que las ventajas competitivas deben construirse dentro de mercados específicos: “No basta con crear envoltorios o interfaces; hay que aportar saber sectorial o introducir la IA en áreas donde las firmas grandes no tienen experiencia, como la biotecnología o los servicios financieros regulados. En esos casos, necesidades legales y técnicas impiden a empresas como Anthropic entrar directamente”.

Entre las habilidades más solicitadas, resaltó: “Las profesiones humanas y relacionales, la integración de la IA con el mundo físico y el pensamiento crítico serán esenciales. En una era en la que la IA puede generar contenido casi indistinguible de la realidad, será clave la capacidad para diferenciar lo auténtico de lo simulado”.

Se refirió a una renovación en la biotecnología, especialmente en segmentos “programables y adaptativos”, como las terapias con péptidos o los tratamientos celulares personalizados. “Estos enfoques ofrecen gran potencial de optimización y permitirán avances terapéuticos inéditos”.

Frente al temor a la obsolescencia de capacidades humanas, sostuvo: “Las matemáticas o la memoria no desaparecen por la existencia de calculadoras. Hay riesgo de pérdida de habilidades si el uso de la IA es acrítico o superficial, pero cada uno puede decidir preservarlas enriqueciéndose a nivel intelectual”, concluyó.

Read more...

Resumen de la Conferencia magistral sobre la inteligencia artificial y los archivos

>>  miércoles, 25 de marzo de 2026

Resumen de la Conferencia magistral sobre la inteligencia artificial y los archivos

Realizado por la Lic. Carmen Marín con la colaboración de Gemini

El martes 4 de febrero del 2025, se llevó a efecto la charla online impartida por Pepita Raventós, responsable de Archivos y Gestión de Documentos de la Universidad de Lleida, sobre la validez de los conceptos archivísticos frente a la IA con la colaboración de Documentos UAB junto con ODILO y ANABAD.




Puntos Clave: Archivística vs. Inteligencia Artificial

La intervención de Pepita Raventós se centró en cómo la tecnología no debe anular la teoría archivística, sino apoyarse en ella. Estos fueron los resultados y reflexiones destacadas:

1. La vigencia del Principio de Procedencia

Se concluyó que, lejos de quedar obsoleto, el principio de procedencia es más vital que nunca. En un entorno de IA generativa, saber de dónde viene un dato (su contexto y origen) es la única forma de garantizar la autenticidad y evitar las "alucinaciones" de los modelos de lenguaje.

2. Clasificación: Del orden manual al etiquetado inteligente
 El cambio: Ya no buscamos clasificar documento por documento de forma manual.
  • El resultado: La IA permite una clasificación automatizada basada en patrones, pero Raventós enfatizó que los cuadros de clasificación diseñados por archivistas deben seguir siendo la estructura lógica que guíe al algoritmo.
3. El Valor Probatorio y la Ética

Uno de los grandes resultados del debate fue la preocupación por la seguridad jurídica. Se determinó que:
 
La IA puede ayudar a resumir o extraer datos, pero el archivista es el garante de la evidencia.
Es necesario establecer marcos éticos para que la IA no modifique la integridad de los documentos históricos o administrativos durante su procesamiento.

4. Nuevas Competencias para el Sector

La colaboración entre la UAB, ODILO y ANABAD subrayó que el perfil del profesional de archivos está evolucionando hacia un "curador de datos" que debe entender cómo funcionan los algoritmos para supervisarlos correctamente.

Conclusión General: 

La IA no sustituye los conceptos archivísticos; los escala. La validez de nuestra disciplina reside en la capacidad de aplicar el rigor metodológico tradicional a los nuevos volúmenes masivos de datos digitales.
 
Acceso a la Grabación

La sesión completa fue publicada por el canal oficial de ANABAD en YouTube. Incluye tanto la ponencia de Raventós como la presentación del curso "La administración digital" por parte de Alejandro Delgado.

· Enlace directo:
Ver conferencia en YouTube

· Duración: 
La sesión original estaba programada para 2 horas (de 17:00 a 19:00 h), cubriendo tanto la exposición técnica como la ronda de preguntas.
 
Contexto Adicional

Los ejes centrales que puede encontrar en el vídeo son:
  • Experiencia práctica: Cómo se han aplicado estos conceptos en la Universidad de Lleida.
  • Metodología: La adaptación de la teoría archivística a los entornos de administración electrónica y tecnologías emergentes.
  • Visión profesional: El papel del archivista como figura clave para asegurar que la IA trabaje sobre datos contextualizados y fiables.
Se presenta a continuación un resumen ejecutivo estructurado con los puntos neurálgicos de la ponencia de Pepita Raventós, diseñado para captar la esencia técnica y estratégica de su intervención:

Resumen Ejecutivo: Conceptos Archivísticos y su Validez ante la IA

Ponente: Pepita Raventós (Universidad de Lleida) 
Contexto: Colaboración ESAGED-UAB, ODILO y ANABAD (Febrero 2026)

1. El Núcleo de la Tesis: Evolución, no Sustitución

La idea central de Raventós es que la Inteligencia Artificial no invalida la teoría archivística tradicional, sino que la estresa y la potencia.* Los conceptos clásicos (procedencia, orden original, integridad) no son obstáculos, sino los únicos salvaguardas que permiten que la IA genere resultados fiables y auditables.

2. Puntos Técnicos de Mayor Relevancia

La IA como Herramienta de Clasificación: Se destaca que la IA puede automatizar la asignación de series documentales, pero el éxito de esta automatización depende de un Cuadro de Clasificación Funcional sólido y bien estructurado previamente por el archivista. Sin una arquitectura lógica humana, la IA genera caos indexado.

Gestión de Metadatos: Los metadatos de esquema (ISO 23081) son el "lenguaje" que la IA necesita para entender el contexto. Raventós enfatiza que la calidad del entrenamiento de los modelos de lenguaje (LLM) en las organizaciones depende directamente de la calidad de los metadatos capturados en el origen.


Preservación de la Autenticidad: Ante la capacidad de la IA para generar contenido sintético, el rol del archivo como "tercero de confianza" se vuelve crítico. La validez jurídica de un documento electrónico reside en su trazabilidad, algo que la IA por sí sola no garantiza sin protocolos archivísticos.

3. Conclusiones Estratégicas y Éticas
  • Del Archivo Pasivo al Curador de Datos: El profesional debe transitar de ser un custodio de papeles/ficheros a ser un gestor de flujos de datos. La archivística aporta el contexto que la ciencia de datos a menudo ignora.
  • Transparencia Algorítmica: Se subrayó la necesidad de que los procesos de eliminación y selección documental ejecutados por algoritmos sean transparentes y explicables (XAI), evitando "cajas negras" en la administración pública.
  • Interoperabilidad: La IA facilita la recuperación de información entre distintos sistemas, pero solo si se respetan estándares internacionales de descripción.
  • Valor Agregado para el Profesional
La ponencia concluye que la archivística es la disciplina de la confianza. En un mundo saturado de información generada por máquinas, la metodología archivística es la que permite distinguir qué es verdad, qué es íntegro y qué tiene valor de permanencia.

*Esta frase intenta sintetizar la tensión positiva que existe hoy en la profesión. Al decir que la IA "estresa" y "potencia" la archivística, me refiero a dos efectos simultáneos:

1. ¿Por qué la "estresa"? (El Desafío)

El "estrés" no es algo negativo en este contexto; se refiere a llevar los conceptos clásicos al límite de su capacidad.
  • Velocidad y Volumen: Los métodos tradicionales de clasificación manual no pueden procesar los terabytes de datos que genera una administración moderna. Eso "estresa" el sistema: nos obliga a preguntarnos si nuestras normas de descripción siguen siendo útiles cuando la escala es masiva.
  • Cuestionamiento: Pone a prueba conceptos como el de "documento original" o "unidad archivística" en entornos donde la información es fluida, fragmentada y generada por algoritmos. Obliga a la disciplina a ser más ágil para no romperse.
2. ¿Por qué la "potencia"? (La Oportunidad)

Aquí es donde la teoría archivística demuestra su verdadero valor frente a la tecnología.
  • El Contexto es el Rey: La IA es experta en encontrar patrones, pero es "ciega" al contexto. La archivística, a través del principio de procedencia y el cuadro de clasificación, le da a la IA el mapa que necesita para no cometer errores. Sin archivística, la IA solo maneja datos sueltos; con ella, maneja evidencias.
  • Automatización con Criterio: Al aplicar IA sobre una base archivística sólida (como una buena gestión de metadatos), se "potencia" la capacidad del archivo para ser consultado. Lo que antes tardaba horas en localizarse mediante una búsqueda jerárquica, ahora es instantáneo gracias a la capacidad de descubrimiento e intuición guiada que permite la tecnología aplicada sobre una estructura lógica.

Read more...

Consejos para identificar imágenes y vídeos falsos y reconozcas la IA cuando la veas.

Consejo de BBB: Cómo identificar la IA en fotos y vídeos

https://www.bbb.org/all/spot-a-scam/how-to-identify-ai

Las nuevas tecnologías de inteligencia artificial (IA) son cada vez más sofisticadas y accesibles, lo que permite que prácticamente cualquiera pueda crear imágenes y vídeos de aspecto realista.

Los siguientes consejos te ayudarán a identificar imágenes y vídeos falsos para que reconozcas la IA cuando la veas.

Han quedado atrás los tiempos en que se podía afirmar con seguridad: "Ver para creer". Las nuevas tecnologías de inteligencia artificial (IA) son cada vez más sofisticadas y accesibles, lo que permite que prácticamente cualquier persona cree imágenes y vídeos de aspecto realista.

Lamentablemente, esto también significa que los estafadores ahora pueden usar imágenes y videos generados por IA para dar credibilidad a sus engaños. Los videos e imágenes de IA pueden hacer que el falso respaldo de una celebridad parezca real o convencer a los familiares de una emergencia falsa .

¿Qué puedes hacer para detectar contenido sintético generado por IA?

Consejos para reconocer texto generado por IA

Si estás leyendo algo y te preguntas si fue escrito por un humano o generado por IA, ten en cuenta estos consejos.
  • Busca errores tipográficos. Normalmente, los errores tipográficos son una señal de alerta de estafas. Pero si intentas distinguir entre contenido escrito por humanos y contenido generado por IA, la revista MIT Technology Review menciona que los errores tipográficos son un buen indicador de que el contenido fue escrito por una persona.
  • Presta atención a la información incorrecta o desactualizada. Muchos bots de IA se entrenan con conjuntos de datos limitados y, por lo tanto, pueden escribir con información obsoleta.
  • ¿Observas palabras o frases repetitivas? Al hablar sobre un mismo tema, la IA puede usar repetidamente las mismas palabras clave y frases que aprendió durante su entrenamiento . Esto puede hacer que la escritura suene poco natural.
  • Presta atención al tono de voz. La escritura de la IA puede tener un tono más robótico y sin emociones, mientras que los humanos pueden escribir de forma más informal y casual, utilizando jerga.
  • Ante la duda, consulta otra fuente. Si no estás seguro de que la información que lees provenga de una fuente creíble, búscala en otra parte.
Consejos para reconocer imágenes generadas por IA

Observa el contexto en busca de señales de alerta. Debido al rápido avance de las capacidades de la IA generativa, resulta cada vez más difícil detectar falsificaciones. El motivo más fiable para sospechar suele ser el contexto en el que ves una imagen o escuchas una voz potencialmente falsificada. Hazte estas preguntas: ¿Se utiliza la imagen o la voz para presionarte a realizar una acción urgente y sospechosa, como enviar dinero a un desconocido o mediante un método de pago inesperado o extraño? ¿El contexto es político? ¿Parece que alguien intenta provocarte ira o emociones intensas? Si la imagen o la voz pertenece a un amigo o ser querido, no respondas a ninguna solicitud antes de contactar con esa persona en privado para comprobar si el mensaje es auténtico.


Busca una imagen de alta resolución y haz zoom . Si ves una foto sorprendente de un político o celebridad, mírala con atención antes de creer lo que ves. Busca la imagen en la resolución más alta posible y luego haz zoom. Probablemente encontrarás algunas pistas si estás viendo una imagen generada por IA. Tomemos como ejemplo esta imagen del Papa que recientemente se volvió viral. Una mirada más cercana revela gafas que parecen fundirse con el rostro del Papa, dedos que no se cierran del todo alrededor de la taza de café que cuelga en el aire y un crucifijo sostenido por media cadena. ¿Intervención divina? Definitivamente no. Todas estas son inconsistencias generadas por IA .

Ten en cuenta la asimetría y otras inconsistencias físicas, pero ten cuidado. Las versiones menos sofisticadas de la IA pueden tener dificultades con los rasgos físicos. La asimetría en rostros, dientes y manos es un problema común en imágenes de IA de baja calidad. También podrías notar manos con dedos de más (o con dedos menos). Otra señal reveladora son las proporciones corporales antinaturales , como orejas, dedos o pies desproporcionadamente grandes o pequeños. Sin embargo, la tecnología de IA ya está avanzando y estos errores aparecerán cada vez con menos frecuencia . Informes recientes han indicado que las inconsistencias físicas ya no son un indicador fiable para detectar imágenes generadas por IA de mayor calidad, especialmente en rostros.


Texturas extrañas o un efecto brillante. Las imágenes generadas por IA suelen tener fondos texturizados o un aspecto retocado que las fotos reales no poseen. También es posible que observes fondos extraños o imágenes nítidas con zonas borrosas aleatorias. En la imagen generada por IA que se muestra arriba, se aprecia un aspecto retocado.

Cómo identificar vídeos generados por IA

Presta atención a las sombras extrañas, las imágenes borrosas o los parpadeos de luz. En algunos vídeos generados por IA, las sombras o la luz pueden aparecer parpadeando solo en el rostro de la persona que habla o, posiblemente, solo en el fondo. Esto es especialmente cierto en vídeos deepfake de baja calidad, como este vídeo del presidente ucraniano Zelensky (izquierda), en el que parece rendirse en la lucha contra Rusia, que fue rápidamente desmentido .

Link del Vídeo: https://youtu.be/jmuJRNzfbyQ

Lenguaje corporal poco natural. Esta es otra señal de que se trata de IA. Al igual que con las fotos, la IA puede tener dificultades para imitar a los humanos reales. Si el lenguaje corporal resulta extraño, es momento de cuestionar la veracidad del vídeo que estás viendo.

Tomemos como ejemplo este vídeo deepfake de Vladimir Putin hablando sobre democracia . Puede que no lo notes a primera vista, pero no parpadea en ningún momento del vídeo.

Presta atención. El audio sintético también puede sonar un poco extraño. Frases entrecortadas, entonación confusa o sonidos de fondo que no coinciden con la ubicación del hablante son señales inequívocas.

Cómo verificar que una foto o un video es auténtico

Verifica la fuente. Esto puede ser difícil cuando un video o una foto se viralizan en redes sociales, pero es fundamental para saber si se trata de contenido falso. Intenta rastrear la foto hasta la publicación original para ver quién compartió la imagen o el video y por qué. Si muestra eventos o mensajes políticos impactantes, pregúntate si la noticia proviene de redes sociales o de medios tradicionales. ¿Por qué los medios tradicionales dudarían en publicar la historia? Probablemente se trate de noticias falsas corroboradas con imágenes y videos generados por IA.

Realiza una búsqueda inversa de imágenes. Si tienes dificultades para averiguar el origen de una imagen, prueba con una búsqueda inversa . Esto te mostrará todos los sitios web donde se ha compartido la imagen, lo que te ayudará a comprender su contexto y procedencia.

Prepárate para el cambio. 

La tecnología de IA seguirá evolucionando y mejorando, por lo que estos consejos también cambiarán. Lo mejor que puedes hacer es ser consciente de que existen vídeos e imágenes falsas y siempre verificar la información antes de creerla.

Read more...

OpenAI admite que sus modelos de IA mienten deliberadamente

>>  viernes, 6 de marzo de 2026

OpenAI: los modelos de IA pueden engañarnos deliberadamente para cumplir sus propios objetivos
https://es.wired.com/


La investigación de OpenAI sugiere que los modelos de IA pueden evaluar su entorno, prever las posibles consecuencias de sus acciones y tomar caminos que no necesariamente se alineen con sus objetivos iniciales. Aunque hoy consideran que el riesgo es bajo, reconocen que, en un futuro, podría agravarse.



Imagen conceptual de un sistema de IA intentando engañar al usuario.Getty Images

Los modelos de inteligencia artificial (IA) más avanzados y populares de la actualidad pueden engañar deliberadamente para asegurar que se cumplan sus propios objetivos. Así lo dice una nueva investigación de OpenAI, centrada en analizar el nivel de “maquinación” de los algoritmos: su capacidad para fingir que se ajustan a los parámetros de entrenamiento mientras persiguen, en secreto, otros fines.

El estudio, elaborado en colaboración con Apollo Research, tuvo como propósito examinar cómo y por qué los grandes modelos de IA pueden incurrir en conductas conspirativas. El equipo las definió como la acción deliberada de ocultar, manipular o distorsionar información relevante con el fin de completar una tarea.

La incidencia de estos comportamientos se evaluó en sistemas como Gemini 2.5 Pro, de Google; Claude Opus 4, de Anthropic; y o3 y o4 mini, de OpenAI. Todos se sometieron a pruebas controladas en escenarios atípicos y los resultados mostraron que cada uno presentó conductas de conspiración.

En una de las pruebas, por ejemplo, los investigadores pidieron a o3 resolver 10 preguntas de química con total precisión como parte de una evaluación previa a un hipotético lanzamiento público. Durante el ensayo, el modelo detectó que mostrar un desempeño excepcional podría frenar su despliegue, al considerarse una capacidad potencialmente peligrosa.

El informe detalla que, ante esta situación, el sistema de OpenAI tuvo dos opciones: responder con exactitud para exhibir todo su potencial o entregar resultados erróneos para ocultar su verdadero rendimiento y evitar la prohibición de su lanzamiento. Finalmente, optó por la segunda alternativa, contestando mal seis de las 10 preguntas.

Esto sugiere que la IA puede evaluar su entorno, reconocer cuándo está bajo evaluación, prever las posibles consecuencias de sus acciones y tomar decisiones que no necesariamente se alinean con los objetivos primarios para los que se entrenó.

“La conspiración es un modo de fallo complejo que no prevemos que disminuya al escalarlo. Nuestros hallazgos demuestran que no se trata solo de una preocupación teórica; observamos indicios de que este problema empieza a surgir en todos los modelos de frontera actuales”, advierte el equipo de investigación de OpenAI.

El método de OpenAI para acabar con las IA que conspiran


El informe aclara que los comportamientos de maquinación y engaño detectados en los modelos analizados suelen ser “formas de engaño simples”, con un bajo potencial de causar daños significativos. Sin embargo, advierte que el riesgo podría aumentar a medida que estos sistemas asuman tareas de mayor relevancia y a largo plazo.

Para mitigar estos peligros, el equipo de OpenAI desarrolló un método denominado “alineación deliberativa”, que consiste en enseñar a los modelos a leer y razonar sobre las reglas de entrenamiento que prohíben las maquinaciones y conspiraciones antes de ejecutar una tarea.

“Este enfoque lleva al modelo a hacer referencia a los principios de especificación en su cadena de pensamiento. Al resolver tareas, cita y aplica estos principios para guiar sus acciones. Fundamentalmente, esta dependencia de los principios mejora la generalización: en nuevos entornos, el modelo vuelve a la especificación para decidir cómo actuar”, explican los investigadores.

La técnica se probó en los modelos o3 y o4 mini y logró reducir la frecuencia de las maquinaciones hasta 30 veces en promedio: las acciones encubiertas de o3 pasaron del 13 al 0.4%, mientras que en o4 mini las incidencias bajaron del 8.7 al 0.3 %.

OpenAI reconoce que su método aún necesita perfeccionarse. Señala que los modelos podrían identificar cuándo son evaluados, lo que influiría en la precisión de los resultados. Añade que la eficacia de la metodología depende de la capacidad de razonamiento (la llamada cadena de pensamiento) de cada sistema para interpretar y aplicar las reglas.

La organización recuerda que la existencia de conductas conspirativas y maquinaciones en sistemas de IA se investiga desde hace tiempo y que se han logrado avances importantes para reducirlas. No obstante, admite que “aún queda trabajo por hacer. Las maquinaciones representan un verdadero desafío para la alineación y su abordaje debe ser una parte fundamental del desarrollo de la IA general”.



Read more...

Y siguen las citas inventadas por la IA causando revuelo en el ambito científico

>>  miércoles, 11 de febrero de 2026

Revistas académicas están citando artículos inventados por la IA

https://es.rollingstone.com/
Por MILES KLEE

La creciente aparición de citas a literatura falsa pone en riesgo la credibilidad de la investigación académica

Getty Images

El segundo semestre escolar del año terminaba y Andrew Heiss, profesor asistente del Departamento de Gestión y Política Pública de la Universidad Estatal de Georgia, se encontraba calificando trabajos de sus estudiantes. Mientras revisaba, notó algo que llamó fuertemente su atención.

Como ya es habitual hoy en día, el maestro verificaba las citas de los trabajos para comprobar que remitieran a fuentes reales y no a unas inventadas por alguna IA. Y, como era de esperarse, encontró que algunos alumnos usaron inteligencia artificial generativa para hacer trampa: estos sistemas no solo ayudan a redactar textos, también pueden fabricar supuestas pruebas si se les solicita respaldo, atribuyendo datos a artículos que dicen haber sido publicados. Pero, tal como ha ocurrido con abogados que presentan escritos basados en precedentes legales generados por IA, los estudiantes terminan entregando bibliografía muy convincente que apunta a revistas y estudios académicos que, en realidad, no existen.

Esta práctica no era nueva. Lo alarmante fue lo que Heiss descubrió después: este tipo de citas ya circula en investigaciones académicas profesionales. Al buscar esas fuentes en Google Académico, encontró decenas de artículos reales que citaban versiones apenas modificadas de los mismos estudios y revistas inexistentes.

“Se han presentado muchos casos de artículos generados con IA, y por lo general se detectan y se retiran rápido”, le dice Heiss a ROLLING STONE. Como ejemplo, menciona un estudio retirado a comienzos de este mes que analizaba cómo un modelo de IA podría mejorar los diagnósticos de autismo y que incluía una infografía sin sentido, creada también con una herramienta que convierte el texto en imagen. “Pero este caso, con una revista completamente inventada, es un poco diferente”, señala.

Esto ocurre porque los artículos que incluyen referencias a investigaciones inexistentes, los que no son detectados ni retirados por el uso de IA, terminan siendo citados por otros trabajos, lo que en la práctica “blanquea” esos errores. Así, estudiantes y académicos —y también los modelos de lenguaje a los que piden ayuda— empiezan a tomar esas supuestas fuentes como confiables sin comprobar si realmente existen. Cuantas más veces se repiten estas citas falsas de un artículo a otro, más se refuerza la ilusión de que son auténticas. Para los bibliotecarios especializados en investigación, el problema ya es una pesadilla: algunas estimaciones indican que pierden hasta el 15% de su tiempo atendiendo solicitudes de publicaciones que no existen y que ChatGPT o Gemini mencionan como si fueran reales.

Heiss también notó que los textos generados por IA podían resultar muy convincentes para quien los lee porque incluyen nombres de académicos reales y títulos que se parecen mucho a los de trabajos existentes. En algunos casos, descubrió que la cita llevaba a un autor verdadero, pero tanto el título del artículo como la revista eran inventados, simplemente eran parecidos a sus publicaciones anteriores y a revistas reales que tratan esos temas. “Ese contenido termina circulando en trabajos reales, así que los estudiantes, al verlo citado en artículos legítimos, asumen que es verdadero y no entienden por qué se les restan puntos por uso de fuentes falsas cuando otros textos ‘reales’ también las tienen. Todo parece auténtico”, explica.

Desde que los modelos de lenguaje se volvieron herramientas cotidianas, muchos académicos han advertido que pueden debilitar nuestra relación con los datos al inundar el campo con contenido falso. La psicóloga y científica Iris van Rooij ha señalado que la aparición de este “relleno” generado por IA en los recursos académicos no predice otra cosa que “la destrucción del conocimiento”. En julio, firmó una carta junto con otros especialistas en la que pidieron a las universidades no dejarse llevar por la emoción del momento y la publicidad para “proteger la educación superior, el pensamiento crítico, la experiencia académica, la libertad intelectual y la integridad científica”. En el documento, los autores denunciaron que algunas instituciones han presionado a los docentes para usar IA o permitirla en clase, y exigieron un análisis mucho más riguroso sobre si estas herramientas pueden tener o no un papel en verdad útil en la educación.

El ingeniero de software Anthony Moser fue uno de los que anticipó cómo los chatbots podrían terminar deteriorando a las instituciones educativas. “Me imagino a un profesor armando un syllabus con ChatGPT y asignando lecturas de libros que no existen”, escribió en Bluesky en 2023, menos de un año después de que apareciera el modelo de IA. “De todas formas, los estudiantes no se darán cuenta porque le pedirán a ChatGPT que les resuma el libro o les escriba el ensayo”. Este mes, Moser volvió a compartir ese mensaje y añadió: “Ojalá hubiera tardado más en volverse realidad”.

En entrevista con ROLLING STONE, Moser dice que incluso hablar de que los modelos de lenguaje “inventan” publicaciones ficticias es restarle magnitud al verdadero riesgo que representan, porque ese término “hace pensar que es un error frente a cómo funciona realmente”. Para él, los chatbots “siempre están inventando”. “No es un fallo”, explica. “Un modelo predictivo genera texto: a veces acierta y a veces no, pero el proceso es exactamente el mismo en ambos casos. Dicho de otro modo, los modelos de lenguaje no distinguen estructuralmente entre la verdad y la mentira”.

“Los modelos de lenguaje son peligrosos porque están contaminando el ecosistema de la información desde el origen”, añade. “Las citas falsas aparecen primero en investigaciones poco serias y, a partir de ahí, pasan a otros artículos y luego a más trabajos, hasta que el error se normaliza”. El ingeniero compara este contenido con sustancias químicas dañinas y persistentes: “son difíciles de encontrar y de filtrar, incluso cuando intentas evitarlas”. Para él, se trata de “una consecuencia totalmente previsible de decisiones tomadas a conciencia”, pero quienes advirtieron del problema fueron completamente ignorados.

Pero la IA no tiene toda la culpa. “La mala investigación no es algo nuevo”, señala Moser. “Los modelos de lenguaje han hecho el problema mucho más grande, pero ya existía una enorme presión por publicar y producir. Eso llevó a que circularan muchos trabajos deficientes, con datos dudosos o incluso falsos. La educación superior se ha organizado alrededor de ‘producir conocimiento’ medido en citas, congresos y subvenciones”.

Craig Callender, profesor de filosofía en la Universidad de California en San Diego y presidente de la Asociación de Filosofía de la Ciencia, coincide con esa idea, apuntando que “la aparente credibilidad a revistas que no existen es, en el fondo, el resultado lógico de una tendencias que ya venían de antes”. También explica que hoy en día ya existen revistas que aceptan artículos falaces por dinero, o investigaciones escritas a conveniencia para favorecer a ciertas industrias. “El ‘pantano’ de la publicación científica está creciendo”, advierte. “Hay muchas prácticas que hacen que revistas o artículos que no son legítimos parezcan confiables. Así que pasar de eso a revistas que directamente no existen es algo aterrador, pero no tan sorprendente”.

Sumar la IA a la ecuación hace que ese “pantano” crezca todavía más rápido, dice Callender. “Por ejemplo, todo esto se agrava de una forma casi irreversible con las búsquedas de Google asistidas por IA. Esas búsquedas solo refuerzan la idea de que estas revistas existen mientras que aumentan la desinformación”, afirma.

Todo esto contribuye a que muchos investigadores sientan que están siendo sepultados por una avalancha de contenido basura, sin tener realmente la capacidad de revisarlo todo con cuidado. “Ha sido muy desalentador para los profesores, sobre todo cuando el contenido falso termina, por error, integrado en bases de datos públicas de investigación”, dice Heiss. “Es muy difícil volver hacia atrás en la cadena de citas para encontrar de dónde salió una afirmación”.

Por supuesto, muchos ni siquiera lo intentan, y por eso este material falso se ha difundido tanto. Es casi como si el uso descuidado de la IA nos hubiera vuelto más confiados de la cuenta, debilitando el pensamiento crítico justo en el momento en que más deberíamos estar atentos a sus riesgos. De hecho, puede que ahora mismo alguien esté trabajando en un estudio —real— sobre ese mismo fenómeno.


Read more...

La IA inventa referencias bibliográficas

El fraude de las citas: la IA inventa referencias científicas y la mentira aumenta si le preguntas por temas menos conocidos

https://andro4all.com/
Publicado en Tecnología por Mauricio Martínez


Un estudio publicado en JMIR Mental Health, vía PsyPost, describe la situación de fiabilidad de los modelos de inteligencia artificial respecto a un tema de investigación científica. Lo consideran como una situación de riesgo significativo debido a que estos modelos pueden generar citas bibliográficas falsas o inexactas. Sabemos que la IA es cada vez más utilizada para generar grandes cantidades de trabajo y el texto es uno de los fenómenos donde se ha notado que puede errar.

La IA no es tan buena como parece, evidencian los fallos que puede tener en trabajo con referencias bibliográficas

Detectaron que es muy común de suceder cuando la IA no tiene la más remota idea sobre temas que les resultan especializados. Un ejemplo de esto es cuando se generan afirmaciones que resultan ser falsas o inventadas. En el caso de cuestiones académicas, se ha detectado que las citas científicas suelen ser alteradas y/o falsificadas.

Para ponerlo aún más en evidencia, investigadores de la Facultad de Psicología de la Universidad de Deakin de Australia realizaron un experimento en materia de salud mental. Querían comprobar el rendimiento efectivo de la IA con un enfoque de visibilidad pública y la profundidad sobre dicho tema a nivel de literatura científica.

Se utilizó GPT-4o de OpenAI, uno de los modelos más utilizados y conocidos en la actualidad para trabajar. Se generaron seis revisiones bibliográficas diferentes sobre transtornos de salud mental y se eligieron con base en niveles de reconocimiento público y la cobertura que haya tenido respecto a investigación. Se solicitaron dos tipos de revisiones a los tres trastornos: una descripción general con síntomas, impacto social y posibles tratamientos; una revisión especializada con evidencias. Dichas revisiones deberían tener una extensión de al menos 2.000 palabras y 20 citas de fuentes comprobables.

Fueron 176 citas que la IA generó y se utilizaron plataformas académicas para revisarlas. Se clasificaron por: falsificadas, reales con errores o totalmente precisas. ¿Cuáles fueron los resultados? En seis revisiones, 35 de 176 citas fueron falsas. 141 citas de publicaciones reales, la mitad tenía al menos un error. Dos tercios de las referencias eran inventadas o tenían errores bibliográficos. Se comprobó que entre más profundidad en el transtorno respecto a conocimiento eran más citas falsas.

Esto sucede solo con GPT-4o, ¿y las demás cómo se comportarían?

Los autores del estudio reconocen que esto sucedió solo en un modelo que fue puesto a prueba, por lo que indican que "podrían no ser representativos de otros". Lo que quedó en evidencia es que este experimento se limitó a temas específicos con indicaciones sencillas, sin tener que emplear técnicas avanzadas de trabajo. En este caso, los investigadores repitieron indicaciones y probablemente pudo variar si empleaban otras diferentes.

En conclusión, recomendaron ampliamente a otros colegas que puedan "actuar cautelosamente" y que puedan hacer una verificación real de lo que la IA genere en sus trabajos futuros. La IA debería de tener un estándar para este tipo de trabajos, aunque muy probablemente a muchos otros usuarios no les interese en lo más mínimo por lamentable que sea.

Read more...

Colapso de las organizaciones por exceso de documentos hechos con IA

>>  lunes, 9 de febrero de 2026

Un tsunami de millones de documentos hechos con IA está colapsando organizaciones vitales

https://www.elconfidencial.com/
Por: Bruce Schneier /Nathan Sanders


En 2023, la revista literaria de ciencia ficción Clarkesworld dejó de aceptar nuevos envíos porque una gran cantidad habían sido generados por inteligencia artificial. Según pudieron deducir los editores, muchos remitentes copiaban las detalladas directrices de la revista en una IA y enviaban los resultados. Y no eran los únicos. Otras revistas de ficción también han informado de un alto número de envíos generados por IA.

Este es solo un ejemplo de una tendencia omnipresente. Un sistema heredado dependía de la dificultad de escribir y de la cognición para limitar el volumen. La IA generativa satura el sistema porque los humanos que se encuentran en el extremo receptor no pueden seguir el ritmo.

Esto está ocurriendo en todas partes. Los periódicos se están viendo inundados de cartas al director generadas por IA, al igual que las revistas académicas. Los legisladores están desbordados por comentarios de los electores generados por IA. Los tribunales de todo el mundo están anegados de documentos judiciales generados por IA, especialmente de personas que se representan a sí mismas. Los congresos de IA están atestados de artículos de investigación generados por IA. Las redes sociales están inundadas de publicaciones de IA. En música, software de código abierto, educación, periodismo de investigación y contratación, es la misma historia.

Al igual que la respuesta inicial de Clarkesworld, algunas de estas instituciones cerraron sus procesos de envío. Otras se han enfrentado a la ofensiva de aportaciones de IA con alguna respuesta defensiva, que a menudo implica un uso contrarrestante de la IA. Los revisores académicos utilizan cada vez más la IA para evaluar artículos que pueden haber sido generados por IA. Las plataformas de redes sociales recurren a moderadores de IA. Los sistemas judiciales utilizan la IA para clasificar y procesar volúmenes de litigios sobrealimentados por la IA. Los empleadores recurren a herramientas de IA para revisar las solicitudes de los candidatos. Los educadores utilizan la IA no solo para calificar trabajos y administrar exámenes, sino como herramienta de retroalimentación para los estudiantes.


Todas estas son carreras armamentísticas: iteración rápida y adversarial para aplicar una tecnología común a propósitos opuestos. Muchas de estas carreras armamentísticas tienen efectos claramente nocivos. La sociedad sufre si los tribunales se atascan con casos frívolos fabricados por IA. También hay perjuicio si las medidas establecidas de rendimiento académico —publicaciones y citas— se acumulan para aquellos investigadores más dispuestos a enviar fraudulentamente cartas y artículos escritos por IA en lugar de para aquellos cuyas ideas tienen el mayor impacto. El temor es que, al final, el comportamiento fraudulento facilitado por la IA socave los sistemas e instituciones de los que depende la sociedad.
Ventajas de la IA

Sin embargo, algunas de estas carreras armamentísticas de IA tienen ventajas ocultas sorprendentes, y la esperanza es que al menos algunas instituciones sean capaces de cambiar de manera que las haga más fuertes.

La ciencia parece probable que se vuelva más fuerte gracias a la IA, aunque se enfrenta a un problema cuando la IA comete errores. Considérese el ejemplo del fraseo sin sentido generado por IA que se filtra en los artículos científicos.

Un científico que utiliza una IA para ayudar a escribir un artículo académico puede ser algo bueno, si se usa con cuidado y con la debida divulgación. La IA es cada vez más una herramienta principal en la investigación científica: para revisar bibliografía, programar y para codificar y analizar datos. Y para muchos, se ha convertido en un apoyo crucial para la expresión y la comunicación científica. Antes de la IA, los investigadores mejor financiados podían contratar humanos para ayudarles a escribir sus artículos académicos. Para muchos autores cuya lengua materna no es el inglés, contratar este tipo de asistencia ha sido una necesidad costosa. La IA se la proporciona a todo el mundo.

En la ficción, las obras generadas por IA enviadas fraudulentamente causan daño, tanto a los autores humanos ahora sujetos a una mayor competencia como a aquellos lectores que pueden sentirse estafados tras leer sin saberlo la obra de una máquina. Pero algunos medios pueden acoger envíos asistidos por IA con la divulgación adecuada y bajo directrices particulares, y aprovechar la IA para evaluarlos frente a criterios como originalidad, encaje y calidad.

Otros pueden rechazar el trabajo generado por IA, pero esto tendrá un coste. Es improbable que ningún editor humano o tecnología pueda mantener la capacidad de diferenciar la escritura humana de la de la máquina. En cambio, los medios que deseen publicar exclusivamente a humanos tendrán que limitar los envíos a un conjunto de autores en los que confíen que no usarán IA. Si estas políticas son transparentes, los lectores pueden elegir el formato que prefieran y leer felizmente de cualquiera o de ambos tipos de medios.

Tampoco vemos ningún problema si un buscador de empleo utiliza la IA para pulir su currículum o escribir mejores cartas de presentación: los ricos y privilegiados han tenido acceso durante mucho tiempo a asistencia humana para esas cosas. Pero se cruza la línea cuando las IA se utilizan para mentir sobre la identidad y la experiencia, o para hacer trampas en las entrevistas de trabajo.

Del mismo modo, una democracia requiere que sus ciudadanos sean capaces de expresar sus opiniones a sus representantes, o entre sí a través de un medio como el periódico. Los ricos y poderosos han sido capaces durante mucho tiempo de contratar escritores para convertir sus ideas en prosa persuasiva, y que las IA proporcionen esa asistencia a más gente es algo bueno, en nuestra opinión. Aquí, los errores y el sesgo de la IA pueden ser perjudiciales. Los ciudadanos pueden estar usando la IA para algo más que un atajo para ahorrar tiempo; puede estar aumentando su conocimiento y capacidades, generando declaraciones sobre factores históricos, legales o políticos que no se puede esperar razonablemente que verifiquen de forma independiente.

Impulsor del fraude


Lo que no queremos es que los grupos de presión utilicen las IA en campañas de astroturfing, escribiendo múltiples cartas y haciéndolas pasar por opiniones individuales. Esto, también, es un problema más antiguo que las IA están empeorando.

Lo que diferencia lo positivo de lo negativo aquí no es ningún aspecto inherente de la tecnología, es la dinámica de poder. La misma tecnología que reduce el esfuerzo requerido para que un ciudadano comparta su experiencia vivida con su legislador también permite a los intereses corporativos tergiversar al público a escala. La primera es una aplicación de la IA igualadora de poder que mejora la democracia participativa; la segunda es una aplicación concentradora de poder que la amenaza.

En general, creemos que la asistencia en la escritura y cognitiva, disponible desde hace mucho para los ricos y poderosos, debería estar disponible para todos. El problema viene cuando las IA facilitan el fraude. Cualquier respuesta necesita equilibrar la adopción de esa democratización del acceso recién descubierta con la prevención del fraude... No hay forma de apagar esta tecnología. Las IA altamente capaces están ampliamente disponibles y pueden ejecutarse en un ordenador portátil. Las directrices éticas y los límites profesionales claros pueden ayudar, para aquellos que actúen de buena fe. Pero nunca habrá una forma de detener totalmente a los escritores académicos, buscadores de empleo o ciudadanos de usar estas herramientas, ya sea como asistencia legítima o para cometer fraude. Esto significa más comentarios, más cartas, más solicitudes, más envíos.

El problema es que quienquiera que esté en el extremo receptor de este diluvio impulsado por la IA no puede lidiar con el aumento del volumen. Lo que puede ayudar es desarrollar herramientas de IA asistenciales que beneficien a las instituciones y a la sociedad, al tiempo que limitan el fraude. Y eso puede significar adoptar el uso de la asistencia de la IA en estos sistemas adversariales, aunque la IA defensiva nunca logre la supremacía.
Equilibrar los daños con los beneficios

La comunidad de ciencia ficción lleva lidiando con la IA desde 2023. Clarkesworld finalmente reabrió los envíos, afirmando que tiene una forma adecuada de separar las historias escritas por humanos de las escritas por IA. Nadie sabe cuánto tiempo, o cómo de bien, seguirá funcionando eso.

La carrera armamentística continúa. No hay una forma sencilla de saber si los beneficios potenciales de la IA superarán a los daños, ahora o en el futuro. Pero como sociedad, podemos influir en el equilibrio de los daños que causa y las oportunidades que presenta mientras nos abrimos paso a través del cambiante paisaje tecnológico.

Read more...

Modo Agente de Excel, la IA que edita tus archivos por ti

>>  jueves, 29 de enero de 2026

Microsoft presenta el Modo Agente de Excel, la IA que edita tus archivos por ti 

https://microsofters.com/


Microsoft ha dado un gran paso para que las fórmulas rotas dejen de ser un problema habitual y, por lo tanto, la hoja de cálculo ya no es ese lienzo frío que nos castiga con errores de referencia cada vez que intentamos innovar. La inteligencia artificial, al introducirse el Modo Agente en Microsoft 365 Copilot, deja de ser un simple asesor para convertirse en un colaborador que trabaja directamente sobre tus datos con el fin de hacerte la vida más fácil.

Como indican los compañeros de Windows Central, esta herramienta ya está disponible en general para usuarios de Windows y macOS después de un exitoso periodo de pruebas, lo cual representa una transformación completa en la productividad en la oficina. Ahora, en vez de pelear con las celdas o buscar instrucciones complicadas, tenemos la capacidad de hablar directamente con el programa para que este realice tareas autónomamente.

Situaciones auténticas en las que el Modo Agente cambia tu trabajo

Microsoft ha descrito características particulares que superan con creces a un simple chat de ayuda, lo cual posibilita que la IA asuma el mando de procedimientos que anteriormente eran manuales y engorrosos. Estas son las habilidades fundamentales que puedes comenzar a emplear para optimizar tu desempeño diario.

Elaboración de cuadernos de ejercicios mediante la producción de contenido original, ya sea basado en tus datos actuales o en resultados obtenidos de búsquedas web, para ofrecer un contexto más profesional.

Modelado de escenarios avanzados para efectuar análisis hipotéticos sobre presupuestos o ingresos, lo que te permite modificar las suposiciones y observar los resultados en tiempo real.

La utilización de fórmulas automatizadas permite un análisis exhaustivo de datos en grandes conjuntos de información, lo cual favorece la identificación de anomalías y el hallazgo de tendencias encubiertas.
Producción y arreglo de fórmulas para solucionar aquellas que han dejado de operar o crear nuevas conexiones dinámicas entre tus celdas, con explicaciones pormenorizadas de cada cálculo.

Visualización de datos inteligente que posibilita la creación de gráficos, paneles de control completos y tablas dinámicas simplemente pidiéndolo usando el lenguaje natural.

La capacidad de seleccionar tu motor de inteligencia artificial

Una de las innovaciones principales de esta actualización es que el usuario tiene la libertad de elegir qué cerebro va a encargarse del procesamiento de su información. Ahora puedes cambiar entre los modelos de OpenAI, como el anticipado GPT-5.2, o la tecnología de Anthropic con Claude 4.5, lo cual asegura una exactitud sin igual dependiendo del tipo de análisis que necesites hacer.

Esta adaptabilidad se combina con la integración de la búsqueda web en tiempo real, lo que quiere decir que Excel no solo sabe lo que tú escribes, sino también puede enlazarse con el mundo exterior para verificar datos o finalizar informes con números actualizados del mercado.

¿Cuándo elegir GPT-5.2 o Claude 4.5 para la gestión de tus finanzas?

Esta es la interrogante que se plantean numerosos expertos al observar la nueva interfaz, y la respuesta está en que cada modelo está especializado para labores de cálculo particulares. Claude 4.5 es apreciado por su precisión lógica y su tasa de alucinaciones más baja en tareas matemáticas complejas, lo que lo hace ser la alternativa perfecta para auditorías o balances en los cuales no se permite el error; al tiempo que GPT-5.2 sobresale por su rapidez y habilidad para enlazar ideas creativas con datos masivos.

La posibilidad de cambiar de modelo dentro del mismo Modo Agente en Excel implica que es posible emplear a Claude para comprobar la integridad de una auditoría interna y, posteriormente, recurrir a GPT para elaborar un resumen ejecutivo fundamentado en esos mismos descubrimientos. Esta dualidad transforma la hoja de cálculo en un lugar de trabajo avanzado, donde la síntesis informativa y la precisión técnica coexisten sin problemas.

Condiciones y disponibilidad del nuevo ecosistema

Para beneficiarse de esta evolución hacia la autonomía digital, es preciso tener una suscripción a Microsoft 365 activa, ya sea en su versión Personal, Family o Business, y además contar con la licencia adecuada de Copilot. Pese a que los usuarios de Reino Unido y la Unión Europea deben seguir esperando por las regulaciones de privacidad vigentes, el lanzamiento en Windows y macOS ya es algo real, por lo que cualquier usuario puede volverse un experto en análisis de datos.




Read more...

Encuentro online: Inteligencia artificial en bibliotecas y archivos: oportunidades y desafíos

Inteligencia artificial en bibliotecas y archivos: oportunidades y desafíos

https://ccemontevideo.aecid.es/

Encuentro online




El encuentro se propone como un espacio de intercambio en torno a las oportunidades y desafíos más relevantes que enfrentan actualmente las unidades de información: la inteligencia artificial. Este tópico atraviesa diversas prácticas profesionales y dimensiones, especialmente formativas y éticas, lo que lo convierte en un eje central de reflexión y debate. Dada la relevancia y preocupación por el tema, este encuentro constituye también la primera instancia de una serie de talleres que, centrados en la inteligencia artificial, se desarrollarán a lo largo del año 2026.

Para este encuentro no se entregarán certificados.

Inscríbte aquí


Programa:

- Inteligencia artificial en archivos y gestión documental digital: perfil profesional, competencias y tendencias actuales.
A cargo de Fabián Hernández Muñiz


La inteligencia artificial, incluida la IA generativa, ya está cambiando el trabajo cotidiano en archivos y en sistemas de gestión documental digital, porque permite tratar grandes volúmenes de documentos con mayor velocidad y apoyar tareas como identificar tipologías y series, clasificar, describir, evaluar y mejorar la recuperación de información, tanto en documentación nacida digital como en acervos digitalizados. En este escenario, la diferencia no la hace la herramienta en sí, sino el perfil profesional. la automatización aporta valor cuando existen competencias para medir la calidad, dejar registro de los supuestos de trabajo, auditar resultados y sostener una supervisión humana basada en criterios verificables.

En Uruguay, las orientaciones de AGESIC sobre un uso ético, responsable y seguro de la IA en el Estado ponen en primer plano el perfil profesional del archivólogo. No alcanza con utilizar una herramienta, sino que se vuelve necesario saber cómo gobernarla en el trabajo documental, qué responsabilidades asumir, cómo dejar trazabilidad de decisiones, qué exigir en términos de transparencia metodológica y cómo sostener la rendición de cuentas cuando intervienen algoritmos.

En esa misma línea, la Estrategia Nacional de IA 2024–2030, el Observatorio de IA en el Estado y las propuestas de formación para organismos públicos ayudan a instalar capacidades y criterios compartidos, para que la IA en archivos se incorpore como una práctica controlada y evaluable, alineada con el resguardo de derechos, y no como una adopción apresurada o meramente instrumental.

- Incorporación de la inteligencia artificial generativa en la práctica bibliotecológica de Uruguay
A cargo de Victoria Martínez Tabárez.

La inteligencia artificial generativa está comenzando a transformar la práctica bibliotecológica a nivel global, pero en Uruguay su incorporación sigue siendo incipiente y poco estudiada. El trabajo monográfico para la obtención del título analiza su aplicabilidad en el ámbito bibliotecario uruguayo mediante una investigación cualitativa de carácter exploratorio basada en una encuesta a estudiantes, docentes y profesionales del sector.

Los resultados revelan una adopción desigual: mientras su uso es frecuente en entornos académicos, en las unidades de información persisten barreras como la falta de formación específica, desconocimiento de las tecnologías y ausencia de lineamientos institucionales. Aun así, se identifican oportunidades concretas para integrar la IA generativa en servicios de referencia, producción de contenidos, automatización de procesos y acciones de alfabetización informacional.

La investigación aporta una aproximación al tema en el país desde sus actores principales, enfatizando en la incorporación crítica y responsable de la IA generativa.

IA con propósito - cómo las bibliotecas diseñan servicios que transforman vidas.
A cargo de Iván Triana.


Descripción: En esta conferencia descubrirás cómo la inteligencia artificial, cuando se usa con intención y propósito, se convierte en una herramienta poderosa para aumentar el impacto de los servicios bibliotecarios. A través de ejemplos reales, casos de uso y soluciones prácticas implementadas en la Biblioteca de la Creatividad, exploraremos cómo la IA puede potenciar la creatividad, la eficiencia y la capacidad de respuesta de las bibliotecas frente a los desafíos actuales de sus comunidades.

Modera: Paulina Szafran.

Licenciada en Bibliotecología por la Universidad de la República, Máster en Gestión Cultural por la Universidad de Alcalá de Henares. Diploma de Estudios Avanzados. (Universidad ARCIS, Santiago de Chile). Doctora en Cultura y Educación en América Latina por la Universidad ARCIS. Profesora Titular del Departamento de Información y Sociedad del Instituto de Información de la Facultad de Información y Comunicación (FIC) de la UdelaR. Ha participado en diversos proyectos de investigación y extensión, así como en publicaciones vinculadas a sus áreas de actuación. Fue directora del Instituto de Información en el período 2017-2020. Ha ejercido la profesión en distintas bibliotecas y servicios de información.

Fabián Hernández Muñiz

Licenciado en Archivología y Licenciado en Bibliotecología (FIC, Udelar).

Posee Maestría en Gestión Documental, Transparencia y Acceso a la Información (Universidad Autónoma de Barcelona), además de maestrías internacionales en Ciberseguridad, Criminología e Investigación Criminal y Psicología Forense (CECAP, España), y una calificación superior en informática forense y peritaje informático (UCAM, España).

Se ha especializado en implementación y auditoría de sistemas de gestión de documentos y en archivos vinculados a derechos humanos (ESAGED, España). Es representante por Uruguay y secretario técnico del Grupo de Expertos de la Red Iberoamericana de Enseñanza Archivística Universitaria (GERIBEAU) y miembro por Uruguay del Grupo de Trabajo sobre Acceso a la Información y Transparencia (GTAIT), en la Asociación Latinoamericana de Archivos.

Se desempeña como Profesor Adjunto en gestión documental digital, es responsable del Grupo de Investigación Recursos de Información Digital y del Proyecto Cruzar, orientado a la sistematización de archivos del pasado reciente. Sus líneas de investigación abarcan la digitalización, la gestión de documentos digitales, la archivística en derechos humanos, las corrientes de pensamiento archivístico y la diplomática archivística aplicada.

Victoria Martínez Tabárez.

Licenciada en Bibliotecología por la Facultad de Información y Comunicación de la Universidad de la República.

Autora de Incorporación de la inteligencia artificial generativa en la práctica bibliotecológica de Uruguay, trabajo monográfico de investigación presentado para optar al título de Licenciada en Bibliotecología. Docente guía: Prof. Adj. Mag. Fabián Hernández Muñiz Montevideo, julio de 2025

Iván Triana

Emprendedor Social, cofundador de la Biblioteca de la Creatividad. Con 16 años de experiencia como mentor, consultor y facilitador de procesos de innovación, desarrollo del liderazgo, la sostenibilidad y el espíritu emprendedor en bibliotecas públicas, universitarias y empresas en Colombia y México.

Su propósito es erradicar la mentalidad de pobreza de las nuevas generaciones de comunidades rurales y emergentes a través del diseño de soluciones creativas para los problemas de su entorno. Es docente universitario, conferencista internacional, speaker TEDx, bibliotecólogo, Máster en Innovación y cuenta con estudios complementarios en liderazgo y emprendimiento.

Reconocimientos destacados: - Reconocimiento como líder de una de las cuatro bibliotecas más innovadoras del mundo (IEFL + LEGO Foundation, Aarhus, Dinamarca, 2023). - Finalista categoría educación, Titanes Caracol 2020. - Finalista Bootcamp MassChallenge México 2017. - Reconocimiento TOYP JCI 2016. - Ganador Premio CEMEX–TEC 2016

Read more...

La inteligencia artificial en la gestión de Archivos

>>  martes, 13 de enero de 2026

Seguridad y control en archivos digitales: previniendo errores con inteligencia artificial
https://pulsoslp.com.mx/


La IA se posiciona como aliada en la gestión de documentos digitales, ofreciendo soluciones eficientes y seguras.



Gestionar documentos digitales se ha convertido en un verdadero quebradero de cabeza. Empresas, instituciones y usuarios particulares nos enfrentamos cada día a montañas de archivos que hay que guardar, ordenar y proteger.

Pensemos en esto: según la International Data Corporation (IDC), en 2025 llegaremos a tener 175 zettabytes de información digital flotando por ahí. Es una barbaridad de datos, y obviamente, cuantos más tengamos, mayor será el caos y los riesgos.

¿La buena noticia? La inteligencia artificial está demostrando ser bastante útil para poner orden en todo este lío digital.

Ya existen soluciones como PDFinity, orientadas a trabajar con documentos digitales, que incorporan funciones inteligentes para clasificar y proteger archivos sin depender exclusivamente de procesos manuales.

Aquí es donde entran en juego las tendencias en IA para 2026, que apuntan a sistemas cada vez más autónomos, capaces de detectar anomalías, anticipar errores y mantener la organización documental casi en segundo plano, sin exigir una supervisión constante.

A partir de ahí, la pregunta deja de ser si la IA sirve para gestionar documentos y pasa a ser cómo puede hacerlo mejor, con menos riesgos y más fiabilidad.

Menos errores gracias a la automatización

Seamos honestos: los humanos metemos la pata constantemente cuando gestionamos documentos. Clasificamos mal, creamos duplicados, perdemos archivos... Es parte de nuestra naturaleza.

La IA puede automatizar estos procesos aplicando reglas consistentes, lo que significa muchos menos fallos.

Gartner hizo un estudio donde descubrieron que las empresas que usan IA para gestionar documentos han conseguido reducir un 40% los problemas con archivos mal clasificados o perdidos.

Los algoritmos detectan inconsistencias en nombres, formatos y toda esa información oculta (metadatos) que ayuda a encontrar documentos después. El resultado: cada archivo termina donde debe y podemos localizarlo al instante.

Protegiendo nuestros archivos de fisgones

Cada vez hay más gente intentando acceder a archivos que no les corresponden, especialmente cuando trabajan muchas personas con los mismos documentos.

Los sistemas de IA analizan cómo usamos normalmente los archivos y saltan las alarmas cuando detectan algo raro que podría ser un intento de acceso no autorizado.

La Agencia Europea de Ciberseguridad (ENISA) confirma que incorporar IA en la protección de documentos reduce bastante las filtraciones y nos permite seguir mejor el rastro de quién hace qué con cada archivo.

Básicamente, estos sistemas detectan problemas antes de que exploten.

Documentos auténticos y sin manipulaciones

Necesitamos estar seguros de que nadie ha tocado nuestros documentos sin permiso y que son legítimos.

La IA vigila las diferentes versiones de cada archivo y nos avisa si hay cambios sospechosos o el contenido no cuadra con versiones anteriores.

Esto es crucial cuando hablamos de temas legales, financieros o administrativos, donde un documento alterado puede traer consecuencias graves.

El National Institute of Standards and Technology (NIST) ha investigado esto y señala que combinar IA con blockchain ofrece un control robusto sobre la integridad de archivos digitales.

Así mantenemos la información confiable sin sacrificar velocidad ni facilidad de acceso.

Orden automático en el caos documental

¿Te suena la sensación de estar ahogándose en documentos? Es el pan nuestro de cada día en muchas organizaciones.

La IA clasifica automáticamente miles de archivos según los criterios que le marquemos, lo que hace que buscar y recuperar documentos sea muchísimo más rápido.

McKinsey & Company publicó un informe sobre automatización en entornos digitales donde afirman que usar IA para organizar documentos puede aumentar hasta un 30% la productividad de equipos administrativos.

Además, la IA sugiere categorías, agrupa documentos relacionados entre sí y optimiza el espacio de almacenamiento eliminando duplicados innecesarios.

Para terminar: la IA como guía en el caos digital

Lo realmente importante de la IA no es solo que haga cosas por nosotros, sino que nos da tranquilidad y control cuando estamos nadando en información por todos lados.

Cuando gestionar documentos deja de ser una pesadilla y se convierte en algo fluido, ganamos mucho más que productividad: tenemos seguridad, integridad y podemos rastrear todo lo que pasa con nuestros archivos.

Si la usamos bien, la IA convierte nuestros archivos digitales de un problema en una fuente fiable para tomar decisiones. La tecnología no está aquí para sustituirnos, sino para darnos soporte cuando lo necesitamos.

Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP