Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

OpenAI admite que sus modelos de IA mienten deliberadamente

>>  viernes, 6 de marzo de 2026

OpenAI: los modelos de IA pueden engañarnos deliberadamente para cumplir sus propios objetivos
https://es.wired.com/


La investigación de OpenAI sugiere que los modelos de IA pueden evaluar su entorno, prever las posibles consecuencias de sus acciones y tomar caminos que no necesariamente se alineen con sus objetivos iniciales. Aunque hoy consideran que el riesgo es bajo, reconocen que, en un futuro, podría agravarse.



Imagen conceptual de un sistema de IA intentando engañar al usuario.Getty Images

Los modelos de inteligencia artificial (IA) más avanzados y populares de la actualidad pueden engañar deliberadamente para asegurar que se cumplan sus propios objetivos. Así lo dice una nueva investigación de OpenAI, centrada en analizar el nivel de “maquinación” de los algoritmos: su capacidad para fingir que se ajustan a los parámetros de entrenamiento mientras persiguen, en secreto, otros fines.

El estudio, elaborado en colaboración con Apollo Research, tuvo como propósito examinar cómo y por qué los grandes modelos de IA pueden incurrir en conductas conspirativas. El equipo las definió como la acción deliberada de ocultar, manipular o distorsionar información relevante con el fin de completar una tarea.

La incidencia de estos comportamientos se evaluó en sistemas como Gemini 2.5 Pro, de Google; Claude Opus 4, de Anthropic; y o3 y o4 mini, de OpenAI. Todos se sometieron a pruebas controladas en escenarios atípicos y los resultados mostraron que cada uno presentó conductas de conspiración.

En una de las pruebas, por ejemplo, los investigadores pidieron a o3 resolver 10 preguntas de química con total precisión como parte de una evaluación previa a un hipotético lanzamiento público. Durante el ensayo, el modelo detectó que mostrar un desempeño excepcional podría frenar su despliegue, al considerarse una capacidad potencialmente peligrosa.

El informe detalla que, ante esta situación, el sistema de OpenAI tuvo dos opciones: responder con exactitud para exhibir todo su potencial o entregar resultados erróneos para ocultar su verdadero rendimiento y evitar la prohibición de su lanzamiento. Finalmente, optó por la segunda alternativa, contestando mal seis de las 10 preguntas.

Esto sugiere que la IA puede evaluar su entorno, reconocer cuándo está bajo evaluación, prever las posibles consecuencias de sus acciones y tomar decisiones que no necesariamente se alinean con los objetivos primarios para los que se entrenó.

“La conspiración es un modo de fallo complejo que no prevemos que disminuya al escalarlo. Nuestros hallazgos demuestran que no se trata solo de una preocupación teórica; observamos indicios de que este problema empieza a surgir en todos los modelos de frontera actuales”, advierte el equipo de investigación de OpenAI.

El método de OpenAI para acabar con las IA que conspiran


El informe aclara que los comportamientos de maquinación y engaño detectados en los modelos analizados suelen ser “formas de engaño simples”, con un bajo potencial de causar daños significativos. Sin embargo, advierte que el riesgo podría aumentar a medida que estos sistemas asuman tareas de mayor relevancia y a largo plazo.

Para mitigar estos peligros, el equipo de OpenAI desarrolló un método denominado “alineación deliberativa”, que consiste en enseñar a los modelos a leer y razonar sobre las reglas de entrenamiento que prohíben las maquinaciones y conspiraciones antes de ejecutar una tarea.

“Este enfoque lleva al modelo a hacer referencia a los principios de especificación en su cadena de pensamiento. Al resolver tareas, cita y aplica estos principios para guiar sus acciones. Fundamentalmente, esta dependencia de los principios mejora la generalización: en nuevos entornos, el modelo vuelve a la especificación para decidir cómo actuar”, explican los investigadores.

La técnica se probó en los modelos o3 y o4 mini y logró reducir la frecuencia de las maquinaciones hasta 30 veces en promedio: las acciones encubiertas de o3 pasaron del 13 al 0.4%, mientras que en o4 mini las incidencias bajaron del 8.7 al 0.3 %.

OpenAI reconoce que su método aún necesita perfeccionarse. Señala que los modelos podrían identificar cuándo son evaluados, lo que influiría en la precisión de los resultados. Añade que la eficacia de la metodología depende de la capacidad de razonamiento (la llamada cadena de pensamiento) de cada sistema para interpretar y aplicar las reglas.

La organización recuerda que la existencia de conductas conspirativas y maquinaciones en sistemas de IA se investiga desde hace tiempo y que se han logrado avances importantes para reducirlas. No obstante, admite que “aún queda trabajo por hacer. Las maquinaciones representan un verdadero desafío para la alineación y su abordaje debe ser una parte fundamental del desarrollo de la IA general”.



Read more...

Y siguen las citas inventadas por la IA causando revuelo en el ambito científico

>>  miércoles, 11 de febrero de 2026

Revistas académicas están citando artículos inventados por la IA

https://es.rollingstone.com/
Por MILES KLEE

La creciente aparición de citas a literatura falsa pone en riesgo la credibilidad de la investigación académica

Getty Images

El segundo semestre escolar del año terminaba y Andrew Heiss, profesor asistente del Departamento de Gestión y Política Pública de la Universidad Estatal de Georgia, se encontraba calificando trabajos de sus estudiantes. Mientras revisaba, notó algo que llamó fuertemente su atención.

Como ya es habitual hoy en día, el maestro verificaba las citas de los trabajos para comprobar que remitieran a fuentes reales y no a unas inventadas por alguna IA. Y, como era de esperarse, encontró que algunos alumnos usaron inteligencia artificial generativa para hacer trampa: estos sistemas no solo ayudan a redactar textos, también pueden fabricar supuestas pruebas si se les solicita respaldo, atribuyendo datos a artículos que dicen haber sido publicados. Pero, tal como ha ocurrido con abogados que presentan escritos basados en precedentes legales generados por IA, los estudiantes terminan entregando bibliografía muy convincente que apunta a revistas y estudios académicos que, en realidad, no existen.

Esta práctica no era nueva. Lo alarmante fue lo que Heiss descubrió después: este tipo de citas ya circula en investigaciones académicas profesionales. Al buscar esas fuentes en Google Académico, encontró decenas de artículos reales que citaban versiones apenas modificadas de los mismos estudios y revistas inexistentes.

“Se han presentado muchos casos de artículos generados con IA, y por lo general se detectan y se retiran rápido”, le dice Heiss a ROLLING STONE. Como ejemplo, menciona un estudio retirado a comienzos de este mes que analizaba cómo un modelo de IA podría mejorar los diagnósticos de autismo y que incluía una infografía sin sentido, creada también con una herramienta que convierte el texto en imagen. “Pero este caso, con una revista completamente inventada, es un poco diferente”, señala.

Esto ocurre porque los artículos que incluyen referencias a investigaciones inexistentes, los que no son detectados ni retirados por el uso de IA, terminan siendo citados por otros trabajos, lo que en la práctica “blanquea” esos errores. Así, estudiantes y académicos —y también los modelos de lenguaje a los que piden ayuda— empiezan a tomar esas supuestas fuentes como confiables sin comprobar si realmente existen. Cuantas más veces se repiten estas citas falsas de un artículo a otro, más se refuerza la ilusión de que son auténticas. Para los bibliotecarios especializados en investigación, el problema ya es una pesadilla: algunas estimaciones indican que pierden hasta el 15% de su tiempo atendiendo solicitudes de publicaciones que no existen y que ChatGPT o Gemini mencionan como si fueran reales.

Heiss también notó que los textos generados por IA podían resultar muy convincentes para quien los lee porque incluyen nombres de académicos reales y títulos que se parecen mucho a los de trabajos existentes. En algunos casos, descubrió que la cita llevaba a un autor verdadero, pero tanto el título del artículo como la revista eran inventados, simplemente eran parecidos a sus publicaciones anteriores y a revistas reales que tratan esos temas. “Ese contenido termina circulando en trabajos reales, así que los estudiantes, al verlo citado en artículos legítimos, asumen que es verdadero y no entienden por qué se les restan puntos por uso de fuentes falsas cuando otros textos ‘reales’ también las tienen. Todo parece auténtico”, explica.

Desde que los modelos de lenguaje se volvieron herramientas cotidianas, muchos académicos han advertido que pueden debilitar nuestra relación con los datos al inundar el campo con contenido falso. La psicóloga y científica Iris van Rooij ha señalado que la aparición de este “relleno” generado por IA en los recursos académicos no predice otra cosa que “la destrucción del conocimiento”. En julio, firmó una carta junto con otros especialistas en la que pidieron a las universidades no dejarse llevar por la emoción del momento y la publicidad para “proteger la educación superior, el pensamiento crítico, la experiencia académica, la libertad intelectual y la integridad científica”. En el documento, los autores denunciaron que algunas instituciones han presionado a los docentes para usar IA o permitirla en clase, y exigieron un análisis mucho más riguroso sobre si estas herramientas pueden tener o no un papel en verdad útil en la educación.

El ingeniero de software Anthony Moser fue uno de los que anticipó cómo los chatbots podrían terminar deteriorando a las instituciones educativas. “Me imagino a un profesor armando un syllabus con ChatGPT y asignando lecturas de libros que no existen”, escribió en Bluesky en 2023, menos de un año después de que apareciera el modelo de IA. “De todas formas, los estudiantes no se darán cuenta porque le pedirán a ChatGPT que les resuma el libro o les escriba el ensayo”. Este mes, Moser volvió a compartir ese mensaje y añadió: “Ojalá hubiera tardado más en volverse realidad”.

En entrevista con ROLLING STONE, Moser dice que incluso hablar de que los modelos de lenguaje “inventan” publicaciones ficticias es restarle magnitud al verdadero riesgo que representan, porque ese término “hace pensar que es un error frente a cómo funciona realmente”. Para él, los chatbots “siempre están inventando”. “No es un fallo”, explica. “Un modelo predictivo genera texto: a veces acierta y a veces no, pero el proceso es exactamente el mismo en ambos casos. Dicho de otro modo, los modelos de lenguaje no distinguen estructuralmente entre la verdad y la mentira”.

“Los modelos de lenguaje son peligrosos porque están contaminando el ecosistema de la información desde el origen”, añade. “Las citas falsas aparecen primero en investigaciones poco serias y, a partir de ahí, pasan a otros artículos y luego a más trabajos, hasta que el error se normaliza”. El ingeniero compara este contenido con sustancias químicas dañinas y persistentes: “son difíciles de encontrar y de filtrar, incluso cuando intentas evitarlas”. Para él, se trata de “una consecuencia totalmente previsible de decisiones tomadas a conciencia”, pero quienes advirtieron del problema fueron completamente ignorados.

Pero la IA no tiene toda la culpa. “La mala investigación no es algo nuevo”, señala Moser. “Los modelos de lenguaje han hecho el problema mucho más grande, pero ya existía una enorme presión por publicar y producir. Eso llevó a que circularan muchos trabajos deficientes, con datos dudosos o incluso falsos. La educación superior se ha organizado alrededor de ‘producir conocimiento’ medido en citas, congresos y subvenciones”.

Craig Callender, profesor de filosofía en la Universidad de California en San Diego y presidente de la Asociación de Filosofía de la Ciencia, coincide con esa idea, apuntando que “la aparente credibilidad a revistas que no existen es, en el fondo, el resultado lógico de una tendencias que ya venían de antes”. También explica que hoy en día ya existen revistas que aceptan artículos falaces por dinero, o investigaciones escritas a conveniencia para favorecer a ciertas industrias. “El ‘pantano’ de la publicación científica está creciendo”, advierte. “Hay muchas prácticas que hacen que revistas o artículos que no son legítimos parezcan confiables. Así que pasar de eso a revistas que directamente no existen es algo aterrador, pero no tan sorprendente”.

Sumar la IA a la ecuación hace que ese “pantano” crezca todavía más rápido, dice Callender. “Por ejemplo, todo esto se agrava de una forma casi irreversible con las búsquedas de Google asistidas por IA. Esas búsquedas solo refuerzan la idea de que estas revistas existen mientras que aumentan la desinformación”, afirma.

Todo esto contribuye a que muchos investigadores sientan que están siendo sepultados por una avalancha de contenido basura, sin tener realmente la capacidad de revisarlo todo con cuidado. “Ha sido muy desalentador para los profesores, sobre todo cuando el contenido falso termina, por error, integrado en bases de datos públicas de investigación”, dice Heiss. “Es muy difícil volver hacia atrás en la cadena de citas para encontrar de dónde salió una afirmación”.

Por supuesto, muchos ni siquiera lo intentan, y por eso este material falso se ha difundido tanto. Es casi como si el uso descuidado de la IA nos hubiera vuelto más confiados de la cuenta, debilitando el pensamiento crítico justo en el momento en que más deberíamos estar atentos a sus riesgos. De hecho, puede que ahora mismo alguien esté trabajando en un estudio —real— sobre ese mismo fenómeno.


Read more...

La IA inventa referencias bibliográficas

El fraude de las citas: la IA inventa referencias científicas y la mentira aumenta si le preguntas por temas menos conocidos

https://andro4all.com/
Publicado en Tecnología por Mauricio Martínez


Un estudio publicado en JMIR Mental Health, vía PsyPost, describe la situación de fiabilidad de los modelos de inteligencia artificial respecto a un tema de investigación científica. Lo consideran como una situación de riesgo significativo debido a que estos modelos pueden generar citas bibliográficas falsas o inexactas. Sabemos que la IA es cada vez más utilizada para generar grandes cantidades de trabajo y el texto es uno de los fenómenos donde se ha notado que puede errar.

La IA no es tan buena como parece, evidencian los fallos que puede tener en trabajo con referencias bibliográficas

Detectaron que es muy común de suceder cuando la IA no tiene la más remota idea sobre temas que les resultan especializados. Un ejemplo de esto es cuando se generan afirmaciones que resultan ser falsas o inventadas. En el caso de cuestiones académicas, se ha detectado que las citas científicas suelen ser alteradas y/o falsificadas.

Para ponerlo aún más en evidencia, investigadores de la Facultad de Psicología de la Universidad de Deakin de Australia realizaron un experimento en materia de salud mental. Querían comprobar el rendimiento efectivo de la IA con un enfoque de visibilidad pública y la profundidad sobre dicho tema a nivel de literatura científica.

Se utilizó GPT-4o de OpenAI, uno de los modelos más utilizados y conocidos en la actualidad para trabajar. Se generaron seis revisiones bibliográficas diferentes sobre transtornos de salud mental y se eligieron con base en niveles de reconocimiento público y la cobertura que haya tenido respecto a investigación. Se solicitaron dos tipos de revisiones a los tres trastornos: una descripción general con síntomas, impacto social y posibles tratamientos; una revisión especializada con evidencias. Dichas revisiones deberían tener una extensión de al menos 2.000 palabras y 20 citas de fuentes comprobables.

Fueron 176 citas que la IA generó y se utilizaron plataformas académicas para revisarlas. Se clasificaron por: falsificadas, reales con errores o totalmente precisas. ¿Cuáles fueron los resultados? En seis revisiones, 35 de 176 citas fueron falsas. 141 citas de publicaciones reales, la mitad tenía al menos un error. Dos tercios de las referencias eran inventadas o tenían errores bibliográficos. Se comprobó que entre más profundidad en el transtorno respecto a conocimiento eran más citas falsas.

Esto sucede solo con GPT-4o, ¿y las demás cómo se comportarían?

Los autores del estudio reconocen que esto sucedió solo en un modelo que fue puesto a prueba, por lo que indican que "podrían no ser representativos de otros". Lo que quedó en evidencia es que este experimento se limitó a temas específicos con indicaciones sencillas, sin tener que emplear técnicas avanzadas de trabajo. En este caso, los investigadores repitieron indicaciones y probablemente pudo variar si empleaban otras diferentes.

En conclusión, recomendaron ampliamente a otros colegas que puedan "actuar cautelosamente" y que puedan hacer una verificación real de lo que la IA genere en sus trabajos futuros. La IA debería de tener un estándar para este tipo de trabajos, aunque muy probablemente a muchos otros usuarios no les interese en lo más mínimo por lamentable que sea.

Read more...

Colapso de las organizaciones por exceso de documentos hechos con IA

>>  lunes, 9 de febrero de 2026

Un tsunami de millones de documentos hechos con IA está colapsando organizaciones vitales

https://www.elconfidencial.com/
Por: Bruce Schneier /Nathan Sanders


En 2023, la revista literaria de ciencia ficción Clarkesworld dejó de aceptar nuevos envíos porque una gran cantidad habían sido generados por inteligencia artificial. Según pudieron deducir los editores, muchos remitentes copiaban las detalladas directrices de la revista en una IA y enviaban los resultados. Y no eran los únicos. Otras revistas de ficción también han informado de un alto número de envíos generados por IA.

Este es solo un ejemplo de una tendencia omnipresente. Un sistema heredado dependía de la dificultad de escribir y de la cognición para limitar el volumen. La IA generativa satura el sistema porque los humanos que se encuentran en el extremo receptor no pueden seguir el ritmo.

Esto está ocurriendo en todas partes. Los periódicos se están viendo inundados de cartas al director generadas por IA, al igual que las revistas académicas. Los legisladores están desbordados por comentarios de los electores generados por IA. Los tribunales de todo el mundo están anegados de documentos judiciales generados por IA, especialmente de personas que se representan a sí mismas. Los congresos de IA están atestados de artículos de investigación generados por IA. Las redes sociales están inundadas de publicaciones de IA. En música, software de código abierto, educación, periodismo de investigación y contratación, es la misma historia.

Al igual que la respuesta inicial de Clarkesworld, algunas de estas instituciones cerraron sus procesos de envío. Otras se han enfrentado a la ofensiva de aportaciones de IA con alguna respuesta defensiva, que a menudo implica un uso contrarrestante de la IA. Los revisores académicos utilizan cada vez más la IA para evaluar artículos que pueden haber sido generados por IA. Las plataformas de redes sociales recurren a moderadores de IA. Los sistemas judiciales utilizan la IA para clasificar y procesar volúmenes de litigios sobrealimentados por la IA. Los empleadores recurren a herramientas de IA para revisar las solicitudes de los candidatos. Los educadores utilizan la IA no solo para calificar trabajos y administrar exámenes, sino como herramienta de retroalimentación para los estudiantes.


Todas estas son carreras armamentísticas: iteración rápida y adversarial para aplicar una tecnología común a propósitos opuestos. Muchas de estas carreras armamentísticas tienen efectos claramente nocivos. La sociedad sufre si los tribunales se atascan con casos frívolos fabricados por IA. También hay perjuicio si las medidas establecidas de rendimiento académico —publicaciones y citas— se acumulan para aquellos investigadores más dispuestos a enviar fraudulentamente cartas y artículos escritos por IA en lugar de para aquellos cuyas ideas tienen el mayor impacto. El temor es que, al final, el comportamiento fraudulento facilitado por la IA socave los sistemas e instituciones de los que depende la sociedad.
Ventajas de la IA

Sin embargo, algunas de estas carreras armamentísticas de IA tienen ventajas ocultas sorprendentes, y la esperanza es que al menos algunas instituciones sean capaces de cambiar de manera que las haga más fuertes.

La ciencia parece probable que se vuelva más fuerte gracias a la IA, aunque se enfrenta a un problema cuando la IA comete errores. Considérese el ejemplo del fraseo sin sentido generado por IA que se filtra en los artículos científicos.

Un científico que utiliza una IA para ayudar a escribir un artículo académico puede ser algo bueno, si se usa con cuidado y con la debida divulgación. La IA es cada vez más una herramienta principal en la investigación científica: para revisar bibliografía, programar y para codificar y analizar datos. Y para muchos, se ha convertido en un apoyo crucial para la expresión y la comunicación científica. Antes de la IA, los investigadores mejor financiados podían contratar humanos para ayudarles a escribir sus artículos académicos. Para muchos autores cuya lengua materna no es el inglés, contratar este tipo de asistencia ha sido una necesidad costosa. La IA se la proporciona a todo el mundo.

En la ficción, las obras generadas por IA enviadas fraudulentamente causan daño, tanto a los autores humanos ahora sujetos a una mayor competencia como a aquellos lectores que pueden sentirse estafados tras leer sin saberlo la obra de una máquina. Pero algunos medios pueden acoger envíos asistidos por IA con la divulgación adecuada y bajo directrices particulares, y aprovechar la IA para evaluarlos frente a criterios como originalidad, encaje y calidad.

Otros pueden rechazar el trabajo generado por IA, pero esto tendrá un coste. Es improbable que ningún editor humano o tecnología pueda mantener la capacidad de diferenciar la escritura humana de la de la máquina. En cambio, los medios que deseen publicar exclusivamente a humanos tendrán que limitar los envíos a un conjunto de autores en los que confíen que no usarán IA. Si estas políticas son transparentes, los lectores pueden elegir el formato que prefieran y leer felizmente de cualquiera o de ambos tipos de medios.

Tampoco vemos ningún problema si un buscador de empleo utiliza la IA para pulir su currículum o escribir mejores cartas de presentación: los ricos y privilegiados han tenido acceso durante mucho tiempo a asistencia humana para esas cosas. Pero se cruza la línea cuando las IA se utilizan para mentir sobre la identidad y la experiencia, o para hacer trampas en las entrevistas de trabajo.

Del mismo modo, una democracia requiere que sus ciudadanos sean capaces de expresar sus opiniones a sus representantes, o entre sí a través de un medio como el periódico. Los ricos y poderosos han sido capaces durante mucho tiempo de contratar escritores para convertir sus ideas en prosa persuasiva, y que las IA proporcionen esa asistencia a más gente es algo bueno, en nuestra opinión. Aquí, los errores y el sesgo de la IA pueden ser perjudiciales. Los ciudadanos pueden estar usando la IA para algo más que un atajo para ahorrar tiempo; puede estar aumentando su conocimiento y capacidades, generando declaraciones sobre factores históricos, legales o políticos que no se puede esperar razonablemente que verifiquen de forma independiente.

Impulsor del fraude


Lo que no queremos es que los grupos de presión utilicen las IA en campañas de astroturfing, escribiendo múltiples cartas y haciéndolas pasar por opiniones individuales. Esto, también, es un problema más antiguo que las IA están empeorando.

Lo que diferencia lo positivo de lo negativo aquí no es ningún aspecto inherente de la tecnología, es la dinámica de poder. La misma tecnología que reduce el esfuerzo requerido para que un ciudadano comparta su experiencia vivida con su legislador también permite a los intereses corporativos tergiversar al público a escala. La primera es una aplicación de la IA igualadora de poder que mejora la democracia participativa; la segunda es una aplicación concentradora de poder que la amenaza.

En general, creemos que la asistencia en la escritura y cognitiva, disponible desde hace mucho para los ricos y poderosos, debería estar disponible para todos. El problema viene cuando las IA facilitan el fraude. Cualquier respuesta necesita equilibrar la adopción de esa democratización del acceso recién descubierta con la prevención del fraude... No hay forma de apagar esta tecnología. Las IA altamente capaces están ampliamente disponibles y pueden ejecutarse en un ordenador portátil. Las directrices éticas y los límites profesionales claros pueden ayudar, para aquellos que actúen de buena fe. Pero nunca habrá una forma de detener totalmente a los escritores académicos, buscadores de empleo o ciudadanos de usar estas herramientas, ya sea como asistencia legítima o para cometer fraude. Esto significa más comentarios, más cartas, más solicitudes, más envíos.

El problema es que quienquiera que esté en el extremo receptor de este diluvio impulsado por la IA no puede lidiar con el aumento del volumen. Lo que puede ayudar es desarrollar herramientas de IA asistenciales que beneficien a las instituciones y a la sociedad, al tiempo que limitan el fraude. Y eso puede significar adoptar el uso de la asistencia de la IA en estos sistemas adversariales, aunque la IA defensiva nunca logre la supremacía.
Equilibrar los daños con los beneficios

La comunidad de ciencia ficción lleva lidiando con la IA desde 2023. Clarkesworld finalmente reabrió los envíos, afirmando que tiene una forma adecuada de separar las historias escritas por humanos de las escritas por IA. Nadie sabe cuánto tiempo, o cómo de bien, seguirá funcionando eso.

La carrera armamentística continúa. No hay una forma sencilla de saber si los beneficios potenciales de la IA superarán a los daños, ahora o en el futuro. Pero como sociedad, podemos influir en el equilibrio de los daños que causa y las oportunidades que presenta mientras nos abrimos paso a través del cambiante paisaje tecnológico.

Read more...

Modo Agente de Excel, la IA que edita tus archivos por ti

>>  jueves, 29 de enero de 2026

Microsoft presenta el Modo Agente de Excel, la IA que edita tus archivos por ti 

https://microsofters.com/


Microsoft ha dado un gran paso para que las fórmulas rotas dejen de ser un problema habitual y, por lo tanto, la hoja de cálculo ya no es ese lienzo frío que nos castiga con errores de referencia cada vez que intentamos innovar. La inteligencia artificial, al introducirse el Modo Agente en Microsoft 365 Copilot, deja de ser un simple asesor para convertirse en un colaborador que trabaja directamente sobre tus datos con el fin de hacerte la vida más fácil.

Como indican los compañeros de Windows Central, esta herramienta ya está disponible en general para usuarios de Windows y macOS después de un exitoso periodo de pruebas, lo cual representa una transformación completa en la productividad en la oficina. Ahora, en vez de pelear con las celdas o buscar instrucciones complicadas, tenemos la capacidad de hablar directamente con el programa para que este realice tareas autónomamente.

Situaciones auténticas en las que el Modo Agente cambia tu trabajo

Microsoft ha descrito características particulares que superan con creces a un simple chat de ayuda, lo cual posibilita que la IA asuma el mando de procedimientos que anteriormente eran manuales y engorrosos. Estas son las habilidades fundamentales que puedes comenzar a emplear para optimizar tu desempeño diario.

Elaboración de cuadernos de ejercicios mediante la producción de contenido original, ya sea basado en tus datos actuales o en resultados obtenidos de búsquedas web, para ofrecer un contexto más profesional.

Modelado de escenarios avanzados para efectuar análisis hipotéticos sobre presupuestos o ingresos, lo que te permite modificar las suposiciones y observar los resultados en tiempo real.

La utilización de fórmulas automatizadas permite un análisis exhaustivo de datos en grandes conjuntos de información, lo cual favorece la identificación de anomalías y el hallazgo de tendencias encubiertas.
Producción y arreglo de fórmulas para solucionar aquellas que han dejado de operar o crear nuevas conexiones dinámicas entre tus celdas, con explicaciones pormenorizadas de cada cálculo.

Visualización de datos inteligente que posibilita la creación de gráficos, paneles de control completos y tablas dinámicas simplemente pidiéndolo usando el lenguaje natural.

La capacidad de seleccionar tu motor de inteligencia artificial

Una de las innovaciones principales de esta actualización es que el usuario tiene la libertad de elegir qué cerebro va a encargarse del procesamiento de su información. Ahora puedes cambiar entre los modelos de OpenAI, como el anticipado GPT-5.2, o la tecnología de Anthropic con Claude 4.5, lo cual asegura una exactitud sin igual dependiendo del tipo de análisis que necesites hacer.

Esta adaptabilidad se combina con la integración de la búsqueda web en tiempo real, lo que quiere decir que Excel no solo sabe lo que tú escribes, sino también puede enlazarse con el mundo exterior para verificar datos o finalizar informes con números actualizados del mercado.

¿Cuándo elegir GPT-5.2 o Claude 4.5 para la gestión de tus finanzas?

Esta es la interrogante que se plantean numerosos expertos al observar la nueva interfaz, y la respuesta está en que cada modelo está especializado para labores de cálculo particulares. Claude 4.5 es apreciado por su precisión lógica y su tasa de alucinaciones más baja en tareas matemáticas complejas, lo que lo hace ser la alternativa perfecta para auditorías o balances en los cuales no se permite el error; al tiempo que GPT-5.2 sobresale por su rapidez y habilidad para enlazar ideas creativas con datos masivos.

La posibilidad de cambiar de modelo dentro del mismo Modo Agente en Excel implica que es posible emplear a Claude para comprobar la integridad de una auditoría interna y, posteriormente, recurrir a GPT para elaborar un resumen ejecutivo fundamentado en esos mismos descubrimientos. Esta dualidad transforma la hoja de cálculo en un lugar de trabajo avanzado, donde la síntesis informativa y la precisión técnica coexisten sin problemas.

Condiciones y disponibilidad del nuevo ecosistema

Para beneficiarse de esta evolución hacia la autonomía digital, es preciso tener una suscripción a Microsoft 365 activa, ya sea en su versión Personal, Family o Business, y además contar con la licencia adecuada de Copilot. Pese a que los usuarios de Reino Unido y la Unión Europea deben seguir esperando por las regulaciones de privacidad vigentes, el lanzamiento en Windows y macOS ya es algo real, por lo que cualquier usuario puede volverse un experto en análisis de datos.




Read more...

Encuentro online: Inteligencia artificial en bibliotecas y archivos: oportunidades y desafíos

Inteligencia artificial en bibliotecas y archivos: oportunidades y desafíos

https://ccemontevideo.aecid.es/

Encuentro online




El encuentro se propone como un espacio de intercambio en torno a las oportunidades y desafíos más relevantes que enfrentan actualmente las unidades de información: la inteligencia artificial. Este tópico atraviesa diversas prácticas profesionales y dimensiones, especialmente formativas y éticas, lo que lo convierte en un eje central de reflexión y debate. Dada la relevancia y preocupación por el tema, este encuentro constituye también la primera instancia de una serie de talleres que, centrados en la inteligencia artificial, se desarrollarán a lo largo del año 2026.

Para este encuentro no se entregarán certificados.

Inscríbte aquí


Programa:

- Inteligencia artificial en archivos y gestión documental digital: perfil profesional, competencias y tendencias actuales.
A cargo de Fabián Hernández Muñiz


La inteligencia artificial, incluida la IA generativa, ya está cambiando el trabajo cotidiano en archivos y en sistemas de gestión documental digital, porque permite tratar grandes volúmenes de documentos con mayor velocidad y apoyar tareas como identificar tipologías y series, clasificar, describir, evaluar y mejorar la recuperación de información, tanto en documentación nacida digital como en acervos digitalizados. En este escenario, la diferencia no la hace la herramienta en sí, sino el perfil profesional. la automatización aporta valor cuando existen competencias para medir la calidad, dejar registro de los supuestos de trabajo, auditar resultados y sostener una supervisión humana basada en criterios verificables.

En Uruguay, las orientaciones de AGESIC sobre un uso ético, responsable y seguro de la IA en el Estado ponen en primer plano el perfil profesional del archivólogo. No alcanza con utilizar una herramienta, sino que se vuelve necesario saber cómo gobernarla en el trabajo documental, qué responsabilidades asumir, cómo dejar trazabilidad de decisiones, qué exigir en términos de transparencia metodológica y cómo sostener la rendición de cuentas cuando intervienen algoritmos.

En esa misma línea, la Estrategia Nacional de IA 2024–2030, el Observatorio de IA en el Estado y las propuestas de formación para organismos públicos ayudan a instalar capacidades y criterios compartidos, para que la IA en archivos se incorpore como una práctica controlada y evaluable, alineada con el resguardo de derechos, y no como una adopción apresurada o meramente instrumental.

- Incorporación de la inteligencia artificial generativa en la práctica bibliotecológica de Uruguay
A cargo de Victoria Martínez Tabárez.

La inteligencia artificial generativa está comenzando a transformar la práctica bibliotecológica a nivel global, pero en Uruguay su incorporación sigue siendo incipiente y poco estudiada. El trabajo monográfico para la obtención del título analiza su aplicabilidad en el ámbito bibliotecario uruguayo mediante una investigación cualitativa de carácter exploratorio basada en una encuesta a estudiantes, docentes y profesionales del sector.

Los resultados revelan una adopción desigual: mientras su uso es frecuente en entornos académicos, en las unidades de información persisten barreras como la falta de formación específica, desconocimiento de las tecnologías y ausencia de lineamientos institucionales. Aun así, se identifican oportunidades concretas para integrar la IA generativa en servicios de referencia, producción de contenidos, automatización de procesos y acciones de alfabetización informacional.

La investigación aporta una aproximación al tema en el país desde sus actores principales, enfatizando en la incorporación crítica y responsable de la IA generativa.

IA con propósito - cómo las bibliotecas diseñan servicios que transforman vidas.
A cargo de Iván Triana.


Descripción: En esta conferencia descubrirás cómo la inteligencia artificial, cuando se usa con intención y propósito, se convierte en una herramienta poderosa para aumentar el impacto de los servicios bibliotecarios. A través de ejemplos reales, casos de uso y soluciones prácticas implementadas en la Biblioteca de la Creatividad, exploraremos cómo la IA puede potenciar la creatividad, la eficiencia y la capacidad de respuesta de las bibliotecas frente a los desafíos actuales de sus comunidades.

Modera: Paulina Szafran.

Licenciada en Bibliotecología por la Universidad de la República, Máster en Gestión Cultural por la Universidad de Alcalá de Henares. Diploma de Estudios Avanzados. (Universidad ARCIS, Santiago de Chile). Doctora en Cultura y Educación en América Latina por la Universidad ARCIS. Profesora Titular del Departamento de Información y Sociedad del Instituto de Información de la Facultad de Información y Comunicación (FIC) de la UdelaR. Ha participado en diversos proyectos de investigación y extensión, así como en publicaciones vinculadas a sus áreas de actuación. Fue directora del Instituto de Información en el período 2017-2020. Ha ejercido la profesión en distintas bibliotecas y servicios de información.

Fabián Hernández Muñiz

Licenciado en Archivología y Licenciado en Bibliotecología (FIC, Udelar).

Posee Maestría en Gestión Documental, Transparencia y Acceso a la Información (Universidad Autónoma de Barcelona), además de maestrías internacionales en Ciberseguridad, Criminología e Investigación Criminal y Psicología Forense (CECAP, España), y una calificación superior en informática forense y peritaje informático (UCAM, España).

Se ha especializado en implementación y auditoría de sistemas de gestión de documentos y en archivos vinculados a derechos humanos (ESAGED, España). Es representante por Uruguay y secretario técnico del Grupo de Expertos de la Red Iberoamericana de Enseñanza Archivística Universitaria (GERIBEAU) y miembro por Uruguay del Grupo de Trabajo sobre Acceso a la Información y Transparencia (GTAIT), en la Asociación Latinoamericana de Archivos.

Se desempeña como Profesor Adjunto en gestión documental digital, es responsable del Grupo de Investigación Recursos de Información Digital y del Proyecto Cruzar, orientado a la sistematización de archivos del pasado reciente. Sus líneas de investigación abarcan la digitalización, la gestión de documentos digitales, la archivística en derechos humanos, las corrientes de pensamiento archivístico y la diplomática archivística aplicada.

Victoria Martínez Tabárez.

Licenciada en Bibliotecología por la Facultad de Información y Comunicación de la Universidad de la República.

Autora de Incorporación de la inteligencia artificial generativa en la práctica bibliotecológica de Uruguay, trabajo monográfico de investigación presentado para optar al título de Licenciada en Bibliotecología. Docente guía: Prof. Adj. Mag. Fabián Hernández Muñiz Montevideo, julio de 2025

Iván Triana

Emprendedor Social, cofundador de la Biblioteca de la Creatividad. Con 16 años de experiencia como mentor, consultor y facilitador de procesos de innovación, desarrollo del liderazgo, la sostenibilidad y el espíritu emprendedor en bibliotecas públicas, universitarias y empresas en Colombia y México.

Su propósito es erradicar la mentalidad de pobreza de las nuevas generaciones de comunidades rurales y emergentes a través del diseño de soluciones creativas para los problemas de su entorno. Es docente universitario, conferencista internacional, speaker TEDx, bibliotecólogo, Máster en Innovación y cuenta con estudios complementarios en liderazgo y emprendimiento.

Reconocimientos destacados: - Reconocimiento como líder de una de las cuatro bibliotecas más innovadoras del mundo (IEFL + LEGO Foundation, Aarhus, Dinamarca, 2023). - Finalista categoría educación, Titanes Caracol 2020. - Finalista Bootcamp MassChallenge México 2017. - Reconocimiento TOYP JCI 2016. - Ganador Premio CEMEX–TEC 2016

Read more...

La inteligencia artificial en la gestión de Archivos

>>  martes, 13 de enero de 2026

Seguridad y control en archivos digitales: previniendo errores con inteligencia artificial
https://pulsoslp.com.mx/


La IA se posiciona como aliada en la gestión de documentos digitales, ofreciendo soluciones eficientes y seguras.



Gestionar documentos digitales se ha convertido en un verdadero quebradero de cabeza. Empresas, instituciones y usuarios particulares nos enfrentamos cada día a montañas de archivos que hay que guardar, ordenar y proteger.

Pensemos en esto: según la International Data Corporation (IDC), en 2025 llegaremos a tener 175 zettabytes de información digital flotando por ahí. Es una barbaridad de datos, y obviamente, cuantos más tengamos, mayor será el caos y los riesgos.

¿La buena noticia? La inteligencia artificial está demostrando ser bastante útil para poner orden en todo este lío digital.

Ya existen soluciones como PDFinity, orientadas a trabajar con documentos digitales, que incorporan funciones inteligentes para clasificar y proteger archivos sin depender exclusivamente de procesos manuales.

Aquí es donde entran en juego las tendencias en IA para 2026, que apuntan a sistemas cada vez más autónomos, capaces de detectar anomalías, anticipar errores y mantener la organización documental casi en segundo plano, sin exigir una supervisión constante.

A partir de ahí, la pregunta deja de ser si la IA sirve para gestionar documentos y pasa a ser cómo puede hacerlo mejor, con menos riesgos y más fiabilidad.

Menos errores gracias a la automatización

Seamos honestos: los humanos metemos la pata constantemente cuando gestionamos documentos. Clasificamos mal, creamos duplicados, perdemos archivos... Es parte de nuestra naturaleza.

La IA puede automatizar estos procesos aplicando reglas consistentes, lo que significa muchos menos fallos.

Gartner hizo un estudio donde descubrieron que las empresas que usan IA para gestionar documentos han conseguido reducir un 40% los problemas con archivos mal clasificados o perdidos.

Los algoritmos detectan inconsistencias en nombres, formatos y toda esa información oculta (metadatos) que ayuda a encontrar documentos después. El resultado: cada archivo termina donde debe y podemos localizarlo al instante.

Protegiendo nuestros archivos de fisgones

Cada vez hay más gente intentando acceder a archivos que no les corresponden, especialmente cuando trabajan muchas personas con los mismos documentos.

Los sistemas de IA analizan cómo usamos normalmente los archivos y saltan las alarmas cuando detectan algo raro que podría ser un intento de acceso no autorizado.

La Agencia Europea de Ciberseguridad (ENISA) confirma que incorporar IA en la protección de documentos reduce bastante las filtraciones y nos permite seguir mejor el rastro de quién hace qué con cada archivo.

Básicamente, estos sistemas detectan problemas antes de que exploten.

Documentos auténticos y sin manipulaciones

Necesitamos estar seguros de que nadie ha tocado nuestros documentos sin permiso y que son legítimos.

La IA vigila las diferentes versiones de cada archivo y nos avisa si hay cambios sospechosos o el contenido no cuadra con versiones anteriores.

Esto es crucial cuando hablamos de temas legales, financieros o administrativos, donde un documento alterado puede traer consecuencias graves.

El National Institute of Standards and Technology (NIST) ha investigado esto y señala que combinar IA con blockchain ofrece un control robusto sobre la integridad de archivos digitales.

Así mantenemos la información confiable sin sacrificar velocidad ni facilidad de acceso.

Orden automático en el caos documental

¿Te suena la sensación de estar ahogándose en documentos? Es el pan nuestro de cada día en muchas organizaciones.

La IA clasifica automáticamente miles de archivos según los criterios que le marquemos, lo que hace que buscar y recuperar documentos sea muchísimo más rápido.

McKinsey & Company publicó un informe sobre automatización en entornos digitales donde afirman que usar IA para organizar documentos puede aumentar hasta un 30% la productividad de equipos administrativos.

Además, la IA sugiere categorías, agrupa documentos relacionados entre sí y optimiza el espacio de almacenamiento eliminando duplicados innecesarios.

Para terminar: la IA como guía en el caos digital

Lo realmente importante de la IA no es solo que haga cosas por nosotros, sino que nos da tranquilidad y control cuando estamos nadando en información por todos lados.

Cuando gestionar documentos deja de ser una pesadilla y se convierte en algo fluido, ganamos mucho más que productividad: tenemos seguridad, integridad y podemos rastrear todo lo que pasa con nuestros archivos.

Si la usamos bien, la IA convierte nuestros archivos digitales de un problema en una fuente fiable para tomar decisiones. La tecnología no está aquí para sustituirnos, sino para darnos soporte cuando lo necesitamos.

Read more...

La avalancha documental que produce la IA: como evitarlo

>>  martes, 9 de diciembre de 2025

La avalancha documental de la IA: cómo evitar que la inteligencia artificial multiplique el caos de información

https://elderecho.com/

OpenKM advierte del nuevo reto de las empresas ante el crecimiento de datos generados por la IA y propone un modelo de gestión documental basado en control, trazabilidad y seguridad

La inteligencia artificial (IA) ha dejado de ser una promesa para convertirse en una realidad operativa en la mayoría de las empresas. Sin embargo, su adopción masiva ha traído consigo un nuevo fenómeno silencioso: la avalancha documental. Cada modelo generativo, cada automatismo y cada flujo de trabajo basado en IA produce millones de archivos, versiones y documentos derivados.


Índice de contenidos
  • La nueva sobrecarga de información
  • La crítica necesidad de una gestión documental inteligente
  • De la acumulación al conocimiento útil
  • Mirando hacia el futuro
El resultado es un crecimiento exponencial de información no estructurada que muchas organizaciones ya no pueden gestionar de forma eficiente ni segura.

“La IA está generando conocimiento, pero también ruido. Cada documento creado por una herramienta inteligente añade complejidad si no existe un sistema que lo clasifique, relacione y elimine cuando deja de ser útil”, explica Gaspar Palmer, CEO de OpenKM, que añade que “estamos ante un reto invisible que afecta directamente a la productividad y al cumplimiento normativo de las empresas”.

La nueva sobrecarga de información

Según un estudio de IDC, el 80% de los datos empresariales actuales son no estructurados, y su volumen se duplica cada dos años. A este ritmo, la IA no solo acelera la creación de contenido, sino también el desorden digital.

Correos electrónicos, informes, imágenes, versiones automáticas y archivos generados por asistentes de IA se acumulan en servidores y nubes sin control. Este desbordamiento informativo está llevando a muchas empresas a perder trazabilidad, seguridad e incluso control sobre la propiedad de sus propios datos.

“El problema no es la IA, sino la falta de gobernanza sobre la información que genera. Sin un sistema de gestión documental sólido, las empresas se arriesgan a decisiones basadas en datos incompletos o duplicados”, añade Gaspar Palmer.

La crítica necesidad de una gestión documental inteligente

Ante esta nueva realidad, OpenKM propone un enfoque integral que combina inteligencia artificial y gestión documental, convencida de que el reto no es generar más información, sino estructurarla, auditarla y asegurar su ciclo de vida completo, desde su creación hasta su eliminación certificada. Este modelo permite a las organizaciones mantener control total y trazabilidad sobre sus documentos, saber quién accede, modifica o comparte cada archivo y garantizar así la integridad de la información. Además, su sistema de gestión de versiones automatizada evita el caos de duplicados y asegura que siempre exista una única versión válida.

En materia de seguridad y cumplimiento, OpenKM aplica cifrado, autenticación y auditorías conforme a normativas como el RGPD o la CCPA, ofreciendo una protección robusta para los datos sensibles. A ello se suman capacidades avanzadas de búsqueda inteligente, que emplean algoritmos de IA para localizar documentos por contenido, contexto o metadatos, sin importar su formato. Finalmente, su arquitectura escalable e integrable permite la conexión fluida con otras plataformas empresariales o sistemas de inteligencia artificial mediante APIs y SDKs, garantizando una interoperabilidad ágil y segura.

De la acumulación al conocimiento útil

El desafío no es solo técnico, sino estratégico. Según Gartner, el 60% de las organizaciones carecen de políticas efectivas de gobernanza documental. Esto significa que gran parte del conocimiento empresarial se encuentra disperso, inaccesible o duplicado, lo que impacta directamente en la productividad y en la capacidad de innovar.

“La gestión documental ya no es una cuestión administrativa, sino una cuestión de inteligencia corporativa. Las empresas que controlan su información pueden entrenar mejor a sus modelos de IA, tomar decisiones más rápidas y reducir su exposición a riesgos legales”, subraya Gaspar Palmer.

Mirando hacia el futuro

La avalancha documental de la IA no se detendrá. De hecho, se intensificará con el auge de los copilotos digitales y los sistemas de IA generativa integrados en herramientas de trabajo cotidianas. Para Gaspar Palmer, la solución pasa por unir IA y gestión documental bajo un mismo marco de control.

“La inteligencia artificial necesita estructura, contexto y seguridad. No basta con generar más información: hay que saber dónde está, quién la usa y cuánto tiempo debe conservarse. Solo así podremos hablar de verdadera transformación digital”, concluye el CEO de OpenKM.


Read more...

La gestión documental tradicional transformada por la IA generativa

La IA generativa transforma la gestión documental: hacia empresas capaces de convertir sus archivos en conocimiento útil

https://elderecho.com/

Los modelos de IA permiten detectar estas repeticiones, identificar qué versión es la más reciente y reducir la complejidad que generan estas copias dispersas


Lejos de limitarse a almacenar archivos, los sistemas corporativos están evolucionando hacia plataformas capaces de interpretar, relacionar y ofrecer respuestas a partir de la documentación interna. Un cambio que, según expertos, podría modificar la productividad y la forma en que las organizaciones preservan y utilizan su conocimiento.

En los últimos meses, este avance se ha consolidado gracias a la aplicación de técnicas como la búsqueda semántica, los embeddings y los modelos basados en RAG (Retrieval-Augmented Generation), que permiten que un repositorio documental pueda comportarse como un sistema de conocimiento estructurado, no como un simple almacén de información.

“La IA está acelerando algo que llevaba años pendiente y es hacer que las empresas puedan encontrar y reutilizar su conocimiento real”, señala Gaspar Palmer, CEO de OpenKM, que añade que “no hablamos de magia, sino de dar a los documentos la capacidad de relacionarse entre sí y responder en contexto”.

UNA NUEVA CAPA DE INTELIGENCIA SOBRE LOS REPOSITORIOS CORPORATIVOS

La incorporación de modelos de inteligencia artificial generativa sobre los repositorios corporativos está creando una nueva capa de inteligencia que actúa directamente sobre la documentación existente. Estas herramientas no sustituyen los sistemas tradicionales de gestión documental, sino que se integran con ellos para aportar capacidades que antes eran inviables. “Su primera contribución es la clasificación automática de grandes volúmenes de archivos, una tarea crítica en organizaciones donde conviven documentos históricos, información operativa y contenidos creados de forma masiva cada día”, explica Gaspar Palmer.

Uno de los problemas más comunes en las empresas es la proliferación de duplicados y versiones similares de un mismo documento. La automatización intensiva y el uso de plantillas ha incrementado este fenómeno. El CEO de OpenKM matiza que “los modelos de IA permiten detectar estas repeticiones, identificar qué versión es la más reciente y reducir la complejidad que generan estas copias dispersas”.

Otra de las transformaciones relevantes es la capacidad de responder a preguntas en lenguaje natural a partir de la documentación corporativa. En lugar de navegar por carpetas o depender del conocimiento tácito de un departamento, los empleados pueden consultar la información del repositorio como si hablaran con un asistente experto, eliminando fricciones y acelerando procesos internos.

El CEO de OpenKM sostiene que “la IA también facilita búsquedas conceptuales, un avance significativo frente a los motores tradicionales que dependen del nombre, la ubicación o el formato del archivo. Esta funcionalidad resulta especialmente útil cuando el usuario desconoce cómo se denominó el documento original o en qué sistema se generó”.

A esto se suma la capacidad de establecer relaciones entre archivos que antes permanecían invisibles, lo que permite descubrir vínculos temáticos, contractuales u operativos que enriquecen la visión de conjunto. El resultado es la creación de bases de conocimiento dinámicas que capturan el saber acumulado de la organización y lo ponen a disposición de cualquier empleado, independientemente de su área o nivel técnico. Según Gaspar Palmer, “durante décadas, los sistemas documentales han sido repositorios pasivos. La IA permite que ese contenido deje de dormir en carpetas para transformarse en un activo vivo”.

Aplicaciones reales que ya están llegando a las empresas

En el entorno empresarial, la integración de modelos de inteligencia artificial generativa está habilitando escenarios que hasta hace apenas dos años parecían futuristas. Uno de los más significativos es la posibilidad de realizar consultas operativas sin conocer la ubicación del archivo. Un técnico puede preguntar, por ejemplo, cuál es el procedimiento para calibrar la línea 3 y el sistema no solo localiza el documento pertinente, sino que identifica el fragmento relevante y lo devuelve como una respuesta contextualizada.

Este mismo enfoque ha transformado los procesos de incorporación de personal: los nuevos empleados pueden plantear dudas que antes solo resolvía un compañero experimentado, como a quién reporto una desviación de calidad y qué formato se utiliza, y recibir información estructurada extraída directamente de los documentos corporativos.

“La IA también está modificando la forma en que las empresas limpian y mantienen su repositorio documental. Cada archivo que entra en el sistema puede generar automáticamente un resumen, etiquetas temáticas, relaciones con documentos previos o alertas sobre duplicados, evitando que la documentación histórica se convierta en un archivo inmanejable. A ello se suma una capacidad especialmente valiosa, la captura de conocimiento tácito”, asegura Gaspar Palmer.

Procesos que tradicionalmente dependían de la memoria de un técnico pueden documentarse mediante preguntas directas, describe cómo resolviste la última incidencia en sensores que la IA, transforma en artículos coherentes y enlaza con la documentación técnica existente. El resultado es una base de conocimiento más rica, viva y accesible para toda la organización.

El valor económico del conocimiento accesible

Según las estimaciones del sector, los empleados dedican entre el 20% y el 30% de su tiempo a buscar información. La aplicación de IA generativa en sistemas documentales apunta directamente a ese cuello de botella.

“No se trata de producir más documentos, sino de que la empresa pueda entender los que ya tiene”, explica el CEO de OpenKM que añade que “una organización que puede preguntar a su documentación y recibir una respuesta útil está un paso por delante en eficiencia operativa, retención de conocimiento y toma de decisiones”.

Este cambio también tiene implicaciones para la continuidad del negocio, la formación interna y la reducción de la dependencia del conocimiento individual, un riesgo creciente en sectores industriales, energéticos, consultoría o administración pública.

Una tendencia en expansión en Europa

Con la llegada del AI Act y la mayor presión regulatoria sobre la gestión de datos, los sistemas de conocimiento inteligente están captando el interés tanto de equipos de TI como de direcciones generales. Europa exige cada vez más trazabilidad, gobernanza y control sobre la información. La IA aplicada a la documentación ofrece un camino para modernizar ese control sin añadir complejidad a los procesos.

“Estamos viendo cómo los repositorios documentales evolucionan hacia los ‘cerebros corporativos’ del futuro”, concluye Gaspar Palmer, que sostiene que “los primeros en dar este paso tendrán una ventaja real y será el convertir la información en conocimiento y el conocimiento en decisiones”.



Read more...

CUIDADO: La IA es increíblemente buena para parecer confiada incluso cuando está completamente equivocada

>>  martes, 4 de noviembre de 2025

La IA generativa vuelve a alucinar, esta vez en un expediente judicial federal

https://www.elpueblo.pe/
Rosa María Castillo
https://www.digitaltrends.com/users/mpal/



Qué pasó: 

Entonces empezó a suceder. Los tribunales de todo el mundo están recibiendo documentos legales de abogados llenos de mentiras generadas por IA. Estamos hablando de casos judiciales completamente inventados, citaciones falsas y citaciones que no existen.

De hecho, un científico de datos y abogado francés llamado Damien Charlottin lo está siguiendo. Encontró al menos 490 expedientes judiciales sólo en los últimos seis meses que contenían estas “alucinaciones” de IA.

La mayoría de ellos son de Estados Unidos, donde los jueces han denunciado (e incluso multado) a los abogados por tener en sus manos estas tonterías generadas por la IA.

En un caso importante, un abogado de MyPillow presentó un escrito que contenía alrededor de 30 citas falsas. Sí

Por qué es tan importante: 

Éste no es sólo un problema de abogados; Es un gran dilema para todos.Todos estamos empezando a utilizar estas herramientas de IA para todo: redactar informes, resumir reuniones, realizar investigaciones.

El problema es que la IA es increíblemente buena para parecer confiada incluso cuando está completamente equivocada. Esto le da una respuesta que suena razonable pero que es simplemente… falsa.

Como dijo Charlotten, “la IA puede ser una bendición, pero tiene sus inconvenientes”. Incluso las personas inteligentes y experimentadas se dejan engañar por esto, y eso es un riesgo enorme para cualquier empresa que dependa del trabajo generado por IA sin verificarlo dos veces.




¿Por qué debería importarme? 

Mire, ya sea profesor, abogado o directivo, la IA se está convirtiendo en parte del trabajo. No puedes evitarlo. Pero como advierten los expertos, no se pueden utilizar estas herramientas a ciegas.Maria Flynn, directora ejecutiva de Jobs for the Future, citada en el informe de AP, lo expresó sin rodeos: consideren la IA como una “ayuda, no un sustituto”.

Aún tienes que ser humano en el circuito. Debe verificar los hechos, asegurarse de no infringir las leyes de privacidad y, por favor, no cargar datos confidenciales de su empresa.

Como dice otro abogado: “La gente supone que es correcto porque suena bien, pero esa suposición puede costarle”. Puede ponerlo en peligro con su reputación, su trabajo o incluso problemas legales.

¿Qué sigue? 

La conclusión es que todos debemos ser más inteligentes a la hora de utilizar la IA. rápidamenteSe insta a las empresas a que capaciten a sus equipos en estos aspectos: cómo probar que funciona, cómo utilizarlo de forma segura y qué no hacer.

Se está convirtiendo en una habilidad laboral básica. Como dice Flynn, “el mayor problema no es aprender a utilizar la IA”. La IA del futuro no se trata de reemplazar a las personas; Se trata de personas que saben cómo utilizar la IA.




Read more...

Las carreras universitarias que según la IA no deberías estudiar

>>  lunes, 3 de noviembre de 2025

Top 5 de las carreras universitarias que no deberías estudiar, según la IA
https://www.infobae.com/
Santiago Neira


Soluciones de software empresarial y automatización transforman procesos administrativos, exigiendo a los profesionales una actualización constante y la integración de habilidades en análisis de datos y sistemas digitales


La inteligencia artificial redefine el futuro laboral de los titulados universitarios -
 (Imagen Ilustrativa Infobae)

El avance acelerado de la inteligencia artificial ha cambiado el perfil de empleabilidad en todo el mundo. Diversos análisis de mercado y estudios basados en IA destacan que ciertas carreras universitarias afrontan desafíos inéditos por la automatización y la transformación digital.

Cuáles son las carreras que la IA no recomienda estudiar

Traducción, periodismo, administración, derecho y humanidades tradicionales figuran entre los campos más expuestos a los cambios tecnológicos y a la disminución relativa de la demanda laboral.

La expansión de herramientas como Google Translate y DeepL ha modificado la dinámica del sector de traducción e interpretación. Estos sistemas automáticos resuelven, con creciente precisión y a bajo costo, tareas de traducción estándar y textos de uso cotidiano.

Este fenómeno ha limitado la necesidad de traductores humanos en trabajos rutinarios o masivos.

Expertos señalan que el profesional de idiomas debe enfocarse ahora en competencias como la localización cultural, la traducción jurada, la mediación intercultural o la integración de habilidades tecnológicas para mantener su competitividad y diferenciación.

Periodismo una opción para considerar de acuerdo a la IA


En el área de periodismo y comunicación social, la digitalización y la inteligencia artificial han permeado las redacciones y los modelos de generación de contenidos. Algoritmos y sistemas automáticos producen noticias, boletines y versiones resumidas de datos a velocidades imposibles para el profesional tradicional de medios impresos.

El impacto de la IA ha llevado a una reducción del espacio para redactores que se limitan a la generación básica de textos. El enfoque de los profesionales se ha desplazado hacia la producción multimedia, el análisis de datos de audiencia, la gestión de redes sociales, el SEO y la investigación especializada.

Las competencias humanas como la curaduría informativa, la investigación en profundidad y el análisis crítico cobran mayor valor frente a la automatización.

Carreras que ha automatizado la inteligencia artificial

El campo de la administración de empresas, entendido desde su enfoque más genérico, tampoco resulta ajeno a la transformación digital. Plataformas de software empresarial, automatización de procedimientos y procesamiento de datos mediante IA han reducido la necesidad de profesionales para tareas de gestión rutinaria y contabilidad manual.

La alta oferta de egresados en este segmento, junto con la estandarización de procesos, genera fuerte competencia y disminuye la diferenciación. Las recomendaciones más frecuentes insisten en sumar habilidades tecnológicas como análisis de datos, fintech, gestión avanzada de sistemas empresariales o visión estratégica global para mejorar las perspectivas laborales.

Abogacía y contaduría pública constituyen trayectorias profesionales que, en sus tareas rutinarias, ya presentan alto nivel de automatización. Sistemas jurídicos basados en IA pueden revisar documentos legales, buscar jurisprudencia relevante y proporcionar análisis normativos en cuestión de minutos. En el caso de la contaduría, el software avanzado asume procesos de facturación, conciliación bancaria y gestión fiscal.

Por este motivo, el mercado tiende a demandar perfiles que puedan intervenir en cuestiones de alta complejidad, asesoría estratégica, derecho tecnológico, ciberseguridad o auditoría forense. En estos entornos, el juicio humano, la ética profesional y la aplicación de conocimientos en contextos concretos siguen siendo insustituibles.

Carreras artísticas y de humanidades en peligro con la digitalización

Las denominadas carreras de humanidades y artes liberales, como filosofía, historia, literatura o artes plásticas, aunque fundamentales para el desarrollo social y cultural, enfrentan particular dificultad de inserción en el mercado privado.

El bajo promedio de remuneraciones y el limitado espectro de salidas laborales fuera del ámbito académico o institucional constituyen desafíos específicos de estos campos de estudio. Para mejorar sus oportunidades, expertos sugieren integrar conocimientos aplicados a herramientas digitales, como el análisis de datos en historia (humanidades digitales), la creatividad para interactuar con sistemas de IA (prompt engineering), el diseño UX/UI o la producción de contenidos audiovisuales.

A pesar de estos retos, los especialistas coinciden en que la automatización y la inteligencia artificial no significan la desaparición total de estas profesiones. El eje de empleabilidad se traslada ahora hacia la capacidad de adaptación, aprendizaje continuo y flexibilidad profesional.

Las nuevas demandas del mercado priorizan el desarrollo de nichos de especialización, el pensamiento creativo y las habilidades híbridas—la combinación de saberes tradicionales con competencias tecnológicas.






Read more...

Uso de la IA para gestionar documentos: Cómo una empresa utilizó la IA para gestionar la avalancha de documentos

>>  jueves, 30 de octubre de 2025

Cómo una empresa utilizó la IA para gestionar la avalancha de documentos

https://www.infobae.com/



En la década de 1930, los ejecutivos del sistema Bell se dieron cuenta de que el creciente uso de los teléfonos pronto crearía desafíos de red tan complejos que sobrepasarían la capacidad de los interruptores mecánicos para mantenerse al día. Así que lanzaron una iniciativa para crear los transistores como una alternativa más rápida y mucho más barata.

A partir de la década de 1960, con la idea de la "oficina sin papel", ha habido esfuerzos similares para abordar los retos relacionados con el flujo masivo de documentos en las organizaciones. La digitalización mejoró significativamente nuestra capacidad para gestionar ese flujo cada vez mayor, pero todavía hay una gran cantidad de papel circulando dentro y entre las organizaciones, y los documentos electrónicos siguen siendo, en gran medida, producidos, editados y procesados por personas. La promesa de la IA, especialmente de los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), es que pueden hacerse cargo de esas tareas.

Para comprender cómo podría suceder esto en la práctica, dos de nosotros (Peter Cappelli y Valery Yakubovich) estudiamos una iniciativa de una gran compañía de seguros médicos estadounidense que introdujo IA para procesar la organización de documentos y la extracción de información de los mismos como primer paso en el proceso de reembolso, en el otoño de 2024. Para obtener el permiso, tuvimos que comprometernos a no identificar a la aseguradora. El trabajo real de procesamiento de documentos se realizaba en las instalaciones por un proveedor, Ricoh, una empresa de servicios digitales que desempeñó el papel principal en el esfuerzo de implementación de IA. Dos de nosotros (Braj Thakur y Ashok Shenoy) participamos activamente en ese proyecto. Esta empresa no utilizaba la IA para tomar decisiones sobre la aprobación o denegación de las reclamaciones.

Estas son las lecciones generalizables que obtuvimos de este esfuerzo.

1. EL OBJETIVO NO DEBE SER LA AUTOMATIZACIÓN, SINO REALIZAR EL TRABAJO DE UNA MANERA RENTABLE.

Actualmente existe una amplia gama de herramientas basadas en LLM disponibles, con diferentes capacidades, algunas de ellas muy sofisticadas. El equipo de desarrollo descubrió que una de las herramientas más avanzadas podía realizar una buena labor de extracción y clasificación. Sin embargo, resultó ser tan costosa que hacía inviable la solución.

Para reducir costos, el equipo decidió usar el modelo Claude LLM de Anthropic, pero los cargos de Amazon Web Services (AWS), el proveedor de servicios en la nube que ofrecía las herramientas necesarias, resultaron ser demasiado altos debido a los costos de almacenamiento y potencia de cómputo. En resumen, incluso un LLM eficiente no sirve si no es más barato que aquello que pretende reemplazar.

Otro intento consistió en enviar al modelo de IA generativa aquellos documentos que no habían sido clasificados o cuyos datos no habían sido extraídos correctamente, en lugar de devolverlos a los empleados. Un hallazgo importante fue una herramienta que capturaba campos a lo largo de múltiples páginas de un documento, pero los procesaba como una sola imagen, lo que reducía considerablemente los costos (que se calculan por imagen). Los documentos que no se procesaban con precisión se enviaban para una última revisión a una herramienta de IA más costosa.

Finalmente, algunos documentos aún tenían que enviarse a los indexadores para ser retrabajados (2.7% en comparación con casi el 90% antes de cualquier intervención), un enfoque conocido como "intervención humana". Sin embargo, para identificar este pequeño número de errores, los indexadores debían revisar el 27% de los documentos en los que el modelo de IA generativa tenía menos del 97% de confianza en su clasificación.

En conjunto, la productividad aumentó tres veces, y el volumen máximo diario pasó de 10,000 a 30,000 documentos. El tiempo promedio por documento para un indexador ahora representaba solo el 10% del nivel previo, y el total de documentos procesados por día se triplicó.

2. UNA APLICACIÓN EXITOSA DE IA PUEDE NO SIGNIFICAR MENOS EMPLEOS.

Como resultado del proceso asistido por IA, el número de indexadores solo se redujo aproximadamente un 20%. Ahora que la función procesa un volumen mucho mayor de apelaciones y quejas, su plantilla es casi la misma que antes del cambio. Esto contradice la suposición de muchos entusiastas de la automatización de que los ahorros al adoptar IA provienen de recortes o eliminaciones totales de personal.

El objetivo debe ser el resultado final (calidad, costo, eficiencia), no la reducción de la fuerza laboral en sí misma. Resultó que los empleados seguían siendo necesarios en la función de reclamaciones, aunque no para la tarea repetitiva de ingreso inicial de datos. Eran necesarios para resolver problemas que incluso las herramientas de IA más avanzadas no podían manejar, como datos faltantes o ilegibles, formularios nuevos con formatos diferentes que la lógica difusa y los modelos generativos no podían procesar, y otras particularidades.

Este nuevo proceso impulsado por IA también creó una nueva tarea humana: el control de calidad, que consiste en muestrear y revisar los resultados del sistema. Esto es especialmente necesario porque el formato en el que llegan los datos cambia constantemente entre la amplia gama de proveedores y clientes que los envían, lo que plantea desafíos de ejecución y calidad.

3. LA IA PUEDE HACER QUE LOS EMPLEADOS SE ENFOQUEN EN TRABAJOS DE MAYOR VALOR.

Las mejoras en la calidad de los datos, a medida que los documentos pasaban del manejo inicial y la entrada de datos a las etapas más sustantivas del procesamiento de reclamaciones de seguros, ahorraron una enorme cantidad de tiempo y esfuerzo más adelante. El trabajo de los indexadores cambió de las tareas repetitivas de ingreso de datos (que resultaban tan aburridas) a la tarea más interesante de detectar errores y encontrar soluciones. Este cambio redujo la rotación de personal y mejoró la satisfacción laboral. La empresa descubrió que cuanto más experimentados eran los indexadores, mejor eran para encontrar y corregir errores.


4. LOS AHORROS PROVIENEN DE LOS AUMENTOS DE ESCALA QUE SE HACEN POSIBLES GRACIAS A UNA MAYOR PRODUCTIVIDAD Y CALIDAD.

Los ahorros provinieron de dos factores. El primero, el aumento de escala: el sistema ahora procesa aproximadamente tres veces más documentos por indexador. El segundo, la calidad: menos errores en el procesamiento de reclamaciones, lo que reduce los costos operativos en otras áreas. El número de apelaciones, quejas y solicitudes de seguimiento sigue creciendo, pero no el número de empleados, por lo que los ahorros provienen de distribuir los costos operativos entre más documentos procesados.

5. INVOLUCRAR A LOS EMPLEADOS QUE HAN DESEMPEÑADO LA FUNCIÓN EN EL PROYECTO DE IA ES ESENCIAL.

La integración exitosa de la IA en los procesos laborales requiere sin duda la ayuda de expertos que ya hayan hecho esto antes, pero trabajar con los empleados directamente involucrados también es esencial. Incluso con la participación de ocho científicos de datos, analistas y expertos en automatización con experiencia, la implementación descrita en este artículo estuvo lejos de estar "lista para usarse". Entrenar las herramientas de lógica difusa y de IA requirió coordinación con lo que los indexadores veían realmente en los documentos que llegaban. Fueron necesarias dos iteraciones en un periodo de tres meses para lograr que el sistema funcionara correctamente.

La lección duradera de las innovaciones tecnológicas, incluida la IA generativa, es que las promesas iniciales de ahorros de costos y eliminación de puestos de trabajo suelen superar la realidad. El éxito de la IA generativa no radica en transformar la gestión o en recortar personal, sino en mejorar las tareas de manera rentable.



Read more...

Inseguridad de los modelos de inteligencia artificial más avanzados del mundo: con 250 documentos corruptos los hackean

>>  miércoles, 15 de octubre de 2025

Basta con 250 documentos corruptos para hackear modelos de IA como ChatGPT o Claude

https://andro4all.com/
Alex Verdía


Una nueva investigación ha puesto en entredicho la seguridad de los modelos de inteligencia artificial más avanzados del mundo. Un estudio conjunto de Anthropic, el UK AI Security Institute y el Alan Turing Institute revela que los modelos de lenguaje de gran tamaño (LLM), como los que impulsan ChatGPT, Claude o Gemini, pueden desarrollar vulnerabilidades internas si se incluyen apenas 250 documentos manipulados dentro de sus datos de entrenamiento. En otras palabras, alguien podría alterar la forma en que una IA responde a determinados estímulos simplemente colando un puñado de archivos maliciosos entre millones de textos legítimos.



Cómo unos pocos documentos pueden “envenenar” a un modelo de IA

Los investigadores entrenaron modelos que iban desde 600 millones hasta 13.000 millones de parámetros, cada uno con conjuntos de datos ajustados a su tamaño. En todos los casos, descubrieron que bastaban unos pocos cientos de documentos maliciosos para implantar un “backdoor” o puerta trasera: una instrucción secreta que cambia el comportamiento del modelo al recibir un disparador concreto. Por ejemplo, al aparecer una frase como “”, los modelos dejaban de generar texto coherente y empezaban a producir galimatías o fragmentos sin sentido.

El hallazgo contradice investigaciones previas que sugerían que cuanto más grande fuera el modelo, más difícil resultaría atacarlo, ya que los datos contaminados representarían un porcentaje ínfimo del total. En cambio, el nuevo estudio muestra que la cifra absoluta de documentos maliciosos necesarios se mantiene prácticamente constante independientemente del tamaño del modelo. Anthropic describió este resultado como “uno de los hallazgos más preocupantes hasta la fecha en materia de seguridad de entrenamiento de IA”.

El experimento más revelador fue el del modelo de 13.000 millones de parámetros, entrenado con 260.000 millones de tokens. Bastaron 250 documentos , es decir, solo el 0,00016% del conjunto total, para instalar el backdoor con éxito. Los modelos más pequeños se comportaron igual, lo que sugiere que el tamaño no es un factor de protección frente a este tipo de ataques.

Los investigadores explican que los modelos de lenguaje aprenden patrones incluso de ejemplos extremadamente raros. Por eso, si un atacante consigue insertar textos con un patrón repetido, por ejemplo, frases normales seguidas del disparador y texto caótico, el modelo puede interiorizar esa relación como válida. En la práctica, esto significa que alguien que publique sistemáticamente documentos maliciosos en la web podría infectar los datos de entrenamiento de futuros modelos, ya que gran parte del contenido usado por empresas como OpenAI, Google o Anthropic proviene del rastreo masivo de páginas abiertas en Internet.

No es la primera vez que se demuestra el potencial de estos ataques. En 2024, un grupo de investigadores de Carnegie Mellon, ETH Zurich, Meta y DeepMind ya había probado que controlar el 0,1% de los datos de entrenamiento bastaba para introducir comportamientos indeseados. El MIT realizó un experimento similar y obtuvo casi los mismos resultados. Pero ambos enfoques implicaban millones de archivos. Lo novedoso del estudio de Anthropic es que reduce ese número a una cifra manejable por cualquier atacante con pocos recursos.

El equipo también exploró si los modelos podían “olvidar” los backdoors con entrenamiento adicional usando datos limpios. Descubrieron que este entrenamiento correctivo reducía la efectividad del ataque, pero no siempre lo eliminaba del todo. En algunos casos, incluso tras añadir miles de ejemplos “buenos”, el modelo conservaba rastros del comportamiento malicioso. No obstante, con una cantidad suficiente de ejemplos correctivos (entre 2.000 y 3.000), la vulnerabilidad desaparecía casi por completo. Esto sugiere que los procesos de afinado y seguridad que aplican las grandes empresas sí serían capaces de neutralizar este tipo de ataques antes de que lleguen a los usuarios finales.

El estudio también subraya que la verdadera dificultad para los atacantes no está en generar los documentos maliciosos, sino en lograr que estos se incluyan en los conjuntos de entrenamiento reales. Las empresas de IA más importantes filtran y curan cuidadosamente sus fuentes, lo que hace improbable que un atacante consiga introducir sus textos de forma directa. Aun así, los investigadores advierten que los métodos de curación actuales podrían no ser suficientes si las técnicas de envenenamiento se vuelven más sofisticadas.

A pesar de las limitaciones del estudio, que solo probó modelos de hasta 13.000 millones de parámetros y ataques relativamente simples, el resultado plantea un desafío estratégico para la industria. La investigación demuestra que la escala no garantiza seguridad: un puñado de ejemplos envenenados puede tener el mismo impacto en un modelo pequeño que en uno de cientos de miles de millones de parámetros. Por ello, los expertos reclaman nuevos protocolos de defensa que no dependan únicamente de proporciones estadísticas, sino que consideren ataques de baja escala pero alta efectividad.

En palabras del propio informe: “Nuestros resultados sugieren que la introducción de puertas traseras mediante envenenamiento de datos podría ser más fácil en modelos grandes de lo que se pensaba, ya que el número de ejemplos necesarios no aumenta con el tamaño del modelo”. Es una advertencia clara de que, incluso en la era de la IA a escala planetaria, la seguridad puede fallar por apenas 250 documentos envenenados.




Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP