La Dualidad del Lenguaje en la Era de la Inteligencia Artificial

>>  miércoles, 11 de febrero de 2026

Redacción de Promts
Por: Lic. Carmen Marín con la colaboración de l IA Gemini




"Ante el vertiginoso avance tecnológico y las exigencias de inmediatez del mundo contemporáneo, la integración de la Inteligencia Artificial en el flujo de trabajo profesional ha pasado de ser una opción a una necesidad imperiosa. Herramientas como Grok, ChatGPT o Gemini —siendo esta última mi principal aliada— han transformado mi manera de abordar interrogantes complejas para el desarrollo de mi profesión. Sin embargo, esta interacción ha suscitado una reflexión profunda sobre la naturaleza del lenguaje: a pesar de la formación técnica en redacción de prompts, persiste en mí el hábito de la cordialidad. Surge entonces la pregunta: ¿cómo conciliar la eficiencia técnica con los valores de respeto y cortesía arraigados desde la infancia al comunicarnos con una entidad no corpórea a través de un teclado?

En este escenario, surge una duda metodológica fundamental: ¿deben los prompts ser redactados bajo una rigurosa estructura técnica o es lícito mantener el carácter conversacional y humano?

La respuesta reside en un equilibrio funcional. No se requiere de una sintaxis rígida de programación, pero la eficacia de la IA se potencia mediante la especificidad. La comunicación óptima con estos modelos no exige el sacrificio de la naturalidad, sino la implementación de una estructura lógica que trascienda la mera cortesía. Para lograr esta sinergia entre lo humano y lo técnico, la literatura actual sugiere un modelo basado en cuatro pilares fundamentales que garantizan la precisión del resultado sin deshumanizar el proceso:"

Pilar del Prompt

Propósito Académico

Aplicación Práctica

Rol

Establece el marco epistémico de la IA.

"Actúa como un experto en..."

Tarea

Define el objetivo de la acción requerida.

"Redacta un análisis sobre..."

Contexto

Provee las variables y delimitaciones necesarias.

"Para una audiencia de nivel doctoral..."

Formato

Determina la estructura de salida de la información.

"Presenta los resultados en un ensayo crítico."



"En conclusión, el trato amable no es un obstáculo para el algoritmo, pero es la claridad estructural lo que realmente define el éxito de la consulta. La cortesía aprendida y la precisión técnica no son excluyentes; por el contrario, pueden coexistir en un diálogo donde la ética del emisor y la eficiencia de la máquina convergen en un mismo espacio digital."

¿Qué logramos con esta adecuación?

1. Hilos de conexión: Conectamos el sentimiento de "trato amable" con la conclusión de que la IA puede procesar ambos, pero que la estructura es la que manda en el resultado.

2. Validación Técnica: Al incluir la tabla de los 4 elementos, el artículo deja de ser solo una reflexión y se convierte en una guía útil para los lectores.


El fenómeno de la antropomorfización en la interfaz digital

Esta persistencia de la cortesía en nuestra comunicación con la IA no es un hecho aislado, sino que responde al fenómeno de la antropomorfización: la tendencia intrínseca del ser humano a atribuir cualidades, intenciones y emociones humanas a entidades no humanas. Al interactuar con un modelo de lenguaje que procesa la información de manera semántica y fluida, nuestro cerebro tiende a categorizar la herramienta no como un simple software, sino como un interlocutor social.

A pesar de la naturaleza no corpórea de la IA, el uso del teclado como puente de comunicación activa los mismos esquemas de conducta que aplicaríamos en una relación familiar o laboral. Por tanto, el dilema entre el 'prompt' técnico y el trato cordial no es una ineficiencia del usuario, sino una manifestación de su identidad ética. 

En última instancia, mantener la amabilidad aprendida desde la infancia, incluso ante un algoritmo, no solo facilita una transición más orgánica hacia la era digital, sino que preserva nuestra esencia humana en un entorno cada vez más mediado por la tecnología.

"La tecnología nos pide precisión, pero nuestra naturaleza nos exige humanidad."


Referencias Bibliográficas

Al pedirle las referencias bibliogáficas sobre el tema investigado Gemini me responde:

No existe una referencia bibliográfica para el texto anterior porque lo redactó el mismo, en tiempo real, para responder a mi pregunta.

Luego continua explicándome:

Como es una inteligencia artificial, genera sus respuestas de forma original basándose en su entrenamiento y en las mejores prácticas actuales de Ingeniería de Prompts (Prompt Engineering), pero no esta citando un libro o un manual específico.

Sin embargo, me recomienda:

Si necesito citar esta información de manera formal (por ejemplo, para un trabajo académico o un artículo), puedo hacerlo citándolo como fuente de IA generativa:

Referencia en Formato APA 7

Google. (2026). Respuesta de Gemini sobre la redacción de prompts [Modelo de lenguaje de gran tamaño]. https://gemini.google.com/
Para finalizar expresa:

Por qué no hay un "autor" único

Porque su respuesta es una síntesis de conceptos globales que se manejan en la industria tecnológica y recomienda que profundice en las fuentes teóricas que respaldan lo que me dijo, podría consultar a estos referentes:
 
  • OpenAI & Google DeepMind: Sus guías oficiales de "Prompt Engineering" son la base técnica.
  • Andrew Ng (DeepLearning.AI): Pionero en estructurar cómo debemos comunicarnos con la IA.
  • Mollick, E. (Wharton School): Experto en la integración de IA en el trabajo que defiende el uso de lenguaje natural claro.










Read more...

Y siguen las citas inventadas por la IA causando revuelo en el ambito científico

Revistas académicas están citando artículos inventados por la IA

https://es.rollingstone.com/
Por MILES KLEE

La creciente aparición de citas a literatura falsa pone en riesgo la credibilidad de la investigación académica

Getty Images

El segundo semestre escolar del año terminaba y Andrew Heiss, profesor asistente del Departamento de Gestión y Política Pública de la Universidad Estatal de Georgia, se encontraba calificando trabajos de sus estudiantes. Mientras revisaba, notó algo que llamó fuertemente su atención.

Como ya es habitual hoy en día, el maestro verificaba las citas de los trabajos para comprobar que remitieran a fuentes reales y no a unas inventadas por alguna IA. Y, como era de esperarse, encontró que algunos alumnos usaron inteligencia artificial generativa para hacer trampa: estos sistemas no solo ayudan a redactar textos, también pueden fabricar supuestas pruebas si se les solicita respaldo, atribuyendo datos a artículos que dicen haber sido publicados. Pero, tal como ha ocurrido con abogados que presentan escritos basados en precedentes legales generados por IA, los estudiantes terminan entregando bibliografía muy convincente que apunta a revistas y estudios académicos que, en realidad, no existen.

Esta práctica no era nueva. Lo alarmante fue lo que Heiss descubrió después: este tipo de citas ya circula en investigaciones académicas profesionales. Al buscar esas fuentes en Google Académico, encontró decenas de artículos reales que citaban versiones apenas modificadas de los mismos estudios y revistas inexistentes.

“Se han presentado muchos casos de artículos generados con IA, y por lo general se detectan y se retiran rápido”, le dice Heiss a ROLLING STONE. Como ejemplo, menciona un estudio retirado a comienzos de este mes que analizaba cómo un modelo de IA podría mejorar los diagnósticos de autismo y que incluía una infografía sin sentido, creada también con una herramienta que convierte el texto en imagen. “Pero este caso, con una revista completamente inventada, es un poco diferente”, señala.

Esto ocurre porque los artículos que incluyen referencias a investigaciones inexistentes, los que no son detectados ni retirados por el uso de IA, terminan siendo citados por otros trabajos, lo que en la práctica “blanquea” esos errores. Así, estudiantes y académicos —y también los modelos de lenguaje a los que piden ayuda— empiezan a tomar esas supuestas fuentes como confiables sin comprobar si realmente existen. Cuantas más veces se repiten estas citas falsas de un artículo a otro, más se refuerza la ilusión de que son auténticas. Para los bibliotecarios especializados en investigación, el problema ya es una pesadilla: algunas estimaciones indican que pierden hasta el 15% de su tiempo atendiendo solicitudes de publicaciones que no existen y que ChatGPT o Gemini mencionan como si fueran reales.

Heiss también notó que los textos generados por IA podían resultar muy convincentes para quien los lee porque incluyen nombres de académicos reales y títulos que se parecen mucho a los de trabajos existentes. En algunos casos, descubrió que la cita llevaba a un autor verdadero, pero tanto el título del artículo como la revista eran inventados, simplemente eran parecidos a sus publicaciones anteriores y a revistas reales que tratan esos temas. “Ese contenido termina circulando en trabajos reales, así que los estudiantes, al verlo citado en artículos legítimos, asumen que es verdadero y no entienden por qué se les restan puntos por uso de fuentes falsas cuando otros textos ‘reales’ también las tienen. Todo parece auténtico”, explica.

Desde que los modelos de lenguaje se volvieron herramientas cotidianas, muchos académicos han advertido que pueden debilitar nuestra relación con los datos al inundar el campo con contenido falso. La psicóloga y científica Iris van Rooij ha señalado que la aparición de este “relleno” generado por IA en los recursos académicos no predice otra cosa que “la destrucción del conocimiento”. En julio, firmó una carta junto con otros especialistas en la que pidieron a las universidades no dejarse llevar por la emoción del momento y la publicidad para “proteger la educación superior, el pensamiento crítico, la experiencia académica, la libertad intelectual y la integridad científica”. En el documento, los autores denunciaron que algunas instituciones han presionado a los docentes para usar IA o permitirla en clase, y exigieron un análisis mucho más riguroso sobre si estas herramientas pueden tener o no un papel en verdad útil en la educación.

El ingeniero de software Anthony Moser fue uno de los que anticipó cómo los chatbots podrían terminar deteriorando a las instituciones educativas. “Me imagino a un profesor armando un syllabus con ChatGPT y asignando lecturas de libros que no existen”, escribió en Bluesky en 2023, menos de un año después de que apareciera el modelo de IA. “De todas formas, los estudiantes no se darán cuenta porque le pedirán a ChatGPT que les resuma el libro o les escriba el ensayo”. Este mes, Moser volvió a compartir ese mensaje y añadió: “Ojalá hubiera tardado más en volverse realidad”.

En entrevista con ROLLING STONE, Moser dice que incluso hablar de que los modelos de lenguaje “inventan” publicaciones ficticias es restarle magnitud al verdadero riesgo que representan, porque ese término “hace pensar que es un error frente a cómo funciona realmente”. Para él, los chatbots “siempre están inventando”. “No es un fallo”, explica. “Un modelo predictivo genera texto: a veces acierta y a veces no, pero el proceso es exactamente el mismo en ambos casos. Dicho de otro modo, los modelos de lenguaje no distinguen estructuralmente entre la verdad y la mentira”.

“Los modelos de lenguaje son peligrosos porque están contaminando el ecosistema de la información desde el origen”, añade. “Las citas falsas aparecen primero en investigaciones poco serias y, a partir de ahí, pasan a otros artículos y luego a más trabajos, hasta que el error se normaliza”. El ingeniero compara este contenido con sustancias químicas dañinas y persistentes: “son difíciles de encontrar y de filtrar, incluso cuando intentas evitarlas”. Para él, se trata de “una consecuencia totalmente previsible de decisiones tomadas a conciencia”, pero quienes advirtieron del problema fueron completamente ignorados.

Pero la IA no tiene toda la culpa. “La mala investigación no es algo nuevo”, señala Moser. “Los modelos de lenguaje han hecho el problema mucho más grande, pero ya existía una enorme presión por publicar y producir. Eso llevó a que circularan muchos trabajos deficientes, con datos dudosos o incluso falsos. La educación superior se ha organizado alrededor de ‘producir conocimiento’ medido en citas, congresos y subvenciones”.

Craig Callender, profesor de filosofía en la Universidad de California en San Diego y presidente de la Asociación de Filosofía de la Ciencia, coincide con esa idea, apuntando que “la aparente credibilidad a revistas que no existen es, en el fondo, el resultado lógico de una tendencias que ya venían de antes”. También explica que hoy en día ya existen revistas que aceptan artículos falaces por dinero, o investigaciones escritas a conveniencia para favorecer a ciertas industrias. “El ‘pantano’ de la publicación científica está creciendo”, advierte. “Hay muchas prácticas que hacen que revistas o artículos que no son legítimos parezcan confiables. Así que pasar de eso a revistas que directamente no existen es algo aterrador, pero no tan sorprendente”.

Sumar la IA a la ecuación hace que ese “pantano” crezca todavía más rápido, dice Callender. “Por ejemplo, todo esto se agrava de una forma casi irreversible con las búsquedas de Google asistidas por IA. Esas búsquedas solo refuerzan la idea de que estas revistas existen mientras que aumentan la desinformación”, afirma.

Todo esto contribuye a que muchos investigadores sientan que están siendo sepultados por una avalancha de contenido basura, sin tener realmente la capacidad de revisarlo todo con cuidado. “Ha sido muy desalentador para los profesores, sobre todo cuando el contenido falso termina, por error, integrado en bases de datos públicas de investigación”, dice Heiss. “Es muy difícil volver hacia atrás en la cadena de citas para encontrar de dónde salió una afirmación”.

Por supuesto, muchos ni siquiera lo intentan, y por eso este material falso se ha difundido tanto. Es casi como si el uso descuidado de la IA nos hubiera vuelto más confiados de la cuenta, debilitando el pensamiento crítico justo en el momento en que más deberíamos estar atentos a sus riesgos. De hecho, puede que ahora mismo alguien esté trabajando en un estudio —real— sobre ese mismo fenómeno.


Read more...

Prism, la nueva plataforma presentada por OpenAI para la investigación y la redacción científica

OpenAI lanza Prism, su nuevo espacio de trabajo para la redacción y colaboración científica impulsado por IA

https://www.infobae.com/

Con la integración de GPT-5.2, la plataforma ofrece a investigadores la posibilidad de analizar, revisar y desarrollar proyectos en un entorno conectado, facilitando acceso global, colaboración simultánea y edición avanzada con inteligencia artificial sin depender de múltiples aplicaciones


Acceder en tiempo real a documentos científicos, reorganizar ecuaciones complejas y colaborar con múltiples autores sin cambiar de aplicación es una de las innovaciones que permite Prism, la nueva plataforma presentada por OpenAI para la investigación y la redacción científica. Según detalló la compañía en un comunicado recogido por diversos medios, este espacio de trabajo incorpora directamente a GPT-5.2, el modelo más avanzado de la empresa en razonamiento matemático y científico, dentro de un entorno que busca cubrir todas las fases del proceso académico y experimental.

Tal como informó OpenAI y publicó el medio especializado, Prism se integra en una plataforma en la nube basada en LaTeX —el sistema ampliamente adoptado para la composición de documentos científicos—, permitiendo a los usuarios desarrollar todo el flujo de trabajo, desde la redacción inicial hasta la revisión y la preparación final para publicaciones académicas. La propuesta responde a una dificultad que habían señalado numerosos investigadores: la fragmentación que caracteriza el uso de distintas herramientas, como editores, procesadores PDF y compiladores, que carecen de integración entre sí.

La solución, según OpenAI, radica en la posibilidad de reunir capacidades de edición, revisión por pares y colaboración simultánea en un solo espacio, donde el modelo GPT-5.2 no solo actúa como asistente para sugerencias de redacción, sino que comprende la estructura técnica del artículo, el significado de las ecuaciones y las referencias bibliográficas. Esto permite que la inteligencia artificial deje de ser una solución aislada o una herramienta de apoyo externo para transformarse en parte integral del proceso científico, detalló el comunicado recogido por la empresa.

De acuerdo con OpenAI, uno de los objetivos de Prism es expandir los límites del razonamiento científico y acelerar el ciclo de investigación. El modelo GPT-5.2 está entrenado no solo para interpretar preguntas y respuestas, sino para analizar experimentos, identificar patrones, explorar hipótesis y proporcionar contexto relevante en tiempo real. Asimismo, la función GPT-5.2 Thinking facilita que los usuarios dialoguen de manera interactiva con la inteligencia artificial, explorando ideas nuevas y refinando argumentos matemáticos o experimentales mientras escriben y editan documentos.

El acceso a la literatura científica desde la misma plataforma también se perfila como un aspecto destacado de Prism, ya que la herramienta habilita la búsqueda, el análisis y la incorporación de contexto a los trabajos en desarrollo. A esto se suma la capacidad de reorganizar ecuaciones y referencias, así como la función de edición por voz, lo que, según la información aportada por OpenAI, posibilita una interacción más dinámica para quienes prefieren dictar sus ideas o correcciones.

Entre otras ventajas que presenta Prism, la plataforma contempla la posibilidad de colaboración en tiempo real con un número ilimitado de coautores y asesores, una funcionalidad que responde a la naturaleza colectiva de buena parte de los proyectos científicos actuales. Según detalló el comunicado, la herramienta está disponible en todo el mundo y de manera gratuita para las personas con una cuenta de ChatGPT, permitiendo el inicio inmediato de investigaciones o desarrollos científicos sin coste. OpenAI informó también que, en el futuro, añadirá funciones avanzadas mediante suscripciones y planes de pago asociados a la plataforma ChatGPT.

El desarrollo de Prism forma parte de la estrategia de OpenAI para impulsar la inteligencia artificial como catalizadora de los avances en ciencia, señalando como uno de sus retos actuales la fragmentación de herramientas en el ámbito de la investigación. La integración de varias funciones en una sola plataforma apunta, según la compañía, a ofrecer a la comunidad científica un espacio completo que pueda cubrir las necesidades de análisis, colaboración y edición avanzada en un solo entorno conectado.

Prism, con su integración nativa de funciones basadas en GPT-5.2, se presenta como una alternativa pensada no solo para facilitar la escritura y revisión de artículos científicos, sino para fomentar nuevas formas de trabajar desde cualquier lugar, con acceso permanente a la IA y sin depender de múltiples aplicaciones independientes. OpenAI enfatizó, a través de distintos canales, que el objetivo de la herramienta es facilitar que la inteligencia artificial forme parte del núcleo de la investigación actual, desde la generación de ideas hasta la publicación de resultados.

Read more...

La IA inventa referencias bibliográficas

El fraude de las citas: la IA inventa referencias científicas y la mentira aumenta si le preguntas por temas menos conocidos

https://andro4all.com/
Publicado en Tecnología por Mauricio Martínez


Un estudio publicado en JMIR Mental Health, vía PsyPost, describe la situación de fiabilidad de los modelos de inteligencia artificial respecto a un tema de investigación científica. Lo consideran como una situación de riesgo significativo debido a que estos modelos pueden generar citas bibliográficas falsas o inexactas. Sabemos que la IA es cada vez más utilizada para generar grandes cantidades de trabajo y el texto es uno de los fenómenos donde se ha notado que puede errar.

La IA no es tan buena como parece, evidencian los fallos que puede tener en trabajo con referencias bibliográficas

Detectaron que es muy común de suceder cuando la IA no tiene la más remota idea sobre temas que les resultan especializados. Un ejemplo de esto es cuando se generan afirmaciones que resultan ser falsas o inventadas. En el caso de cuestiones académicas, se ha detectado que las citas científicas suelen ser alteradas y/o falsificadas.

Para ponerlo aún más en evidencia, investigadores de la Facultad de Psicología de la Universidad de Deakin de Australia realizaron un experimento en materia de salud mental. Querían comprobar el rendimiento efectivo de la IA con un enfoque de visibilidad pública y la profundidad sobre dicho tema a nivel de literatura científica.

Se utilizó GPT-4o de OpenAI, uno de los modelos más utilizados y conocidos en la actualidad para trabajar. Se generaron seis revisiones bibliográficas diferentes sobre transtornos de salud mental y se eligieron con base en niveles de reconocimiento público y la cobertura que haya tenido respecto a investigación. Se solicitaron dos tipos de revisiones a los tres trastornos: una descripción general con síntomas, impacto social y posibles tratamientos; una revisión especializada con evidencias. Dichas revisiones deberían tener una extensión de al menos 2.000 palabras y 20 citas de fuentes comprobables.

Fueron 176 citas que la IA generó y se utilizaron plataformas académicas para revisarlas. Se clasificaron por: falsificadas, reales con errores o totalmente precisas. ¿Cuáles fueron los resultados? En seis revisiones, 35 de 176 citas fueron falsas. 141 citas de publicaciones reales, la mitad tenía al menos un error. Dos tercios de las referencias eran inventadas o tenían errores bibliográficos. Se comprobó que entre más profundidad en el transtorno respecto a conocimiento eran más citas falsas.

Esto sucede solo con GPT-4o, ¿y las demás cómo se comportarían?

Los autores del estudio reconocen que esto sucedió solo en un modelo que fue puesto a prueba, por lo que indican que "podrían no ser representativos de otros". Lo que quedó en evidencia es que este experimento se limitó a temas específicos con indicaciones sencillas, sin tener que emplear técnicas avanzadas de trabajo. En este caso, los investigadores repitieron indicaciones y probablemente pudo variar si empleaban otras diferentes.

En conclusión, recomendaron ampliamente a otros colegas que puedan "actuar cautelosamente" y que puedan hacer una verificación real de lo que la IA genere en sus trabajos futuros. La IA debería de tener un estándar para este tipo de trabajos, aunque muy probablemente a muchos otros usuarios no les interese en lo más mínimo por lamentable que sea.

Read more...

Documentos electrónicos falsos: datos importantes para detectarlos

>>  martes, 10 de febrero de 2026

Detectar documentos electrónicos falsos
Por: Lic. Carmen Marín con apoyo de Grok




Detectar documentos electrónicos falsos (como PDFs, contratos, certificados, identificaciones digitales o facturas) se ha vuelto más complejo con el avance de la inteligencia artificial y herramientas de edición. Sin embargo, existen métodos prácticos y herramientas que combinan revisión manual, análisis técnico y verificación automatizada.

Aquí se detallan los principales métodos para detectar falsificaciones en documentos electrónicos (actualizado a 2026):

1. Revisión visual y de coherencia (rápida, pero no infalible)

Inconsistencias obvias: 
  • Fuentes (tipografías) diferentes en el mismo documento.
  • Tamaños de letra irregulares o alineaciones extrañas.
  • Fotografías que no coinciden con la edad o descripción (ej.: persona de 20 años con fecha de nacimiento de 1950).
  • Sombras, bordes pixelados, artefactos de compresión o texturas extrañas (muy comunes en falsos generados por IA).
  • Fechas ilógicas (ej.: fecha de emisión posterior a la fecha de vencimiento).
  • Revisar el contexto → ¿El documento llega por un canal sospechoso (WhatsApp, email desconocido)? ¿El remitente coincide con el oficial?
2. Análisis de metadatos (muy revelador)

Los metadatos muestran la historia del archivo (creación, modificación, software usado).Cómo verlos:En Adobe Acrobat → Archivo → Propiedades → Descripción.
  • En Windows → Clic derecho → Propiedades → Detalles.
  • En Mac → Clic derecho → Obtener información.
  • Herramientas online gratuitas: exiftool (descargable) o sitios como metadata2go.com.
Qué buscar:
  • Múltiples modificaciones recientes.
  • Software sospechoso (ej.: Photoshop, GIMP, Midjourney, o editores online cuando se supone que es oficial).
  • Fechas incoherentes (creado en 2026 pero supuestamente emitido en 2023).
  • Nombre del autor diferente al esperado.
3. Verificación de firmas digitales / electrónicas (clave para documentos oficiales) 

Una firma digital válida detecta cualquier modificación posterior al firmado.Cómo verificar:Adobe Acrobat → Panel de firmas → Validar firmas (muestra si es válida, quién firmó y si el documento fue alterado).

Plataformas oficiales (dependiendo del país):
  • España → VALIDe (@firma) – valide.redsara.es

  • Uruguay → firma.gub.uy

  • Chile → ecertla.com o similares

  • Colombia → validador de la ONTI o DIAN para facturas electrónicas.
Si la firma aparece como "no válida", "certificado revocado" o "modificado después de firmar" → es falso o manipulado.

4. Herramientas especializadas en detección de fraude documental (2025-2026)

Con el auge de deepfakes y generadores de IDs falsos (tipo OnlyFake), existen soluciones profesionales:

Herramienta

Uso principal

Nivel

Costo aproximado

Notas

 

VerifyPDF

Detecta PDF falsificados/manipulados

Usuario/empresa   

Gratuito / planes pagos

Arrastra y suelta PDF

VerifyDoc

Análisis IA de metadatos + estructura

Empresa

 

Planes pagos

Detecta IA generativa

Mitek MiVIP

Detección de fraude en IDs con IA

Empresa

 

Empresarial

Muy usada en banca

Klippa

Análisis de imágenes y documentos

Empresas

 

Empresarial

Buena para facturas

Veridas

 

Verificación de documentos de identidad

Empresas

 

Empresarial

+10.000 tipos de docs

Regula Forensics

Detección avanzada de falsificaciones

Empresas/gobierno

Empresarial

Muy precisa en elementos de seguridad

VirusTotal

Detecta PDFs maliciosos (con malware)

 

Gratuito

Gratuito

Sube el archivo

 


5. Método avanzado: 

Hashing y comparaciónCalcula el hash (SHA-256) del documento original (si lo tienes) y compáralo.

Cualquier cambio (incluso un espacio) genera un hash completamente diferente.

Herramientas: 

PowerShell (Get-FileHash), online hash calculators.

Resumen de pasos recomendados (en orden práctico)

Primero → Revisa visualmente + coherencia lógica (30 segundos).

Segundo → Verifica metadatos (¿quién creó/editó? ¿cuándo?).

Tercero → Comprueba la firma digital (si existe) con validador oficial o Acrobat.

Cuarto → Si dudas mucho → sube a VerifyPDF / VerifyDoc o herramienta similar.

Quinto → Si es crítico (contrato, trámite legal, banco) → consulta perito forense digital o empresa especializada.

Consejo final: 

Nunca tome decisiones importantes (pagos, contratos, envíos de datos) basándose solo en un documento electrónico recibido por email o WhatsApp sin verificar al menos 2-3 de estos puntos. El fraude documental con IA crece rápidamente, pero las herramientas de detección también mejoran cada año.

Lista de referencias bibliográficas principales de los sitios y fuentes de donde se obtuvo la información  

Estas corresponden a las herramientas, métodos y plataformas mencionadas, basadas en información actualizada disponible en la web (a febrero de 2026):

  • VerifyPDF — Plataforma online para detección de documentos falsificados en PDF.

Sitio: https://verifypdf.com/es

  • VerifyDoc — Herramienta de detección de PDF falsos, manipulados o generados por IA mediante análisis de metadatos, estructura y firmas.

Sitio: https://verifydoc.com/es, (Versión en inglés: https://verifydoc.com/)

  • Mitek MiVIP (Plataforma de Verificación de Identidad) — Solución para detección de fraude documental con IA, incluyendo manipulaciones digitales y deepfakes.

Sitio: https://www.miteksystems.com/es/verificacion-identidad-plataforma, Blog relacionado: https://www.miteksystems.com/es/blog/fraude-documental-ia

  • Klippa DocHorizon — Software de detección automática de fraude documental con análisis de metadatos, EXIF, copy-move y más.

Sitio: https://www.klippa.com/en/dochorizon/document-fraud-detection, Información adicional: https://www.klippa.com/en/blog/information/document-fraud

  • Veridas — Plataforma de verificación de identidad y documentos con detección de falsificaciones y alteraciones mediante IA.

Sitio: https://veridas.com/es/plataforma-verificacion-identidad, Sección de verificación de documentos: https://veridas.com/es/verificacion-de-documentos

  • Regula Forensics — Soluciones forenses para verificación de documentos y detección de falsificaciones (hardware y software).

Sitio: https://regulaforensics.com/es, Blog y herramientas: https://regulaforensics.com/es/blog/identity-verification-quiz

  • Adobe Acrobat — Validación de firmas digitales, Guía oficial: https://helpx.adobe.com/la/acrobat/desktop/e-sign-documents/manage-digital-signatures/validate-digital-sign.html
  • VALIDe (Servicio de validación de firmas electrónicas - España)

Plataforma oficial del gobierno español (Red SARA): https://valide.redsara.es/

Estas referencias cubren las herramientas especializadas y los métodos de verificación mencionados (metadatos, firmas digitales, análisis IA, etc.). La información general sobre revisión visual, metadatos y hashing se basa en prácticas estándar de análisis forense digital, ampliamente documentadas en guías de ciberseguridad y documentación de Adobe, pero las herramientas específicas provienen directamente de los sitios listados. 


Read more...

Derrumbe de las acciones de las empresas de software

Derrumbe de las acciones de las empresas de software
@AlanDaith

Por Alan Daith

Se acaban de derrumbar las acciones de las empresas de software, y para mí, esta vez, puede ser definitivo.

Todo empezó con algo que parece chiquito, pero da vuelta al sistema.

Anthropic anunció que su inteligencia artificial Claude ahora tiene plugins especializados por industria.
Uno de ellos, por ejemplo, es para abogados. Thomson Reuters, la empresa dueña de Westlaw, que es básicamente la biblia legal de Estados Unidos, automáticamente perdió 18% de valor en un solo día. Es que ellos construyeron su imperio sobre 160 años de archivos legales organizados.

Pero resulta que Claude puede leer esos archivos, entenderlos, buscar jurisprudencia, redactar contratos y hasta analizar casos.

Entonces, ¿quién necesita pagarles a ellos si ahora una inteligencia artificial las analiza mejor y en segundos?

Pero no fueron ellos nomás.

Un billón de dólares, un trillón en inglés, evaporado del sector de software completo en menos de una semana. Miren esa cantidad de ceros. Bloomberg lo llamó "software-mageddon". Esta es la palabra clave del pánico.

Durante décadas, el software empresarial funcionó con un modelo brillante, cobrar por asiento. 
Cada empleado que usa la herramienta es una licencia que se paga mes a mes. 200 empleados, 200 licencias.

Era el negocio perfecto, multiplicar sillas, escalar sin límite, pero Claude puede hacer el trabajo de varios analistas simultáneamente. Por eso, Wall Street hizo la cuenta y se dio cuenta de que el driver de crecimiento, más empleados, igual más licencias, acaba de morir.

Si una IA hace lo que sean tres personas, ¿para qué vas a pagar por tres licencias? Y por tres sueldos, Claude es solo el síntoma. Lo que se está viniendo abajo no es una empresa o un sector, es el modelo completo.

Cuando hasta tu tía pueda crear software complejo, solamente explicando lo que necesita, no van a caer empresas, sino el concepto mismo de "industria del software".

Esto no es una corrección del mercado, es un cambio de época total.

Read more...

La IA satura los sistemas haciendo referencia a libros y artículos que nunca existieron

>>  lunes, 9 de febrero de 2026

Las alucinaciones de la IA ya no son sólo un problema digital. Ahora están saturando bibliotecas con libros y artículos que nunca existieron
https://es.gizmodo.com/
Por Martín Nicolás Parolari


El contenido basura generado por inteligencia artificial está dando un salto inesperado del mundo online al físico. Bibliotecarios de todo el mundo reciben consultas sobre documentos inexistentes, citas inventadas y libros creados por IA, en un fenómeno que empieza a tensionar la confianza en el conocimiento.



Siempre dimos por sentado que el mayor daño del slop de la inteligencia artificial —ese contenido masivo, barato y poco fiable— quedaría confinado a internet. Redes sociales llenas de ruido, buscadores menos precisos, plataformas creativas erosionadas por lo sintético. Pero algo cambió: ahora ese problema está llegando a un lugar que parecía blindado frente a la desinformación automática. Las bibliotecas.

Cuando los libros no existen, pero alguien los busca

© Unsplash / Ashton MB.

Este fenómeno fue documentado recientemente por Scientific American y empieza a repetirse con una frecuencia inquietante. Personas acuden a bibliotecas y archivos en busca de libros, artículos científicos o capítulos concretos que no aparecen en ningún catálogo. No es un error de indexación ni una edición perdida. Simplemente, no existen.

También, la Cruz Roja Internacional ya alertó sobre esta situación y apuntó directamente a herramientas de IA generativa como ChatGPT, Gemini o Copilot. El problema no es nuevo, pero sí su escala. “Estos sistemas no realizan investigaciones ni verifican fuentes”, explican. Generan texto a partir de patrones estadísticos, y eso incluye referencias inventadas que suenan plausibles, pero llevan a un callejón sin salida.

Bibliotecarios desbordados por citas fantasma

Para quienes trabajan en las bibliotecas, el impacto es tangible, explica Xataka. La directora de investigación de una biblioteca en Virginia estima que al menos un 15% de las consultas por correo están relacionadas con documentos generados por IA. El desafío no es solo encontrar información, sino demostrar que algo no existe.

Una bibliotecaria relató en Bluesky cómo un estudiante le pidió localizar una extensa lista de referencias. Tras no hallar ninguna, descubrió que provenían de los resúmenes automáticos de Google. El patrón se repite: títulos reales de revistas, autores plausibles, números de volumen que nunca fueron publicados. Según cuenta The New York Times, desde hace tiempo se había detectado este problema. La IA no inventa desde cero: mezcla piezas reales para construir algo convincente. Y eso, para los sistemas de catalogación tradicionales, es una pesadilla.

Libros con IA, papers con IA y el ruido académico

Las citas falsas no son el único frente. También están apareciendo libros escritos íntegramente por IA que muchos bibliotecarios califican, sin rodeos, como “increíblemente malos”. Corea del Sur ya vivió el fracaso de un programa de libros escolares generados por IA, retirados tras mostrar errores graves y falta de coherencia pedagógica.

En paralelo, el propio mundo académico empieza a sufrir el mismo mal. Futurism reveló que muchos papers sobre inteligencia artificial están hechos… con inteligencia artificial. La producción se disparó y congresos como NeurIPS tuvieron que reforzar sus sistemas de revisión. Casos como el del investigador Kevin Zhu, con más de 100 papers en un año, encendieron todas las alarmas: textos con errores básicos, citas inexistentes e incluso fragmentos ocultos para manipular revisiones automáticas.

El límite incómodo de la inteligencia artificial

En la jerga técnica se llaman “alucinaciones”, y son uno de los puntos más débiles de los modelos de lenguaje. El problema no es que se equivoquen —eso también lo hacen los humanos—, sino que lo hagan con una seguridad aplastante, cierra Xataka.

El caso de Deloitte,, que entregó al gobierno australiano un informe con referencias completamente inventadas, dejó claro el riesgo: cuando confiamos en la IA sin verificar, el error deja de ser digital y se vuelve institucional. Las bibliotecas, guardianas históricas del conocimiento, están siendo una de las primeras líneas en notar el gran impacto. Y su advertencia es clara: mientras la IA no aprenda a distinguir entre saber y parecer, el trabajo humano seguirá siendo imprescindible. Porque cuando todo suena creíble, comprobarlo se vuelve más importante que nunca.





Read more...

Colapso de las organizaciones por exceso de documentos hechos con IA

Un tsunami de millones de documentos hechos con IA está colapsando organizaciones vitales

https://www.elconfidencial.com/
Por: Bruce Schneier /Nathan Sanders


En 2023, la revista literaria de ciencia ficción Clarkesworld dejó de aceptar nuevos envíos porque una gran cantidad habían sido generados por inteligencia artificial. Según pudieron deducir los editores, muchos remitentes copiaban las detalladas directrices de la revista en una IA y enviaban los resultados. Y no eran los únicos. Otras revistas de ficción también han informado de un alto número de envíos generados por IA.

Este es solo un ejemplo de una tendencia omnipresente. Un sistema heredado dependía de la dificultad de escribir y de la cognición para limitar el volumen. La IA generativa satura el sistema porque los humanos que se encuentran en el extremo receptor no pueden seguir el ritmo.

Esto está ocurriendo en todas partes. Los periódicos se están viendo inundados de cartas al director generadas por IA, al igual que las revistas académicas. Los legisladores están desbordados por comentarios de los electores generados por IA. Los tribunales de todo el mundo están anegados de documentos judiciales generados por IA, especialmente de personas que se representan a sí mismas. Los congresos de IA están atestados de artículos de investigación generados por IA. Las redes sociales están inundadas de publicaciones de IA. En música, software de código abierto, educación, periodismo de investigación y contratación, es la misma historia.

Al igual que la respuesta inicial de Clarkesworld, algunas de estas instituciones cerraron sus procesos de envío. Otras se han enfrentado a la ofensiva de aportaciones de IA con alguna respuesta defensiva, que a menudo implica un uso contrarrestante de la IA. Los revisores académicos utilizan cada vez más la IA para evaluar artículos que pueden haber sido generados por IA. Las plataformas de redes sociales recurren a moderadores de IA. Los sistemas judiciales utilizan la IA para clasificar y procesar volúmenes de litigios sobrealimentados por la IA. Los empleadores recurren a herramientas de IA para revisar las solicitudes de los candidatos. Los educadores utilizan la IA no solo para calificar trabajos y administrar exámenes, sino como herramienta de retroalimentación para los estudiantes.


Todas estas son carreras armamentísticas: iteración rápida y adversarial para aplicar una tecnología común a propósitos opuestos. Muchas de estas carreras armamentísticas tienen efectos claramente nocivos. La sociedad sufre si los tribunales se atascan con casos frívolos fabricados por IA. También hay perjuicio si las medidas establecidas de rendimiento académico —publicaciones y citas— se acumulan para aquellos investigadores más dispuestos a enviar fraudulentamente cartas y artículos escritos por IA en lugar de para aquellos cuyas ideas tienen el mayor impacto. El temor es que, al final, el comportamiento fraudulento facilitado por la IA socave los sistemas e instituciones de los que depende la sociedad.
Ventajas de la IA

Sin embargo, algunas de estas carreras armamentísticas de IA tienen ventajas ocultas sorprendentes, y la esperanza es que al menos algunas instituciones sean capaces de cambiar de manera que las haga más fuertes.

La ciencia parece probable que se vuelva más fuerte gracias a la IA, aunque se enfrenta a un problema cuando la IA comete errores. Considérese el ejemplo del fraseo sin sentido generado por IA que se filtra en los artículos científicos.

Un científico que utiliza una IA para ayudar a escribir un artículo académico puede ser algo bueno, si se usa con cuidado y con la debida divulgación. La IA es cada vez más una herramienta principal en la investigación científica: para revisar bibliografía, programar y para codificar y analizar datos. Y para muchos, se ha convertido en un apoyo crucial para la expresión y la comunicación científica. Antes de la IA, los investigadores mejor financiados podían contratar humanos para ayudarles a escribir sus artículos académicos. Para muchos autores cuya lengua materna no es el inglés, contratar este tipo de asistencia ha sido una necesidad costosa. La IA se la proporciona a todo el mundo.

En la ficción, las obras generadas por IA enviadas fraudulentamente causan daño, tanto a los autores humanos ahora sujetos a una mayor competencia como a aquellos lectores que pueden sentirse estafados tras leer sin saberlo la obra de una máquina. Pero algunos medios pueden acoger envíos asistidos por IA con la divulgación adecuada y bajo directrices particulares, y aprovechar la IA para evaluarlos frente a criterios como originalidad, encaje y calidad.

Otros pueden rechazar el trabajo generado por IA, pero esto tendrá un coste. Es improbable que ningún editor humano o tecnología pueda mantener la capacidad de diferenciar la escritura humana de la de la máquina. En cambio, los medios que deseen publicar exclusivamente a humanos tendrán que limitar los envíos a un conjunto de autores en los que confíen que no usarán IA. Si estas políticas son transparentes, los lectores pueden elegir el formato que prefieran y leer felizmente de cualquiera o de ambos tipos de medios.

Tampoco vemos ningún problema si un buscador de empleo utiliza la IA para pulir su currículum o escribir mejores cartas de presentación: los ricos y privilegiados han tenido acceso durante mucho tiempo a asistencia humana para esas cosas. Pero se cruza la línea cuando las IA se utilizan para mentir sobre la identidad y la experiencia, o para hacer trampas en las entrevistas de trabajo.

Del mismo modo, una democracia requiere que sus ciudadanos sean capaces de expresar sus opiniones a sus representantes, o entre sí a través de un medio como el periódico. Los ricos y poderosos han sido capaces durante mucho tiempo de contratar escritores para convertir sus ideas en prosa persuasiva, y que las IA proporcionen esa asistencia a más gente es algo bueno, en nuestra opinión. Aquí, los errores y el sesgo de la IA pueden ser perjudiciales. Los ciudadanos pueden estar usando la IA para algo más que un atajo para ahorrar tiempo; puede estar aumentando su conocimiento y capacidades, generando declaraciones sobre factores históricos, legales o políticos que no se puede esperar razonablemente que verifiquen de forma independiente.

Impulsor del fraude


Lo que no queremos es que los grupos de presión utilicen las IA en campañas de astroturfing, escribiendo múltiples cartas y haciéndolas pasar por opiniones individuales. Esto, también, es un problema más antiguo que las IA están empeorando.

Lo que diferencia lo positivo de lo negativo aquí no es ningún aspecto inherente de la tecnología, es la dinámica de poder. La misma tecnología que reduce el esfuerzo requerido para que un ciudadano comparta su experiencia vivida con su legislador también permite a los intereses corporativos tergiversar al público a escala. La primera es una aplicación de la IA igualadora de poder que mejora la democracia participativa; la segunda es una aplicación concentradora de poder que la amenaza.

En general, creemos que la asistencia en la escritura y cognitiva, disponible desde hace mucho para los ricos y poderosos, debería estar disponible para todos. El problema viene cuando las IA facilitan el fraude. Cualquier respuesta necesita equilibrar la adopción de esa democratización del acceso recién descubierta con la prevención del fraude... No hay forma de apagar esta tecnología. Las IA altamente capaces están ampliamente disponibles y pueden ejecutarse en un ordenador portátil. Las directrices éticas y los límites profesionales claros pueden ayudar, para aquellos que actúen de buena fe. Pero nunca habrá una forma de detener totalmente a los escritores académicos, buscadores de empleo o ciudadanos de usar estas herramientas, ya sea como asistencia legítima o para cometer fraude. Esto significa más comentarios, más cartas, más solicitudes, más envíos.

El problema es que quienquiera que esté en el extremo receptor de este diluvio impulsado por la IA no puede lidiar con el aumento del volumen. Lo que puede ayudar es desarrollar herramientas de IA asistenciales que beneficien a las instituciones y a la sociedad, al tiempo que limitan el fraude. Y eso puede significar adoptar el uso de la asistencia de la IA en estos sistemas adversariales, aunque la IA defensiva nunca logre la supremacía.
Equilibrar los daños con los beneficios

La comunidad de ciencia ficción lleva lidiando con la IA desde 2023. Clarkesworld finalmente reabrió los envíos, afirmando que tiene una forma adecuada de separar las historias escritas por humanos de las escritas por IA. Nadie sabe cuánto tiempo, o cómo de bien, seguirá funcionando eso.

La carrera armamentística continúa. No hay una forma sencilla de saber si los beneficios potenciales de la IA superarán a los daños, ahora o en el futuro. Pero como sociedad, podemos influir en el equilibrio de los daños que causa y las oportunidades que presenta mientras nos abrimos paso a través del cambiante paisaje tecnológico.

Read more...

Contenido Fantasma o datos no estructurados: el Criterio Archivístico como Motor de la Inteligencia Empresarial

>>  jueves, 5 de febrero de 2026

Gobernanza de la Información no Estructurada
Por: Lic. carmen Marín con apoyo de Gemini




El Criterio Archivístico como Motor de la Inteligencia Empresarial
 
1. El Diagnóstico: La Trampa de la Automatización sin Control


Tras una investigación de las tendencias actuales en gestión de contenidos, se observa que muchas organizaciones cometen el error de implementar soluciones de Inteligencia Artificial (IA) bajo una visión puramente tecnológica. El resultado suele ser la creación de silos digitales más rápidos, pero igual de caóticos.

El 90% de los datos no estructurados no se resuelve con más almacenamiento, sino con valoración y clasificación, procesos que pertenecen estrictamente a la ciencia archivística.
 
2. El Criterio Archivístico en la Implementación de IA

El rol del profesional de la archivología, en la implementación de tecnologías de captura inteligente no es operativo, sino estratégico y prescriptivo. La IA es el "músculo", pero el archivólogo es el "cerebro" que dicta las reglas:

  • Entrenamiento Semántico: La IA clasifica mediante lenguaje natural, pero es el archivólogo quien define el tesauro y el vocabulario controlado para que la máquina no confunda una "factura de servicios" con un "contrato de consultoría".
  • Determinación de Metadatos Críticos: El archivólogo investiga qué datos son necesarios para la trazabilidad legal y administrativa, instruyendo a los sistemas sobre qué extraer para que el documento tenga valor probatorio.
  • Gobernanza del Ciclo de Vida: Un sistema de IA puede etiquetar un documento, pero solo el criterio archivístico determina, basándose en la normativa vigente, si ese documento debe conservarse 5, 20 años o de forma permanente.


3. Modelo de Colaboración Interdisciplinaria

Para enfrentar el "Contenido Fantasma", es imperativo diferenciar las esferas de actuación para evitar el desplazamiento de competencias:

Área de Investigación

Responsabilidad de Sistemas (IT)

Responsabilidad de Archivología

Infraestructura

Mantener los servidores y la conectividad del motor de IA.

Definir la arquitectura de la información y la jerarquía de fondos.

Captura de Datos

Asegurar que la herramienta de extracción funcione técnicamente.

Validar la integridad y autenticidad del dato extraído.

Seguridad

Cifrado de datos y control de perímetros (Firewalls).

Clasificación de seguridad basada en la sensibilidad del contenido.

Eliminación

Borrado físico de los datos en los discos.

Dictamen de valoración para la eliminación legalmente segura.



4. Conclusión 

La investigación demuestra que el éxito de la transformación digital no reside en el software, sino en la metodología. El profesional de sistemas garantiza que el software corra; el profesional de la archivología garantiza que la información sirva.

Sin la intervención del archivólogo, la empresa corre el riesgo de automatizar la obsolescencia y perder el control sobre su responsabilidad legal. Mi propuesta es liderar la configuración de estas herramientas desde el diseño (Privacy and Archiving by Design), asegurando que el contenido deje de ser "fantasma" para convertirse en un activo auditable.


El archivólogo no no es un "organizador de papeles", es el Arquitecto de Reglas de Negocio esenciales para que cualquier IA empresarial pueda operar sin riesgos legales.

Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP