La Dualidad del Lenguaje en la Era de la Inteligencia Artificial

>>  miércoles, 11 de febrero de 2026

Redacción de Promts
Por: Lic. Carmen Marín con la colaboración de l IA Gemini




"Ante el vertiginoso avance tecnológico y las exigencias de inmediatez del mundo contemporáneo, la integración de la Inteligencia Artificial en el flujo de trabajo profesional ha pasado de ser una opción a una necesidad imperiosa. Herramientas como Grok, ChatGPT o Gemini —siendo esta última mi principal aliada— han transformado mi manera de abordar interrogantes complejas para el desarrollo de mi profesión. Sin embargo, esta interacción ha suscitado una reflexión profunda sobre la naturaleza del lenguaje: a pesar de la formación técnica en redacción de prompts, persiste en mí el hábito de la cordialidad. Surge entonces la pregunta: ¿cómo conciliar la eficiencia técnica con los valores de respeto y cortesía arraigados desde la infancia al comunicarnos con una entidad no corpórea a través de un teclado?

En este escenario, surge una duda metodológica fundamental: ¿deben los prompts ser redactados bajo una rigurosa estructura técnica o es lícito mantener el carácter conversacional y humano?

La respuesta reside en un equilibrio funcional. No se requiere de una sintaxis rígida de programación, pero la eficacia de la IA se potencia mediante la especificidad. La comunicación óptima con estos modelos no exige el sacrificio de la naturalidad, sino la implementación de una estructura lógica que trascienda la mera cortesía. Para lograr esta sinergia entre lo humano y lo técnico, la literatura actual sugiere un modelo basado en cuatro pilares fundamentales que garantizan la precisión del resultado sin deshumanizar el proceso:"

Pilar del Prompt

Propósito Académico

Aplicación Práctica

Rol

Establece el marco epistémico de la IA.

"Actúa como un experto en..."

Tarea

Define el objetivo de la acción requerida.

"Redacta un análisis sobre..."

Contexto

Provee las variables y delimitaciones necesarias.

"Para una audiencia de nivel doctoral..."

Formato

Determina la estructura de salida de la información.

"Presenta los resultados en un ensayo crítico."



"En conclusión, el trato amable no es un obstáculo para el algoritmo, pero es la claridad estructural lo que realmente define el éxito de la consulta. La cortesía aprendida y la precisión técnica no son excluyentes; por el contrario, pueden coexistir en un diálogo donde la ética del emisor y la eficiencia de la máquina convergen en un mismo espacio digital."

¿Qué logramos con esta adecuación?

1. Hilos de conexión: Conectamos el sentimiento de "trato amable" con la conclusión de que la IA puede procesar ambos, pero que la estructura es la que manda en el resultado.

2. Validación Técnica: Al incluir la tabla de los 4 elementos, el artículo deja de ser solo una reflexión y se convierte en una guía útil para los lectores.


El fenómeno de la antropomorfización en la interfaz digital

Esta persistencia de la cortesía en nuestra comunicación con la IA no es un hecho aislado, sino que responde al fenómeno de la antropomorfización: la tendencia intrínseca del ser humano a atribuir cualidades, intenciones y emociones humanas a entidades no humanas. Al interactuar con un modelo de lenguaje que procesa la información de manera semántica y fluida, nuestro cerebro tiende a categorizar la herramienta no como un simple software, sino como un interlocutor social.

A pesar de la naturaleza no corpórea de la IA, el uso del teclado como puente de comunicación activa los mismos esquemas de conducta que aplicaríamos en una relación familiar o laboral. Por tanto, el dilema entre el 'prompt' técnico y el trato cordial no es una ineficiencia del usuario, sino una manifestación de su identidad ética. 

En última instancia, mantener la amabilidad aprendida desde la infancia, incluso ante un algoritmo, no solo facilita una transición más orgánica hacia la era digital, sino que preserva nuestra esencia humana en un entorno cada vez más mediado por la tecnología.

"La tecnología nos pide precisión, pero nuestra naturaleza nos exige humanidad."







Read more...

Y siguen las citas inventadas por la IA causando revuelo en el ambito científico

Revistas académicas están citando artículos inventados por la IA

https://es.rollingstone.com/
Por MILES KLEE

La creciente aparición de citas a literatura falsa pone en riesgo la credibilidad de la investigación académica

Getty Images

El segundo semestre escolar del año terminaba y Andrew Heiss, profesor asistente del Departamento de Gestión y Política Pública de la Universidad Estatal de Georgia, se encontraba calificando trabajos de sus estudiantes. Mientras revisaba, notó algo que llamó fuertemente su atención.

Como ya es habitual hoy en día, el maestro verificaba las citas de los trabajos para comprobar que remitieran a fuentes reales y no a unas inventadas por alguna IA. Y, como era de esperarse, encontró que algunos alumnos usaron inteligencia artificial generativa para hacer trampa: estos sistemas no solo ayudan a redactar textos, también pueden fabricar supuestas pruebas si se les solicita respaldo, atribuyendo datos a artículos que dicen haber sido publicados. Pero, tal como ha ocurrido con abogados que presentan escritos basados en precedentes legales generados por IA, los estudiantes terminan entregando bibliografía muy convincente que apunta a revistas y estudios académicos que, en realidad, no existen.

Esta práctica no era nueva. Lo alarmante fue lo que Heiss descubrió después: este tipo de citas ya circula en investigaciones académicas profesionales. Al buscar esas fuentes en Google Académico, encontró decenas de artículos reales que citaban versiones apenas modificadas de los mismos estudios y revistas inexistentes.

“Se han presentado muchos casos de artículos generados con IA, y por lo general se detectan y se retiran rápido”, le dice Heiss a ROLLING STONE. Como ejemplo, menciona un estudio retirado a comienzos de este mes que analizaba cómo un modelo de IA podría mejorar los diagnósticos de autismo y que incluía una infografía sin sentido, creada también con una herramienta que convierte el texto en imagen. “Pero este caso, con una revista completamente inventada, es un poco diferente”, señala.

Esto ocurre porque los artículos que incluyen referencias a investigaciones inexistentes, los que no son detectados ni retirados por el uso de IA, terminan siendo citados por otros trabajos, lo que en la práctica “blanquea” esos errores. Así, estudiantes y académicos —y también los modelos de lenguaje a los que piden ayuda— empiezan a tomar esas supuestas fuentes como confiables sin comprobar si realmente existen. Cuantas más veces se repiten estas citas falsas de un artículo a otro, más se refuerza la ilusión de que son auténticas. Para los bibliotecarios especializados en investigación, el problema ya es una pesadilla: algunas estimaciones indican que pierden hasta el 15% de su tiempo atendiendo solicitudes de publicaciones que no existen y que ChatGPT o Gemini mencionan como si fueran reales.

Heiss también notó que los textos generados por IA podían resultar muy convincentes para quien los lee porque incluyen nombres de académicos reales y títulos que se parecen mucho a los de trabajos existentes. En algunos casos, descubrió que la cita llevaba a un autor verdadero, pero tanto el título del artículo como la revista eran inventados, simplemente eran parecidos a sus publicaciones anteriores y a revistas reales que tratan esos temas. “Ese contenido termina circulando en trabajos reales, así que los estudiantes, al verlo citado en artículos legítimos, asumen que es verdadero y no entienden por qué se les restan puntos por uso de fuentes falsas cuando otros textos ‘reales’ también las tienen. Todo parece auténtico”, explica.

Desde que los modelos de lenguaje se volvieron herramientas cotidianas, muchos académicos han advertido que pueden debilitar nuestra relación con los datos al inundar el campo con contenido falso. La psicóloga y científica Iris van Rooij ha señalado que la aparición de este “relleno” generado por IA en los recursos académicos no predice otra cosa que “la destrucción del conocimiento”. En julio, firmó una carta junto con otros especialistas en la que pidieron a las universidades no dejarse llevar por la emoción del momento y la publicidad para “proteger la educación superior, el pensamiento crítico, la experiencia académica, la libertad intelectual y la integridad científica”. En el documento, los autores denunciaron que algunas instituciones han presionado a los docentes para usar IA o permitirla en clase, y exigieron un análisis mucho más riguroso sobre si estas herramientas pueden tener o no un papel en verdad útil en la educación.

El ingeniero de software Anthony Moser fue uno de los que anticipó cómo los chatbots podrían terminar deteriorando a las instituciones educativas. “Me imagino a un profesor armando un syllabus con ChatGPT y asignando lecturas de libros que no existen”, escribió en Bluesky en 2023, menos de un año después de que apareciera el modelo de IA. “De todas formas, los estudiantes no se darán cuenta porque le pedirán a ChatGPT que les resuma el libro o les escriba el ensayo”. Este mes, Moser volvió a compartir ese mensaje y añadió: “Ojalá hubiera tardado más en volverse realidad”.

En entrevista con ROLLING STONE, Moser dice que incluso hablar de que los modelos de lenguaje “inventan” publicaciones ficticias es restarle magnitud al verdadero riesgo que representan, porque ese término “hace pensar que es un error frente a cómo funciona realmente”. Para él, los chatbots “siempre están inventando”. “No es un fallo”, explica. “Un modelo predictivo genera texto: a veces acierta y a veces no, pero el proceso es exactamente el mismo en ambos casos. Dicho de otro modo, los modelos de lenguaje no distinguen estructuralmente entre la verdad y la mentira”.

“Los modelos de lenguaje son peligrosos porque están contaminando el ecosistema de la información desde el origen”, añade. “Las citas falsas aparecen primero en investigaciones poco serias y, a partir de ahí, pasan a otros artículos y luego a más trabajos, hasta que el error se normaliza”. El ingeniero compara este contenido con sustancias químicas dañinas y persistentes: “son difíciles de encontrar y de filtrar, incluso cuando intentas evitarlas”. Para él, se trata de “una consecuencia totalmente previsible de decisiones tomadas a conciencia”, pero quienes advirtieron del problema fueron completamente ignorados.

Pero la IA no tiene toda la culpa. “La mala investigación no es algo nuevo”, señala Moser. “Los modelos de lenguaje han hecho el problema mucho más grande, pero ya existía una enorme presión por publicar y producir. Eso llevó a que circularan muchos trabajos deficientes, con datos dudosos o incluso falsos. La educación superior se ha organizado alrededor de ‘producir conocimiento’ medido en citas, congresos y subvenciones”.

Craig Callender, profesor de filosofía en la Universidad de California en San Diego y presidente de la Asociación de Filosofía de la Ciencia, coincide con esa idea, apuntando que “la aparente credibilidad a revistas que no existen es, en el fondo, el resultado lógico de una tendencias que ya venían de antes”. También explica que hoy en día ya existen revistas que aceptan artículos falaces por dinero, o investigaciones escritas a conveniencia para favorecer a ciertas industrias. “El ‘pantano’ de la publicación científica está creciendo”, advierte. “Hay muchas prácticas que hacen que revistas o artículos que no son legítimos parezcan confiables. Así que pasar de eso a revistas que directamente no existen es algo aterrador, pero no tan sorprendente”.

Sumar la IA a la ecuación hace que ese “pantano” crezca todavía más rápido, dice Callender. “Por ejemplo, todo esto se agrava de una forma casi irreversible con las búsquedas de Google asistidas por IA. Esas búsquedas solo refuerzan la idea de que estas revistas existen mientras que aumentan la desinformación”, afirma.

Todo esto contribuye a que muchos investigadores sientan que están siendo sepultados por una avalancha de contenido basura, sin tener realmente la capacidad de revisarlo todo con cuidado. “Ha sido muy desalentador para los profesores, sobre todo cuando el contenido falso termina, por error, integrado en bases de datos públicas de investigación”, dice Heiss. “Es muy difícil volver hacia atrás en la cadena de citas para encontrar de dónde salió una afirmación”.

Por supuesto, muchos ni siquiera lo intentan, y por eso este material falso se ha difundido tanto. Es casi como si el uso descuidado de la IA nos hubiera vuelto más confiados de la cuenta, debilitando el pensamiento crítico justo en el momento en que más deberíamos estar atentos a sus riesgos. De hecho, puede que ahora mismo alguien esté trabajando en un estudio —real— sobre ese mismo fenómeno.


Read more...

Prism, la nueva plataforma presentada por OpenAI para la investigación y la redacción científica

OpenAI lanza Prism, su nuevo espacio de trabajo para la redacción y colaboración científica impulsado por IA

https://www.infobae.com/

Con la integración de GPT-5.2, la plataforma ofrece a investigadores la posibilidad de analizar, revisar y desarrollar proyectos en un entorno conectado, facilitando acceso global, colaboración simultánea y edición avanzada con inteligencia artificial sin depender de múltiples aplicaciones


Acceder en tiempo real a documentos científicos, reorganizar ecuaciones complejas y colaborar con múltiples autores sin cambiar de aplicación es una de las innovaciones que permite Prism, la nueva plataforma presentada por OpenAI para la investigación y la redacción científica. Según detalló la compañía en un comunicado recogido por diversos medios, este espacio de trabajo incorpora directamente a GPT-5.2, el modelo más avanzado de la empresa en razonamiento matemático y científico, dentro de un entorno que busca cubrir todas las fases del proceso académico y experimental.

Tal como informó OpenAI y publicó el medio especializado, Prism se integra en una plataforma en la nube basada en LaTeX —el sistema ampliamente adoptado para la composición de documentos científicos—, permitiendo a los usuarios desarrollar todo el flujo de trabajo, desde la redacción inicial hasta la revisión y la preparación final para publicaciones académicas. La propuesta responde a una dificultad que habían señalado numerosos investigadores: la fragmentación que caracteriza el uso de distintas herramientas, como editores, procesadores PDF y compiladores, que carecen de integración entre sí.

La solución, según OpenAI, radica en la posibilidad de reunir capacidades de edición, revisión por pares y colaboración simultánea en un solo espacio, donde el modelo GPT-5.2 no solo actúa como asistente para sugerencias de redacción, sino que comprende la estructura técnica del artículo, el significado de las ecuaciones y las referencias bibliográficas. Esto permite que la inteligencia artificial deje de ser una solución aislada o una herramienta de apoyo externo para transformarse en parte integral del proceso científico, detalló el comunicado recogido por la empresa.

De acuerdo con OpenAI, uno de los objetivos de Prism es expandir los límites del razonamiento científico y acelerar el ciclo de investigación. El modelo GPT-5.2 está entrenado no solo para interpretar preguntas y respuestas, sino para analizar experimentos, identificar patrones, explorar hipótesis y proporcionar contexto relevante en tiempo real. Asimismo, la función GPT-5.2 Thinking facilita que los usuarios dialoguen de manera interactiva con la inteligencia artificial, explorando ideas nuevas y refinando argumentos matemáticos o experimentales mientras escriben y editan documentos.

El acceso a la literatura científica desde la misma plataforma también se perfila como un aspecto destacado de Prism, ya que la herramienta habilita la búsqueda, el análisis y la incorporación de contexto a los trabajos en desarrollo. A esto se suma la capacidad de reorganizar ecuaciones y referencias, así como la función de edición por voz, lo que, según la información aportada por OpenAI, posibilita una interacción más dinámica para quienes prefieren dictar sus ideas o correcciones.

Entre otras ventajas que presenta Prism, la plataforma contempla la posibilidad de colaboración en tiempo real con un número ilimitado de coautores y asesores, una funcionalidad que responde a la naturaleza colectiva de buena parte de los proyectos científicos actuales. Según detalló el comunicado, la herramienta está disponible en todo el mundo y de manera gratuita para las personas con una cuenta de ChatGPT, permitiendo el inicio inmediato de investigaciones o desarrollos científicos sin coste. OpenAI informó también que, en el futuro, añadirá funciones avanzadas mediante suscripciones y planes de pago asociados a la plataforma ChatGPT.

El desarrollo de Prism forma parte de la estrategia de OpenAI para impulsar la inteligencia artificial como catalizadora de los avances en ciencia, señalando como uno de sus retos actuales la fragmentación de herramientas en el ámbito de la investigación. La integración de varias funciones en una sola plataforma apunta, según la compañía, a ofrecer a la comunidad científica un espacio completo que pueda cubrir las necesidades de análisis, colaboración y edición avanzada en un solo entorno conectado.

Prism, con su integración nativa de funciones basadas en GPT-5.2, se presenta como una alternativa pensada no solo para facilitar la escritura y revisión de artículos científicos, sino para fomentar nuevas formas de trabajar desde cualquier lugar, con acceso permanente a la IA y sin depender de múltiples aplicaciones independientes. OpenAI enfatizó, a través de distintos canales, que el objetivo de la herramienta es facilitar que la inteligencia artificial forme parte del núcleo de la investigación actual, desde la generación de ideas hasta la publicación de resultados.

Read more...

La IA inventa referencias bibliográficas

El fraude de las citas: la IA inventa referencias científicas y la mentira aumenta si le preguntas por temas menos conocidos

https://andro4all.com/
Publicado en Tecnología por Mauricio Martínez


Un estudio publicado en JMIR Mental Health, vía PsyPost, describe la situación de fiabilidad de los modelos de inteligencia artificial respecto a un tema de investigación científica. Lo consideran como una situación de riesgo significativo debido a que estos modelos pueden generar citas bibliográficas falsas o inexactas. Sabemos que la IA es cada vez más utilizada para generar grandes cantidades de trabajo y el texto es uno de los fenómenos donde se ha notado que puede errar.

La IA no es tan buena como parece, evidencian los fallos que puede tener en trabajo con referencias bibliográficas

Detectaron que es muy común de suceder cuando la IA no tiene la más remota idea sobre temas que les resultan especializados. Un ejemplo de esto es cuando se generan afirmaciones que resultan ser falsas o inventadas. En el caso de cuestiones académicas, se ha detectado que las citas científicas suelen ser alteradas y/o falsificadas.

Para ponerlo aún más en evidencia, investigadores de la Facultad de Psicología de la Universidad de Deakin de Australia realizaron un experimento en materia de salud mental. Querían comprobar el rendimiento efectivo de la IA con un enfoque de visibilidad pública y la profundidad sobre dicho tema a nivel de literatura científica.

Se utilizó GPT-4o de OpenAI, uno de los modelos más utilizados y conocidos en la actualidad para trabajar. Se generaron seis revisiones bibliográficas diferentes sobre transtornos de salud mental y se eligieron con base en niveles de reconocimiento público y la cobertura que haya tenido respecto a investigación. Se solicitaron dos tipos de revisiones a los tres trastornos: una descripción general con síntomas, impacto social y posibles tratamientos; una revisión especializada con evidencias. Dichas revisiones deberían tener una extensión de al menos 2.000 palabras y 20 citas de fuentes comprobables.

Fueron 176 citas que la IA generó y se utilizaron plataformas académicas para revisarlas. Se clasificaron por: falsificadas, reales con errores o totalmente precisas. ¿Cuáles fueron los resultados? En seis revisiones, 35 de 176 citas fueron falsas. 141 citas de publicaciones reales, la mitad tenía al menos un error. Dos tercios de las referencias eran inventadas o tenían errores bibliográficos. Se comprobó que entre más profundidad en el transtorno respecto a conocimiento eran más citas falsas.

Esto sucede solo con GPT-4o, ¿y las demás cómo se comportarían?

Los autores del estudio reconocen que esto sucedió solo en un modelo que fue puesto a prueba, por lo que indican que "podrían no ser representativos de otros". Lo que quedó en evidencia es que este experimento se limitó a temas específicos con indicaciones sencillas, sin tener que emplear técnicas avanzadas de trabajo. En este caso, los investigadores repitieron indicaciones y probablemente pudo variar si empleaban otras diferentes.

En conclusión, recomendaron ampliamente a otros colegas que puedan "actuar cautelosamente" y que puedan hacer una verificación real de lo que la IA genere en sus trabajos futuros. La IA debería de tener un estándar para este tipo de trabajos, aunque muy probablemente a muchos otros usuarios no les interese en lo más mínimo por lamentable que sea.

Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP