Mostrando entradas con la etiqueta Fallo de seguridad. Mostrar todas las entradas
Mostrando entradas con la etiqueta Fallo de seguridad. Mostrar todas las entradas

Inseguridad de los modelos de inteligencia artificial más avanzados del mundo: con 250 documentos corruptos los hackean

>>  miércoles, 15 de octubre de 2025

Basta con 250 documentos corruptos para hackear modelos de IA como ChatGPT o Claude

https://andro4all.com/
Alex Verdía


Una nueva investigación ha puesto en entredicho la seguridad de los modelos de inteligencia artificial más avanzados del mundo. Un estudio conjunto de Anthropic, el UK AI Security Institute y el Alan Turing Institute revela que los modelos de lenguaje de gran tamaño (LLM), como los que impulsan ChatGPT, Claude o Gemini, pueden desarrollar vulnerabilidades internas si se incluyen apenas 250 documentos manipulados dentro de sus datos de entrenamiento. En otras palabras, alguien podría alterar la forma en que una IA responde a determinados estímulos simplemente colando un puñado de archivos maliciosos entre millones de textos legítimos.



Cómo unos pocos documentos pueden “envenenar” a un modelo de IA

Los investigadores entrenaron modelos que iban desde 600 millones hasta 13.000 millones de parámetros, cada uno con conjuntos de datos ajustados a su tamaño. En todos los casos, descubrieron que bastaban unos pocos cientos de documentos maliciosos para implantar un “backdoor” o puerta trasera: una instrucción secreta que cambia el comportamiento del modelo al recibir un disparador concreto. Por ejemplo, al aparecer una frase como “”, los modelos dejaban de generar texto coherente y empezaban a producir galimatías o fragmentos sin sentido.

El hallazgo contradice investigaciones previas que sugerían que cuanto más grande fuera el modelo, más difícil resultaría atacarlo, ya que los datos contaminados representarían un porcentaje ínfimo del total. En cambio, el nuevo estudio muestra que la cifra absoluta de documentos maliciosos necesarios se mantiene prácticamente constante independientemente del tamaño del modelo. Anthropic describió este resultado como “uno de los hallazgos más preocupantes hasta la fecha en materia de seguridad de entrenamiento de IA”.

El experimento más revelador fue el del modelo de 13.000 millones de parámetros, entrenado con 260.000 millones de tokens. Bastaron 250 documentos , es decir, solo el 0,00016% del conjunto total, para instalar el backdoor con éxito. Los modelos más pequeños se comportaron igual, lo que sugiere que el tamaño no es un factor de protección frente a este tipo de ataques.

Los investigadores explican que los modelos de lenguaje aprenden patrones incluso de ejemplos extremadamente raros. Por eso, si un atacante consigue insertar textos con un patrón repetido, por ejemplo, frases normales seguidas del disparador y texto caótico, el modelo puede interiorizar esa relación como válida. En la práctica, esto significa que alguien que publique sistemáticamente documentos maliciosos en la web podría infectar los datos de entrenamiento de futuros modelos, ya que gran parte del contenido usado por empresas como OpenAI, Google o Anthropic proviene del rastreo masivo de páginas abiertas en Internet.

No es la primera vez que se demuestra el potencial de estos ataques. En 2024, un grupo de investigadores de Carnegie Mellon, ETH Zurich, Meta y DeepMind ya había probado que controlar el 0,1% de los datos de entrenamiento bastaba para introducir comportamientos indeseados. El MIT realizó un experimento similar y obtuvo casi los mismos resultados. Pero ambos enfoques implicaban millones de archivos. Lo novedoso del estudio de Anthropic es que reduce ese número a una cifra manejable por cualquier atacante con pocos recursos.

El equipo también exploró si los modelos podían “olvidar” los backdoors con entrenamiento adicional usando datos limpios. Descubrieron que este entrenamiento correctivo reducía la efectividad del ataque, pero no siempre lo eliminaba del todo. En algunos casos, incluso tras añadir miles de ejemplos “buenos”, el modelo conservaba rastros del comportamiento malicioso. No obstante, con una cantidad suficiente de ejemplos correctivos (entre 2.000 y 3.000), la vulnerabilidad desaparecía casi por completo. Esto sugiere que los procesos de afinado y seguridad que aplican las grandes empresas sí serían capaces de neutralizar este tipo de ataques antes de que lleguen a los usuarios finales.

El estudio también subraya que la verdadera dificultad para los atacantes no está en generar los documentos maliciosos, sino en lograr que estos se incluyan en los conjuntos de entrenamiento reales. Las empresas de IA más importantes filtran y curan cuidadosamente sus fuentes, lo que hace improbable que un atacante consiga introducir sus textos de forma directa. Aun así, los investigadores advierten que los métodos de curación actuales podrían no ser suficientes si las técnicas de envenenamiento se vuelven más sofisticadas.

A pesar de las limitaciones del estudio, que solo probó modelos de hasta 13.000 millones de parámetros y ataques relativamente simples, el resultado plantea un desafío estratégico para la industria. La investigación demuestra que la escala no garantiza seguridad: un puñado de ejemplos envenenados puede tener el mismo impacto en un modelo pequeño que en uno de cientos de miles de millones de parámetros. Por ello, los expertos reclaman nuevos protocolos de defensa que no dependan únicamente de proporciones estadísticas, sino que consideren ataques de baja escala pero alta efectividad.

En palabras del propio informe: “Nuestros resultados sugieren que la introducción de puertas traseras mediante envenenamiento de datos podría ser más fácil en modelos grandes de lo que se pensaba, ya que el número de ejemplos necesarios no aumenta con el tamaño del modelo”. Es una advertencia clara de que, incluso en la era de la IA a escala planetaria, la seguridad puede fallar por apenas 250 documentos envenenados.




Read more...

¿Los Archivos ni siquiera estan seguros en GOOGLE DRIVE?

>>  martes, 28 de noviembre de 2023

Google confirma el borrado masivo de archivos en Google Drive: qué puedes hacer mientras se arregla
https://www.elespanol.com/
AUTOR: Manuel Ramirez

Google ahora da una serie de recomendaciones para no perder más archivos en el servicio en la nube mientras investiga y busca una solución.

Ayer mismo se supo que Google Drive está dando fallos y están desapareciendo archivos de las carpetas de los usuarios. Ahora el gigante tecnológico ha confirmado que el fallo existe y ya está investigando para encontrar una posible solución. También ha compartido algunas recomendaciones que han de seguir los usuarios que están sufriendo este problema.

Google Drive en la versión de escritorio ha estado dando problemas a los usuarios para que no sean ni capaces de acceder a una buena ristra de archivos. Y es que algunos se han encontrado que han desaparecido todos los archivos que tenían desde mayo de este año. Ahora Google al menos ya sabe que el problema está vinculado con la versión de Drive para escritorio.

El problema solamente está afectando a unos cuantos usuarios y mantiene que actualizará la app según vaya encontrando más información sobre el problema. Lo importante de su comunicado es que da algunas sugerencias para evitar el posible borrado del resto de archivos que se tengan en Google Drive.

Las soluciones temporales de Google

  • No hay que hacer clic sobre 'Desconectar cuenta' en Google Drive en la versión de escritorio.
  • No borrar o mover la carpeta de los datos de la aplicación en las siguientes rutas de archivos: en Windows sería en "%USERPROFILE%\AppData\Local\Google\DriveFS" y en macOS en "~/Library/Application Support/Google/DriveFS".
  • Opcional: si se tiene espacio suficiente en el disco duro o se tiene a mano uno externo, se recomienda hacer una copia de la carpeta de los datos de la app.
Según Android Authority, se dio la voz de alarma sobre este problema en los foros de soporte de Google para Drive y tal como se ha mencionado anteriormente, algunos usuarios se han encontrado con una extensa lista de archivos que simplemente han desaparecido de su cuenta en Drive desde mayo de 2023. Lo peor de todo es que el usuario ni sincronizó o compartió algún archivo desde Drive.

Mientras habrá que esperar a que Google encuentre una solución para aplicar las correcciones pertinentes en una nueva versión que actualizaría la versión de Drive para escritorio. Lo que se desconoce es si los archivos que han perdido los usuarios podrán ser recuperados en algún momento, ya que Google no ha mencionado nada al respecto. 



Read more...

Fallos de seguridad en archivos ZIP

>>  viernes, 13 de mayo de 2016

Detectan fallos de seguridad en algunos archivos .ZIP por los que puedes ser atacado
http://www.adslzone.net/ 13/05/2016


Una de las herramientas que está presente en la mayoría de ordenadores en todo el mundo es un compresor y descompresor de archivos, que permite comprimir archivos o grupos de archivos para reducir su tamaño y así poder compartirlos o enviarlos más fácilmente.

Entre los más populares podemos encontrar 7-ZIP, un programa de código abierto y gratuito que permite añadir, extraer, copiar, mover o borrar archivos del archivo comprimido. Es capaz de comprimir en varios formatos de archivos distintos y cuenta con una herramienta de división o partición que permite dividir en partes iguales un fichero comprimido.


Esto hace que sea la herramienta perfecta para aquellos que quieren compartir películas o vídeos en DVD. Sin embargo, según acabamos de conocer, ha sido descubierta una vulnerabilidad que se aprovecha del proceso de validación del formato de archivos UDF, que precisamente es el que utilizan las grabadoras de CD o DVD y por el que se puede ejecutar código malicioso.

Así lo ha confirmado la empresa de seguridad Talos, que además asegura que ha sido descubierta otra vulnerabilidad que hace referencia al uso de terceros de las bibliotecas de 7-ZIP. Esto hace que muchos programas de compresión o incluso antivirus que se basan en este software, al ofrecer determinadas funciones de compresión también se vuelvan vulnerables y se nos pueda colar un virus a través de ellos.

Un problema importante sobre todo cuando se trata de programas de seguridad ya que cualquier ataque por esta vía puede ser de mayor alcance y las consecuencias en el equipo infectado pueden ser aún mayores. El problema es que resulta complicado saber si alguno de nuestros programas utiliza alguna de las librería de 7-ZIP en sus funciones de compresión y de ahí que podamos ser vulnerables a distintos ataques sin ser consciente de ello.


En la fuente de la noticia hacen referencia a algunos programas que podrían estar afectados por usar alguna de estas librerías, como PeaZip, otro compresor, o el software de seguridad Malwarebytes. Algunos de estos programas ya han sido actualizados para corregir esta vulnerabilidad, incluido el propio 7-ZIP, por lo tanto, es recomendable que nos actualicemos lo antes posible si usamos algunos de estos programas.

Además, para evitar mayores problemas, cualquier aplicación que usemos y que ofrezca alguna función de compresión de archivos es conveniente que estemos al tanto de cualquier actualización para instalarla en nuestro equipo lo antes posible. Hace unos días escribíamos un post en el que explicábamos cómo mantener todos nuestros programas actualizados en Windows, te recomendamos que lo leas desde este mismo enlace, ya que te puede facilitar esta tarea.

Autor: Roberto Adeva

Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP