Mostrando entradas con la etiqueta hackear. Mostrar todas las entradas
Mostrando entradas con la etiqueta hackear. Mostrar todas las entradas

Ciberataque: millones de archivos de investigaciones oficiales fueron sustraidos de servidores del Ministerio del Interior Frances

>>  viernes, 19 de diciembre de 2025

El ministro del Interior de Francia denuncia el robo de "información confidencial" tras un ciberataque
https://www.infobae.com/
Newsroom Infobae



La intrusión informática perpetrada por un grupo no identificado logró acceder durante varios días a servidores del Ministerio del Interior de Francia, extrayendo millones de archivos vinculados con investigaciones oficiales y con personas buscadas por la justicia. Según indicó el ministro del Interior francés, Laurent Nunez, este incidente comprometió bases de datos críticas y derivó en la obtención ilícita de contraseñas de correos electrónicos ministeriales, aunque las autoridades descartan que la seguridad pública se haya visto afectada.

De acuerdo con lo informado por France Info y recogido por diversos medios europeos, el ataque informático permitió el robo de decenas de carpetas con información clasificada, especialmente registros pertenecientes al Historial Criminal y a la Lista de Personas en Busca y Captura del Ministerio. Las pesquisas apuntan a que los atacantes consultaron y sustrajeron datos de relevancia para investigaciones en curso, con la potencial consecuencia de entorpecer el trabajo judicial y policial.

Tal como reportó France Info, la incursión se llevó a cabo accediendo a credenciales obtenidas de cuentas de correo electrónico del propio ministerio. El titular de Interior detalló que los hackers se hicieron con las contraseñas, lo que permitió la infiltración prolongada en los sistemas de información gubernamentales. Según declaró Nunez en una entrevista con el medio citado, todavía no se ha precisado el alcance total del robo ni se conocen las implicancias concretas para la operatividad de las fuerzas de seguridad y para la protección de los expedientes judiciales.

El ministro recalcó ante France Info que, pese a la magnitud del incidente y al volumen de datos sustraídos, las autoridades consideran que la integridad de los ciudadanos no corre peligro. “No han solicitado ningún rescate, pero se trata de un acto grave que puede obstaculizar las investigaciones judiciales”, puntualizó Nunez, subrayando que el Gobierno francés evalúa la situación con máxima atención.

El medio France Info señaló que el ataque, de acuerdo con lo admitido por el Ministerio del Interior, fue una acción persistente que se extendió por varios días antes de ser detectada y contenida. Si bien no se ha atribuido la responsabilidad explícita a ningún grupo específico, las autoridades francesas reconocen la necesidad de reforzar los protocolos de seguridad digital para evitar incidentes similares en el futuro.

Además, fuentes oficiales consultadas por France Info sostienen que se investiga cómo lograron los delincuentes acceder a información sensible mediante las cuentas de correo ministeriales y cuáles pueden ser las consecuencias para las investigaciones criminales en marcha. El robo de contraseñas sugiere un nivel de sofisticación importante por parte de los atacantes, quienes consiguieron sortear barreras de protección y poner en riesgo datos clave para la lucha contra el delito.

El Ministerio del Interior francés, de acuerdo con declaraciones a France Info, ha iniciado un proceso de revisión de los sistemas comprometidos y trabaja de manera coordinada con los servicios judiciales y de ciberseguridad para cercar a los responsables y reducir al mínimo las repercusiones del ataque. Mientras continúan las tareas técnicas y legales, el Gobierno insiste ante la ciudadanía que no existen factores de riesgo inmediato para las personas cuyos datos pudieron verse afectados por esta intrusión.

La investigación sobre este incidente persiste, mientras el Ejecutivo explora alternativas para reforzar la seguridad digital en áreas críticas del aparato estatal. Laurent Nunez, en sus declaraciones reproducidas por France Info, reiteró que la prioridad es restablecer completamente la seguridad en los sistemas del ministerio y colaborar con la justicia para identificar a los autores del ataque y limitar el daño potencial sobre los procesos judiciales vigentes.




Read more...

Inseguridad de los modelos de inteligencia artificial más avanzados del mundo: con 250 documentos corruptos los hackean

>>  miércoles, 15 de octubre de 2025

Basta con 250 documentos corruptos para hackear modelos de IA como ChatGPT o Claude

https://andro4all.com/
Alex Verdía


Una nueva investigación ha puesto en entredicho la seguridad de los modelos de inteligencia artificial más avanzados del mundo. Un estudio conjunto de Anthropic, el UK AI Security Institute y el Alan Turing Institute revela que los modelos de lenguaje de gran tamaño (LLM), como los que impulsan ChatGPT, Claude o Gemini, pueden desarrollar vulnerabilidades internas si se incluyen apenas 250 documentos manipulados dentro de sus datos de entrenamiento. En otras palabras, alguien podría alterar la forma en que una IA responde a determinados estímulos simplemente colando un puñado de archivos maliciosos entre millones de textos legítimos.



Cómo unos pocos documentos pueden “envenenar” a un modelo de IA

Los investigadores entrenaron modelos que iban desde 600 millones hasta 13.000 millones de parámetros, cada uno con conjuntos de datos ajustados a su tamaño. En todos los casos, descubrieron que bastaban unos pocos cientos de documentos maliciosos para implantar un “backdoor” o puerta trasera: una instrucción secreta que cambia el comportamiento del modelo al recibir un disparador concreto. Por ejemplo, al aparecer una frase como “”, los modelos dejaban de generar texto coherente y empezaban a producir galimatías o fragmentos sin sentido.

El hallazgo contradice investigaciones previas que sugerían que cuanto más grande fuera el modelo, más difícil resultaría atacarlo, ya que los datos contaminados representarían un porcentaje ínfimo del total. En cambio, el nuevo estudio muestra que la cifra absoluta de documentos maliciosos necesarios se mantiene prácticamente constante independientemente del tamaño del modelo. Anthropic describió este resultado como “uno de los hallazgos más preocupantes hasta la fecha en materia de seguridad de entrenamiento de IA”.

El experimento más revelador fue el del modelo de 13.000 millones de parámetros, entrenado con 260.000 millones de tokens. Bastaron 250 documentos , es decir, solo el 0,00016% del conjunto total, para instalar el backdoor con éxito. Los modelos más pequeños se comportaron igual, lo que sugiere que el tamaño no es un factor de protección frente a este tipo de ataques.

Los investigadores explican que los modelos de lenguaje aprenden patrones incluso de ejemplos extremadamente raros. Por eso, si un atacante consigue insertar textos con un patrón repetido, por ejemplo, frases normales seguidas del disparador y texto caótico, el modelo puede interiorizar esa relación como válida. En la práctica, esto significa que alguien que publique sistemáticamente documentos maliciosos en la web podría infectar los datos de entrenamiento de futuros modelos, ya que gran parte del contenido usado por empresas como OpenAI, Google o Anthropic proviene del rastreo masivo de páginas abiertas en Internet.

No es la primera vez que se demuestra el potencial de estos ataques. En 2024, un grupo de investigadores de Carnegie Mellon, ETH Zurich, Meta y DeepMind ya había probado que controlar el 0,1% de los datos de entrenamiento bastaba para introducir comportamientos indeseados. El MIT realizó un experimento similar y obtuvo casi los mismos resultados. Pero ambos enfoques implicaban millones de archivos. Lo novedoso del estudio de Anthropic es que reduce ese número a una cifra manejable por cualquier atacante con pocos recursos.

El equipo también exploró si los modelos podían “olvidar” los backdoors con entrenamiento adicional usando datos limpios. Descubrieron que este entrenamiento correctivo reducía la efectividad del ataque, pero no siempre lo eliminaba del todo. En algunos casos, incluso tras añadir miles de ejemplos “buenos”, el modelo conservaba rastros del comportamiento malicioso. No obstante, con una cantidad suficiente de ejemplos correctivos (entre 2.000 y 3.000), la vulnerabilidad desaparecía casi por completo. Esto sugiere que los procesos de afinado y seguridad que aplican las grandes empresas sí serían capaces de neutralizar este tipo de ataques antes de que lleguen a los usuarios finales.

El estudio también subraya que la verdadera dificultad para los atacantes no está en generar los documentos maliciosos, sino en lograr que estos se incluyan en los conjuntos de entrenamiento reales. Las empresas de IA más importantes filtran y curan cuidadosamente sus fuentes, lo que hace improbable que un atacante consiga introducir sus textos de forma directa. Aun así, los investigadores advierten que los métodos de curación actuales podrían no ser suficientes si las técnicas de envenenamiento se vuelven más sofisticadas.

A pesar de las limitaciones del estudio, que solo probó modelos de hasta 13.000 millones de parámetros y ataques relativamente simples, el resultado plantea un desafío estratégico para la industria. La investigación demuestra que la escala no garantiza seguridad: un puñado de ejemplos envenenados puede tener el mismo impacto en un modelo pequeño que en uno de cientos de miles de millones de parámetros. Por ello, los expertos reclaman nuevos protocolos de defensa que no dependan únicamente de proporciones estadísticas, sino que consideren ataques de baja escala pero alta efectividad.

En palabras del propio informe: “Nuestros resultados sugieren que la introducción de puertas traseras mediante envenenamiento de datos podría ser más fácil en modelos grandes de lo que se pensaba, ya que el número de ejemplos necesarios no aumenta con el tamaño del modelo”. Es una advertencia clara de que, incluso en la era de la IA a escala planetaria, la seguridad puede fallar por apenas 250 documentos envenenados.




Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP