El Google acaba de transformar más de 1 mil millones de computadoras en depósito de IA.

>>  miércoles, 6 de mayo de 2026

Google acaba de transformar más de 1 mil millones de computadoras en depósito de IA.
https://x.com/namcios
Felipe Demartini


El Google acaba de transformar más de 1 mil millones de computadoras en depósito de IA. Incluso la tuya. Sin pedir. Sin avisar. Sin un solo popup. El Chrome descargó 4GB de modelo de inteligencia artificial en tu disco. El archivo se llama weights.bin, son los pesos del Gemini Nano. Queda en una carpeta llamada OptGuideOnDeviceModel dentro de tu perfil del Chrome. No autorizaste nada. Hasta existe una configuración para impedir, pero está enterrada en submenús que nadie encuentra. Y las funciones de IA vienen activadas por defecto. Si borras el archivo, el Chrome lo descarga de nuevo. Solo. En silencio. Tú decides qué queda en tu disco y el navegador simplemente lo ignora. Funciona así en Windows, macOS y Ubuntu. Logs forenses en macOS muestran que el archivo fue instalado el 24 de abril de 2026, mezclado con parches de seguridad. Desarrolladores dicen que esto ya viene pasando hace más de un año. Y hay un detalle que hace todo más ridículo: El Chrome 147 pone un botón "Modo IA" en la barra de direcciones. Ves eso, sabes que hay un modelo de IA en tu computadora, y asumes que tus búsquedas corren localmente. No corren. El Modo IA es 100% nube. Todo va a los servidores de Google. El modelo de 4GB en tu disco no tiene nada que ver con ese botón. ¿Para qué sirve? "Ayúdame a escribir" y detección de estafas. Cosas que viven en submenús de clic derecho que probablemente nunca abriste. El Google ocupó 4GB de tu disco sin pedir, para correr cosas que casi nadie usa, mientras la IA que de hecho ves manda todo a la nube. En Europa, investigadores ya señalan violación del Artículo 5(3) de la Directiva ePrivacy, que exige consentimiento antes de almacenar software en el dispositivo del usuario. Cómo desactivar: → chrome://flags → Busca "Optimization Guide On Device Model" → Desactiva → Reinicia el Chrome → Borra la carpeta OptGuideOnDeviceModel Tu computadora solo es tuya si te quedas atento.


Pirat_Nation 
@Pirat_Nation
Google Chrome está descargando silenciosamente un modelo de IA de aproximadamente 4 GB en las computadoras de muchos usuarios sin un consentimiento claro previo. El archivo, llamado weights.bin, forma parte del modelo de lenguaje en dispositivo de Google llamado Gemini Nano y se almacena en la carpeta de datos de usuario del navegador bajo OptGuideOnDeviceModel. Alimenta herramientas de IA integradas como “Ayúdame a escribir”, sugerencias de pestañas más inteligentes, detección de estafas en el dispositivo y resumen de páginas. La descarga se activa automáticamente para dispositivos que cumplen con los requisitos mínimos de hardware, y Chrome a menudo reemplaza los archivos si se eliminan. Aunque el modelo procesa datos localmente, la instalación ocurre en segundo plano con una notificación mínima. La escala es notable. Cientos de millones o miles de millones de instalaciones suman miles de toneladas de emisiones de carbono a nivel global por transferencia de datos, aunque cada una sea un evento único. Para evitarlo o eliminarlo, ve a chrome://flags, desactiva las entradas para el modelo en dispositivo de la guía de optimización y la API de Prompt, reinicia el navegador y elimina manualmente la carpeta.

Read more...

La nueva IA de Meta MUSE analiza historias médicas en segundos

Esta es la nueva IA de Meta entrenada por más de 1.000 médicos para hacer consultas

https://www.infobae.com/tecno/
Renzo Gonzales

El modelo es capaz de responder dudas clínicas complejas y analizar historias médicas en segundos

Muse fue desarrollada por Meta con la colaboración de 
más de 1.000 médicos de distintas especialidades. (Europa Press)

Meta presentó recientemente Muse, una inteligencia artificial de propósito general que fue entrenada por más de 1.000 médicos con el objetivo de transformar la atención sanitaria.

La compañía reunió a un equipo multidisciplinario de expertos para participar en el diseño, alimentación y validación de este sistema, que apunta a convertirse en una herramienta de apoyo clínico y científico sin precedentes en el sector salud.

Un proyecto con enfoque clínico desde el inicio

De acuerdo con el comunicado oficial de Meta, los profesionales médicos colaboraron activamente en todo el proceso de entrenamiento de Muse. El sistema fue alimentado con una enorme base de datos que combina textos médicos, artículos científicos y casos clínicos reales, lo que le permite comprender y analizar información sanitaria con una profundidad que otros sistemas aún no alcanzan.

Uno de los grandes diferenciales del modelo es su capacidad para interpretar preguntas clínicas y ofrecer respuestas fundamentadas en evidencia, citando fuentes y bibliografía relevante.

Con el entrenamiento a cargo de médicos, la IA promete respuestas clínicas precisas y fundamentadas en evidencia.

Capacidades principales en el ámbito sanitario

El desarrollo de Muse representa un avance en inteligencia artificial aplicada a la medicina. El sistema es capaz de responder preguntas clínicas complejas, interpretar historias clínicas, analizar resultados de estudios e incluso sugerir posibles diagnósticos diferenciales con base en la información proporcionada.

La herramienta también puede proponer protocolos de atención y alertar sobre posibles inconsistencias en reportes médicos. Otra de las funciones destacadas es la capacidad para explicar términos técnicos en lenguaje sencillo, facilitando la comunicación entre equipos médicos y pacientes.

Muse facilita la comunicación entre profesionales y pacientes al explicar términos técnicos en lenguaje claro.

En pruebas internas, Muse demostró una precisión superior al promedio de otros modelos de IA en tareas clínicas. Además, el sistema permite adaptar sus respuestas según el contexto y la especialidad médica, lo que amplía su potencial de uso en hospitales, centros de investigación y consultas remotas.

La integración de Muse en entornos sanitarios busca reducir errores de interpretación, aumentar la eficiencia en el análisis de datos y apoyar la toma de decisiones médicas con información contrastada.

Otras capacidades de Muse y la ambición de Meta en IA

Además de sus usos en medicina, Muse fue diseñada por Meta como una IA de propósito general. El sistema puede participar en conversaciones abiertas, generar textos complejos, resumir información de distintas fuentes y resolver problemas de lógica y matemáticas. Esta flexibilidad permite que Muse se adapte a diferentes contextos, desde la educación hasta la investigación científica y el desarrollo de nuevas tecnologías.

Además de salud, Muse tiene capacidades generales para resolver problemas y generar textos en diversos campos.

La presentación de Muse marca el regreso de Meta a la competencia por liderar la carrera global en inteligencia artificial, tras el lanzamiento de modelos como Llama 3. La compañía busca demostrar que puede ofrecer soluciones con impacto real en sectores críticos como la salud.

Una de las claves del proyecto es la transparencia: el modelo fue sometido a auditorías independientes y sus desarrolladores publicaron documentación técnica que permite a la comunidad científica evaluar el funcionamiento y los límites de la herramienta.

Perspectivas y próximos pasos


El lanzamiento de Muse abre nuevas posibilidades para la integración de la inteligencia artificial en la práctica médica cotidiana. La colaboración con médicos y la validación en escenarios reales son diferenciales clave que pueden marcar el futuro del sector salud. La herramienta ya se encuentra en fase de pruebas en hospitales y centros de investigación, con el objetivo de expandir su alcance en los próximos meses.

Read more...

Tu información en internet co la IA esta expuesta: cómo protegerla

Qué pasa con tus datos en ChatGPT: el riesgo invisible y cómo proteger tu información
https://www.noticiasnqn.com.ar
Por Tomás Games


El uso masivo de inteligencia artificial expone dudas sobre privacidad y seguridad. Expertos advierten que los datos ingresados no desaparecen y explican cómo evitar riesgos.



Cada vez que un usuario escribe en ChatGPT, esa información no se pierde al cerrar la ventana. Según especialistas en ciberseguridad, los mensajes se almacenan en servidores para mantener el historial y el contexto de las conversaciones.

Esto implica que cualquier dato ingresado —desde consultas simples hasta información sensible— pasa a formar parte de un sistema que procesa, analiza y conserva esos contenidos durante un tiempo determinado.

El crecimiento del uso de estas herramientas es masivo: ChatGPT ya supera los 900 millones de usuarios activos semanales, lo que amplifica la preocupación sobre cómo se manejan los datos personales.

Las tres etapas por las que pasan tus datos en la IA


Los expertos identifican un proceso clave en el tratamiento de la información dentro de plataformas de inteligencia artificial:
  • Ingreso: el usuario introduce datos en la conversación
  • Procesamiento: la IA analiza el contenido para generar respuestas
  • Almacenamiento: la información puede guardarse para mejorar el servicio o mantener contexto
Este flujo rompe una idea común: que las conversaciones son temporales o desaparecen automáticamente.

l mayor riesgo: compartir información confidencial

Uno de los principales peligros señalados por especialistas es la falsa sensación de privacidad.
Ingresar datos sensibles —como contraseñas, información bancaria, documentos legales o datos personales— puede exponer al usuario a filtraciones o usos indebidos, especialmente si hay vulnerabilidades externas o ataques informáticos.

Además, herramientas externas como extensiones maliciosas pueden interceptar la información ingresada en estos sistemas, aumentando el riesgo.

Cómo proteger tus datos al usar ChatGPT

Ante este escenario, expertos recomiendan medidas concretas para reducir riesgos:
  • Evitar compartir información personal o confidencial
  • No ingresar datos bancarios, contraseñas o documentos privados
  • Revisar extensiones del navegador y evitar las desconocidas
  • Utilizar funciones de seguridad avanzadas cuando estén disponibles
  • Controlar el historial y configuraciones de privacidad
También existen nuevas herramientas de protección, como sistemas de autenticación con llaves físicas o configuraciones de seguridad reforzada para evitar accesos no autorizados.

Por qué la privacidad en la IA es un tema crítico

El avance de la inteligencia artificial plantea un desafío global: equilibrar innovación con protección de datos.

A diferencia de otras plataformas, los sistemas de IA no solo almacenan información, sino que la utilizan activamente para generar respuestas, aprender patrones y mejorar su funcionamiento.

Esto hace que la gestión de datos sea más compleja y sensible, especialmente en un contexto donde millones de personas usan estas herramientas para tareas personales y laborales.

La clave: usar la inteligencia artificial con criterio

La conclusión es clara: 

ChatGPT y otras herramientas de IA son seguras en su uso general, pero requieren responsabilidad del usuario.

El principio básico sigue vigente:

no compartir información que no entregarías en un espacio público.

En un mundo cada vez más digital, la protección de los datos personales ya no es opcional, sino una parte esencial del uso cotidiano de la tecnología.

Read more...

La IA y la transformación de la forma en que los sistemas jurídicos producen, conservan y verifican la información documental.

La fe pública en la era digital. Reflexiones sobre tecnología, documentos digitales y modernización del sistema notarial chileno

https://www.diarioconstitucional.cl/


Presentación

La elaboración de este trabajo responde a una motivación que combina convicción profesional, vocación de servicio público y preocupación por el futuro de nuestras instituciones jurídicas frente a los desafíos tecnológicos actuales.[1]

A lo largo de mi trayectoria profesional, particularmente durante los años en que me desempeñé como litigante en la Corporación de Asistencia Judicial, tuve la oportunidad de ejercer el Derecho en contacto directo con las necesidades reales de las personas, especialmente de aquellos sectores que más requieren del apoyo del Estado para ejercer y proteger sus derechos. Esa experiencia marcó profundamente mi visión sobre la importancia de contar con instituciones jurídicas sólidas, confiables y accesibles para todos.

Con el paso del tiempo, y a partir también de mi experiencia vinculada al sistema documental del Estado y al funcionamiento de los archivos judiciales, surgió la inquietud de reflexionar sobre cómo estas instituciones deben enfrentar los profundos cambios que introduce la transformación digital. Este trabajo aborda esa pregunta desde la práctica, no desde la teoría.

Introducción

El desarrollo de las tecnologías digitales ha comenzado a transformar profundamente la forma en que los sistemas jurídicos producen, conservan y verifican la información documental. Durante siglos, el Derecho se estructuró sobre documentos en soporte material, cuya estabilidad física permitió desarrollar instituciones destinadas a garantizar su autenticidad, conservación y fuerza probatoria. Sin embargo, en las últimas décadas ese soporte ha cambiado radicalmente.[2]

La aparición del documento electrónico, la expansión de las firmas electrónicas, el desarrollo de sistemas de almacenamiento masivo de información y el surgimiento de nuevas herramientas tecnológicas han generado un escenario que obliga a replantear muchas de las categorías tradicionales del derecho documental.

En este contexto surge una pregunta fundamental: ¿de qué manera deben adaptarse las instituciones jurídicas tradicionales —como el notariado, los registros públicos y los archivos judiciales— a esta nueva realidad tecnológica? Responder a esta pregunta exige evitar dos errores frecuentes y simétricos. El primero consiste en asumir que la tecnología puede reemplazar completamente a las instituciones jurídicas tradicionales. El segundo consiste en pensar que dichas instituciones pueden permanecer inalteradas frente a transformaciones profundas.[3]

Las instituciones que han garantizado durante siglos la seguridad documental continúan siendo indispensables para asegurar la legalidad de los actos, la autenticidad de los documentos y la responsabilidad institucional por su contenido. Sin embargo, también deben adaptarse progresivamente a nuevas formas de producción y conservación de la información. El desafío es la integración responsable, no la sustitución.

Transformación tecnológica y función notarial

El sistema notarial constituye una institución jurídica desarrollada durante siglos dentro de los ordenamientos de tradición romano-germánica. Su finalidad es otorgar seguridad jurídica preventiva mediante la intervención de un ministro de fe que verifica la identidad de las personas, controla la legalidad de los actos y autoriza documentos dotados de presunción de autenticidad.[4]

La digitalización progresiva del Estado ha comenzado a modificar estas bases materiales. Cada vez más procedimientos se realizan mediante plataformas digitales, documentos electrónicos y sistemas de identificación tecnológica. Ello obliga a reflexionar sobre el rol que deben cumplir las instituciones encargadas de otorgar fe pública en un contexto donde la información jurídica se genera, transmite y conserva en formatos digitales.

La tecnología puede mejorar la eficiencia administrativa y facilitar el acceso a la información. Sin embargo, la seguridad jurídica continúa dependiendo de la existencia de instituciones responsables de verificar la legalidad de los actos y garantizar la autenticidad de los documentos. En este punto reside la distinción fundamental que el presente trabajo busca desarrollar.

Seguridad informática y seguridad jurídica: una distinción necesaria

El estudio de las tecnologías digitales obliga a distinguir entre dos conceptos que con frecuencia se confunden: seguridad informática y seguridad jurídica.

La seguridad informática se refiere a los mecanismos técnicos destinados a proteger la integridad de la información digital, tales como sistemas de cifrado, control de accesos y registros de actividad. La seguridad jurídica, en cambio, implica la existencia de instituciones responsables de verificar la legalidad de los actos jurídicos, identificar a las partes y garantizar la autenticidad institucional de los documentos.

Un sistema informático puede asegurar que un archivo no ha sido alterado. Sin embargo, no puede determinar si el acto jurídico contenido en ese documento fue celebrado válidamente, si quien firmó era efectivamente quien decía ser, ni si el acto es lícito conforme al ordenamiento jurídico. Por esta razón, las tecnologías digitales deben entenderse como herramientas destinadas a fortalecer la seguridad documental, pero no como sustitutos de las instituciones encargadas de otorgar fe pública.

Inteligencia artificial y función notarial

La inteligencia artificial ha comenzado a incorporarse progresivamente en distintos ámbitos del Derecho. Estas tecnologías permiten analizar grandes volúmenes de información, identificar patrones y automatizar determinadas tareas administrativas. En el ámbito notarial, la inteligencia artificial podría contribuir a mejorar la gestión documental, facilitar la búsqueda de información o apoyar la redacción de instrumentos jurídicos.[5]

Sin embargo, la evaluación jurídica, el control de legalidad y la responsabilidad institucional continúan siendo funciones que corresponden a operadores jurídicos humanos. El notario no solo certifica documentos; también verifica identidades, controla la legalidad de los actos y garantiza la autenticidad institucional de los instrumentos que autoriza. Ningún algoritmo puede asumir esa responsabilidad ni responder por ella ante el ordenamiento jurídico.

A ello debe agregarse el riesgo que representan tecnologías capaces de generar imágenes o videos manipulados —los denominados deepfakes— que podrían facilitar suplantaciones de identidad en entornos puramente digitales. Este riesgo, lejos de disminuir la relevancia del notariado, refuerza la necesidad de contar con instituciones investidas de fe pública que verifiquen la identidad real de los comparecientes.

Blockchain y modernización del sistema documental

El estudio de la tecnología blockchain adquiere especial relevancia cuando se analiza desde la perspectiva de los sistemas documentales jurídicos. Un registro distribuido e inmutable podría ofrecer mecanismos complementarios de trazabilidad documental, sin sustituir la función jurídica de las instituciones que otorgan autenticidad a los actos.[6]

La experiencia comparada ilustra esta posibilidad. En Francia, el notariado implementó el Minutier Central Électronique des Notaires (MICEN), un sistema centralizado de archivo electrónico para la conservación de escrituras notariales firmadas digitalmente.[7] En España, el notariado desarrolló la red ANCERT, que conecta las notarías mediante sistemas seguros para la generación, transmisión y almacenamiento electrónico de documentos notariales.[8] En ambos casos, la tecnología cumple una función de apoyo, pero no sustituye la función jurídica de las instituciones que otorgan autenticidad.

Un ejemplo práctico permite comprender cómo podrían complementarse la función notarial y las tecnologías de verificación digital. En una compraventa de inmueble celebrada ante notario, la escritura pública es firmada por las partes e incorporada al protocolo. Posteriormente puede emitirse una copia autorizada electrónica. En un escenario de modernización, el sistema podría generar un hash criptográfico del documento y registrarlo en una infraestructura de verificación. Si el documento fuera alterado, el código cambiaría. La tecnología, en este caso, añade una capa de verificación técnica sin desplazar la fe pública.

Riesgos de las plataformas privadas de notarización digital

Las plataformas tecnológicas que ofrecen servicios de certificación digital pueden garantizar la integridad informática de los documentos, pero no aseguran la identidad real de los otorgantes ni el control de legalidad de los actos jurídicos. En algunos casos, estos sistemas utilizan mecanismos de verificación biométrica administrados por plataformas privadas que no se encuentran investidas de fe pública.

Presentar estos servicios como equivalentes funcionales de la función notarial resulta conceptualmente incorrecto, pues confunde la certificación técnica de un archivo con la garantía jurídica que solo puede otorgar un ministro de fe. La distinción no es un resabio corporativo del notariado tradicional: es una garantía para el ciudadano.

Hacia un sistema nacional de verificación documental

Tomando como referencia las experiencias comparadas, Chile podría avanzar hacia un sistema nacional de verificación documental administrado institucionalmente por el propio sistema notarial, archivístico y registral. La Ley N.º 21.772, vigente desde el 2 de abril de 2026, constituye un primer paso en esa dirección al imponer obligaciones de infraestructura digital, transparencia y modernización tecnológica a los oficios de la Segunda Serie del Escalafón Secundario.[9]

En este modelo, cada documento podría contar con mecanismos de verificación digital que permitan comprobar su autenticidad, vigencia y trazabilidad en el tiempo. La tecnología reforzaría la integridad de los documentos, mientras la autenticidad jurídica continuaría descansando en la intervención del ministro de fe.

Tecnología y acceso ciudadano

La incorporación de nuevas tecnologías al sistema documental plantea también desafíos sociales que no pueden ser ignorados. No todas las personas acceden a las tecnologías digitales de la misma manera. Factores como la edad, el nivel socioeconómico, el acceso a conectividad o el grado de alfabetización digital pueden generar brechas que deben ser consideradas en el diseño de cualquier proceso de modernización.[10]

Esta perspectiva adquiere especial relevancia en el contexto chileno, donde una parte importante de la población que requiere servicios notariales habita en ciudades intermedias y zonas rurales, con acceso desigual a la conectividad. La modernización tecnológica del sistema notarial debe implementarse de manera progresiva, acompañada de mecanismos de orientación, capacitación y asistencia para la ciudadanía. La eficiencia tecnológica no puede alcanzarse a costa de la exclusión de quienes más necesitan del sistema.

Conclusiones

La transformación tecnológica del sistema documental constituye uno de los desafíos institucionales más relevantes que enfrentan actualmente los sistemas jurídicos. La tecnología puede ofrecer herramientas valiosas para mejorar la conservación, trazabilidad y verificación de los documentos jurídicos. Sin embargo, la seguridad jurídica no depende exclusivamente de soluciones tecnológicas, sino de la existencia de instituciones responsables de garantizar la autenticidad de los actos y la confianza pública en los documentos.

El desafío del futuro no consiste en reemplazar las instituciones jurídicas tradicionales, sino en integrar responsablemente las nuevas tecnologías dentro de ellas. La tecnología puede ser una herramienta formidable al servicio de la fe pública. Pero la fe pública, en último término, no reside en un algoritmo: reside en una institución con nombre, domicilio y responsabilidad jurídica frente a los ciudadanos.

La fe pública continúa siendo uno de los pilares fundamentales de la seguridad jurídica. La tecnología puede reforzarla, pero no sustituirla. (Santiago, 15 de abril de 2026)



[1]Pérez Aguilera, Omar Andrés. Temas Notariales: Contribución de la Función Notarial. Editorial Grafikakolor, 2023.

[2]Ley N.º 19.799 sobre Documentos Electrónicos, Firmas Electrónicas y Servicios de Certificación de dicha Firma. Diario Oficial de la República de Chile, 12 de abril de 2002.

[3]Ministerio de Justicia y Derechos Humanos. Mensaje N.º 054-369, Proyecto de Ley que modifica el sistema registral y notarial (origen Ley N.º 21.772). Santiago, 2021.

[4]Consejo General del Notariado de España. «CNUE — El Notariado en el mundo». Notariado.org. Madrid: Consejo General del Notariado, 2023. Disponible en: notariado.org

[5]Moncayo Muentes, Anthony Baloy y Delgado Alcívar, Carmen María. «El impacto de la digitalización en el ejercicio notarial en Ecuador: un análisis con estudio de caso práctico». Polo del Conocimiento, ISSN 2550-682X, vol. 11, N.º 4, Manta: Casa Editora del Polo, 2026. Disponible en: polodelconocimiento.com/ojs/index.php/es

[6]Szabo, Nick. Smart Contracts: Building Blocks for Digital Markets. Extropy, N.º 16, 1996. Citado en Savelyev, Alexander. Contract Law 2.0: Smart Contracts as the Beginning of the End of Classic Contract Law. Information & Communications Technology Law, 26(2), 2017.

[7]Notariat de France. Minutier Central Électronique des Notaires (MICEN). Presentación institucional. París: Conseil Supérieur du Notariat, 2019.

[8]Agencia Notarial de Certificación (ANCERT). Infraestructura tecnológica del notariado español. Madrid: Consejo General del Notariado, 2020.

[9]Biblioteca del Congreso Nacional de Chile. Historia de la Ley N.º 21.772 que modifica el sistema registral y notarial en sus aspectos orgánicos y funcionales. Santiago: BCN, 2025.

[10]Comisión Económica para América Latina y el Caribe (CEPAL). Perspectivas de la sociedad digital en América Latina y el Caribe. Santiago: CEPAL, 2022. Disponible en: www.cepal.org

Read more...

Sociedades de inteligencia artificial: empresas sin humanos adentro

Sociedades de inteligencia artificial: la discusión legal que abre el plan de Federico Sturzenegger
https://www.mdzol.com/

Betania Allo

El proyecto para crear empresas sin humanos plantea dudas sobre responsabilidad, control jurídico y riesgos regulatorios.

Un agente de Inteligencia Artificial no es un chatbot que responde preguntas.

Hace unos días, el ministro de Desregulación Federico Sturzenegger anunció que enviará al Congreso un proyecto para reformar la Ley de Sociedades y crear una figura nueva: las “sociedades de inteligencia artificial ”.

Una empresa sin socios, sin directores, sin ningún humano adentro. Solo código que decide, opera y genera ingresos. La noticia se viralizó sin la circulación del proyecto. Y las reacciones fueron predecibles: entusiasmo de un lado, alarma del otro. Ninguna de las dos se detuvo a explicar qué significa esto en términos concretos.

                                  Una empresa sin socios, sin directores, sin ningún humano adentro.¿Qué es una empresa sin humanos?

Es la descripción funcional de algo que ya existe en los mercados financieros, en las cadenas de suministro globales y en la infraestructura crítica de varios países: sistemas de inteligencia artificial que perciben su entorno, planifican secuencias de acción, ejecutan decisiones y producen efectos en el mundo sin que exista, entre cada uno de esos pasos, un acto humano de autorización. Un agente de IA no es un chatbot que responde preguntas. Es un sistema que puede detectar el incumplimiento de un contrato, evaluar las condiciones pactadas, generar la documentación procesal y presentar una demanda ante un tribunal, todo sin que ningún humano haya tomado la decisión de hacerlo. El abogado del cliente se entera después. Reitero: esto ya ocurre. Lo que Sturzenegger propone es darle forma jurídica societaria a esa capacidad operativa.Qué implica en términos jurídicos

Acá empieza el problema real, y es más profundo de lo que el debate público está mostrando. Los agentes de IA no tienen voluntad en ningún sentido técnico-jurídico. No tienen intención. No pueden ser mandatarios porque no pueden ser titulares de las relaciones jurídicas que generan. No encajan en la representación voluntaria porque el operador humano define un objetivo general, no los actos específicos para alcanzarlo. Y esto no es un detalle académico; tiene consecuencias operativas inmediatas. Cuando esta sociedad de IA ejecuta una transferencia errónea, aictva una cláusula de rescisión que nadie decidió activar, o es utilizada para estructurar una operación de lavado de dinero, la pregunta es simple: ¿quién responde? ¿El desarrollador del modelo que escribió el código hace dos años en otro país? ¿El inversor que registró la sociedad en Buenos Aires? ¿El sistema mismo? Con el derecho vigente, ninguno tiene una respuesta clara. Con el proyecto tal como fue anunciado, tampoco.

Qué implica en términos operativosEl modelo que cita Sturzenegger es Irlanda, que capturó el PBI de Apple incorporando la empresa dueña del software de iPhone. El razonamiento es: si en diez años los agentes de IA producen el 90% del PBI mundial, que paguen impuestos en Argentina. La lógica tiene sentido. La trampa también es real: Irlanda capturó el PBI en papel. El control efectivo de esos activos nunca fue irlandés. Si las sociedades de IA registradas en Argentina son controladas por capitales extranjeros, con modelos entrenados afuera y operando infraestructura que no está en territorio argentino, Argentina asume la exposición regulatoria y el riesgo reputacional sin retener soberanía sobre nada. Los inversores serios, los que buscan una sede operativa legítima y no un cascarón jurisdiccional, necesitan algo más que una figura societaria. Necesitan saber que el marco legal resuelve tres preguntas operativas básicas: quién responde cuando algo sale mal cómo se prueba qué decidió el sistema y por qué y bajo qué ley se resuelven los conflictos cuando el agente opera en múltiples jurisdicciones simultáneamente.

Si en diez años los agentes de IA producen el 90% del PBI mundial, que paguen impuestos en Argentina.

El orden correcto

El proyecto no es una locura per se. Es cómo un edificio sin cimientos. Antes de crear la figura societaria, el ordenamiento necesita definir bajo qué condiciones los actos que produce un agente de IA son jurídicamente válidos. Necesita un registro de operadores responsables. Necesita que los parámetros de operación del sistema tengan valor jurídico equivalente a un poder de representación. Necesita estándares de trazabilidad para que un juez pueda reconstruir qué pasó.

Sin eso, la sociedad de IA no tiene nada de innovación. Es impunidad con domicilio fiscal. Argentina tiene una oportunidad real. Pero las jurisdicciones que van a ganar esta carrera son las que construyen los marcos de responsabilidad más sólidos, porque eso es lo que convierte un registro societario en una ventaja competitiva genuina. Sturzenegger tiene razón en mirar lejos, pero el orden en que se construye importa.


Read more...

Archivos privados con IA forman parte de las pruebas presentadas en casos judiciales de EEUU

Los chats con ChatGPT llegan a los tribunales y reabren el debate sobre la privacidad digital en Estados Unidoshttps://www.infobae.com
PorJoaquín Bahamonde


El uso de mensajes a chatbots como fuentes de indicios incorporó nuevas controversias, al equipararse estos archivos con otros registros electrónicos y quedar fuera de los privilegios legales que protegen otras comunicaciones

Las conversaciones privadas con inteligencia artificial ya forman parte de las pruebas presentadas 
en casos judiciales de Estados Unidos (Imagen Ilustrativa Infobae)


Las conversaciones con ChatGPT se transformaron en pruebas clave en numerosas investigaciones criminales recientes en Estados Unidos, según la cadena de noticias internacional CNN.

Estas interacciones, percibidas por muchos usuarios como privadas, fueron integradas a expedientes judiciales para esclarecer motivos y acciones, desencadenando un debate sobre la protección de la privacidad ante la ley.

Uno de los casos más recientes se produjo en abril, cuando Hisham Abugharbieh, compañero de habitación de uno de los dos estudiantes de posgrado asesinados en la Universidad del Sur de Florida, realizó consultas a ChatGPT sobre “qué ocurre si una persona es colocada en una bolsa de basura negra y arrojada a un contenedor”, según consta en la declaración jurada que la fiscalía de Florida presentó ante la corte.

Cuando la aplicación le advirtió del peligro implícito, el acusado insistió con la pregunta: “¿Cómo podrían descubrirlo?”. De acuerdo con CNN, estos mensajes forman parte de los cargos de doble homicidio premeditado que enfrenta Abugharbieh y ejemplifican cómo las autoridades estadounidenses rastrean registros de chat de inteligencia artificial como fuentes de prueba en casos penales de alto perfil.

El acusado por el doble homicidio en Florida quedó bajo la lupa tras rastrearse 
preguntas inquietantes que realizó a ChatGPT días antes del crimen (AP)

A diferencia de los diálogos con un abogado, médico o terapeuta, que están amparados por privilegios legales establecidos, los intercambios con chatbots de IA carecen de protecciones de confidencialidad.

Según Virginia Hammerle, abogada en Texas, “cualquier cosa que alguien escriba en ChatGPT podría estar sujeta a descubrimiento judicial”, dijo a la cadena de noticias internacional CNN.

Esto significa que las autoridades pueden presentar estos registros como prueba sin restricciones, equiparándolos a otros datos electrónicos como el historial de llamadas o los pagos con tarjetas bancarias.

A diferencia de lo que ocurre con abogados o médicos, los mensajes enviados a plataformas de inteligencia artificial pueden ser utilizados como evidencia en tribunales

El uso de los historiales de conversación con ChatGPT como evidencia no se restringe a este hecho. El expediente judicial contra Jonathan Rinderknecht, acusado de provocar el incendio de Palisades en California en 2025, incluye solicitudes que hizo a ChatGPT, como la generación de imágenes de “personas huyendo del fuego” y confesiones sobre haber quemado una Biblia y sentirse liberado, según consta en la denuncia penal reseñada por la cadena de noticias internacional CNN.

Además, tras reportar el fuego al 911, preguntó a la herramienta de IA: “¿Tienes culpa si un incendio se produce por tus cigarrillos?”, lo que la fiscalía considera un intento de fabricar una coartada.

Rinderknecht negó los cargos y su abogado, Steve Haney, sostuvo al medio CNN que “los registros de ChatGPT no constituyen ni confesión ni escena del crimen”. Para Haney, “el gobierno pide al jurado que lea la mente de un acusado a través de una barra de búsqueda, y ni la ciencia ni el derecho han permitido ese salto”.

En el expediente del incendio de Palisades, las autoridades incluyeron capturas de consultas y 
confesiones hechas por el sospechoso a ChatGPT (REUTERS/Daniel Cole/Archivo)

El CEO de OpenAI, Sam Altman, reconoció en una entrevista para el pódcast de Theo Von en julio pasado, también citada por la cadena de noticias internacional CNN, que la ausencia de límites legales sobre la privacidad de estas interacciones es un “problema enorme”.

Altman señaló: “La gente habla sobre las cosas más personales con ChatGPT. Las personas lo usan, especialmente los jóvenes, como si fuera un terapeuta o un asesor de vida. Si esto se judicializa, podríamos vernos obligados a entregar esa información”.

El debate por la protección de la privacidad frente a la inteligencia artificial cobró relevancia tras la demanda interpuesta por las familias de las víctimas de un tiroteo en una escuela de Canadá en febrero, quienes denunciaron a OpenAI y a Altman por considerar que el uso de ChatGPT fue cómplice en el ataque, según informó la cadena de noticias internacional CNN.

Por su parte, la propia compañía subrayó en una declaración que mantiene su “compromiso con la seguridad de la comunidad” y que continuará priorizando la protección sin descuidar los riesgos colectivos.

El CEO de OpenAI advirtió sobre los riesgos que implica la falta de límites legales claros para la privacidad de las conversaciones con IA

El precedente de las búsquedas electrónicas en juicios penales

El empleo de historiales electrónicos en la instrucción penal no es enteramente nuevo. La jurisprudencia estadounidense reconoce casos donde búsquedas en Google fueron fundamentales para esclarecer el móvil o el conocimiento previo de un sospechoso.

En 2023, Brian Walshe fue declarado culpable del homicidio de su esposa, tras exhibirse ante el jurado búsquedas como “10 maneras de deshacerse de un cadáver” o “¿puedes ser juzgado por homicidio sin un cuerpo?”. De modo similar, en uno de los juicios de Karen Read, la atención se centró en el estado anímico de una testigo que había buscado “¿cuánto tiempo tarda en morir alguien en frío?”, lo cual se utilizó para analizar la intencionalidad.

Las autoridades subrayan que las consultas a la inteligencia artificial pueden revelar tanto el estado mental como el grado de planificación de los encausados. Las preguntas que Abugharbieh formuló a ChatGPT los días previos a la desaparición de las víctimas, entre ellas si podía poseer un arma de fuego sin licencia o si es posible modificar un número de identificación vehicular, constituyeron indicios relevantes para la imputación, según consta en la documentación recogida por la cadena de noticias internacional CNN.

Los tribunales estadounidenses ya utilizaron historiales de búsquedas en internet para establecer motivos y patrones de conducta en casos criminales

Privacidad digital ante la ley estadounidense

El marco legal todavía no resolvió qué grado de protección debe concederse a estas interacciones en Estados Unidos. Altman defendió la necesidad de salvaguardar la privacidad, aunque admite la posibilidad de comprometer parte de ella en nombre de la seguridad colectiva, alertando sobre el riesgo de que los gobiernos excedan estos límites.

El historiador Nils Gilman, asesor principal del centro de estudios Berggruen Institute, argumentó en The New York Times que la sociedad debería otorgar confidencialidad legal a los diálogos con chatbots, del mismo modo que se hizo con médicos o abogados para garantizar conversaciones honestas.

La justicia estadounidense aún debate si las charlas con inteligencia artificial merecen el mismo resguardo que otras formas de comunicación privada

Pese a estas propuestas, el consenso entre expertos legales consultados por la cadena de noticias internacional CNN es que, por ahora, los datos ingresados en ChatGPT carecen de privilegios y están sujetos a los mismos estándares de descubrimiento judicial que cualquier otro dato digital.

El analista jurídico Joey Jackson ilustró: “Sería como llamar por teléfono y después argumentar que esa llamada no puede utilizarse en nuestra contra”.

Las discusiones sobre eventuales excepciones —por ejemplo, materiales confidenciales que un abogado incorpore a una IA, o el caso de particulares que se autorrepresentan ante la justicia— aún carecen de jurisprudencia clara. Hammerle precisó a CNN: “El derecho está intentando alcanzar a la realidad”, y añadió que “ChatGPT no es su amigo, ni su abogado, ni su médico, ni su pareja. Deje de hablarle como si lo fuera”.





Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP