😱 El sistema de Open AI se entrena para sustituir a empleados en proyectos y trabajos de oficina

>>  jueves, 29 de enero de 2026

OpenAI pide a freelancers que usen documentos de sus antiguos empleos para entrenar a su IA

https://es.wired.com/

Para preparar a los agentes de IA para el trabajo de oficina, la empresa pide a los contratistas que carguen proyectos de trabajos anteriores, dejando que sean ellos quienes eliminen la información confidencial y de identificación personal.


Fotoilustración: WIRED; Getty Images

OpenAI está pidiendo a contratistas externos que carguen tareas reales de sus lugares de trabajo actuales o anteriores para poder utilizar los datos en la evaluación del rendimiento de sus modelos de IA de próxima generación, según los registros de OpenAI y la empresa de datos de formación Handshake AI obtenidos por WIRED.

El proyecto parece formar parte de los esfuerzos de OpenAI por establecer una línea de base humana para diferentes tareas que luego pueda compararse con los modelos de IA. En septiembre, la empresa puso en marcha un nuevo proceso de evaluación para medir el rendimiento de sus modelos de IA frente a profesionales humanos de diversos sectores. OpenAI afirma que este es un indicador clave de su progreso hacia la consecución de la IAG, o un sistema de IA que supere a los humanos en la mayoría de las tareas económicamente valiosas.

"Hemos contratado a personas de distintas profesiones para que nos ayuden a recopilar tareas del mundo real que se asemejen a las que realizan en sus trabajos a tiempo completo, de modo que podamos medir el rendimiento de los modelos de IA en esas tareas", se lee en un documento confidencial de OpenAI. "Toma piezas existentes de trabajo a largo plazo o complejas (horas o días) que hayas hecho en tu ocupación y convierte cada una en una tarea".

OpenAI está pidiendo a los contratistas que describan las tareas que han realizado en su trabajo actual o en el pasado y que suban ejemplos reales del trabajo que hicieron, según una presentación de OpenAI sobre el proyecto vista por WIRED. Cada uno de los ejemplos debe ser "un resultado concreto (no un resumen del archivo, sino el archivo real), por ejemplo, documento de Word, PDF, Powerpoint, Excel, imagen, repo", señala la presentación. OpenAI asegura que la gente también puede compartir ejemplos de trabajo inventados y creados para demostrar cómo responderían de forma realista en escenarios específicos.

OpenAI y Handshake AI declinaron hacer comentarios.

Las tareas del mundo real tienen dos componentes, según la presentación de OpenAI. Está la solicitud de la tarea (lo que el jefe o colega de una persona le dice que haga) y la entrega de la tarea (el trabajo real que produce en respuesta a esa solicitud). La empresa insiste varias veces en las instrucciones de que los ejemplos que compartan los contratistas deben reflejar "trabajo real en el puesto de trabajo" que la persona haya "realizado realmente".

Uno de los ejemplos de la presentación de OpenAI describe una tarea de un "director de estilo de vida de una empresa de conserjería de lujo para personas de alto poder adquisitivo". El objetivo es "preparar un breve borrador en PDF de 2 páginas de una descripción general de un viaje en yate de 7 días a las Bahamas para una familia que viajará allí por primera vez". Incluye detalles adicionales sobre los intereses de la familia y cómo debería ser el itinerario. A continuación, el "entregable humano experimentado" muestra lo que subiría el contratista en este caso: un itinerario real por las Bahamas creado para un cliente.

Un riesgo para la privacidad

OpenAI da instrucciones a los contratistas para que eliminen la propiedad intelectual de la empresa y la información de identificación personal de los archivos de trabajo que suben. En una sección titulada "Recordatorios importantes", OpenAI expresa a los trabajadores que "eliminen o anonimicen cualquier: información personal, datos de propiedad o confidenciales, información material no pública (por ejemplo, estrategia interna, detalles de productos no publicados)".

Uno de los archivos vistos por el documento de WIRED menciona una herramienta de ChatGPT llamada "Superstar Scrubbing" que ofrece consejos sobre cómo eliminar información confidencial.

Evan Brown, abogado especializado en propiedad intelectual de Neal & McDevitt, explica a WIRED que los laboratorios de IA que reciben información confidencial de contratistas a esta escala podrían ser objeto de demandas por apropiación indebida de secretos comerciales. Los contratistas que ofrecen documentos de sus lugares de trabajo anteriores a una empresa de IA, incluso depurados, podrían correr el riesgo de violar los acuerdos de confidencialidad de sus empleadores anteriores o exponer secretos comerciales.

"El laboratorio de IA confía mucho en sus contratistas para decidir qué es confidencial y qué no", indica Brown. "Si se les escapa algo, ¿se toman realmente tiempo los laboratorios de IA para determinar qué es y qué no es un secreto comercial? Me parece que los laboratorios de IA se están poniendo en grave peligro".

Los documentos revelan una estrategia que los laboratorios de IA están utilizando para preparar sus modelos para que sobresalgan en tareas del mundo real. Empresas como OpenAI, Anthropic y Google están contratando ejércitos de contratistas que pueden generar datos de entrenamiento de alta calidad para desarrollar agentes de IA capaces de automatizar el trabajo empresarial.

Los laboratorios de IA han confiado durante mucho tiempo en empresas de contratación de terceros como Surge, Mercor y Scale AI para contratar y gestionar redes de contratistas de datos. En los últimos años, sin embargo, los laboratorios de IA han necesitado datos de mayor calidad para mejorar sus modelos, lo que les ha obligado a pagar más por el talento cualificado capaz de producirlos. Esto ha creado una lucrativa subindustria dentro del mundo de la formación en IA. Handshake señaló que estaba valorada en 3,500 millones de dólares en 2022, mientras que Surge se valoró en 25,000 millones de dólares en conversaciones para recaudar fondos el verano pasado.

OpenAI parece haber explorado otras formas de obtener datos reales de empresas. Una persona que ayuda a las compañías a vender activos después de que cierren comentó a WIRED que un representante de OpenAI preguntó sobre la obtención de datos de estas empresas, siempre que la información de identificación personal pudiera ser eliminada. La fuente, que habló con WIRED bajo condición de anonimato porque no quería agriar ninguna relación comercial, contó que los datos habrían incluido documentos, correos electrónicos y otras comunicaciones internas. La fuente resaltó que decidieron no seguir adelante con la idea porque no estaban seguros de que la información personal pudiera eliminarse por completo.

Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.

1 comentarios :

Anónimo 29 de enero de 2026 a las 6:42  

La IA es una herramienta, pero...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP