En la frenética carrera por la hegemonía de la Inteligencia Artificial, los datos públicos ya no son suficientes. Mark Zuckerberg ha decidido mirar hacia dentro, concretamente a las manos de sus propios trabajadores. Meta ha puesto en marcha la Model Capability Initiative, un ambicioso y polémico sistema de registro que monitoriza los movimientos del ratón y las pulsaciones de teclas de su plantilla.
¿En qué consiste el registro de movimientos de Meta?
El objetivo de los SuperIntelligence Labs de la compañía pasa por crear agentes de IA que no solo respondan preguntas, sino que sepan trabajar. Para que un algoritmo aprenda a navegar por software complejo o a gestionar flujos de trabajo corporativos, necesita un modelo que imitar.
Ese modelo son, precisamente, los empleados de Meta en Estados Unidos. El sistema registra los movimientos del cursor para entender la navegación lógica en interfaces complejas, las pulsaciones de teclas para aprender secuencias de comandos y las interacciones con menús para mapear cómo un humano resuelve tareas técnicas paso a paso.
Esta medida no es un experimento aislado. Se enmarca en un contexto económico agresivo donde Meta planea invertir hasta 135.000 millones de dólares en gasto de capital durante este 2026. La empresa necesita desesperadamente que su IA sea más "humana" y autónoma que la de competidores como OpenAI o Anthropic.
Sin embargo, la transparencia financiera choca con la opacidad ética. Aunque Andy Stone, portavoz de la firma, ha insistido en que estos datos no se utilizarán para evaluaciones de desempeño individuales, el recelo entre la plantilla es evidente.
El dilema ético: entrenar a tu propio sustituto
La implementación de este "panóptico digital" llega en un momento delicado. Con rumores de nuevos despidos masivos en el horizonte, muchos trabajadores sienten que están escribiendo el manual de instrucciones de su sucesor algorítmico.
Si bien en Estados Unidos la legislación es más laxa, este tipo de prácticas se enfrentarán a un muro en Europa. La Ley de IA de la Unión Europea impone límites estrictos a la monitorización biométrica y del comportamiento en el lugar de trabajo, lo que podría fragmentar las capacidades de la IA de Meta según la región geográfica.