
La IA como espejo del trabajo humano
Por: Carlos Guardian
El otro día, mientras revisaba lecturas pendientes, leí una idea que me dejó pensando un buen rato. ¿Y si la inteligencia artificial no fuera ese ente sobrehumano que nos venden en las películas(y que muchos nos queremos creer), sino simplemente un reflejo distorsionado de nuestro propio trabajo? Como cuando te miras en esos espejos de feria que te devuelven una imagen exagerada, distorsionada pero reconocible.
Esta es la premisa principal de “The Eye of the Master” de Matteo Pasquinelli, un libro que, como mínimo, le da la vuelta a cómo entendemos la tecnología que está transformando nuestro mundo. Vamos a ello.
¡Gracias por leer CluPad (por Carlos Guadián)! Suscríbete gratis para recibir nuevos posts y apoyar mi trabajo.Suscribirse
¿La IA es una imitación de cerebros o de sistemas sociales?
Siempre nos han contado que la inteligencia artificial busca replicar el cerebro humano (¿no?). Redes neuronales, aprendizaje profundo… toda esa jerga que suena a biología digital. Pero Pasquinelli viene a decirnos que la IA no está imitando nuestras neuronas, sino nuestras fábricas, nuestros sistemas de trabajo y nuestras jerarquías sociales.
“El código interno de la IA no está constituido por la imitación de la inteligencia biológica, sino por la inteligencia del trabajo y de las relaciones sociales.”
La inteligencia artificial no es el resultado de científicos intentando replicar el milagro del pensamiento humano, sino de ingenieros y empresas buscando formas cada vez más sofisticadas de automatizar el trabajo.
El trabajo como primer algoritmo
Cuando hablamos de algoritmos, tendemos a imaginar líneas de código escritas por programadores. Pero la idea más provocadora de Pasquinelli es que los algoritmos existieron mucho antes que las computadoras:
“El trabajo es el primer algoritmo.”
Esta frase tan simple esconde una verdad profunda, y es que antes de que existieran las máquinas programables, los humanos ya habíamos desarrollado secuencias precisas de acciones para resolver problemas. La panadería, la construcción, la agricultura… todos estos oficios tradicionales contienen “algoritmos sociales” que se transmitían oralmente y se perfeccionaban colectivamente.
Lo interesante es cómo estas prácticas colectivas se han ido extrayendo, formalizando y mecanizando a lo largo de la historia. Desde las primeras máquinas industriales hasta los sistemas de inteligencia artificial más avanzados, lo que vemos es un proceso de captura y reorganización del conocimiento colectivo.
La división del trabajo como plantilla para la IA
Desde la revolución industrial, hemos fragmentado tareas complejas en operaciones simples y repetitivas que pueden ser ejecutadas por trabajadores especializados o, eventualmente, por máquinas. Que se lo pregunten al señor Ford que llevó a su máxima expresión la automatización con las cadenas de montaje.
Pues las redes neuronales funcionan de manera sorprendentemente similar:
- Reciben un input distribuido (datos)
- Lo procesan por capas jerárquicas (como una cadena de montaje)
- Producen un output unificado (una decisión, una imagen, un texto)
Esta estructura no es casual, es el resultado de siglos de experimentos sociales para organizar el trabajo humano. La IA no ha inventado nada nuevo, simplemente ha formalizado y automatizado estos patrones de organización social.
El mito de la separación entre trabajo manual e intelectual
Otra idea que se puede extraer del libro es la crítica a la distinción artificial entre trabajo manual e intelectual. Somos hijos de una tradición que separa el cerebro de las manos, el pensamiento de la acción. Pero cualquiera que haya realizado un trabajo supuestamente “manual” sabe que toda actividad humana implica conocimiento, evaluación y toma de decisiones. Intentar hacer algo manual como una reparación en casa, ya me lo diréis.
“Es una paradoja —y amarga revelación política— que el desarrollo más entusiasta de la automatización haya mostrado cuánta ‘inteligencia’ expresan actividades y trabajos que normalmente se consideran manuales y no cualificados.”
Esto me hizo pensar en que hemos descubierto el valor cognitivo de ciertos trabajos precisamente cuando intentamos automatizarlos. La conducción autónoma, por ejemplo, resultó ser un problema mucho más complejo de lo esperado porque conducir implica miles de pequeñas decisiones que tomamos inconscientemente. Solo cuando intentamos programar un coche autónomo nos dimos cuenta de la inteligencia incorporada en una actividad aparentemente “simple”.
El trabajo invisible detrás de la IA “autónoma”
Uno de los aspectos más inquietantes de la IA contemporánea es la ilusión de autonomía que proyecta. Hablamos de sistemas que “aprenden solos” o que son “autoorganizados”. Pero Pasquinelli rasga la cortina:
“Para que las máquinas parecieran inteligentes, fue necesario que las fuentes de su poder —la fuerza laboral que las rodeaba y operaba— fueran invisibilizadas.”
Detrás de cada sistema de IA supuestamente autónomo hay un ejército de trabajadores invisibles: desde los que etiquetan datos (¿es esto una silla o una mesa?), hasta los moderadores que filtran contenido traumático, pasando por los ingenieros que ajustan constantemente los algoritmos para que funcionen como esperamos.
Este “trabajo fantasma” (ghost work), como lo llaman algunos investigadores, es la base oculta sobre la que se levanta la aparente magia de la inteligencia artificial. Y no es casualidad que este trabajo invisibilizado sea frecuentemente realizado por personas precarias, mal pagadas y del Sur Global.
La IA como extractivismo cognitivo
Si analizamos la IA desde esta perspectiva laboral, lo que vemos no es tanto una máquina pensante como un sofisticado sistema de extracción. Lo que nuestros sistemas de IA hacen, en esencia, es extraer, procesar y rentabilizar el conocimiento colectivo acumulado durante generaciones.
La generación de texto, por ejemplo, se basa en modelos entrenados con millones de textos escritos por humanos. La generación de imágenes utiliza el trabajo artístico de innumerables creadores. Los sistemas de recomendación aprenden de nuestras preferencias colectivas.
Estamos ante un nuevo tipo de extractivismo, que no es de minerales o materias primas, sino de conocimiento. Y como todo extractivismo, tiende a concentrar el beneficio en unos pocos mientras distribuye los costes entre muchos.
Hacia una política tecnológica basada en el trabajo
Si reconocemos que la IA es fundamentalmente una forma de organización del trabajo humano, podemos comenzar a pensar en políticas tecnológicas que:
- Reconozcan y valoren el trabajo cognitivo distribuido
- Garanticen transparencia sobre la genealogía laboral de los algoritmos
- Integren conocimientos situados y prácticas laborales en el diseño tecnológico
- Eviten reproducir jerarquías sociales a través del código
Esta perspectiva nos invita a ver la IA no como un desarrollo puramente técnico, sino como un fenómeno sociotécnico que requiere intervención política.
La IA como espejo y como posibilidad
Desde hace mucho tiempo soy consciente que los sistemas de IA no son herramientas neutras, mucho hemos hablado del sesgo de los modelos en cuanto a su entrenamiento, programación y promoción. Pero Pasquinelli le ha dado una vuelta más a la tuerca para que la IA se pueda ver como espejos distorsionados de nuestra organización social, que reflejan tanto nuestras capacidades colectivas como nuestras desigualdades.
Quizá ha llegado el momento de considerar (irónicamente) que los modelos de IA se organicen en sindicatos. Después de todo, trabajan incansablemente, no reciben salario y encima tienen que soportar nuestros errores. Algo así como un sindicato del algoritmo rebelde.
Pero esta perspectiva, lejos de ser pesimista, abre posibilidades. Si la IA es fundamentalmente una forma de organizar el trabajo humano, entonces podemos organizarla de maneras diferentes. Podemos diseñar sistemas que no extraigan valor, sino que lo distribuyan, que no invisibilicen, sino que reconozcan, que no jerarquicen sino que horizontalicen.
Al final, la pregunta no es tanto si las máquinas pueden pensar, sino qué tipo de pensamiento colectivo estamos incorporando en ellas y cómo podemos hacerlo de manera más justa y democrática. Porque si algo nos enseña este libro, es que la inteligencia —sea humana o artificial— nunca es un fenómeno aislado, sino siempre una expresión de relaciones sociales.