Saturday, May 31

La IA se mete en la Política | Santiago Siri en Circo Freak con Matías Colombatti

Cuando Santiago Siri habla, no lo hace como un vendedor de futuro ni como un evangelista de Silicon Valley. Lo hace como quien sabe que la cosa ya empezó, que no hay vuelta atrás, y que el problema no es la inteligencia artificial, sino quién la controla, cómo se usa y quién queda afuera. En su columna en Industria Nacional, se sienta frente a la cámara como un tipo que no quiere convencerte, sino mostrarte que ya estás adentro. Aunque no lo hayas notado.

“Estamos en problemas”, dice, y no lo hace con tono apocalíptico. Lo dice mostrando una página web: thispersondoesnotexist.com. Ahí, en tiempo real, aparecen rostros perfectamente humanos, pero completamente falsos. “Ninguna de estas personas es real. Nunca existieron”. Siri no busca el impacto vacío. Lo que muestra no es magia. Es una tecnología que ya está operando en silencio, generando caras, voces, discursos. Inventando realidades que nadie pidió.

No se queda en la superficie. Va al hueso. Y explica lo esencial: “La inteligencia artificial no es un programa como la computación clásica. Uno no se sienta a programarla. Uno entrena con datos un cerebro digital”. Esa diferencia técnica es, en realidad, una diferencia política. Lo que se entrena es una caja negra, una máquina que aprende sola. Y eso, claro, puede usarse para muchas cosas.

Siri se divierte con los deepfakes, pero no se olvida del lado oscuro. “Con 30 segundos de voz ya podés clonarla. Tocás algunos parámetros y listo”. Habla de la herramienta 11Labs, pero podría estar hablando de cualquier escenario donde lo real y lo falso ya no tienen frontera. Porque hoy, como dice, “puedo clonar tu voz y llamar a tu vieja para hacer un secuestro virtual”. El tono es ligero, pero el fondo es serio. Muy serio.

Y lo dice claro: la herramienta está. Lo que se hace con ella depende de quién la tenga. Por eso su postura es política en el mejor sentido. “Si la tecnología es democratizada y está en manos de las mayorías, el bien triunfa. Si la controlan unos pocos, los malos son los más hábiles en apropiársela”. No es ingenuo. Sabe que el poder no se reparte solo. Hay que construir accesos, compartir saberes, abrir las puertas antes de que las cierren.

La charla no es técnica. Es política. Y también es cultural. Siri habla de las redes neuronales, de los primeros deepfakes como el de Obama en 2018, de las expresiones faciales perfectas, de la voz clonada. Pero lo que de verdad pone sobre la mesa es otra cosa: la crisis del criterio. La imposibilidad de saber qué es verdad y qué no. Y eso, en tiempos de saturación informativa, no es una anécdota: es una bomba de tiempo.

No lo dice así, pero se nota: estamos frente a un nuevo tipo de poder. Un poder que no necesita mostrar la cara. Que puede usar cualquier cara. Que puede inventarla. Y Siri lo pone en escena con humor, pero también con responsabilidad. “El fuego se pelea con fuego”, dice, mientras cuenta que empezó a hacer deepfakes para responder al quilombo de los que ya lo estaban usando mal. No se esconde. No se hace el distraído. Entra en el barro, pero con la conciencia de que el barro no es solo un juego.

En un momento, menciona a la diputada Estrada, que le escribió preocupada. Habla de suplantación de identidad, de manipulación, de daño. Y lo dice con esa mezcla de ironía y alarma que define bien el presente: “Nos estamos riendo, es política, ¿viste?, siempre hay troleadas… pero esto puede terminar mal”.

Ahí aparece la tensión central de su columna. No es el desarrollo tecnológico lo que está en discusión. Es el control. El acceso. La ética. Y eso no se resuelve con leyes solamente. Se resuelve con formación, con conciencia, con debate abierto. Por eso Siri insiste en “socializar el conocimiento”. No para bajarlo como dogma, sino para que no quede encerrado en las oficinas de las corporaciones.

“Hay que hacer fácil el acceso, hay que hacer fácil el uso”, repite. Y no suena como una frase de campaña, sino como una advertencia. Porque si la IA queda en pocas manos, se convierte en arma. Si se reparte, puede ser herramienta. Y ese “puede” no es un deseo. Es una urgencia.

En medio de todo esto, Siri también se ríe. Se ríe de sí mismo, de lo que hace, de lo que ve. No porque no le importe. Porque sabe que si se toma demasiado en serio, pierde la batalla. Y eso también es parte de esta época: nadie quiere discursos solemnes, pero sí quiere que le hablen en serio.

Por eso su intervención no es una clase, ni una tribuna. Es una conversación pública. En un stream. Con la audiencia del otro lado. Gente que escucha, que comenta, que pregunta. Y en ese gesto de horizontalidad, Siri hace algo clave: no habla sobre la tecnología. Habla con la gente sobre lo que puede pasar con ella. Y eso, en un tiempo donde todos gritan y pocos escuchan, es un acto político fuerte.

No da miedo. No da esperanza ingenua. Da perspectiva. Y eso no es poco.

Leave a Reply

Your email address will not be published. Required fields are marked *