Friday, October 11

Mira, hijo, todo esto que ves es IA

Pronto hará un año que salió ChatGPT. Solo uno y es difícil no imaginar un futuro lleno de inteligencia artificial generativa: texto, imágenes, vídeos, música. Todo lo que se ve desde aquí es IA. Veo aún sobre todo oportunidades nuevas para escribir, dibujar o crear en general. También se han oído los peligros existenciales que esto puede traer en 2040.

‌Pero, más allá de problemas laborales, veo pocos comentarios de posibles riesgos inminentes. Traigo al menos estos tres:

a) hace un par de días escuchaba un podcast tecnológico. Hablaban de los GPTs de OpenAI. Son “pequeños agentes” de IA que permiten una función mucho más concreta que ChatGPT: programar en algún lenguaje, añadir una marmota a cualquier foto, responder preguntas a partir de unos libros concretos sobre un tema. Son recursos adaptados a las necesidades de cada individuo, casa, empresa u organización.

‌El siguiente paso que aún no existe, decían en el podcast, era dar a esos “pequeños agentes” herramientas para actuar en el mundo. El ejemplo más tonto que ponían era uno que fuera capaz de reservar mesa en restaurantes. Parece banal: “Voy a Milán mañana, me puedes reservar mesa para una persona en el mejor siciliano de la ciudad”. Y la IA manda un email, entra en la app o incluso llama por teléfono en un italiano perfecto. Pero qué pasaría si le digo: “El próximo 15 de diciembre es nuestro aniversario. Necesito absolutamente una mesa para dos en el restaurante donde nos conocimos. Tienes que lograrla como sea”.

‌Una IA es un robot. Cumple órdenes. ¿Podría llamar cientos, miles de veces? ¿Podría averiguar quién tiene una reserva y llamarles para “pedirles” que la anulen? ¿Por quién se podría hacer pasar? ¿Qué tipo de límites tendría o, sobre todo, no tendría? ¿Y si no hablamos de una mesa en un restaurante sino de una beca o una campaña electoral?

‌Ya hay ejemplos de usos de IA generativa para crímenes informáticos casi individuales. Los siguientes pasos pueden ser curiosos.

b) las grandes tecnológicas tienen identificados millones de fotos vinculadas a terrorismo o pedofilia con códigos larguísimos llamados hash. Así cuando las detectan, las máquinas saben que esa fotografía es muy probablemente delictiva y salta la alerta. Un modo de saltarse ese hash era modificar o recortar la foto ligeramente, pero era una solución mediocre.

‌Ahora, según la organización Tech Against Terrorism, grupos terroristas y pedófilos generan sus imágenes nuevas para burlar los controles. Esta opción no es nueva: ahora se pueden hacer carteles racistas de películas de Pixar y antes, con Photoshop, también. El problema ahora es la escala: se puede hacer miles de veces y lo pueden hacer miles de individuos a la vez, no quienes sepan usar Photoshop.

‌La consecuencia más razonable de esto es que no nos creamos ya ninguna foto: ni un político borracho, ni un futbolista en una discoteca, ni un influencer con cocaína. Esto tiene otros problemas, pero socialmente aún no sabemos cuáles.

c) YouTube se prepara regular. Esta semana la plataforma de vídeos ha lanzado sus primeras directrices sobre vídeos generativos, es decir, falsos. No los prohíbe todos, solo algunos casos. Por ejemplo cuando se use la voz de un cantante sin permiso, o cuando usen la cara de alguien sin su permiso. Pero en otras ocasiones pide a los creadores que los etiqueten y los dejará ahí con una etiqueta mayor o menor.

‌“Creemos en tomarnos el tiempo para hacer las cosas bien, en lugar de esforzarnos por ser los primeros”, dice YouTube, a sabiendas de que esto será un buen drama en los próximos meses y nadie sabe la dimensión de su impacto. Cada gran plataforma tiene su criterio cambiante sobre esto.

‌Como periodista, espero ya el día que esto explote y tengamos que correr a averiguar que TikTok prohibió los vídeos falsos de gente desconocida y Meta su uso en política. ¿O era al revés?

‌En junto un año hay elecciones en EE UU y se presenta Donald Trump. Que no sea grave.

Leave a Reply

Your email address will not be published. Required fields are marked *