
El avance de la inteligencia artificial ha entrado en una etapa acelerada, casi vertiginosa. Mientras el mundo apenas termina de entender lo que fue ChatGPT, nuevos modelos, empresas, leyes y aplicaciones emergen a una velocidad que redefine tanto la industria tecnológica como la vida cotidiana. En este nuevo escenario, Google da un paso decisivo con su familia de modelos Gemini, especialmente con el lanzamiento de Gemini 2.5 Pro y Flash, consolidando su posición como un actor central en la llamada “guerra de las IAs”.
Gemini 2.5 Pro y Flash: potencia y accesibilidad
Google presentó recientemente dos modelos de inteligencia artificial con los que busca cubrir tanto el segmento premium como el más accesible del mercado. Gemini 2.5 Pro, su modelo estrella, logró posicionarse como el más destacado en múltiples pruebas de benchmark, incluyendo el exigente Humanity’s Last Exam, que evalúa razonamiento avanzado en ciencia y tecnología. En paralelo, Gemini 2.5 Flash ofrece capacidades notables a una fracción del costo, con un precio de apenas $0,15 por millón de tokens, frente a los $10 de O4 Mini de OpenAI o los $3 de Claude o Grok.
El enfoque de Google es claro: lograr la mayor inteligencia posible al menor costo, tanto en dinero como en energía y tiempo de cómputo. Y lo logra gracias a una ventaja que muy pocos pueden igualar: su propio hardware.
Ventaja estratégica: los chips TPU
Mientras la mayoría de las compañías de IA dependen de las GPU de Nvidia, Google desarrolla sus propios procesadores, las Tensor Processing Units (TPU). Estas están diseñadas específicamente para tareas de inteligencia artificial, lo que les permite trabajar con mayor eficiencia. Su nueva generación, conocida como Ironwood, ya supera por 10 veces a sus versiones anteriores y se acerca al rendimiento de los chips de Nvidia más avanzados.
Esta arquitectura propia le otorga a Google una ventaja competitiva crucial: no sólo tiene un modelo potente y barato, sino que también puede escalarlo sin las restricciones de suministro que afectan a sus competidores.
Datos orgánicos, clave del entrenamiento
Más allá del hardware, la calidad de los datos con los que se entrena una IA es otro factor determinante. Mientras algunos modelos comienzan a mostrar los efectos de entrenarse con datos sintéticos (generados por otras IAs), Google se apoya en su acceso a fuentes “orgánicas” únicas: millones de libros de Google Books, videos de YouTube, y datos de uso de Android a nivel global. Este volumen y variedad de información humana real permite entrenar modelos más robustos, con menor riesgo de errores o “alucinaciones”.
Frente a esto, modelos como DeepSeek R1, desarrollados en China con chips de Nvidia por valor de más de 1.500 millones de dólares, apuestan a lo contrario: generar enormes volúmenes de datos sintéticos para autoentrenarse. Sin embargo, el riesgo de que la IA “aprenda” mal aumenta.
Educación, código y productividad
Uno de los usos más prometedores de la IA está en la educación. Los modelos como Gemini pueden actuar como tutores virtuales, no sólo dando respuestas, sino corrigiendo al estudiante cuando se equivoca. Esto se logra mediante técnicas de aprendizaje reforzado con retroalimentación humana (RLHF), que permiten a la IA sostener su criterio frente a errores del usuario. En un mundo que necesita adaptarse a cambios constantes, tener herramientas que enseñen de forma personalizada puede ser clave.
En el mundo de la programación, el impacto ya es evidente. Se estima que más del 30% del código producido por Google es generado por IA, y algunos expertos creen que en menos de un año, el 90% del código global será escrito por máquinas. Gemini 2.5 Pro se destaca en este campo, resolviendo correctamente el 73% de los retos de software en evaluaciones específicas, superando a Claude 3.7 y siendo mucho más económico que modelos como O3 de OpenAI.
El contexto importa: ventanas gigantes y velocidad
Otro aspecto destacado es la capacidad de estos modelos para manejar grandes volúmenes de información en una sola consulta. Gemini 2.5 Pro puede procesar hasta un millón de tokens de entrada, equivalente a varios libros completos, lo que lo convierte en una herramienta ideal para análisis complejos. Aunque su salida es algo menor que la de O3 (65.000 vs. 100.000 tokens), esta enorme ventana de entrada lo convierte en un modelo ideal para quienes necesitan comprensión profunda de mucho contenido en simultáneo.
Y aunque los modelos de razonamiento son más lentos que los modelos “ligeros”, su capacidad para explicar su pensamiento (y no solo ofrecer una respuesta) los vuelve valiosos para tareas educativas, investigación o toma de decisiones complejas.
La carrera política y social por la IA
Mientras las empresas compiten, los gobiernos también toman nota. En EE. UU., el expresidente Donald Trump firmó una orden ejecutiva para integrar la enseñanza de inteligencia artificial en todas las escuelas primarias y secundarias. Inspirada en un modelo chino, esta medida busca preparar a los jóvenes para un mundo donde el conocimiento técnico será imprescindible. La medida incluye la creación de concursos escolares y la formación de un equipo interdepartamental para su implementación urgente.
Interpretabilidad y seguridad: la preocupación clave
En paralelo al desarrollo técnico, crece la preocupación por entender cómo funcionan estos modelos por dentro. Darío Amodei, CEO de Anthropic, sostiene que los modelos actuales son como plantas que crecen sin que entendamos del todo cómo lo hacen. Para evitar riesgos, su empresa duplicará su inversión en herramientas que permitan interpretar qué sucede dentro de un modelo cuando razona, responde o se equivoca.
La idea es que una IA verdaderamente alineada con los intereses humanos no puede seguir siendo una “caja negra”. Este enfoque apunta a hacer más seguras las decisiones automatizadas, desde medicina hasta crédito bancario.
Un futuro que se acerca rápido
Según las proyecciones actuales, la capacidad de la IA para resolver tareas humanas se está duplicando cada 4 meses, frente a los 7 meses de 2022. A este ritmo, para 2027 los modelos podrían ejecutar tareas equivalentes a un mes de trabajo humano continuo. Esto, para muchos expertos, será el umbral de una Inteligencia Artificial General (AGI), capaz de rivalizar con la productividad de una persona.
Estamos en el umbral de un cambio estructural. Google, con Gemini, parece estar liderando silenciosamente esta transformación. Pero la competencia no duerme, y cada actor –OpenAI, Meta, Anthropic, incluso gobiernos como el de China o EE.UU.– están moviendo fichas en un tablero donde la IA dejará de ser una herramienta para convertirse en el nuevo lenguaje de nuestra civilización.