Un día después de que xAI anunciase Grok 4.1, Google ha presentado oficialmente Gemini 3, su nuevo gran modelo de IA y, según la propia compañía, su mayor salto hasta ahora hacia lo que entienden como inteligencia artificial general.
Hablamos de un modelo multimodal que no solo mejora a Gemini 2.5 Pro en prácticamente todas las pruebas comparativas, sino que también cambia la forma en la que podemos aprender, crear, programar y planificar con ayuda de la IA, tanto a nivel de usuario como de desarrollador.
Desde Google insisten en dos ideas clave: razonamiento de vanguardia y multimodalidad real. Gemini 3 Pro entiende y trabaja con texto, imágenes, vídeo, audio y código dentro de una misma experiencia, y lo hace con una ventana de contexto de hasta un millón de tokens, lo que le permite digerir desde un puñado de notas rápidas hasta un montón de artículos académicos, vídeos largos de clases o documentación técnica compleja.
Según los datos que comparte Google, el modelo encabeza rankings como LMArena, muestra un rendimiento de “nivel doctorado” en pruebas como Humanity’s Last Exam o GPQA Diamond y marca nuevos máximos en benchmarks de matemáticas y razonamiento multimodal como MMMU-Pro o Video-MMMU.
Más allá de las siglas, lo importante es que apunta a un modelo capaz de resolver problemas complejos con un grado de fiabilidad mayor que generaciones anteriores.
Uno de los puntos en los que más inciden es en el cambio de tono del propio asistente. Gemini 3 Pro, dicen, busca respuestas más inteligentes y directas, alejadas de los halagos vacíos y los clichés. La idea es que actúe como un compañero creativo de verdad: que te ayude a entender conceptos complicados, a expresarte mejor o a bajar a tierra una idea abstracta mediante visualizaciones, código o formatos interactivos.
Desde traducir y ordenar recetas familiares escritas a mano para convertirlas en un libro de cocina que puedas compartir, hasta resumir una tanda de papers sobre un tema concreto y generar tarjetas interactivas o gráficos para ayudarte a estudiarlos. Incluso ponen el ejemplo de analizar vídeos de tus partidos de pickleball para detectar puntos de mejora y proponerte un plan de entrenamiento adaptado.
Sobre esta base, Google añade un modo de “razonamiento extendido” llamado Gemini 3 Deep Think. Es una variante del modelo pensada para ir todavía un paso más allá en pruebas especialmente exigentes, donde necesita encadenar más pasos lógicos y explorar más a fondo el espacio de soluciones.
En los benchmarks internos que cita la compañía, Deep Think mejora aún más las puntuaciones de Pro en métricas como Humanity’s Last Exam, GPQA Diamond o ARC-AGI con ejecución de código, lo que viene a ser una forma de mostrar que el modelo no solo responde rápido, sino que también sabe “pararse a pensar” cuando hace falta.
De momento, este modo se queda en manos de testers de seguridad y llegará más adelante a los suscriptores de Google AI Ultra.
Gemini 3 también refuerza la integración con el ecosistema de productos de Google. En la Búsqueda, el modo de IA aprovecha el nuevo modelo para ofrecer interfaces generativas más ricas, con diseños visuales que se adaptan al tema, simulaciones interactivas y herramientas que se generan al vuelo según la consulta.
Es decir, no solo te devuelve texto, sino experiencias visuales y manipulables para entender mejor cosas tan abstractas como el funcionamiento de la ARN polimerasa o tan prácticas como la planificación de un viaje. La promesa es que el modelo “ve” y “entiende” la información de forma más cercana a la nuestra, y traduce ese entendimiento en interfaces más útiles.
En el terreno del desarrollo, Gemini 3 se presenta como el modelo de codificación más potente de Google hasta la fecha. Destaca por su capacidad de generar sin necesidad de ejemplos previos, manejar instrucciones complejas y levantar interfaces web ricas e interactivas directamente a partir de descripciones en lenguaje natural.
En benchmarks como WebDev Arena, Terminal-Bench 2.0 o SWE-bench Verified, la compañía asegura que supera con claridad a Gemini 2.5 Pro, lo que se traduce en un asistente que no solo sugiere funciones sueltas, sino que es capaz de entender un proyecto completo, operar un sistema desde el terminal y proponer, aplicar y validar cambios de forma bastante autónoma.
Todo esto se articula, además, en torno a una nueva plataforma de desarrollo llamada Google Antigravity. Aquí la idea es que los agentes de IA dejen de ser “una ventanita” dentro del IDE y se conviertan en algo así como compañeros de equipo con acceso directo al editor, al terminal y al navegador.
Gemini 3 puede planificar y ejecutar tareas complejas de software de principio a fin, en paralelo, validando su propio código y utilizando herramientas externas cuando lo necesita. Según Google, Antigravity está estrechamente integrado no solo con Gemini 3 Pro, sino también con otros modelos especializados, como el Gemini 2.5 para uso en ordenadores (capaz de controlar el navegador) o Nano Banana (Gemini 2.5 Image), su modelo de edición de imágenes.
Esa capacidad de planificación a largo plazo no se queda solo en el desarrollo. En pruebas como Vending-Bench, donde el modelo tiene que gestionar durante un año simulado un negocio de máquinas expendedoras, Gemini 3 Pro mantiene un uso de herramientas y una toma de decisiones coherentes, maximizando beneficios y evitando desviarse de su objetivo.
Traducido al día a día, hablamos de un asistente que no se limita a contestar una pregunta aislada, sino que puede hacerse cargo de flujos de trabajo completos: clasificar tu bandeja de entrada de Gmail, organizar documentos, coordinar tareas o preparar un itinerario de viaje, siempre bajo tu supervisión.
Todo este despliegue viene acompañado de un fuerte foco en seguridad y uso responsable. Gemini 3 se ha sometido, según Google, al paquete de evaluaciones más exhaustivo que han aplicado nunca a un modelo suyo. Prometen menos adulación, más resistencia a intentos de inyección de instrucciones y mejores protecciones frente al uso indebido en contextos como ciberataques.
En cuanto a disponibilidad, Gemini 3 Pro se lanza en versión preliminar y llega a 30 nuevos idiomas, incluido el catalán, el euskera y el gallego, integrado en el paquete de productos de Google que ya conocemos. Se puede usar a través de la app de Gemini, en el modo de IA de la Búsqueda para usuarios de Google AI Pro y Ultra, vía API en AI Studio, en la nueva plataforma Google Antigravity, en la CLI de Gemini y en entornos empresariales a través de Vertex AI y Gemini Enterprise.
El modo Deep Think de Gemini 3, más potente pero también más delicado, se reservará inicialmente a testers de seguridad antes de abrirse a suscriptores de Google AI Ultra en las próximas semanas. Google también adelanta que esta es solo la primera pieza de toda una familia Gemini 3, con más variantes en camino para cubrir diferentes casos de uso.
En resumen, Gemini 3 no es solo “otro modelo nuevo” en la carrera de la IA, sino la apuesta de Google por una generación de asistentes que combinan un razonamiento más profundo, una multimodalidad más real y una integración más estrecha con herramientas, productos y flujos de trabajo.
Queda por ver cómo se traducirá todo esto en el uso real, pero la dirección está clara: modelos que entienden mejor lo que les pedimos, que pueden actuar en nuestro nombre de forma más autónoma y que, en teoría, son más fiables y seguros que sus predecesores.

