Ir al contenido
Un recorrido editorial por las 100 novedades más importantes
La búsqueda ya no busca: ahora responde por ti
- La IA puede responder preguntas directamente en los resultados:
Lo que antes era una lista de enlaces azules, ahora empieza a comportarse como un asistente conversacional. Esto obliga a replantear el SEO hacia el contenido que responde preguntas, no solo consultas.
- El modo IA se lanza en Estados Unidos con acceso anticipado en Labs:
Search Labs se convierte en el laboratorio donde se cocina el futuro de la búsqueda, marcando el fin del top 10 orgánico.
- Astra y Deep Search ofrecen respuestas más profundas y en tiempo real:
Comprensión casi humana y respuestas completas que desplazan la necesidad de hacer clic en los resultados.
- Reservas de eventos, restaurantes y citas integradas al modo IA:
Las conversiones comienzan a ocurrir dentro de Google, reduciendo el tráfico a sitios externos.
- Análisis de datos complejos y visualización de gráficos en las respuestas:
La IA interpreta y presenta datos con gráficas, representando una amenaza para sitios basados en data visual.
- Nueva experiencia de shopping combinando IA y Shopping Graph:
Google se convierte en un asistente de compra que reduce la necesidad de visitar tiendas online.
- Prueba virtual de ropa desde una foto en Search Labs:
SEO visual cobra fuerza mientras los sitios de moda deberán centrarse en alimentar datos estructurados.
- Seguimiento inteligente de precios con alertas personalizadas:
La IA acompaña al usuario en su decisión de compra, eliminando búsquedas y clics innecesarios.
- AI Overviews alcanza 1.5 mil millones de usuarios mensuales en 200 países:
Los resúmenes generados por IA son el nuevo estándar, transformando al SEO en una optimización para modelos.
- En EE.UU. e India, las búsquedas con AI Overviews suben un 10%:
Este crecimiento redefine la forma en la que se compite por visibilidad en los resultados.
Gemini ya no es un asistente, es la interfaz de todo
- Gemini 2.5 se integra a la búsqueda en el modo IA y AI Overviews:
Google ahora filtra y sintetiza contenido, obligando a educar al modelo sobre por qué incluir tu contenido.
- Gemini incorpora quizzes interactivos para generar entrenamientos personalizados:
Esto redefine la competencia en educación y formación, desplazando blogs y tutoriales.
- Gemini Live se conecta con Maps, Calendar, Tasks y Keep:
La búsqueda de información se convierte en ejecución directa, eliminando pasos intermedios.
- Gemini Live se lanza en iOS con cámara y screen sharing:
Gemini se convierte en un asistente de acompañamiento total, guiando en tiempo real.
- Nuevo menú Canvas para crear infografías, páginas web, podcasts y más:
Esto inaugura una era de “creadores aumentados” que deben centrarse en tono y propósito.
- Deep Research ahora acepta PDFs e imágenes para enriquecer el análisis:
La IA reemplaza procesos manuales en análisis técnico y visual.
- Se puede conectar Gemini a Drive y Gmail para personalizar búsquedas:
La personalización hace más difícil competir con respuestas privadas generadas por IA.
- Agent Mode permite ejecutar acciones a partir de objetivos definidos:
El tráfico transaccional se diluye dentro de la interfaz de la IA.
- Gemini se integra con Chrome para usuarios AI Pro y Ultra:
El navegador se convierte en un pasillo guiado, reduciendo la interacción con el resto de la web.
- La app Gemini supera los 400 millones de usuarios activos mensuales:
Esto confirma que Gemini es un actor central en la experiencia digital.
La arquitectura invisible de los modelos que deciden tu visibilidad
- Gemini 2.5 Pro lidera los rankings de rendimiento en WebDev y LMArena:
El contenido optimizado para Gemini tendrá ventaja frente a otros modelos.
- LearnLM se integra en Gemini para convertirlo en un modelo centrado en aprendizaje:
Gemini adapta respuestas según el usuario, redefiniendo la personalización.
- Gemini 2.5 Flash: un modelo rápido optimizado para código y razonamiento:
La fragmentación de modelos crea un sistema operativo cognitivo.
- Gemini Flash ya disponible en la app y pronto en AI Studio y Vertex AI:
Google busca que las empresas construyan sobre Gemini.
- Deep Think mejora las capacidades de razonamiento para matemáticas y código:
Gemini comienza a emular razonamiento formal, transformando áreas técnicas.
- Nuevas protecciones contra ataques indirectos vía prompts en Pro y Flash:
Esto refuerza la seguridad y confianza en entornos profesionales.
- Capacidades de Project Mariner integradas a la API de Gemini y Vertex AI:
La IA se convierte en un explorador activo, no solo en un asistente pasivo.
- Los modelos ahora pueden generar “resúmenes de pensamiento” a través de las API:
Esto aumenta la transparencia en las respuestas generadas por IA.
- Los modelos permiten activar “presupuestos de reflexión” para gestionar costos y rendimiento:
El contenido deberá adaptarse según el nivel de esfuerzo cognitivo requerido.
- Soporte nativo para el Model Context Protocol en la API de Gemini:
Esto permite manejar múltiples contextos simultáneos en una interacción.
- Se lanza el modelo Gemini Diffusion, basado en ruido aleatorio para generar texto:
Gemini empieza a producir contenido con estilos propios, redefiniendo la creatividad.
La fábrica creativa o cuando Google también quiere ser artista
- Google AI Ultra: suscripción premium con modelos avanzados, 30 TB de almacenamiento y YouTube Premium:
Un ecosistema VIP que convierte el acceso a la mejor IA en un lujo.
- AI Ultra cuesta 249.99 USD al mes, con 50% de descuento los primeros 3 meses:
Google entra al mercado profesional, ofreciendo ventaja cognitiva a quienes puedan pagar.
- Estudiantes de varios países recibirán una actualización gratuita a Gemini por un año:
Una estrategia para fidelizar usuarios desde edades tempranas.
- AI Pro cuesta 19.99 USD/mes e incluye acceso a herramientas como Flow y NotebookLM:
Democratiza el acceso a herramientas avanzadas para creadores independientes.
- Veo 3 permite generar videos con audio directamente desde Gemini (solo para AI Ultra):
La producción de video se automatiza, borrando la línea entre creador y herramienta.
- Veo 2 recibe mejoras: control de cámara, ampliación de encuadre y objetos editables:
Convierte la creación en un juego de posibilidades infinitas.
- Cuatro películas creadas con Veo se presentan en Flow TV:
Las películas generadas por IA se exhiben en canales reales de distribución.
- Imagen 4 sobresale en detalles y estilos fotográficos o abstractos:
Un generador de imágenes que domina desde lo realista hasta lo conceptual.
- Imagen 4 también está disponible en Whisk y Vertex AI:
Google abre el acceso a desarrolladores externos para integrar este modelo.
- Imagen 4 tiene una versión rápida: diez veces más veloz que Imagen 3:
La creatividad generativa ocurre en tiempo real, reduciendo la espera.
- Imagen 4 genera imágenes en 2K en múltiples formatos:
Optimiza la creación de assets visuales para cualquier uso.
- Mejoras en ortografía y tipografía dentro de los visuales generados:
Aumenta la calidad y precisión en imágenes con textos.
- Flow, la herramienta para crear películas con IA, ahora permite controlar las escenas:
Introduce dirección cinematográfica automatizada.
- Flow está disponible para usuarios AI Pro y Ultra en Estados Unidos:
Google expande su ecosistema creativo exclusivo.
- Se amplía el acceso a Music AI Sandbox, basado en el modelo Lyria 2:
Un laboratorio para músicos del futuro que redefine la producción musical.
- Lyria 2 simula voces desde solistas hasta coros completos:
Convierte la IA en un instrumento emocional y técnico a la vez.
- Lyria RealTime permite crear y ejecutar música en tiempo real:
Borra la línea entre composición y performance.
- DeepMind colabora con Primordial Soup para producir tres cortometrajes con IA:
Ciencia, arte e inteligencia artificial fusionados en proyectos creativos.
- El primer film, “ANCESTRA”, será estrenado en el Tribeca Film Festival el 13 de junio:
Las producciones generadas por IA llegan a eventos culturales de renombre.
Lo verdadero ya no importa, ahora se detecta
- SynthID Detector: herramienta para verificar si un contenido fue generado por IA:
Marca la diferencia entre transparencia y opacidad en el contenido.
- Más de 10 mil millones de contenidos ya han sido marcados con SynthID:
Revela la magnitud del contenido sintético en circulación.
- El portal SynthID está en pruebas con periodistas e investigadores:
Diseñado para proteger la integridad de la información en campos sensibles.
- Gemini 2.5 Pro evoluciona hacia un modelo de “mundo simulado”:
Capaz de emular entornos y dinámicas, redefiniendo la experiencia interactiva.
- Project Astra mejora voz, memoria y control de dispositivos:
La IA se convierte en una capa invisible pero omnipresente.
La realidad aumentada no es futuro, es interfaz comercial
- Prototipo de asistencia visual para personas con discapacidad visual, en colaboración con Aira:
La IA se usa para ampliar capacidades humanas de manera inclusiva.
- Tutor conversacional para educación, con retroalimentación, esquemas y correcciones:
Un estándar educativo que desplaza materiales estáticos por enseñanza interactiva.
- La experiencia Astra se integrará pronto en los productos de Google:
Astra vivirá en el ecosistema Google, transformando la búsqueda silenciosa.
- Samsung Project Moohan: casco XR con pantalla inmersiva:
Introduce realidades aumentadas inmersivas para experiencias comerciales.
- Demostración de Gemini en lentes XR para navegación, traducción, citas y fotos:
Wearable search transforma la búsqueda en una experiencia visual.
- Traducción en vivo entre dos personas a través de los lentes XR:
Elimina barreras lingüísticas con traducción fluida y en tiempo real.
- Pruebas en condiciones reales de los lentes XR para asegurar la privacidad:
Asegura que la tecnología sea funcional y segura en el mundo real.
- Colaboración con Gentle Monster y Warby Parker para lentes conectados con estilo:
Google busca normalizar la tecnología como accesorios de moda.
- Plataforma de software y hardware compartida con Samsung para el ecosistema XR:
Establece un estándar para experiencias XR optimizadas.
Google quiere que hables, no que hagas clic
- Google Beam reemplaza a Project Starline para comunicación 3D inmersiva:
Introduce una nueva dimensión de videollamadas con presencia simulada.
- Alianza con Zoom y HP para desplegar los primeros dispositivos Beam:
Acelera la adopción de esta tecnología en el ámbito empresarial.
- Presentación de los dispositivos Beam de HP en el evento InfoComm:
La comunicación inmersiva redefine cómo interactuamos visualmente.
- Google Meet incorpora traducción de voz en tiempo real con entonación preservada:
Permite una comunicación global con empatía y contexto.
La nueva generación de desarrolladores no programa, orquesta IA
- Más de 7 millones de desarrolladores usan Gemini, cinco veces más que en 2024:
Establece la IA como herramienta estándar en el desarrollo digital.
- El uso de Gemini en Vertex AI se multiplicó por 40 en un año:
Indica la transición empresarial hacia operaciones basadas en IA.
- Nuevas funciones text-to-speech expresivas con múltiples voces simultáneas:
Transforma la creación de audio en una experiencia narrativa automatizada.
- La API Live ofrece vista previa de entradas audiovisuales y diálogos nativos:
Mejora la interacción entre humanos y modelos generativos.
- Jules: un agente asincrónico para GitHub que ayuda a gestionar tareas de código:
Automatiza la organización de proyectos técnicos.
- Gemma 3n: un modelo multimodal ligero para smartphones, tablets y computadoras:
Lleva modelos avanzados a dispositivos locales, descentralizando la IA.
- Google AI Studio lanza una nueva interfaz con pestaña de medios:
Hace más visual y narrativa la interacción con modelos de IA.
- Colab se vuelve “agentificado”: realiza tareas automáticamente desde el notebook:
Convierte la experimentación en un proceso interactivo y automatizado.
- SignGemma traduce lengua de señas a texto, compatible con ASL:
Una herramienta inclusiva que amplía la accesibilidad digital.
- MedGemma: modelo médico multimodal para analizar texto e imágenes:
Redefine la asistencia médica con análisis automatizado.
- Stitch: herramienta IA para crear diseños de UI y código a partir de texto o imagen:
Fusiona diseño e intención para acelerar la creación de interfaces.
- Journeys en Android Studio permite testear recorridos usando Gemini:
Simula flujos de usuario antes de escribir código.
- Agente de actualización automática de dependencias en Android Studio:
Automatiza el mantenimiento técnico de proyectos.
- Nuevas opciones en la API de Google Pay para mejorar los flujos de pago:
Facilita experiencias de pago rápidas y sin fricción.
- Flutter 3.32 mejora rendimiento y velocidad de desarrollo:
Optimiza el ciclo de creación de aplicaciones multiplataforma.
- Actualización de kits de agentes en Vertex AI (ADK, A2A, Agent Engine):
Facilita la creación de asistentes personalizados.
- Versión preliminar para desarrolladores de Wear OS 6 con nuevo diseño y controles de medios:
Introduce interfaces mínimas optimizadas para relojes inteligentes.
- Gemini Code Assist disponible para todos, impulsado por Gemini 2.5:
Democratiza la colaboración asistida en programación.
- Nueva función de historial y hilos de conversación en Code Assist:
Hace más transparente y colaborativo el proceso de desarrollo.
- Novedades en Firebase: nuevo Studio y AI Logic para integrar IA fácilmente:
Simplifica la incorporación de lógica inteligente en aplicaciones.
- Lanzamiento de la comunidad Google Cloud x NVIDIA para desarrolladores:
Une capacidades de hardware y servicios en un ecosistema colaborativo.
- Gmail introduce respuestas inteligentes basadas en estilo y contenido de tus correos:
Automatiza la comunicación personalizada.
Productividad aumentada
- Google Vids accesible para usuarios de AI Pro y Ultra:
Automatiza la creación de videos con guiones y escenas organizadas.
- NotebookLM disponible en Play Store y App Store:
Organiza y relaciona información automáticamente desde tu dispositivo.
- Audio Overviews ajustables según la duración deseada:
Convierte texto denso en resúmenes sonoros adaptados al tiempo del usuario.
- Próximamente: Video Overviews para resumir documentos y contenidos extensos:
Transforma contenido complejo en narrativas audiovisuales ultrabreves.
- Nuevos ejemplos de notebooks compartidos en NotebookLM con vista previa:
Introduce un sistema colaborativo para la estructuración del conocimiento.
- Sparkify crea videos animados a partir de preguntas (experiencia Labs):
Responde preguntas con animaciones explicativas.
- Learn About actualizado con retroalimentación de usuarios en los Labs:
Convierte la documentación en un sistema vivo y dinámico.
- Google procesa más de 480,000 billones de tokens por mes (contra 9.7 billones en 2024):
Destaca el crecimiento explosivo en el procesamiento de lenguaje.
- La palabra “IA” se mencionó 92 veces durante el keynote, menos que “Gemini”:
Google posiciona a Gemini como el centro de su ecosistema.
- El punto 100 no existe, y sin embargo aquí estás:
Una pausa reflexiva para procesar la magnitud del cambio.