Explorando las nuevas herramientas presentadas en Google I/O 2025
Google I/O 2025 fue desarrollado en Mountain View, California en EEUU, y fue una experiencia inolvidable. Tuve la oportunidad de asistir este año y vivir de primera mano las novedades más emocionantes del ecosistema Google. Desde demostraciones en vivo hasta sesiones interactivas, fue fascinante probar algunas de las nuevas herramientas que marcarán el rumbo de la inteligencia artificial, la productividad y la creatividad en los próximos meses.
Este blog presente las herramientas agrupadas en cinco bloques (de uso/aplicación):
- Inteligencia Artificial y Productividad
- Herramientas Creativas con IA
- Búsqueda y Navegación Mejoradas
- Realidad Mixta y Hardware
- Compras y Entretenimiento
🧠 Inteligencia Artificial y Productividad
- Gemini 2.5 Pro: Es la nueva versión del LLM (large language model) de Google. Destaca por su capacidad de razonamiento, creatividad y personalización, incluyendo funciones como “Deep Think” para resolver problemas complejos.
Vamos a probarlo:
- Gemini Live: Es una interfaz conversacional que integra cámara, voz y datos web para ejecutar tareas en tiempo real. Pude probarla en el AI Sandbox durante el Google IO!
Desde un teléfono inteligente con Gemini Live corriendo, me fue posible hacerle preguntas “en inglés” con respecto a los objetos que teníamos en un estante. - Project Astra: Un asistente visual que responde a interacciones en tiempo real. Fue presentado por primera vez en 2024, como un prototipo de investigación que explora las capacidades de un asistente de IA universal. Sin embargo aún no está disponible
Considera tres principios: 💬 Diálogos más inteligentes 🕹️ Tomar acción 🤝 Ayuda personalizada.
Este es el video de 2025! se ve super cool
Si quieres aprender más (y ser parte del programa de Trusted Testers: Project Astra is only currently available in the US, CA and the UK), puedes mirar aquí.
El año pasado habilitaron este Multimodal Canvas, para tener algo de la experiencia del asistente virtual en vivo (al menos así lo fuí probando como demo en IO 2024)
Puedes probarlo de forma gratuita sin embargo hay que agregarle una llave del API de Gemini (que se obtiene desde AI Studio).
- NotebookLM: Un asistente de investigación personalizado que organiza y resume notas, ideal para estudiantes y profesionales. Es de mis favoritos, desde que lo probe para hacer resumen de textos más largos y exploré su resultado como podcast 💯 (y la versión gratuita, te deje hacer muchas tareas)
- Firebase Studio: es la nueva herramienta de desarrollo impulsada por IA de Google que te permite crear aplicaciones completas utilizando indicaciones en lenguaje natural.
Info precios.
- Gemini Code Assist: Mejora tu experiencia de programación al ofrecer funciones de codificación asistida por IA que se integran directamente en tu IDE. Proporciona autocompletado de código inteligente y sugiere bloques de código o funciones completos según tus entradas.v
- Jules: Google Jules es un agente autónomo que se integra directamente en tu repositorio de GitHub, lee tu código, entiende tu intención y ejecuta tareas complejas en tu base de código. Exploralo más en https://labs.google.com/jules/task
- AI Studio: se ha vuelto de mis herramientas favoritas. Tiene muchas más funcionalidades, y es posible acceder con una cuenta gratuita y usar Gemini 2.5, Gemma.
- Google Meet con su nueva funcionalidad, traducción en tiempo real Español <=> Inglés, durante las conversaciones.
🎨 Herramientas Creativas con IA
- Veo 3: Modelo de generación de videos que crea contenido en 1080p con audio sincronizado (nuevo en 2025), incluyendo diálogos, efectos de sonido y ruido ambiental. https://deepmind.google/models/veo/
- Flow: Aplicación para la creación de videos interactivos, combinando las capacidades de Veo e Imagen.
- Imagen 4: Generador de imágenes detalladas hasta en 2K, con mejoras en tipografía y rapidez.
- Lyria 2: Herramienta para crear música generativa, permitiendo la exploración musical avanzada y la generación en tiempo real. https://deepmind.google/models/lyria/
Las aplicaciones desde Google Deep Mind, este año están 💯
- Stitch: Diseña a la velocidad de la IA! Solo tienes que describir tu idea y Stitch te genera automáticamente diseños de interfaz (UI) para aplicaciones web o móviles
🔍 Búsqueda y Navegación Mejoradas
- Modo IA en Búsqueda: Transforma los resultados en interacciones conversacionales, permitiendo tareas como compras o reservas directamente desde los resultados.
- Ask Photos: Función en Google Photos que permite buscar fotos específicas mediante preguntas en lenguaje natural, facilitando la creación de resúmenes de eventos. Esto vá más allá, del tipico buscar “fotos de gatos”, se puede generar tipos de conversaciones “mi foto con mi gato, donde me vea muy feliz”, por ejemplo.
- Project Marine: un agente inteligente capaz de interactuar con la web para realizar tareas por ti, buscar información y actuar como un verdadero asistente digital.
🕶️ Realidad Mixta y Hardware
- Android XR: Plataforma de realidad extendida con funciones de navegación y asistencia visual, compatible con gafas inteligentes.
- Gafas inteligentes: Google presentó prototipos de gafas de realidad mixta en colaboración con Samsung y Warby Parker, integrando capacidades de IA y realidad aumentada.
🛒 Compras y Entretenimiento
- Prueba virtual de ropa: Nueva herramienta de Google que permite a los usuarios “probarse” ropa virtualmente antes de comprarla, mejorando la experiencia de compra en línea.
- Android TV 16: Incluye soporte para Eclipsa Audio, una tecnología de sonido envolvente de código abierto, y mejoras en la adaptación automática de contenido de streaming.
Tenemos que aumentarle las grandes novedades con Gemma (el modelo Open Source de Google) pero eso ya será para otro blog :3
En resumen, Google I/O 2025 no solo mostró más de 100 productos y actualizaciones, sino que dejó en claro el compromiso de Google con una inteligencia artificial más útil, accesible y poderosa. Desde asistentes que entienden el contexto hasta herramientas creativas impulsadas por IA, el futuro ya no es una promesa: está sucediendo ahora. Participar en este evento fue una inspiración para seguir explorando, aprendiendo y compartiendo cómo estas tecnologías pueden transformar la forma en que vivimos, trabajamos y creamos.
