Google está integrando Gemini en Android Auto para su uso en el automóvil.

Google anunció durante su evento Android Show —celebrado antes de la conferencia para desarrolladores I/O 2025— que Gemini, su inteligencia artificial generativa, se implementará en todos los vehículos compatibles con Android Auto en los próximos meses.
Según la compañía, la incorporación de Gemini en Android Auto —y más adelante este año en vehículos con el sistema operativo integrado de Google— mejorará la experiencia de conducción haciéndola “más productiva y divertida”, como se destacó en una publicación del blog oficial.
“Esto marca lo que creemos será uno de los cambios más significativos en la tecnología dentro del automóvil en mucho tiempo”, dijo Patrick Brady, vicepresidente de Android para Automóviles de Google, en una sesión informativa con la prensa antes del evento.
Gemini aparecerá en Android Auto de dos formas principales.
Gemini mejora la asistencia por voz en el automóvil con capacidades de lenguaje natural para interacciones más intuitivas
Principalmente, actuará como un asistente de voz mucho más avanzado. Los conductores —o pasajeros, ya que el reconocimiento de voz no está vinculado al propietario del teléfono— podrán pedirle a Gemini que realice tareas como enviar mensajes o reproducir música. Aunque estas funciones ya estaban disponibles con el Asistente de Google, el procesamiento de lenguaje natural de Gemini permitirá una interacción más conversacional, sin necesidad de comandos de voz rígidos.
Gemini también podrá “recordar” las preferencias del usuario —como el idioma preferido de un contacto para mensajes de texto— y gestionar automáticamente traducciones. Además, Google afirma que Gemini podrá realizar una de las tareas tecnológicas más populares en el automóvil: encontrar restaurantes mejor valorados a lo largo de una ruta. Según Brady, también podrá examinar las reseñas y listados de Google para responder preguntas más específicas, como ubicar locales de tacos con opciones veganas.
“Gemini Live” permite conversaciones dinámicas y continuas sobre una variedad de temas durante la conducción
Otra función destacada es “Gemini Live”, que mantiene al asistente de IA continuamente activo y listo para conversar sobre una amplia gama de temas. Brady explicó que los usuarios podrían hablar con Gemini sobre ideas para viajes en vacaciones de primavera, recetas aptas para niños o incluso historia de Roma.
Si todo esto suena potencialmente como una distracción, Patrick Brady insiste en que no lo es. Argumenta que las capacidades de lenguaje natural de Gemini en realidad simplificarán la forma en que los usuarios interactúan con Android Auto, permitiéndoles completar tareas más fácilmente y con menos esfuerzo mental, reduciendo así la “carga cognitiva”.
Es una afirmación audaz, especialmente en un momento en que muchos conductores están presionando por un regreso a los botones físicos y perillas en lugar de interfaces centradas en pantallas táctiles, una tendencia que algunos fabricantes ya están comenzando a adoptar.
Gemini se lanzará con soporte en la nube, con planes para procesamiento local que mejore el rendimiento y la confiabilidad
Aún quedan muchos detalles por resolver. En su lanzamiento, Gemini dependerá del procesamiento en la nube tanto en Android Auto como en vehículos con Google Built-In. Sin embargo, Brady señaló que Google está colaborando con fabricantes de automóviles para integrar más capacidad de cómputo a bordo. Esto permitiría que Gemini funcione localmente (en el borde), lo que podría mejorar tanto el rendimiento como la confiabilidad, aspectos clave en vehículos que cambian frecuentemente entre torres de señal.
Los vehículos actuales generan grandes cantidades de datos a través de sensores y, en algunos casos, cámaras internas y externas. Al ser consultado sobre si Gemini podría eventualmente aprovechar estos datos multimodales, Brady respondió que “no hay nada que anunciar” por ahora, pero confirmó que la empresa está explorando activamente esa posibilidad.
“Definitivamente creemos que, a medida que los automóviles cuenten con más cámaras, surgirán casos de uso muy interesantes en el futuro”, afirmó.
Read the original article on: TechCrunch
Read more: Google and Duolingo think AI can transform language learning. Do they?
Deja una respuesta