Google prepara sus gafas inteligentes con IA y Gemini para 2026

La nueva generación de gafas que quiere cambiar cómo usamos la tecnología
Después del fallido intento de Google Glass hace más de una década, Google vuelve al terreno de las gafas inteligentes con una propuesta mucho más ambiciosa y refinada. La compañía confirmó que en 2026 lanzará sus primeras gafas con inteligencia artificial integradas con Gemini, su asistente de IA, marcando su entrada formal al nuevo mercado de wearables inteligentes de realidad aumentada.
«Google lanzará sus primeras gafas con inteligencia artificial en 2026 junto a socios como Samsung y Warby Parker.»
El proyecto, que se desarrolla junto a socios como Samsung, Warby Parker y Gentle Monster, no busca repetir errores del pasado. Esta vez, el objetivo es combinar diseño, ligereza y funciones avanzadas de IA en un dispositivo pensado para el uso diario.
Dos modelos y un mismo objetivo: llevar la IA a tus ojos
Google planea lanzar dos categorías de gafas inteligentes: una con pantallas integradas para experiencias de realidad aumentada y otra enfocada principalmente en audio inteligente. Ambas funcionarán con el nuevo sistema operativo Android XR, diseñado para dispositivos de realidad extendida.
Las gafas estarán conectadas al smartphone del usuario, lo que permitirá que gran parte del procesamiento se realice desde el teléfono. Esta estrategia mantiene los dispositivos livianos, estéticos y con mayor duración de batería, sin sacrificar potencia.
Entre las funciones más llamativas se incluyen:
- Traducción de conversaciones en tiempo real.
- Navegación avanzada con Google Maps proyectada en las lentes.
- Edición de fotos y consultas inteligentes a Gemini sin sacar el teléfono.
- Asistencia contextual basada en lo que el usuario está viendo.
Project Aura: el primer vistazo al futuro
Uno de los desarrollos más avanzados es Project Aura, creado junto a Xreal. A diferencia de otros modelos, estas gafas funcionan de manera más independiente y ejecutan Android XR directamente, ofreciendo una experiencia inmersiva con un campo de visión de 70 grados
«Las nuevas gafas usarán Android XR y Gemini para ofrecer traducción, mapas y asistencia contextual en tiempo real.»
Durante pruebas iniciales, las gafas demostraron ser capaces de mostrar mapas flotantes, subtítulos en tiempo real, videollamadas con superposiciones de RA y vistas previas de contenido generado por IA, todo desde las propias lentes.
Google también presentó versiones monoculares y binoculares, permitiendo elegir entre mayor ligereza o una experiencia visual más envolvente.
Galaxy XR también evoluciona
En paralelo, Google anunció importantes mejoras de software para los auriculares Galaxy XR de Samsung, que refuerzan la apuesta por Android XR. Entre ellas destacan:
- Modo de desplazamiento, que estabiliza ventanas virtuales en movimiento.
- PC Connect, que permite reflejar cualquier PC con Windows dentro del entorno XR.
- Avatares realistas, que replican el rostro y movimientos del usuario en videollamadas.
Estas mejoras buscan convertir los visores XR en herramientas más prácticas para trabajo, entretenimiento y comunicación.
El regreso de Google al juego de las gafas
A diferencia de Google Glass, esta nueva generación de gafas llega a un mercado más maduro, con usuarios acostumbrados a interactuar con IA, realidad aumentada y asistentes virtuales. La combinación de Gemini, Android XR y alianzas con marcas de moda y tecnología apunta a un producto que no solo sea funcional, sino también deseable.
«Project Aura marca el regreso de Google al mercado de gafas inteligentes con una propuesta más ligera y funcional.»
Google no solo quiere que mires el mundo: quiere que interactúes con él en tiempo real, con la inteligencia artificial como copiloto permanente.
Y esta vez, todo indica que la visión sí está alineada con el momento tecnológico.
