La inteligencia artificial revoluciona las gafas inteligentes: más allá de las pantallas
La inteligencia artificial revoluciona las gafas inteligentes: más allá de las pantallas
Una nueva generación de gafas inteligentes está comenzando a tomar forma, impulsada por los avances en inteligencia artificial (IA). Esta transformación ha sido posible gracias al uso de IA multimodal, que convierte unas gafas convencionales con cámara y micrófono en potentes asistentes inteligentes.

Meta fue una de las primeras empresas en apostar por este concepto con sus Ray-Ban Meta Smart, lanzadas en 2023. Aunque al principio fueron vistas como un accesorio limitado para creadores de contenido, la integración de inteligencia artificial cambió el panorama. Desde diciembre de ese año, las gafas comenzaron a analizar el entorno visual del usuario y a ofrecer respuestas y sugerencias en tiempo real, sin necesidad de comandos de texto o voz.
La clave detrás de esta evolución es la inteligencia artificial multimodal, que permite procesar diferentes tipos de datos simultáneamente, como texto, imagen, audio y vídeo. A diferencia de los sistemas tradicionales, esta tecnología ofrece una comprensión más rica del entorno, lo que amplía enormemente las posibilidades de uso. Por ejemplo, las gafas pueden identificar objetos, traducir idiomas, o incluso sugerir recetas basadas en lo que hay en el refrigerador.


Actualmente, estos dispositivos requieren conexión a un smartphone para ejecutar tareas complejas. Aun así, ya existen funciones prácticas disponibles, como diagnosticar fallas en el hogar, leer etiquetas nutricionales, o encontrar tiendas que venden un determinado producto. Otros modelos, como los de Brilliant Labs, van más allá al incorporar pantallas de realidad aumentada que permiten visualizar objetos en diferentes colores o estilos.
Una de las áreas donde estas gafas prometen tener un impacto más profundo es en la accesibilidad. Para personas con discapacidad visual, la capacidad de obtener información sobre su entorno en tiempo real representa un avance significativo. Basta con mirar algo para que el dispositivo lo describa, ayudando a identificar personas, leer textos o ubicar objetos. Esta asistencia visual se convierte en una herramienta clave para la inclusión.


Además de las gafas, también se están desarrollando otros dispositivos como auriculares con cámara integrados, capaces de transmitir sonido a través del cráneo. Es el caso de una diadema diseñada por la Universidad de Singapur, que toma fotografías, las analiza con IA, y proporciona información auditiva sin depender de un teléfono móvil. Aunque aún no están disponibles comercialmente, su potencial para mejorar la calidad de vida de personas con discapacidad ya es evidente.
Por: Biblioteca Digital TELMEX