Google Loon: conexión WiFi mundial y global
Globos de helio con señal Wi-Fi para proveer de acceso a internet a los habitantes de aquellas zonas en las que no hay cobertura de red
Recomendar recetas de un vistazo o aconsejar sobre una avería doméstica son algunas de las aplicaciones de las gafas con inteligencia artificial multimodal.
Ya hemos hablado en ocasiones anteriores del potencial de las gafas de realidad aumentada, pero son dispositivos que aún no terminan de despegar para el día a día. La mayoría de ellas suelen ser aparatosas o bien ofrecen funcionalidades limitadas. Pero ¿y si se recurre a la IA y se dejan de concebir como pantallas que emulan un smartphone? ¿Y si se limitan a captar imágenes y sonidos, y a ofrecer información en formato de audio? En ese caso bastaría con unas gafas prácticamente idénticas a un modelo convencional, pero integrando una cámara y un micrófono, así como la capacidad de transmitir sonido a través de las patillas. Y todo ello procesado con un motor de inteligencia artificial. Es el enfoque que están adoptando Meta y otros fabricantes. ¿El resultado? Una nueva generación de gafas inteligentes.
Cuando Meta lanzó sus Ray-Ban Meta Smart a finales de 2023 la acogida del mercado fue relativamente tibia. Unas gafas con cámara que hacían fotos y vídeos sonaban más a juguete para influencers que al gadget definitivo. Y eso sin tener en cuenta las cuestiones de privacidad. Sin embargo, algo cambió en diciembre de ese año. La empresa matriz de Facebook anunció que iba a integrar funcionalidades de inteligencia artificial multimodal, en la línea de lo que está haciendo Google con su IA Gemini. En la práctica, eso significaba que las gafas, además de responder a comandos básicos y grabar vídeos o hacer fotos, ahora empezarían a analizar las imágenes y ofrecer funcionalidades impensables hasta la fecha.
La inteligencia artificial multimodal se está perfilando como la nueva frontera en el desarrollo de sistemas de IA, combinando y procesando múltiples tipos de datos, como texto, imagen, sonido y vídeo, para entender y actuar en el mundo de una manera más compleja y ambiciosa.
A diferencia de los sistemas unimodales, que se especializan en un solo tipo de datos, la IA multimodal puede interpretar información compleja de varias fuentes simultáneamente, lo que le permite realizar tareas con un nivel de comprensión y precisión sin precedentes.
En el caso de las gafas inteligentes ya no es preciso introducir comandos de texto o de voz, dado que analizan la escena que está viendo el usuario y ofrecen información sobre la base de esa misma imagen. Las aplicaciones son inagotables.
Las gafas de Meta y de otras empresas como Brilliant Labs o Envision suelen requerir la conexión a un smartphone que se encarga de la computación pesada. Por ahora, los modelos en el mercado se limitan a analizar fotografías. Una vez que la IA multimodal procesa la imagen, permite hacer cosas como las siguientes:
Algunas de estas aplicaciones como la generación de recetas están ya disponibles, mientras que el resto –y algunas que aún desconocemos– irán haciéndose realidad gradualmente. Por ejemplo, el modelo de gafas de Brilliant Labs incorpora una pantalla micro-OLED que permite aplicaciones de realidad aumentada como ver un sofá en un color distinto. Dicho esto, hay un área en que este tipo de dispositivos podrían llegar a cambiar vidas.
Quienes no han tardado en apreciar su potencial han sido las personas con problemas de visión o ceguera. A partir de ahora, una persona podrá preguntar por lo que tiene delante de los ojos, ya se trate de un objeto, un ser humano o un texto, y las gafas se encargarán de explicárselo. De hecho, aparte de las gafas con IA, se están desarrollando wearables parecidos que prescinden de las lentes y funcionan por medio de unos auriculares equipados con cámaras.
Es el caso de un dispositivo desarrollado por la Universidad de Singapur. Se trata de una diadema que integra unca cámara de 13 megapíxeles que toma fotografías a instancias del usuario. Una vez captada la imagen, la IA analiza el tamaño, la forma y el color del objeto. A diferencia de otros modelos, no requiere conexión al teléfono móvil o algún otro dispositivo.
Estos auriculares, que transmiten el sonido directamente a través del hueso craneal, aún no están a la venta. No obstante, existen otros modelos –incluido el de Meta y otros fabricantes– que ya han salido al mercado y que, sin duda, harán la vida más fácil a las personas con discapacidades.
Fuentes:
Imágenes:
Todos los campos son obligatorios.
Descubre cuáles son los temas de los que más se está hablando este momento
{{CommentsCount}} Comentarios
Actualmente nadie ha comentado la noticia.
Sé el primero en dejar un comentario.
{{firstLevelComment.Name}}
{{firstLevelComment.DaysAgo}} días atrás
{{firstLevelComment.Text}}
Responder{{secondLevelComment.Name}}
{{secondLevelComment.DaysAgo}} días atrás
{{secondLevelComment.Text}}