Ray-Ban Meta tienen IA multimodal: cómo funciona 

Ray-Ban Meta tienen IA multimodal: cómo funciona 

Meta acaba de anunciar una serie de nuevas actualizaciones para sus gafas inteligentes Ray-Ban Meta. El director ejecutivo, Mark Zuckerberg, lanzó un carrete de Instagram que muestra un nuevo estilo de montura para los lentes y una función de videollamada. 

La compañía habilitó el asistente de Inteligencia Artificial (IA) multimodal para todos en los EE. UU. y Canadá. Pero, ¿Qué es la IA multimodal? Básicamente, es un conjunto de herramientas que permite a la IA procesar múltiples tipos de información, incluidas fotos, videos, texto y audio. 

Ray-Ban Meta tienen IA multimodal: cómo funciona  - ray-ban-meta-2-ia-1280x735

Por otra parte, Meta reveló la integración de videollamadas manos libres con WhatsApp y Messenger. También hay algunos diseños de monturas nuevos para los amantes de la moda.

¿Cómo funciona la IA multimodal en los Ray-Ban Meta?

Los lentes tienen una cámara y cinco micrófonos, que actúan como los ojos y oídos de la IA. Puedes pedirle a los lentes que describan cualquier cosa que estés viendo. ¿Quieres conocer la raza de un perro antes de subir y darle una buena mascota? Pregúntale a los Ray-Ban.

Meta dice que también puede leer letreros en diferentes idiomas, lo cual es ideal para viajar.  También hay otros posibles escenarios de casos de uso, como mirar los ingredientes sueltos en la encimera de la cocina y pedirle a la IA que prepare una receta relevante. 

Ray-Ban Meta tienen IA multimodal: cómo funciona  - ray-ban-meta-2-1280x708

¿Cuándo se puede usar la IA multimodal?

Según Meta, el lanzamiento de estas actualizaciones comenzó el 24 de abril, aunque es posible que no estén disponibles de inmediato para todos los usuarios.

Para acceder a estas nuevas capacidades, los propietarios de Ray-Ban Meta Smart Glasses simplemente deben actualizar su dispositivo a través de la aplicación Meta View. Ray-Ban Meta tienen IA multimodal: cómo funciona