Por medio de su cuenta de Instagram, el CEO de Meta mostró que los lentes en colaboración con Ray-Ban usan lenguajes multimodales, por lo que son capaces de procesar órdenes con voz según lo que esté viendo el usuario.
Una de las principales características del dispositivo es la posibilidad de reconocer y describir lugares históricos.
Esta nueva función de inteligencia artificial multimodal permite a los usuarios obtener información detallada sobre los puntos de referencia simplemente mirándolos y haciendo preguntas sobre ellos.
Zuckerberg puso el ejemplo con un arco que encontró en su viaje en Montana, del que no tuvo que dar el nombre, sino simplemente preguntarle a los lentes la historia de lo que tenía enfrente.