Meta ha agregado nuevas funciones en versión beta para sus gafas inteligentes Ray-Ban que permitirán utilizar funciones de Inteligencia Artificial (IA) en tiempo real gracias al soporte para entrada de video, así como realizar traducciones instantáneas de una conversación, además de lanzar oficialmente la compatibilidad con Shazam.
La compañía liderada por Mark Zuckerberg anunció algunas novedades de IA para sus gafas Ray-Ban Meta en el marco del evento anual Meta Connect 2024, cuando dio a conocer mejoras en la experiencia de uso con el asistente inteligente Meta AI, y presentó capacidades como la traducción en tiempo real y la compatibilidad con otros servicios como Shazam.
Ahora, Meta ha lanzado la actualización de ‘software’ v11, con la que ha asegurado que las gafas Ray-Ban Meta serán “más útiles, divertidas y capaces”, en parte, gracias a la introducción de novedades en versión beta como la IA en tiempo real.
Según ha explicado Meta en un comunicado en su blog, la IA en tiempo real es posible gracias a la implementación de soporte de vídeo en el dispositivo, con lo que la IA puede analizar y comprender las imágenes que se están viendo en el momento.
De esta forma, durante una sesión de IA en tiempo real, el asistente Meta AI podrá ver lo que los usuarios están viendo de forma continua y, al comprender dichas imágenes, podrá mantener conversaciones con los usuarios de forma más cotidiana y natural. Esto se debe a que los usuarios podrán hacer preguntas o solicitudes haciendo referencia a lo que están viendo en el momento.
Por ejemplo, los usuarios podrán hacer preguntas sobre una receta que estén cocinando sin necesidad de decir ‘Hola, Meta’, así como hacer referencia a temas que se hayan tratado anteriormente con Meta AI o hacer preguntas de seguimiento de cualquier tema.
Meta también ha subrayado que “en el momento adecuado” y, según lo que esté viendo el usuario con las gafas, la IA en tiempo real podrá ofrecer sugerencias útiles para los usuarios “incluso antes de que las pregunten”.
Traducción en tiempo real y Shazam
Siguiendo esta línea, otra de las funciones que Meta ha puesto a disposición de los usuarios en versión beta es la traducción en tiempo real. Esta opción permite que las gafas Ray-Ban Meta traduzcan la conversación de forma instantánea entre personas que hablen inglés y español, francés o italiano.
En concreto, los usuarios escucharán traducido al inglés todo lo que se esté diciendo en la conversación de forma automática, a través de los altavoces de oído abierto del dispositivo. También se podrá ver la traducción en forma de transcripciones en el ‘smartphone’.
Con ello, la compañía pretende “derribar las barreras del idioma y acercar a las personas”. Así, se trata de una función útil en situaciones de, por ejemplo, viajes internacionales.
No obstante, por el momento, Meta ha lanzado las funciones de IA y traducción en tiempo real de forma exclusiva para los usuarios que forman parte de su Programa de Acceso Anticipado en Estados Unidos y Canadá. Asimismo, ha señalado que, al tratarse de funciones en versión beta, “es posible que no siempre funcionen correctamente”.
Además de todo ello, las gafas inteligentes de Meta ya disponen de compatibilidad con el servicio de reconocimiento de música Shazam. De esta forma, los usuarios pueden preguntar ‘Oye Meta ¿Qué canción es esta?’ para que las gafas comiencen a analizar la canción que esté sonando en el momento y puedan reconocer el artista y el nombre del tema.
Así, se trata de una herramienta que permite reconocer música con las manos libres y de forma sencilla, aunque por el momento solo se ha lanzado oficialmente para los usuarios de Estados Unidos y Canadá.
Meta ha agregado nuevas funciones en versión beta para sus gafas inteligentes Ray-Ban que permitirán utilizar funciones de Inteligencia Artificial (IA) en tiempo real gracias al soporte para entrada de video, así como realizar traducciones instantáneas de una conversación, además de lanzar oficialmente la compatibilidad con Shazam.
La compañía liderada por Mark Zuckerberg anunció algunas novedades de IA para sus gafas Ray-Ban Meta en el marco del evento anual Meta Connect 2024, cuando dio a conocer mejoras en la experiencia de uso con el asistente inteligente Meta AI, y presentó capacidades como la traducción en tiempo real y la compatibilidad con otros servicios como Shazam.
Ahora, Meta ha lanzado la actualización de ‘software’ v11, con la que ha asegurado que las gafas Ray-Ban Meta serán “más útiles, divertidas y capaces”, en parte, gracias a la introducción de novedades en versión beta como la IA en tiempo real.
Según ha explicado Meta en un comunicado en su blog, la IA en tiempo real es posible gracias a la implementación de soporte de vídeo en el dispositivo, con lo que la IA puede analizar y comprender las imágenes que se están viendo en el momento.
De esta forma, durante una sesión de IA en tiempo real, el asistente Meta AI podrá ver lo que los usuarios están viendo de forma continua y, al comprender dichas imágenes, podrá mantener conversaciones con los usuarios de forma más cotidiana y natural. Esto se debe a que los usuarios podrán hacer preguntas o solicitudes haciendo referencia a lo que están viendo en el momento.
Por ejemplo, los usuarios podrán hacer preguntas sobre una receta que estén cocinando sin necesidad de decir ‘Hola, Meta’, así como hacer referencia a temas que se hayan tratado anteriormente con Meta AI o hacer preguntas de seguimiento de cualquier tema.
Meta también ha subrayado que “en el momento adecuado” y, según lo que esté viendo el usuario con las gafas, la IA en tiempo real podrá ofrecer sugerencias útiles para los usuarios “incluso antes de que las pregunten”.
Traducción en tiempo real y Shazam
Siguiendo esta línea, otra de las funciones que Meta ha puesto a disposición de los usuarios en versión beta es la traducción en tiempo real. Esta opción permite que las gafas Ray-Ban Meta traduzcan la conversación de forma instantánea entre personas que hablen inglés y español, francés o italiano.
En concreto, los usuarios escucharán traducido al inglés todo lo que se esté diciendo en la conversación de forma automática, a través de los altavoces de oído abierto del dispositivo. También se podrá ver la traducción en forma de transcripciones en el ‘smartphone’.
Con ello, la compañía pretende “derribar las barreras del idioma y acercar a las personas”. Así, se trata de una función útil en situaciones de, por ejemplo, viajes internacionales.
No obstante, por el momento, Meta ha lanzado las funciones de IA y traducción en tiempo real de forma exclusiva para los usuarios que forman parte de su Programa de Acceso Anticipado en Estados Unidos y Canadá. Asimismo, ha señalado que, al tratarse de funciones en versión beta, “es posible que no siempre funcionen correctamente”.
Además de todo ello, las gafas inteligentes de Meta ya disponen de compatibilidad con el servicio de reconocimiento de música Shazam. De esta forma, los usuarios pueden preguntar ‘Oye Meta ¿Qué canción es esta?’ para que las gafas comiencen a analizar la canción que esté sonando en el momento y puedan reconocer el artista y el nombre del tema.
Así, se trata de una herramienta que permite reconocer música con las manos libres y de forma sencilla, aunque por el momento solo se ha lanzado oficialmente para los usuarios de Estados Unidos y Canadá.
Meta ha agregado nuevas funciones en versión beta para sus gafas inteligentes Ray-Ban que permitirán utilizar funciones de Inteligencia Artificial (IA) en tiempo real gracias al soporte para entrada de video, así como realizar traducciones instantáneas de una conversación, además de lanzar oficialmente la compatibilidad con Shazam.La compañía liderada por Mark Zuckerberg anunció algunas novedades de IA para sus gafas Ray-Ban Meta en el marco del evento anual Meta Connect 2024, cuando dio a conocer mejoras en la experiencia de uso con el asistente inteligente Meta AI, y presentó capacidades como la traducción en tiempo real y la compatibilidad con otros servicios como Shazam.Ahora, Meta ha lanzado la actualización de ‘software’ v11, con la que ha asegurado que las gafas Ray-Ban Meta serán “más útiles, divertidas y capaces”, en parte, gracias a la introducción de novedades en versión beta como la IA en tiempo real.Según ha explicado Meta en un comunicado en su blog, la IA en tiempo real es posible gracias a la implementación de soporte de vídeo en el dispositivo, con lo que la IA puede analizar y comprender las imágenes que se están viendo en el momento. View this post on Instagram A post shared by Mark Zuckerberg (@zuck)De esta forma, durante una sesión de IA en tiempo real, el asistente Meta AI podrá ver lo que los usuarios están viendo de forma continua y, al comprender dichas imágenes, podrá mantener conversaciones con los usuarios de forma más cotidiana y natural. Esto se debe a que los usuarios podrán hacer preguntas o solicitudes haciendo referencia a lo que están viendo en el momento.Por ejemplo, los usuarios podrán hacer preguntas sobre una receta que estén cocinando sin necesidad de decir ‘Hola, Meta’, así como hacer referencia a temas que se hayan tratado anteriormente con Meta AI o hacer preguntas de seguimiento de cualquier tema.Meta también ha subrayado que “en el momento adecuado” y, según lo que esté viendo el usuario con las gafas, la IA en tiempo real podrá ofrecer sugerencias útiles para los usuarios “incluso antes de que las pregunten”.Traducción en tiempo real y ShazamSiguiendo esta línea, otra de las funciones que Meta ha puesto a disposición de los usuarios en versión beta es la traducción en tiempo real. Esta opción permite que las gafas Ray-Ban Meta traduzcan la conversación de forma instantánea entre personas que hablen inglés y español, francés o italiano.En concreto, los usuarios escucharán traducido al inglés todo lo que se esté diciendo en la conversación de forma automática, a través de los altavoces de oído abierto del dispositivo. También se podrá ver la traducción en forma de transcripciones en el ‘smartphone’.Con ello, la compañía pretende “derribar las barreras del idioma y acercar a las personas”. Así, se trata de una función útil en situaciones de, por ejemplo, viajes internacionales.No obstante, por el momento, Meta ha lanzado las funciones de IA y traducción en tiempo real de forma exclusiva para los usuarios que forman parte de su Programa de Acceso Anticipado en Estados Unidos y Canadá. Asimismo, ha señalado que, al tratarse de funciones en versión beta, “es posible que no siempre funcionen correctamente”.Además de todo ello, las gafas inteligentes de Meta ya disponen de compatibilidad con el servicio de reconocimiento de música Shazam. De esta forma, los usuarios pueden preguntar ‘Oye Meta ¿Qué canción es esta?’ para que las gafas comiencen a analizar la canción que esté sonando en el momento y puedan reconocer el artista y el nombre del tema.Así, se trata de una herramienta que permite reconocer música con las manos libres y de forma sencilla, aunque por el momento solo se ha lanzado oficialmente para los usuarios de Estados Unidos y Canadá. La Voz