Mark Zuckerberg presenta las nuevas gafas inteligentes de Meta impulsadas por inteligencia artificial
Por Clare Duffy, CNN
El CEO de Meta, Mark Zuckerberg, subió al escenario este miércoles para presentar la próxima generación de dispositivos portátiles impulsados por inteligencia artificial de la compañía: unas gafas inteligentes con una pequeña pantalla dentro de la lente.
Representan el siguiente paso de la empresa hacia un futuro en el que todos pasemos menos tiempo mirando la pantalla de un teléfono, e interactuemos en cambio con la tecnología de IA de Meta —así como con nuestros mensajes, fotos y el resto de nuestra vida en línea— a través de gafas no muy diferentes de los lentes de prescripción o gafas de sol que podríamos usar.
La nueva gama de dispositivos portátiles también forma parte del intento de la empresa de hacer que su tecnología de IA sea una parte más importante de la vida cotidiana de los usuarios, mientras compite con otros actores de la industria para crear los modelos más avanzados y ampliamente utilizados.
“Las gafas son el formato ideal para la superinteligencia personal porque te permiten estar presente en el momento mientras accedes a todas estas capacidades de IA para hacerte más inteligente, ayudarte a comunicarte mejor, mejorar tu memoria, mejorar tus sentidos”, dijo Zuckerberg.
Zuckerberg anunció los nuevos productos durante la conferencia principal del evento anual Connect de Meta —donde se presentan nuevas tecnologías de IA, realidad virtual y aumentada, y dispositivos portátiles— desde la sede de la empresa en Menlo Park, California, el miércoles.
Meta también mostró la última versión de sus gafas inteligentes Ray-Ban más básicas, la Gen 2, y las nuevas gafas deportivas, las Meta Oakley Vanguard, así como nuevas experiencias en sus visores de realidad virtual Quest 3, incluidos juegos y una nueva aplicación de entretenimiento y una nueva colaboración con Disney+ para Horizon, la experiencia inmersiva de “metaverso” de Meta.
Las gafas inteligentes siguen siendo un producto relativamente de nicho, pero la adopción por parte de los consumidores está creciendo rápidamente. El socio de Meta, EssilorLuxottica, matriz de Ray-Ban, dijo en julio que los ingresos por sus gafas Meta se triplicaron con creces año tras año. Y la empresa busca producir 10 millones de pares de gafas Meta cada año a partir de 2026.
Las gafas Meta Ray-Ban Display son clave para alcanzar ese objetivo, dijo el director de dispositivos portátiles de EssilorLuxottica, Rocco Basilico, en una entrevista con CNN.
“Puedes usar las gafas y sentirte bien con tus marcas favoritas, pero si realmente necesitas, por ejemplo, algunos superpoderes, información inmediata, eso se puede entregar por audio o a través de la pantalla”, dijo Basilico, calificando la nueva oferta de pantalla como “el mayor lanzamiento que hemos hecho hasta ahora”.
Zuckerberg dijo el miércoles que la trayectoria de ventas de las gafas inteligentes de Meta es “similar a la de algunos de los productos electrónicos de consumo más populares de todos los tiempos”.
Aunque Meta fue pionera en crear gafas inteligentes que los consumidores realmente quieren comprar, enfrenta una competencia creciente de Google, Samsung, Snap y, potencialmente, Amazon, lo que eleva las apuestas para la nueva tecnología que está lanzando desde el miércoles.
Esto es todo lo que la empresa anunció en Meta Connect:
Meta ha descrito sus Ray-Ban como gafas inteligentes que pueden “ver lo que ves y oír lo que oyes”. Ahora, con la pantalla Meta Ray-Ban, los usuarios también contarán con retroalimentación visual que les permitirá interactuar con el dispositivo de nuevas maneras.
Las Display cuentan con una pequeña pantalla en la esquina interior derecha de la lente derecha. La pantalla parece proyectarse a varios pies delante del entorno del usuario.
Esa pantalla permite hacer una variedad de funciones que antes se hacían en la pantalla del teléfono: ver y enviar mensajes, capturar y revisar fotos y videos, ver Reels de Instagram y realizar videollamadas en las que los usuarios verán a la persona al otro lado.
“Hemos estado trabajando en gafas durante más de 10 años, y este es uno de esos momentos especiales en los que podemos mostrarte algo en lo que hemos invertido gran parte de nuestras vidas”, dijo Zuckerberg, “y que creo que es diferente a todo lo que haya visto”.
También hay una función de navegación que muestra dónde se encuentra un usuario en un mapa en tiempo real, para que pueda caminar a algún lugar sin tener que mirar constantemente una aplicación en su teléfono. Además, la transcripción y traducción en vivo permite a los usuarios ver lo que dice su interlocutor en tiempo real. (Las conversaciones subtituladas también se guardarán como transcripción en la app Meta AI, ¡una función que, al menos los periodistas, encontrarán muy útil!)
Los usuarios también pueden hacer preguntas al asistente Meta AI y este responderá con paneles de información en la pantalla, además de una respuesta de audio.
Mientras que los usuarios podían interactuar con versiones anteriores de las Meta Ray-Ban solo mediante comandos de voz, las Meta Ray-Ban Displays funcionan con una pulsera “neuronal” que permite navegar por la pantalla usando sutiles gestos de la mano. Tocar el pulgar y el índice, por ejemplo, actúa como función de selección para reproducir música.
Solo el usuario puede ver la pantalla. Eso es intencional para proteger la privacidad de los mensajes, fotos y otros contenidos del usuario. Pero también podría provocar momentos incómodos si las personas no se dan cuenta de que los usuarios de las Meta Ray-Ban Display están leyendo mensajes entrantes en medio de una conversación.
Sin embargo, los usuarios pueden apagar la pantalla cuando no la están utilizando y usar las gafas como si fueran normales.
“Cuando diseñamos el hardware y el software, nos enfocamos en darte acceso a herramientas muy potentes cuando las necesitas, y luego hacer que simplemente desaparezcan en segundo plano” cuando no las usas, dijo Zuckerberg.
Meta no es la primera en intentar crear un dispositivo como este. Google lanzó una versión inicial de gafas con pantalla en la lente, llamadas Google Glass, en 2013, pero fracasó entre los consumidores. Pero la tecnología para alimentar las gafas inteligentes —como procesadores, baterías y cámaras— ha mejorado (y reducido su tamaño) significativamente en la última década. Las Displays se ven y se sienten solo un poco más pesadas y voluminosas que unas gafas normales.
Las Displays funcionan durante seis horas con una sola carga, y el estuche proporciona hasta 30 horas adicionales de energía. La pulsera tiene una autonomía de 18 horas y es resistente al agua.
Las Meta Ray-Ban Displays estarán disponibles a partir del 30 de septiembre por US$799, en tiendas físicas seleccionadas en Estados Unidos, incluidas algunas ubicaciones de Verizon, Lens Crafter, Ray-Ban y Best Buy.
Las Ray-Ban Meta Gen 2, con un precio de US$ 379, se parecen a sus predecesoras pero tienen colores, batería y cámara actualizados. La duración de la batería se ha duplicado a ocho horas, y el estuche de carga proporciona 48 horas adicionales de energía.
Las gafas ahora también pueden capturar video en 3K de mayor calidad. En actualizaciones previstas para este otoño, también podrán grabar videos en cámara lenta y en hiperlapso.
Meta dice que una nueva función opcional de “enfoque de conversación” facilitará que los usuarios de Meta Ray-Ban escuchen a alguien durante una conversación en persona, incluso en un área ruidosa. La herramienta utiliza los “altavoces de oído abierto” de las gafas para amplificar a la otra persona entre el ruido de fondo.
Una demostración en vivo imperfecta en Connect sirvió como recordatorio de que, a pesar de los avances, esta tecnología aún se encuentra en sus primeras etapas. La compañía intentó mostrar a un chef usando Meta AI en las gafas Gen 2 para obtener instrucciones de audio para seguir una receta. Cuando el asistente no generó una respuesta inteligible, Zuckerberg atribuyó el problema al wifi.
De igual manera, en una demostración de las pantallas Meta Ray-Ban, Zuckerberg tuvo dificultades para responder una videollamada del director de tecnología, Andrew Bosworth, porque el botón para aceptar la llamada no aparecía en la pantalla. “Lo solucionaremos más tarde”, dijo Bosworth.
Las nuevas Meta Oakley Vanguard son gafas inteligentes diseñadas para deportes y actividades al aire libre y cuestan US$ 499.
Se conectan con las plataformas Strava y Garmin para permitir a los usuarios rastrear sus entrenamientos. La aplicación Meta AI tendrá una nueva sección de “entrenamientos” para mostrar detalles de la actividad, fotos y videos capturados con las gafas inteligentes, y un resumen de IA de cada entrenamiento.
Las Vanguard cuentan con altavoces más grandes y potentes, para que los usuarios puedan seguir escuchando música incluso en un paseo en bicicleta con viento, por ejemplo, y tienen la mayor duración de batería de todas las gafas Meta, alrededor de nueve horas. Los botones de control de las Vanguard están en el borde inferior de la patilla de las gafas, mientras que otras Meta Ray-Ban cuentan con un botón de captura superior, por lo que los usuarios pueden acceder a ellos incluso si llevan casco.
También son resistentes al agua y al polvo. Y la cámara, que está centrada en el puente de la nariz en lugar de en el lateral, tiene un campo de visión más amplio en comparación con las otras gafas de Meta y puede capturar video en 3K.
“Me las llevé a surfear”, dijo Zuckerberg. “Están bien, funcionan bien”.
CNN recibió una demostración de los Vanguards emparejados con un reloj Garmin. Durante un entrenamiento en caminadora, la IA de los Vanguards podía responder preguntas, por ejemplo, sobre la frecuencia cardíaca actual y la duración del ejercicio.
The-CNN-Wire
™ & © 2025 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.