그만큼 이미 머리 장착형 카메라와 개방형 헤드폰으로 잘 작동했지만 이제 Meta는 깨우는 말 없이 실시간 AI에 액세스할 수 있고, 여러 언어 간 실시간 번역이 가능하며, 음악 식별을 위해 Shazam에 액세스할 수 있습니다.
메타 이러한 기능의 대부분은 9월에. Live AI를 사용하면 Meta AI를 사용하여 “라이브 세션”을 시작할 수 있습니다. 이를 통해 보조자는 당신이 보고 있는 모든 것에 액세스할 수 있고 “Hey Meta”라고 말하지 않고도 질문할 수 있습니다. 무언가를 요리하거나 수리하기 위해 핸즈프리가 필요한 경우, Live AI는 귀하가 하고 있는 모든 일에 집중해야 하는 경우에도 스마트 안경을 유용하게 유지하도록 되어 있습니다.
실시간 번역을 사용하면 스마트 안경이 영어와 프랑스어, 이탈리아어, 스페인어를 번역할 수 있습니다. 실시간 번역이 활성화되어 있고 누군가가 선택한 언어 중 하나로 말하는 경우 스마트 안경의 스피커를 통해 또는 Meta View 앱에 입력된 스크립트를 통해 영어로 말하는 내용을 모두 들을 수 있습니다. 각 언어를 번역하려면 특정 모델을 다운로드해야 하고 실시간 번역을 활성화해야 실제로 통역사 역할을 할 수 있지만 번역을 위해 휴대폰을 들고 있는 것보다 더 자연스러워 보입니다.
Shazam 통합을 통해 Meta 스마트 안경은 주변에서 들리는 노래를 식별할 수도 있습니다. 간단한 “메타, 이 노래 뭐야?”라고 말하면 스마트폰에서 Shazam을 사용하는 것처럼 스마트 안경의 마이크가 당신이 듣고 있는 음악을 알아낼 수 있습니다.
세 가지 업데이트 모두 스마트폰을 대체할 수 있는 진정한 증강 현실 안경이라는 Meta의 최종 목표를 향한 웨어러블의 첫 단계입니다. 의 실제 미리보기입니다. AI와 VR, AR 중 하나를 결합하는 것은 여러 기술 대기업들 역시 염두에 두고 있는 아이디어인 것 같습니다. Google의 최신 XR 플랫폼, Gemini와 같은 생성 AI가 VR 또는 AR을 매력적으로 만드는 접착제가 될 수 있다는 아이디어를 바탕으로 구축되었습니다. 홀로그램 이미지로 사용자의 시야를 실제로 변경하려는 회사가 있기까지는 아직 몇 년이 걸리지만 그 동안 스마트 안경은 적당히 유용한 임시방편처럼 보입니다.
모든 Ray-Ban Meta 스마트 안경 소유자는 Meta v11 업데이트의 일부로 Shazam 통합을 즐길 수 있습니다. 실시간 번역 및 실시간 AI를 위해서는 지금 바로 참여할 수 있는 Meta의 Early Access 프로그램에 참여해야 합니다. .