
Hoje, durante o Connect, a Meta anunciou o Wearables Disposited Access Toolkit, que representa os primeiros passos da empresa para permitir experiências de terceiros em seus óculos inteligentes.
Se o nome “Wearables Disposited Access Toolkit” parecer um pouco estranho, é por um bom motivo. Comparado a um SDK antigo e simples, que geralmente permite que os desenvolvedores criem aplicativos para um dispositivo específico, os aplicativos feitos para óculos de meta inteligentes não funcionam nos óculos.
A parte do “Acesso ao dispositivo” do nome é a chave; desenvolvedores serão capazes de acesso Sensores (como o microfone ou a câmera) nos óculos inteligentes e, em seguida, transmitam essas informações de volta ao seu próprio aplicativo em execução em um dispositivo Android ou iOS. Após o processamento dos dados do sensor, o aplicativo pode enviar informações de volta aos óculos para saída.
Por exemplo, um aplicativo de culinária em execução no Android (como Epicurious) poderia ser desencadeado pelo usuário dizendo “Ei Epicurious” para os óculos inteligentes. Então, quando o usuário disser “mostre -me a receita com classificação superior que posso fazer com esses ingredientes”, o aplicativo Android pode acessar a câmera nos óculos Smart Meta para tirar uma foto do que o usuário está olhando e processar essa foto no telefone do usuário antes de enviar sua recomendação como áudio falado para os óculos inteligentes.
Dessa forma, os desenvolvedores serão capazes de estender Aplicativos de smartphones a óculos inteligentes, mas não executam aplicativos diretamente nos óculos inteligentes.
A provável razão para essa abordagem é que os óculos inteligentes da Meta têm limites estritas em computação, térmica e duração da bateria. E a interface somente em áudio na maioria dos óculos inteligentes da empresa não permite o tipo de navegação e interação que os usuários estão acostumados com um aplicativo para smartphone.
Desenvolvedores interessados em construir os óculos inteligentes da Meta podem Agora, inscreva.
Quanto ao que pode ser feito com o kit de ferramentas, a Meta mostrou alguns exemplos de parceiros que estão experimentando os dispositivos.
A Disney, por exemplo, fez um aplicativo que combina conhecimento sobre seus parques com a conscientização contextual da situação do usuário, acessando a câmera para ver o que eles estão vendo.
https://www.youtube.com/watch?v=hu7oku9vrny
O Golf App 18Birdies mostrou um exemplo de informações contextualmente conscientes de um campo de golfe específico.
https://www.youtube.com/watch?v=XVW68HCVZRW
Por enquanto, a Meta diz que apenas os parceiros selecionados poderão trazer suas integrações de aplicativos com seus óculos inteligentes ao público, mas espera permitir mais acessibilidade aberta a partir de 2026.
Os exemplos mostrados até agora usavam apenas saída de voz como meios para interagir com o usuário. Embora a Meta diga que os desenvolvedores também podem estender aplicativos aos óculos de exibição de Ray-Ban, não está claro neste momento se os aplicativos poderão enviar texto, foto ou vídeo de volta aos óculos ou se integrar à interface do usuário do próprio dispositivo.





![[Industry Direct] Pimax lança ‘SuperOpen’ para capacitar desenvolvedores e moldar a próxima era da RV](https://globalbrandstokens.com/wp-content/uploads/2025/12/maxresdefault-1-350x250.jpg)











