A Meta finalmente lançou a tão esperada API de câmera de passagem para a Quest, que oferece aos desenvolvedores acesso direto às câmeras RGB de repasse do fone de ouvido para obter uma melhor compreensão da cena-iniciando a próxima geração de experiências de realidade mista mais imersivas no Quest.
Até agora, as câmeras passadas da Quest estavam presas, limitando o que os desenvolvedores podiam fazer além das funcionalidades internas de Meta. A empresa mencionou a Connect em setembro que acabaria por lançar a API da câmera de passagem da Quest, embora não tenha certeza de quando.
Agora, no Meta xr núcleo sdk v74A Meta possui a API da câmera de repasse como uma API experimental pública, fornecendo acesso às câmeras RGB para a frente do Quest 3 e da Quest 3s.

O acesso à câmera de repasse essencialmente ajudará os desenvolvedores a melhorar a iluminação e os efeitos em seus aplicativos de realidade mista, mas também a aplicar aprendizado de máquina e visão computacional ao feed da câmera para coisas como reconhecimento detalhado de objetos, tornando o conteúdo da realidade mista menos um jogo de adivinhação do que está no ambiente de um usuário.
Quando foi anunciado no ano passado, o ex-vice-presidente de meta da VR/AR Mark Rabkin disse que a libertação da API de repasse da Quest permitiria “todos os tipos de experiências de RM de ponta”, incluindo coisas como objetos rastreados, aplicações de IA, sobreposições “sofisticadas”, entendimento da cena.
Isso marca a primeira vez que a API está disponível ao público, embora a Meta tenha lançado anteriormente as primeiras construções com parceiros selecionados, incluindo Laboratórios Niantic, Criatura e Jogos de Resolução – que são Apresentando hoje no GDC 2025 Em uma meta palestra intitulada ‘Realidades de mesclagem, multiplique a maravilha: orientação especializada sobre o desenvolvimento da realidade mista’.
É verdade que, como um recurso experimental, os desenvolvedores não podem publicar aplicativos construídos usando a API da câmera passada ainda, embora seja provável que a Meta esteja novamente adotando uma abordagem iterativa para o lançamento completo do recurso.
O lançamento do V74 também inclui microgestos para gestos intuitivos à base de polegar (por exemplo, torneiras de polegar, furtos), um depurador imersivo para que os desenvolvedores possam visualizar e inspecionar a hierarquia de cenas diretamente dentro do fone de ouvido e novos blocos de construção, como amigos e matchmaking local.