📱 Google expande o “Project Astra” com IA visual em tempo real para celulares Android

O Google começou a liberar amplamente os recursos do Project Astra, integrados ao Gemini Live, permitindo que usuários conversem com a IA sobre tudo o que vêem ou ouvem através da câmera do celular ou compartilhamento de tela — em tempo real e em vários idiomas.
🔍 Os detalhes:
- O que faz?
Permite que o usuário aponte a câmera ou compartilhe a tela do celular e tenha uma conversa com a IA sobre o que está sendo exibido, em diferentes idiomas. - Onde está disponível?
- Lançamento imediato para Pixel 9 e Samsung Galaxy S25.
- A Samsung oferecerá o recurso gratuitamente para seus usuários topo de linha.
- Como funciona (na prática)?
Embora os demos mostrem análise contínua em vídeo, os testes iniciais revelam que o recurso atual funciona mais como um Google Lens turbinado, com análises rápidas por captura (snapshots), e não ainda com vídeo em tempo real constante. - Histórico:
O Project Astra foi anunciado originalmente no Google I/O em maio do ano passado, e começou a chegar aos assinantes do plano Gemini Advanced no mês passado.
🤖 Por que isso importa:
A IA está se tornando cada vez mais perceptiva — com a capacidade de ver, ouvir e entender o ambiente ao nosso redor. Mesmo que essa versão do Astra ainda esteja aquém do que vimos nos demos futuristas, ela marca um passo claro em direção a assistentes contextuais em tempo real.
Imagine esse tipo de IA integrada a óculos inteligentes ou wearables — capazes de descrever o mundo, traduzir placas, ler expressões e oferecer insights no momento exato. O futuro está se materializando, tela por tela.