- Gêmeos agora pode realizar atividades juntos para completar tarefas complexas
- Gemini Live está obtendo recursos multimodais no novo telefone
- Gemini será desenvolvido com o Projeto Astra como um assistente de IA totalmente equipado
Coincidindo com o lançamento da linha de dispositivos Samsung S25 no Galaxy Unpacked de hoje, o Google anunciou algumas atualizações impressionantes em sua plataforma Gemini AI. Muitas das melhorias são específicas para dispositivos como o novo Samsung S25, mas algumas também funcionam em telefones Samsung S24 e Pixel 9 mais antigos.
O recurso que se destaca é a nova capacidade de Gêmeos de encadear ações. Isso significa que agora você pode fazer coisas como conectar-se ao Google Maps para procurar restaurantes próximos e, em seguida, redigir um texto no Mensagens do Google para enviar às pessoas que deseja convidar para almoçar com os Comandos Gemini.
A capacidade de encadear todos os dispositivos que executam o Gemini está sendo adicionada “depende das extensões”, o que significa que um desenvolvedor deve escrever para incluir extensões para vincular o aplicativo específico ao Gemini. Naturalmente, todos os principais aplicativos do Google já possuem extensões para Gemini, mas extensões também estão disponíveis para os aplicativos Samsung Reminders, Samsung Calendar, Samsung Notes e Samsung Clock.
Gemini live torna-se multimodal
O Gemini Live do Google, a parte do Gemini que permite conversas naturais e humanas com IA, também está recebendo algumas atualizações multimodais importantes. Agora você poderá fazer upload de fotos, arquivos e vídeos do YouTube para a conversa que estiver tendo, então, por exemplo, você pode perguntar ao Gemini Live: “Ei, olhe esta foto do meu projeto escolar e me diga como eu poderia fiz melhor”, faça upload da imagem e obtenha uma resposta.
As melhorias multimodais do Gemini não estão disponíveis em todos os níveis, mas requerem um Galaxy S24, S25 ou Pixel 9 para funcionar.

Projeto Astra
Por fim, o Google anunciou que os recursos do Projeto Astra chegarão nos próximos meses, primeiro para os telefones Galaxy S25 e Pixel. O Projeto Astra é o protótipo do assistente de IA do Google que permite interagir com o mundo ao seu redor, fazendo perguntas sobre o que você está vendo e onde está usando a câmera do seu telefone. Assim, você pode simplesmente apontar seu telefone para algo e pedir ao Gemini para lhe contar algo sobre isso ou perguntar quando é a próxima parada em sua rota de ônibus.
O Projeto Astra funciona em telefones celulares, mas o protótipo do Google leva sua experiência para o próximo nível quando combinado com óculos de IA com viva-voz, para que você possa começar a fazer perguntas ao Gemini sobre o que está vendo sem precisar interagir com uma tela.

Embora ainda não haja nenhuma palavra sobre a data de lançamento desses óculos Google de próxima geração, eles se juntarão aos óculos Meta Ray-Ban no mercado emergente de wearables de IA quando estiverem disponíveis.