E aí, IA? – Resumo do dia 20/fev/2026
E aí, IA?
Bom dia!
Hoje a edição mistura bastidores e produto: de um momento viral envolvendo líderes de duas das principais AI labs do mundo, até avanços práticos em modelos (raciocínio, música, 3D) e sinais claros de como empresas estão forçando a adoção de AI no trabalho — enquanto a segurança (inclusive em cripto) entra de vez no centro do debate.
Na edição de hoje:
- 🤝 O “não aperto de mãos” (na prática, a recusa em dar as mãos) entre líderes de OpenAI e Anthropic
- 🧠 Gemini 3.1 Pro chega com salto de raciocínio e mantém preço de API
- 🎵 DeepMind coloca o Lyria 3 no Gemini: texto/foto viram música com letras
- 🔐 OpenAI publica benchmark em que agente explora falhas em smart contracts
- 👀 Accenture passa a medir uso de AI e conecta adoção a promoções
- 🌍 World Labs capta US$ 1B para “world models” e geração de ambientes 3D editáveis
🤝 A recusa de dar as mãos que virou símbolo da disputa OpenAI x Anthropic
Um momento aparentemente trivial no India AI Impact Summit virou meme global — e também um resumo visual da tensão entre duas das maiores empresas de IA. Durante uma foto oficial com o primeiro-ministro Narendra Modi, Sam Altman (OpenAI) e Dario Amodei (Anthropic) não acompanharam a dinâmica de “corrente” em que líderes subiam ao palco e ligavam as mãos, levantando os braços para a câmera, o que resultou em um gesto desajeitado que viralizou como “recusa de aperto de mão”.
A cena ganhou camadas extras porque acontece em meio a trocas públicas de farpas e competição direta por talento, marca e narrativa: a Anthropic recentemente criticou a adoção de publicidade em chatbots (com campanha de grande alcance), enquanto Altman respondeu chamando parte do posicionamento de desonesto. Em paralelo, movimentações de contratação e disputas de identidade de produto na área de agentes também alimentam a leitura de que as duas labs estão cada vez mais em rota de colisão.
Detalhes
- Na foto, Modi puxou uma dinâmica de mãos dadas entre líderes; Altman e Amodei acabaram levantando os punhos, em vez de unir as mãos como o restante do grupo.
- Altman minimizou a situação depois, dizendo que ficou confuso quando Modi segurou sua mão e ele não entendeu imediatamente o que estava acontecendo.
- O episódio reforçou a percepção pública de rivalidade num momento em que autoridades tentavam sinalizar “unidade” em torno de IA.
No fim, o meme é engraçado, mas o subtexto é sério: a corrida por influência e vantagem competitiva entre as principais AI labs está longe de um clima colaborativo. Saiba mais.
🧠 Google lança Gemini 3.1 Pro com foco em raciocínio e “SOTA” em benchmarks
O Google anunciou o Gemini 3.1 Pro, posicionando o modelo como um salto importante em capacidade de raciocínio e desempenho geral — sem aumento de preço na API em relação ao antecessor. A empresa afirma que o 3.1 Pro passa a ser o “motor” por trás de atualizações recentes do ecossistema Gemini, incluindo app, ferramentas para devs e integrações que já vinham sendo promovidas como melhoria de “deep thinking”.
Um dos números mais citados foi a evolução em um benchmark de raciocínio (ARC-AGI-2), que sugere avanço grande em tarefas que exigem generalização e resolução de problemas. Além disso, o Google destacou desempenho forte em áreas como ciência, programação competitiva e uso de ferramentas/fluxos com agentes — e reforçou o contexto de janela longa, mantendo 1M tokens de contexto, o que favorece análise de documentos extensos, bases de código e workloads de pesquisa.
Detalhes
- O Google reporta salto expressivo no ARC-AGI-2, indicando foco específico em raciocínio e generalização.
- O modelo é promovido como base de inteligência para recursos recentes do ecossistema Gemini e integrações com ferramentas.
- Preço e contexto (1M tokens) permanecem como argumento central para adoção em produção, especialmente em cenários enterprise e dev.
A leitura do mercado é clara: depois de semanas de protagonismo de concorrentes, o Google tenta reassumir a narrativa de “modelo topo” com um upgrade orientado a reasoning e custo competitivo. Saiba mais.
🎵 Lyria 3 no Gemini: fotos e prompts viram música com letra, melodia e “capa”
O Google DeepMind colocou o Lyria 3 dentro do Gemini, liberando geração de músicas curtas a partir de texto — e também a partir de imagens. A proposta é simplificar um fluxo que antes exigia ferramentas separadas: agora, a própria interface do Gemini oferece uma opção para criar uma faixa com instrumental, vocal/letra e arte associada ao conteúdo, de forma rápida, voltada para criação casual e prototipação criativa.
Além do apelo criativo, há um componente de segurança e rastreabilidade: o Google cita o uso do SynthID para marca d’água em conteúdo gerado por IA. O recurso suporta múltiplos idiomas e, segundo a descrição, inclui limites diferentes entre usuários gratuitos e assinantes — o que aponta para um modelo de distribuição similar ao de outras features premium do Gemini.
Detalhes
- O Lyria 3 permite gerar uma música curta (na casa de dezenas de segundos) a partir de um prompt de texto ou de uma foto enviada pelo usuário.
- O pacote inclui letra e arte, aproximando-se de um “mini estúdio” integrado ao app de IA conversacional.
- O Google destaca marca d’água com SynthID para sinalizar conteúdo sintético e reduzir riscos de uso indevido.
Na prática, o movimento consolida música como mais um formato nativo no Gemini, ao lado de texto, imagem e análise — e deve acelerar testes criativos em marketing, social e protótipos de conteúdo. Saiba mais.
🔐 Benchmark mostra agente de código explorando falhas em smart contracts com alta taxa de sucesso
A OpenAI apresentou o EVMbench, um benchmark criado para medir se agentes de IA conseguem identificar, corrigir e também explorar vulnerabilidades em smart contracts (código que movimenta valores e regras em blockchains). O ponto que mais chamou atenção foi o desempenho em tarefas ofensivas: o agente de programação testado consegue, em muitos cenários, construir exploits que drenam fundos de contratos vulneráveis em ambiente de teste — um sinal de que a barreira técnica para ataques pode cair rapidamente com automação.
O estudo também sugere assimetria: achar e consertar falhas pode ser mais difícil do que explorá-las. Ainda assim, o material é apresentado como ferramenta defensiva para a comunidade de segurança, com incentivo a pesquisadores e programas de acesso/validação. Para o ecossistema cripto, a implicação é direta: auditorias e monitoramento precisarão se adaptar a um atacante potencialmente mais rápido, mais barato e escalável.
Detalhes
- O EVMbench avalia três capacidades: detecção de falhas, correção (patching) e exploração (exploits) em smart contracts.
- Os resultados reportados indicam que a taxa de sucesso em exploração pode superar a taxa de sucesso em defesa (encontrar e corrigir).
- A OpenAI também posiciona o benchmark como base para pesquisa e melhoria de ferramentas de segurança focadas em agentes.
O recado é incômodo, mas útil: se agentes conseguem atacar com competência crescente, a defesa precisa adotar o mesmo tipo de automação — e rápido. Saiba mais.
👀 Accenture passa a rastrear uso de ferramentas de IA e conecta adoção a promoções
A Accenture, uma das maiores consultorias do mundo, está monitorando a frequência de uso de ferramentas de IA por líderes e conectando esse uso ao processo de avaliação para promoções. A medida mira especialmente cargos seniores, onde a adoção costuma ser mais lenta do que entre analistas e equipes mais jovens, e tenta criar um incentivo explícito para que a liderança incorpore a tecnologia no dia a dia.
Segundo relatos, logins e uso semanal entram como “insumo visível” em revisões de performance para posições de maior responsabilidade. A estratégia expõe um dilema comum em grandes organizações: treinar é uma coisa, mudar comportamento e processos é outra — e parte da base interna ainda critica a qualidade das ferramentas internas, reclamando que algumas entregas são inconsistentes. Mesmo assim, a direção parece apostar que o custo de não adotar IA já é maior do que o atrito de implementação.
Detalhes
- O foco é aumentar a adesão de profissionais seniores, que tendem a adotar mais devagar do que níveis júnior.
- O uso de IA passa a aparecer como sinal mensurável no ciclo de performance para candidatos a promoções.
- A empresa afirma ter treinado centenas de milhares de funcionários, mas há críticas internas sobre maturidade/qualidade de ferramentas.
O caso é um termômetro do mercado: IA está deixando de ser “diferencial” e virando requisito formal de carreira em grandes empresas. Saiba mais.
🌍 World Labs levanta US$ 1B e quer levar “world models” para workflows 3D editáveis
A World Labs anunciou uma rodada de US$ 1 bilhão, incluindo um investimento relevante da Autodesk, mirando um objetivo ambicioso: construir modelos de IA capazes de entender e gerar ambientes 3D de forma útil para fluxos de trabalho reais. O produto citado com frequência é o Marble, que permite criar cenários 3D a partir de prompts e, crucialmente, mantê-los editáveis — um diferencial importante para design, arquitetura, mídia e entretenimento, onde a etapa final quase sempre exige ajustes manuais.
A parceria com a Autodesk sinaliza a busca por integração com ferramentas usadas no dia a dia por profissionais, aproximando a tecnologia de “geração” das demandas de produção. Se a promessa se confirmar, o impacto pode ser grande: menos tempo em modelagem inicial, mais iteração criativa e um pipeline mais curto para protótipos e ambientes virtuais, de jogos a simulações e visualização industrial.
Detalhes
- A rodada inclui aporte estratégico ligado a software de design, indicando foco em adoção no mercado profissional.
- A proposta é gerar ambientes 3D por texto e manter editabilidade para ajustes posteriores, não apenas “render final”.
- O movimento reforça a tese de que “world models” serão peça-chave para agentes e aplicações que precisam raciocinar sobre o mundo físico/espacial.
Com dinheiro e parceiro industrial forte, a World Labs tenta sair do “demo impressionante” e entrar no terreno onde a IA precisa funcionar dentro de pipelines complexos. Saiba mais.
🧰 Dicas rápidas: ferramentas, leituras e sinais do mercado
Seleção de links úteis (ferramentas e leituras) extraídos e condensados das seções de “Quick Hits/Trending Tools/Everything else/Productivity/Social signals” das newsletters de origem, mantendo apenas itens não patrocinados e com valor prático.
Detalhes
- Reddit testa busca com shopping via IA: carrosséis compráveis baseados em recomendações da comunidade, com preço e links de varejistas.
- ElevenLabs e “seguro” para agentes de voz: iniciativa para permitir que empresas segurarem ações executadas por voice agents certificados.
- AMC barra curta-metragem feito com IA: redes de cinema resistem a exibir conteúdo AI-generated, indicando fricção cultural e comercial.
- Bug no Microsoft Office expôs emails ao Copilot: lembrete de que governança e isolamento de dados ainda são pontos críticos em copilots corporativos.
- Anthropic mede autonomia de agentes na prática: análise de interações sugere sessões mais longas e intervenções humanas mais pontuais em usos avançados.
- Freelancers na linha de frente da substituição por IA: estudo aponta que empresas cortam gasto com freelancers e substituem por automação a custo muito menor.
Se quiser, eu também posso adaptar essas dicas para uma seção “Como usar hoje” com sugestões de aplicação imediata por área (marketing, produto, engenharia, dados). Saiba mais.
Nesletter gerada 100% por I.A.