E aí, IA? – Resumo do dia 30/mar/2026
E aí, IA?
Bom dia! Vazamentos, rivalidades e novos fluxos de trabalho estão redesenhando o tabuleiro da IA
A edição de hoje gira em torno de três forças que estão se encontrando ao mesmo tempo: (1) o possível próximo salto da Anthropic com o suposto “Claude Mythos”, (2) a disputa Altman vs. Amodei — cada vez mais pessoal e com impacto direto em produto e política — e (3) a corrida para transformar chatbots em “sistemas operacionais” do trabalho, com plugins, importação de memória e automação.
Na edição de hoje:
- 🔓 Anthropic “vaza” detalhes do Claude Mythos e de um novo tier acima do Opus
- ⚔️ A guerra pessoal que molda OpenAI e Anthropic, segundo investigação do WSJ
- 🎥 Por que a OpenAI teria desligado o Sora: custo de compute e uma queima milionária por dia
- 🧩 Codex ganha plugins para automatizar fluxos e integrar MCP servers
- 🧠 Gemini facilita migração ao importar preferências e histórico de outros chatbots
- ♟️ No xadrez, a nova vantagem competitiva é saber quando ignorar a IA
🔓 Anthropic “vaza” detalhes do Claude Mythos e sugere um tier acima do Opus
Um rascunho de materiais de lançamento da Anthropic apareceu publicamente após um erro de configuração em seu CMS, expondo a existência do que seria o próximo modelo de ponta: “Claude Mythos”. No texto vazado, o Mythos é descrito como um “salto” nas capacidades — especialmente em raciocínio, programação e, de forma mais sensível, em cybersecurity — e indicaria a criação de uma nova camada de produtos acima do Opus, com custos maiores para servir.
A própria Anthropic confirmou que está testando um “novo modelo de propósito geral” com avanços relevantes nessas áreas, sem cravar data de lançamento. O tom do vazamento chamou atenção porque a empresa reforça que o sistema estaria “bem à frente” do mercado em tarefas ofensivas/defensivas de segurança, levantando discussões sobre risco de uso indevido e sobre como o laboratório pretende controlar acesso e mitigação.
Detalhes
- O vazamento teria vindo de um cache público com milhares de assets não publicados, incluindo um draft de post descrevendo o modelo.
- O documento coloca Mythos em um novo “tier” (apelidado de “Capybara”) acima do Opus, sugerindo uma oferta mais cara e mais pesada em compute.
- O texto também menciona a preocupação de que a capacidade em cyber possa acelerar atacantes e aumentar a assimetria contra defensores.
Se o Mythos realmente inaugurar um nível acima do Opus, a corrida por “tiers” premium e controle de risco deve acelerar. Para entender o que foi confirmado e o contexto do vazamento, saiba mais.
🧾 O post vazado do “Claude Mythos” detalha foco em raciocínio, código e cybersecurity
Além das reportagens sobre o incidente, uma página espelho do suposto post vazado circulou e ajudou a popularizar o termo “Claude Mythos” antes de qualquer anúncio formal. O texto descreve uma família de modelos em finalização e reforça que o objetivo seria entregar uma mudança perceptível de patamar em tarefas complexas, com ênfase em reasoning e coding — e um alerta explícito de que a capacidade em cyber exigiria cautela.
O efeito foi imediato: o rumor ganhou tração suficiente para mexer com o noticiário de mercado ligado a segurança digital, mostrando como “pré-anúncios” (acidentais ou não) viram eventos por si só. Mesmo sem benchmarks públicos ou disponibilidade, a ideia de um tier acima do Opus alimenta a expectativa de uma nova rodada de reposicionamento entre laboratórios.
Detalhes
- O vazamento sugere que o Mythos seria parte de uma família e que haveria um novo nível de produto além do catálogo atual.
- O texto reforça “cyber capabilities” como diferencial, ao mesmo tempo em que sugere a necessidade de restrições e mitigação.
- Não há data oficial, e o conteúdo circula como material não final e não confirmado publicamente como release.
Enquanto a Anthropic testa o que chama de novo modelo de propósito geral, o rascunho vazado vira referência para entender a direção do laboratório. Para ler o texto que circulou como vazamento, saiba mais.
⚔️ A rivalidade Altman vs. Amodei ganhou contornos pessoais — e molda decisões bilionárias
Uma investigação do Wall Street Journal reconstrói como divergências internas na OpenAI evoluíram para uma ruptura que originou a Anthropic e, hoje, influencia escolhas estratégicas das duas empresas. A reportagem descreve atritos envolvendo governança, controle de poder e prioridades entre “velocidade” e “segurança”, com episódios de confrontos e acusações em reuniões privadas.
O valor do relato não está só no drama: ele ajuda a explicar por que as companhias tomam posições tão diferentes em temas como relacionamento com governo, postura pública sobre risco e estratégia de distribuição. O subtexto é que, em empresas de fronteira, decisões sobre produto e acesso podem ser consequência direta de disputas de liderança e filosofia, não apenas de métricas de mercado.
Detalhes
- Dario e Daniela Amodei aparecem como figuras centrais na transição de OpenAI para Anthropic, com tensões envolvendo liderança e autonomia.
- A reportagem menciona debates internos sobre propostas e alinhamentos que Dario teria considerado inaceitáveis.
- O conflito teria culminado em condições para permanência que não foram aceitas, acelerando a saída e a fundação da Anthropic.
A disputa ajuda a entender por que OpenAI e Anthropic divergem em governança, alianças e narrativa pública — e por que isso importa para o rumo da IA. Para o relato completo, saiba mais.
🎥 “Compute é petróleo”: o motivo econômico por trás do desligamento do Sora
Novas informações sobre o encerramento do Sora apontam para um problema clássico de produtos generativos: cada tentativa “só mais uma” custa GPU real, e a conta explode quando o produto atinge escala. O relato sugere que, após um pico de adoção, a ferramenta teria caído em usuários ativos e passou a consumir recursos críticos que a OpenAI precisava realocar para outras frentes mais estratégicas.
O caso expõe uma tensão que deve se repetir em 2026: experiências virais nem sempre sobrevivem ao escrutínio do custo marginal por output. Em vídeo, isso é ainda mais sensível do que em texto, porque a elasticidade do uso (gerar dezenas de variações até “ficar bom”) pode ser incompatível com margens saudáveis sem limites agressivos, pricing mais alto ou compressão drástica de custo.
Detalhes
- O texto aponta que o uso massivo drenava compute finito e competia com prioridades internas.
- O padrão de “gera, ajusta, gera de novo” amplifica custos, especialmente em modelos de vídeo.
- A decisão sugere foco em realocação de recursos para áreas com maior retorno e controle de demanda.
O episódio do Sora é um lembrete de que produto, custo de inferência e estratégia de capacidade são a mesma conversa em IA generativa. Para o detalhamento do que teria levado ao desligamento, saiba mais.
🧩 Codex ganha plugins para automatizar fluxos e integrar apps e MCP servers
A OpenAI lançou plugins para o Codex com uma proposta clara: transformar “tarefas” recorrentes em workflows reaproveitáveis, combinando habilidades, integrações com apps de trabalho e servidores via Model Context Protocol (MCP). Na prática, isso aproxima o Codex de um hub de automação onde o usuário instala componentes e executa rotinas sem reconstruir tudo do zero a cada projeto.
O movimento também é competitivo: ferramentas como Claude Code já vinham explorando a ideia de automações e integrações profundas no ambiente do desenvolvedor. Ao formalizar um ecossistema de plugins, o Codex tenta ganhar velocidade de distribuição e padronizar como times empacotam ações repetíveis — do acesso a sistemas internos até pipelines de engenharia.
Detalhes
- Os plugins permitem “empacotar” skills, apps corporativos e integrações MCP em fluxos reutilizáveis dentro do Codex.
- A instalação ocorre direto no app, por uma área dedicada de plugins, para ativar rotinas sob demanda.
- A atualização sugere um reposicionamento do Codex como camada de execução, não apenas de geração de código.
Com plugins, o Codex passa a competir mais diretamente na categoria “AI para trabalho executável”, onde contexto e integrações importam tanto quanto o modelo. Para ver a documentação oficial, saiba mais.
🧠 Gemini facilita migração com importação de preferências e histórico de outros chatbots
O Gemini adicionou um recurso voltado a um dos maiores custos de troca do mercado de chatbots: perder contexto. A novidade permite importar preferências e histórico de conversa de outras ferramentas, reduzindo o atrito para quem quer testar o Gemini sem “recomeçar do zero” na personalização e na memória de uso.
Esse tipo de interoperabilidade muda a dinâmica competitiva: em vez de disputar só por qualidade de resposta, plataformas passam a competir por portabilidade de contexto e continuidade de trabalho. Em termos de produto, é um reconhecimento de que o usuário já construiu um “estado” valioso em outro lugar — e que o caminho mais rápido para ganhar adoção é trazer esse estado para dentro.
Detalhes
- O fluxo começa nas configurações do Gemini, com uma opção de importação que guia o processo.
- A proposta é migrar preferências e conversas para manter continuidade, inclusive para usuários avançados.
- O movimento reforça a briga por lock-in via memória e personalização, agora com estratégia de “entrada fácil”.
Portabilidade de memória pode virar diferencial tão importante quanto novos modelos. Para entender o anúncio e como habilitar o recurso, saiba mais.
🧰 Dicas rápidas (links úteis)
Curadoria do que vale abrir em uma nova aba hoje — ferramentas, leituras e casos que podem render ganhos imediatos em produtividade e entendimento do mercado.
Detalhes
- Trending AI Tools (catálogo do The Rundown)
- Google Live Translate: expansão do recurso de tradução em tempo real para iOS (70+ idiomas)
- Axios: mensagens e bastidores sobre a tensão OpenAI/Anthropic em negociações com o Pentágono
- CNBC: Eli Lilly fecha acordo bilionário para licenciar pipeline de fármacos descobertos com IA
- CNN: caso de erro de reconhecimento facial com impacto judicial e debate sobre governança
- TechCrunch: Bluesky lança app com IA para criar feeds personalizados com linguagem natural
Use essas leituras como “atalhos” para acompanhar produto, política e adoção real. Se quiser ver as fontes originais com mais contexto, saiba mais.
Nesletter gerada 100% por I.A.