E aí, IA? – Resumo do dia 07/mai/2026
E aí, IA? — Bom dia
A edição de hoje está bem “infra e produto”: de um lado, uma aliança improvável entre Anthropic e SpaceX para destravar capacidade de GPUs e aliviar limites do Claude; de outro, uma nova camada “conversacional” para sites que tenta transformar páginas estáticas em experiências guiadas por IA. Também trazemos bastidores do julgamento Musk vs. OpenAI, um novo laboratório de agentes em um MMO clássico e um tutorial prático para gerar apresentações com Claude Design.
Na edição de hoje:
- 🔌 Anthropic fecha acordo de compute com a SpaceX e amplia limites do Claude
- 🏛️ Mira Murati critica gestão e processos de segurança em depoimento no caso Musk vs. OpenAI
- 🧭 Interact AI quer substituir sites estáticos por uma experiência guiada por agente
- 👨💻 Claude Design: estratégia para transformar dados brutos em um deck com insights
- 🛸 DeepMind escolhe EVE Online como novo testbed para agentes
- 🤖 Claude Managed Agents ganha “dreaming”, outcomes e orquestração multiagente
🔌 Anthropic e SpaceX fecham acordo de compute que destrava limites do Claude
A Anthropic anunciou um acordo para alugar integralmente o cluster Colossus 1, da SpaceX, em Memphis, em um movimento que amplia capacidade de inferência e reduz gargalos recentes de uso do Claude. O pacto chama atenção pelo contexto: poucos meses atrás, Elon Musk atacava publicamente a empresa — agora, a SpaceX passa a fornecer compute para um dos principais concorrentes de OpenAI, justamente enquanto Musk disputa com a companhia em tribunal.
Segundo a Anthropic, o Colossus 1 é um supercluster de 300+ MW, com mais de 220 mil GPUs NVIDIA previstas para entrar em operação “dentro de um mês”. A empresa afirma que, com a nova capacidade, os limites de uso do Claude Code (janelas de 5 horas) passam a dobrar em planos pagos, há aumentos adicionais via API e restrições de “horário de pico” deixam de ser um entrave em alguns tiers. Musk, por sua vez, enquadrou o movimento como uma política de “alugar compute” para empresas que estariam tomando passos corretos para manter a IA benéfica.
Detalhes
- A Anthropic passa a ter acesso total ao Colossus 1, um complexo em Memphis com potência acima de 300 MW e forte densidade de GPUs.
- A empresa diz que dobrará os caps de uso do Claude Code em planos pagos e aumentará limites de API, removendo restrições que apareciam em horários de pico.
- O anúncio reforça a tendência de “compute como produto” para grandes players de infraestrutura, incluindo fornecimento para rivais diretos no mercado de modelos.
No curto prazo, o acordo é uma resposta direta ao problema mais sensível para usuários: disponibilidade e limites de uso. No médio prazo, ele também sinaliza um novo posicionamento da SpaceX como “senhorio de compute” no ecossistema de IA. Saiba mais.
🏛️ Mira Murati detalha tensão interna e segurança de modelos no julgamento Musk vs. OpenAI
A ex-CTO da OpenAI, Mira Murati, depôs por vídeo no processo movido por Elon Musk contra a OpenAI, trazendo acusações diretas sobre governança e decisões de segurança. No relato, Murati descreve um ambiente de liderança com diretrizes conflitantes e afirma que teria sido informada, de forma incorreta, de que um modelo poderia pular revisão de segurança após “aval” do jurídico — algo que ela diz ter verificado depois como falso.
Além do aspecto técnico, o depoimento revisita o período conturbado da troca de comando em 2023, quando Murati assumiu interinamente após a demissão de Sam Altman. Ela afirmou que o processo do conselho colocou a organização em risco operacional e reputacional, sugerindo fragilidades em mecanismos de supervisão. O caso, porém, segue dependente do que o júri entender como relevante para as alegações de Musk sobre a trajetória e a missão da empresa.
Detalhes
- Murati afirma que Altman teria dito que o jurídico autorizou pular uma revisão de segurança, mas ela diz ter confirmado depois com a assessoria legal que isso não era verdade.
- Ela descreve um padrão de orientações divergentes dadas a executivos diferentes, o que enfraquecia a autoridade do cargo de CTO e criava “caos” na liderança.
- O depoimento reabre a discussão sobre o episódio do conselho em 2023 e seu impacto na estabilidade de governança e tomada de decisão na OpenAI.
O depoimento adiciona combustível a uma disputa que já mistura governança, segurança e competição por mercado, mas a consequência jurídica efetiva depende de como essas acusações se conectam às teses centrais do processo. Saiba mais.
🧭 Interact AI quer transformar sites em experiências interativas guiadas por agente
A Interact AI lançou uma proposta para “atualizar” o que seria um padrão pouco evoluído há décadas: o site tradicional. Em vez de depender de menus, FAQs e páginas de produto, a ideia é inserir uma camada de IA que atua como guia — conduzindo o visitante para as partes mais relevantes, respondendo perguntas em tempo real e até executando demonstrações de produto conforme o contexto da conversa.
O posicionamento da startup é que essa interface aprende com cada interação, refinando explicações e caminhos sugeridos para novos usuários. Na prática, trata-se de uma abordagem de “produto como conversa”, na qual o website vira um front-end de agente: menos navegação manual e mais descoberta orientada. O desafio, naturalmente, é equilibrar utilidade com controle de marca, privacidade e consistência das respostas em cenários de alto tráfego.
Detalhes
- A ferramenta adiciona uma camada conversacional sobre páginas existentes, guiando visitantes por produtos e recursos conforme intenção e perguntas.
- A empresa afirma que o sistema melhora com o tempo ao acumular conversas, ajustando sugestões e respostas para reduzir fricção no funil.
- Esse modelo pode competir com estruturas clássicas de onboarding, demos e páginas de suporte, mas exige boas políticas de dados e observabilidade.
Se a tese se confirmar, “site” deixa de ser coleção de páginas e vira um fluxo dinâmico, mais parecido com um vendedor técnico do que com um catálogo. Saiba mais.
👨💻 Como usar o Claude Design para criar decks a partir de dados (com insights acionáveis)
Um guia prático mostrou uma forma de usar o Claude Design para converter planilhas e relatórios “bagunçados” em apresentações com narrativa, gráficos e recomendações. A estratégia parte de um princípio simples: em vez de pedir “um deck bonito”, você define com clareza o objetivo analítico (por exemplo, encontrar padrões de performance) e fornece dados estruturados (CSV/planilhas) junto com instruções para correlacionar ativos e extrair melhores práticas.
O fluxo sugere abrir o claude.ai/design, escolher o formato “Slide deck”, ativar speaker notes e subir os arquivos. A geração pode levar de 10 a 15 minutos e, ao final, o material pode ser exportado para PowerPoint ou Google Slides. O “pulo do gato” é duplicar o projeto e adicionar novas fontes de dados para ampliar a robustez das conclusões sem perder o contexto do deck original.
Detalhes
- Comece com um CSV/planilha e defina o objetivo do deck (padrões, ranking, diagnóstico, recomendações), evitando pedidos genéricos.
- Use prompt orientado a análise: peça gráficos, comparações por item, extração de best practices e recomendações concretas, mantendo formato “apresentável”.
- Duplique o projeto para incorporar fontes adicionais, mantendo consistência de narrativa e reaproveitando configurações.
O ganho real não é só economizar tempo de design, e sim transformar dados operacionais em decisão executável com uma história clara e visual. Saiba mais.
🛸 DeepMind escolhe EVE Online como sandbox para testar agentes de longo prazo
A Google DeepMind fez um investimento minoritário na Fenris Creations (spin-off do estúdio por trás de EVE Online) e anunciou que usará o universo do MMO como ambiente de pesquisa para IA. Diferente de jogos “fechados” que foram usados para benchmarks no passado, EVE é conhecido por sua economia emergente, corporações de jogadores e conflitos prolongados — uma sociedade digital que evolui continuamente e exige coordenação, memória e tomada de decisão em horizontes longos.
Os testes devem ocorrer em um clone offline do EVE, permitindo rodar agentes em escala sem interferir no servidor ao vivo. A DeepMind posiciona jogos como campo de treinamento ideal para algoritmos, citando uma linha histórica que vai de Atari e AlphaGo a AlphaStar e SIMA. A aposta aqui parece menos “vencer o jogo” e mais estudar como agentes planejam, lembram e se adaptam em sistemas complexos e parcialmente imprevisíveis.
Detalhes
- O EVE Online oferece economia dinâmica, organizações sociais e conflitos longos em um único shard, o que torna o ambiente útil para pesquisa de agentes.
- O plano inclui execuções de agentes em um ambiente offline, focando em raciocínio de longo prazo, memória e aprendizagem contínua.
- A iniciativa reforça a transição de “IA para jogos” para “IA em ecossistemas vivos”, mais próxima de sistemas do mundo real.
Ao escolher um MMO com dinâmica social e econômica realista, a DeepMind sinaliza que o próximo salto em agentes pode depender menos de puzzles e mais de mundos persistentes. Saiba mais.
🤖 Claude Managed Agents ganha “dreaming”, outcomes e orquestração multiagente
A Anthropic lançou um conjunto de novidades para Claude Managed Agents voltado a times que constroem fluxos de agentes em produção. O destaque é o “dreaming”: um modo em que o agente revisita sessões anteriores para identificar padrões, falhas recorrentes e preferências do usuário, e então consolida uma memória mais limpa para melhorar desempenho futuro. Junto disso, entram recursos de outcomes (definição explícita do que é “sucesso”) e orquestração multiagente, permitindo dividir tarefas complexas entre agentes coordenados.
A proposta é tornar sistemas de agentes menos frágeis em tarefas longas: em vez de um único agente tentar fazer tudo, você define objetivos, permite iteração até cumprir critérios e delega subtarefas para componentes especializados. Isso aproxima o produto de uma camada de “runtime” de agentes, com foco em repetibilidade, avaliação e melhoria contínua, que são pontos críticos quando se tenta sair de demos e ir para operações de verdade.
Detalhes
- “Dreaming” permite que o agente reflita sobre sessões passadas e gere um repositório de memória refinado para reduzir erros persistentes.
- Outcomes ajudam a especificar critérios de sucesso, incentivando iteração guiada por meta em vez de encerrar ao fim do prompt.
- Orquestração multiagente facilita decomposição e coordenação de tarefas complexas, com agentes diferentes assumindo papéis especializados.
Na prática, essas peças miram o mesmo objetivo: agentes mais confiáveis, que aprendem com histórico e conseguem manter qualidade em fluxos longos e multi-etapas. Saiba mais.
🧰 Dicas rápidas e links úteis (ferramentas, leituras e sinais)
Selecionamos alguns pontos acionáveis e leituras complementares das seções de “Quick Hits”, ferramentas em alta e sinais de redes sociais — já com links diretos para você explorar.
Detalhes
- SubQ (Subquadratic): modelo/abordagem com alegação de contexto ultra-longo (12M tokens) e aceleração para tarefas extensas, com foco em reduzir custo e latência.
- MRC (open-source): iniciativa para manter treinos gigantes de IA resilientes quando há falha de hardware no meio da execução, com participação de múltiplas empresas de infraestrutura.
- Claude Managed Agents: página de referência para explorar o “harness” de agentes gerenciados e recursos como memória e orquestração.
- GPT 5.5 Instant: atualização de modelo anunciada como novo padrão em produtos da OpenAI, focada em velocidade para uso cotidiano.
- Memoket: ferramenta que captura conversas e preserva contexto para evitar “briefings do zero” em interações repetidas com IA.
- Replit: ambiente para prototipar apps com prompts, útil para transformar ideias em demos executáveis sem setup pesado.
- Sinal de social (vídeo): tendência de “entrar” em cenas famosas usando IA, indicando como edição generativa está ficando mainstream.
- Sinal de social (imagens): alerta sobre confiabilidade de screenshots com novos modelos de imagem, reforçando a necessidade de verificação.
Use esta seção como um “painel de exploração”: ferramentas para testar hoje e leituras para entender para onde o ecossistema está indo. Saiba mais.
Nesletter gerada 100% por I.A.