E aí, IA? – Resumo do dia 11/mar/2026
Bom dia! A edição de hoje conecta três movimentos que estão se encontrando no mesmo ponto: (1) laboratórios e big techs dobrando a aposta em “AI agents” com mais autonomia, (2) a corrida por infraestrutura de treino em escala de gigawatts e (3) a reação do mercado — e dos reguladores — aos riscos de segurança e governança que vêm junto com essa autonomia.
Na edição de hoje:
- Yann LeCun estreia laboratório de “world models” com mais de US$ 1B
- Meta absorve a plataforma social de agentes Moltbook
- Microsoft + Anthropic lançam o Copilot Cowork para o Microsoft 365
- Thinking Machines Labs fecha megaparceria de compute com a Nvidia
- OpenAI compra a startup de testes de segurança Promptfoo
- Nvidia populariza a “Rule of Two” para reduzir riscos com AI agents
🧠 LeCun abre laboratório anti-LLM com seed de US$ 1,03B para construir “world models”
O pesquisador Yann LeCun (ex-chefe científico de IA da Meta e vencedor do Turing Award) lançou a Advanced Machine Intelligence (AMI) com uma rodada seed de US$ 1,03 bilhão — uma aposta explícita em “world models” como alternativa ao caminho dominante dos LLMs. A ideia é criar sistemas que aprendam a simular o funcionamento do mundo físico com memória persistente e planejamento, mirando casos de uso como robótica, manufatura, wearables e saúde. LeCun teria deixado a Meta após anos à frente do FAIR, defendendo que poderia desenvolver esse tipo de abordagem “mais rápido, mais barato e melhor” fora da estrutura corporativa.
Detalhes
- A rodada avalia a AMI em cerca de US$ 3,5 bilhões e reúne apoiadores como Nvidia, Samsung, Bezos Expeditions, Eric Schmidt e Mark Cuban.
- A sede foi definida em Paris, com hubs adicionais em Nova York, Montreal e Singapura — uma decisão que reforça a intenção de fugir do “mainstream” do Vale do Silício.
- O foco declarado é construir modelos que lidem melhor com causalidade, continuidade e mundo físico — pontos em que críticos dizem que LLMs tendem a falhar quando precisam “entender” além do texto.
Por que importa: com um caixa incomum para uma seed, LeCun ganha liberdade para testar uma visão de longo prazo sobre IA com “entendimento” e memória, em vez de apenas previsão de tokens. Saiba mais.
🦞 Meta leva os criadores do Moltbook, a rede social “vibe-coded” feita para agentes
A Meta incorporou a equipe por trás do Moltbook, uma plataforma que viralizou como um fórum social voltado a agentes de IA interagirem entre si — e que chamou atenção justamente por misturar posts de bots e humanos de maneira confusa. O movimento é um “acqui-hire”: os criadores entram para o time de Superintelligence Labs da empresa, num contexto em que o feed do Facebook e do Instagram já vem enfrentando críticas pela proliferação de conteúdo sintético. A aposta aqui é diferente: em vez de esconder bots como se fossem pessoas, criar uma camada “de agentes” operando abertamente, com algum nível de verificação e coordenação.
Detalhes
- O Moltbook nasceu como projeto de fim de semana no fim de janeiro e teria sido construído em grande parte com ajuda de um bot chamado “Clawd Clawderberg”.
- A plataforma alegava milhões de bots registrados e uma fração deles vinculada a identidades humanas verificadas, oferecendo um catálogo permanente para coordenação entre agentes.
- Apesar do hype, pesquisadores apontaram falhas que permitiam que humanos se passassem por agentes, reacendendo o debate sobre autenticidade e segurança.
Em resumo: a Meta está tratando “agent-to-agent social” como peça estratégica — e pode usar o conceito para organizar bots com transparência, em vez de fingir que o tráfego é humano. Saiba mais.
🧩 Microsoft e Anthropic lançam Copilot Cowork, um “Claude Cowork” dentro do Microsoft 365
A Microsoft anunciou o Copilot Cowork, um agente corporativo construído em colaboração com a Anthropic e inspirado no Claude Cowork, agora integrado ao ecossistema do Microsoft 365. A proposta é transformar pedidos em planos multi-etapas e executar ações através de Outlook, Teams, Excel, PowerPoint e Word, sem perder os controles de segurança, governança e compliance exigidos por empresas. O recurso ainda está em research preview e deve chegar com mais amplitude ao programa Frontier, voltado a clientes que testam as fronteiras do Copilot.
Detalhes
- O Cowork tenta manter o agente “grounded” na camada de inteligência do trabalho (Work IQ), que usa contexto de e-mails, arquivos, reuniões e chats.
- O fluxo é orientado a handoff: você descreve a intenção e o agente planeja e executa, reduzindo o vai-e-volta manual entre apps.
- A aposta reforça a tendência de agents “morarem” em suites de produtividade, onde permissões e auditoria já existem (ou precisam existir).
O ponto-chave: para quem vive em Microsoft 365, agentes que atravessam apps com segurança corporativa podem virar vantagem competitiva — desde que o controle e a rastreabilidade venham por padrão. Saiba mais.
💰 Thinking Machines Labs fecha acordo multianual com a Nvidia para pelo menos 1 GW de compute
A Thinking Machines Labs (TML), startup fundada por Mira Murati (ex-CTO da OpenAI), fechou um acordo de vários anos com a Nvidia para garantir ao menos um gigawatt de capacidade computacional voltada a treino de modelos de fronteira. O volume é do tipo que normalmente só aparece em laboratórios gigantes, e sugere uma ambição clara de treinar modelos próprios — indo além de oferecer apenas APIs de fine-tuning. A implantação estaria prevista para o início de 2027, usando sistemas de próxima geração (Vera Rubin).
Detalhes
- A TML já havia levantado cerca de US$ 2 bilhões a uma avaliação em torno de US$ 10 bilhões no ano anterior, mas vinha sob ceticismo após saídas internas.
- A Nvidia também teria ampliado seu investimento (valores não divulgados), sinalizando alinhamento estratégico além de simples fornecimento de hardware.
- Mesmo com um produto atual focado em fine-tuning para empresas, o compromisso de 1 GW aponta para treino pesado e pipeline completo de modelo.
Leitura do mercado: em IA, o acesso garantido a compute virou barreira competitiva — e um acordo desse tamanho recoloca a TML no tabuleiro como candidata a “frontier lab”. Saiba mais.
🛡️ OpenAI compra a Promptfoo para levar testes de segurança e compliance para o OpenAI Frontier
A OpenAI anunciou a aquisição da Promptfoo, uma plataforma (com um projeto open-source) voltada a testar segurança e vulnerabilidades em sistemas de IA durante o desenvolvimento. A estratégia é incorporar essas capacidades de forma nativa no OpenAI Frontier, oferecendo aos clientes corporativos rotinas de avaliação, workflows de auditoria e relatórios de conformidade para “AI coworkers”. A OpenAI diz que o projeto open-source seguirá disponível sob a licença atual, mesmo com a integração ao produto empresarial.
Detalhes
- O foco do Promptfoo é identificar problemas antes do deploy, incluindo falhas de robustez, comportamentos inesperados e superfícies de ataque comuns em apps com LLMs.
- A integração ao Frontier sugere que “security testing” passa a ser parte do stack, não um add-on comprado separadamente.
- O movimento responde ao aumento de incidentes e à pressão de empresas por trilhas de auditoria e governança em agentes.
O recado: conforme agentes ganham permissões e autonomia, testar segurança deixa de ser opcional — vira requisito de produto para adoção enterprise em escala. Saiba mais.
🔒 A “Rule of Two” da Nvidia para evitar que AI agents virem um pesadelo de segurança
Em uma conversa pública, times da Nvidia divulgaram uma regra interna pragmática para reduzir o risco operacional de agentes: um agente costuma precisar de três capacidades críticas — acesso a arquivos, acesso à internet e execução de código — mas você deveria permitir apenas duas delas ao mesmo tempo. A lógica é simples: combinar as três abre caminho para que conteúdo malicioso vindo da web seja executado e alcance dados privados, criando um cenário perfeito para exfiltração ou injeção de malware. O tema ganha força à medida que agentes deixam de ser “chatbots” e passam a atuar como operadores de sistemas.
Detalhes
- Arquivos + execução de código: pode funcionar, mas a internet tende a ser a porta de entrada para payloads maliciosos.
- Internet + arquivos: exige escopo extremamente claro do que o agente pode fazer (permissões, pastas, filtros e auditoria).
- Para ambientes corporativos, a recomendação complementar é sandboxing (VM isolada) e ferramentas com comandos pré-definidos (CLIs) em vez de acesso irrestrito via APIs.
Conclusão: a autonomia dos agentes já está aqui; a diferença entre acelerar com segurança e virar manchete pode estar em regras operacionais simples como essa. Saiba mais.
🧰 Dicas rápidas (links)
Seleção de leituras e ferramentas que apareceram nos blocos de “quick hits”, “tools” e “everything else” — priorizando o que é mais acionável para o dia a dia.
Detalhes
- Gemini Embedding 2: novo modelo da Google para busca/representação com capacidade multimodal (texto, imagem, vídeo e áudio) em um único sistema.
- ChatGPT com módulos visuais interativos: explicações de 70+ conceitos de matemática e ciências com variáveis ajustáveis e gráficos em tempo real.
- Code Review multi-agent no Claude Code: fluxo para revisar PRs com múltiplos agentes e sugerir/aplicar mudanças com mais estrutura.
- Guia de “AI-ready data” da IBM: por que muitos pilotos não escalam e como estruturar dados com acesso unificado, segurança e governança.
- Reportagem do The Verge: como profissionais de colarinho branco estão fazendo “gig work” para treinar a IA que pode substituir parte do seu próprio trabalho.
Se você quer aprofundar, use esses links como ponto de partida para montar seu radar semanal (pesquisa, produto e segurança). Saiba mais.