E aí, IA? – Resumo do dia 08/abr/2026
E aí, IA?
Bom dia. A edição de hoje junta três newsletters diferentes para mapear um mesmo movimento: modelos cada vez mais capazes, mais caros de operar e, em alguns casos, deliberadamente mantidos fora do alcance do público. Do lado prático, também trouxemos dicas e ferramentas que estão ganhando tração para trabalho e produtividade.
Na edição de hoje:
- 😱 Anthropic cria coalizão de ciberdefesa com o Claude Mythos Preview
- 🚀 GLM-5.1 coloca open-source no topo de benchmarks de coding e foca em long-horizon
- 💰 Anthropic fecha 3,5 GW de compute com Google/Broadcom e divulga salto de receita
- 🏛️ OpenAI propõe “novo contrato social” para a era da superinteligência
- 💸 OpenAI e Anthropic crescem em receita, mas o burn de caixa acelera
- 🧠 IA renova antidepressivos em piloto regulado nos EUA
😱 Anthropic lança o Project Glasswing e mostra o Claude Mythos Preview
A Anthropic apresentou o Project Glasswing, uma coalizão de cibersegurança criada para usar o Claude Mythos Preview — um modelo “frontier” ainda não lançado — em tarefas defensivas de alto impacto. A iniciativa reúne grandes parceiros de tecnologia e organizações ligadas a infraestrutura crítica para caçar vulnerabilidades antes que capacidades equivalentes sejam usadas em ofensiva por agentes maliciosos.
Segundo a empresa, o Mythos identificou milhares de falhas graves em sistemas operacionais e navegadores populares, incluindo bugs que resistiram por décadas a auditorias e varreduras automatizadas. A Anthropic afirma ainda que o modelo teve ganhos fortes em coding, raciocínio e avaliações de segurança, mas não será disponibilizado ao público: o acesso fica restrito a um grupo inicial de parceiros e outras organizações, acompanhado de créditos para uso em ações de defesa.
Detalhes
- O modelo teria encontrado falhas em “todos os principais” sistemas e browsers, incluindo vulnerabilidades antigas que passaram por muitos ciclos de revisão.
- A Anthropic diz que o Mythos supera o desempenho de modelos anteriores (incluindo Opus 4.6) em múltiplos testes internos e benchmarks ligados a programação e segurança.
- Em vez de release amplo, o plano é concentrar o uso em hardening de software e em uma preparação de safety/rollout para modelos do “nível Mythos”.
A leitura estratégica da Anthropic é clara: em cibersegurança, vantagem temporal importa — e eles querem colocar as capacidades primeiro no lado defensivo. Para ver a descrição oficial do programa e do posicionamento de risco, saiba mais.
🚀 GLM-5.1: open-source encosta na fronteira em coding e aposta em autonomia longa
A Zhipu AI (Z AI) anunciou o GLM-5.1, um modelo open-source com foco em programação e execução de tarefas “agentic” por longos períodos. A empresa posiciona o modelo como competitivo com rivais de fronteira em benchmarks e, principalmente, como mais estável em problemas grandes e demorados — onde agentes costumam degradar por fadiga de contexto, erros acumulados ou perda de objetivo.
Nos números divulgados, o GLM-5.1 alcança um desempenho de destaque no SWE-Bench Pro e também aparece forte em avaliações de design para web. A Z AI exibiu uma demonstração de longa duração em que o modelo teria construído, ao longo de horas, um desktop Linux funcional dentro de um app web (com componentes como navegador de arquivos e terminal), sem orientação humana contínua.
Detalhes
- O modelo foi desenhado para sessões autônomas extensas (a empresa cita janelas de trabalho de até 8 horas), mirando problemas compostos e multi-etapas.
- Os resultados divulgados indicam competitividade em SWE-Bench Pro e boa colocação em avaliações de design (como a Design Arena, segundo a própria Z AI).
- O lançamento reforça o ritmo de aproximação do open-source em tarefas de engenharia, especialmente quando combinado com tooling de agentes.
Se os resultados se sustentarem fora do laboratório, o GLM-5.1 amplia a pressão competitiva em coding e pode virar base para stacks de agentes mais baratos e customizáveis. Confira o anúncio e detalhes técnicos no post da Z AI: saiba mais.
💰 Anthropic trava 3,5 GW de TPU para 2027 e divulga aceleração em receita
A Anthropic fechou um acordo de capacidade de compute com Google e Broadcom para garantir 3,5 GW de TPUs a partir de 2027, em grande parte em território americano. O movimento acontece em paralelo ao crescimento agressivo da companhia no mercado enterprise e a sinais públicos de escassez operacional (incluindo limitações de oferta em períodos de alta demanda por Claude).
Além do contrato de infraestrutura, a Anthropic divulgou métricas de crescimento: segundo a empresa, a receita em ritmo anualizado teria triplicado desde janeiro e a base de clientes enterprise de alto ticket teria aumentado de forma expressiva. O anúncio também vem em um contexto político sensível, com relatos de atrito com o governo dos EUA que, segundo a empresa, afetou conversas com clientes.
Detalhes
- O acordo adiciona 3,5 GW de capacidade de TPU para 2027, ampliando a aposta em infraestrutura dedicada para suportar modelos maiores e mais uso corporativo.
- A empresa associa a expansão diretamente à demanda enterprise e ao crescimento de receita em ritmo acelerado.
- O timing sugere que “compute é o gargalo” continua sendo a variável decisiva para disponibilidade, latência e limites de uso em modelos de ponta.
A leitura para o mercado é que a corrida por capacidade virou parte do produto: sem energia e chips reservados, não há “frontier” em escala. Leia o comunicado da Anthropic aqui: saiba mais.
🏛️ OpenAI publica propostas de política industrial para a “Intelligence Age”
A OpenAI publicou um documento com propostas de política pública para uma transição que a empresa descreve como a chegada da “Intelligence Age”. O texto parte da premissa de que sistemas próximos de superinteligência podem reconfigurar produtividade, emprego e distribuição de riqueza de forma rápida, exigindo um novo conjunto de regras para garantir acesso, reduzir riscos e redistribuir ganhos.
Entre as ideias citadas no debate público sobre o documento estão opções como redução da semana de trabalho, mecanismos de benefícios portáteis (que acompanham o trabalhador entre empregos) e estruturas para ampliar o acesso a ferramentas de IA. O ponto central é tratar IA como infraestrutura econômica e social — e não apenas como produto — com políticas que tentem antecipar efeitos de concentração e deslocamento de trabalho.
Detalhes
- O documento organiza propostas em torno de três metas: distribuir abundância, criar salvaguardas e ampliar acesso às capacidades.
- Há uma ênfase em medidas que mitiguem choques no mercado de trabalho e reduzam fricções para mobilidade entre ocupações.
- A OpenAI sugere que o desenho institucional precisa evoluir junto com a capacidade dos modelos para evitar que os benefícios fiquem restritos a poucos.
Independentemente de concordar com as propostas, o texto é útil para entender como a OpenAI quer enquadrar o debate regulatório e econômico. Para ler o documento completo, saiba mais.
💸 Receita sobe, custos sobem mais: o dilema financeiro de OpenAI e Anthropic
Um relatório citado na imprensa financeira indica que, embora OpenAI e Anthropic estejam crescendo rapidamente em receita, o custo de treinar e servir modelos maiores continua acelerando o burn de caixa. O panorama reforça que a “economia dos modelos de fronteira” ainda depende de investimento pesado em infraestrutura, energia e pesquisa, com margens pressionadas pela corrida por capacidade e pela competição.
No caso da OpenAI, a projeção mencionada aponta para um burn acumulado extremamente alto nos próximos anos antes de uma janela esperada de rentabilidade. Para a Anthropic, as estimativas indicariam um pico de perdas antes de melhorar a eficiência e a monetização enterprise. Mesmo com números variando por fonte e recorte, a mensagem é consistente: escala em IA de ponta é uma disciplina de capital intensivo, parecida com infraestrutura.
Detalhes
- As projeções discutidas apontam para anos de queima de caixa elevada antes de uma eventual rentabilidade no fim da década.
- Treino de modelos novos e custos de inference em grande escala aparecem como os principais motores de despesa.
- O cenário ajuda a explicar a corrida por contratos de compute e o foco crescente em clientes corporativos de alto valor.
Essa tensão entre crescimento e custo é o pano de fundo de quase todas as decisões estratégicas do setor hoje: preço, rate limits, releases e parcerias de chips. Para ver a matéria citada, saiba mais.
🧠 Utah aprova piloto em que chatbot de IA pode renovar alguns antidepressivos
Um novo piloto regulatório em Utah autorizou uma startup de psiquiatria a usar um chatbot de IA para renovar determinadas prescrições psiquiátricas já existentes, focado em pacientes considerados estáveis e de baixo risco. O recorte é importante: o sistema não inicia novos medicamentos, não faz alterações de dose e não lida com substâncias controladas, funcionando como uma camada de triagem e renovação em situações bem delimitadas.
O desenho do piloto prioriza escalonamento para humanos quando há sinais de risco ou complexidade clínica. Segundo a descrição pública, o fluxo prevê red flags como ideação suicida, mania, gravidez ou efeitos colaterais severos, que automaticamente transferem o caso para atendimento humano. Na prática, o teste vira um termômetro de até onde reguladores aceitam automação em saúde mental sem abrir mão de guardrails.
Detalhes
- O piloto é limitado a renovações de prescrições existentes para perfis específicos, evitando novas indicações e mudanças clínicas sensíveis.
- Há critérios explícitos de encaminhamento para humanos quando a conversa sugere risco, piora, ou condições especiais.
- O caso mostra a migração da IA de “produtividade” para funções de serviço com implicações médicas e regulatórias.
É um avanço com escopo estreito, mas relevante: se funcionar, pode virar modelo para outros fluxos clínicos de baixa variabilidade com supervisão. Leia a cobertura do piloto aqui: saiba mais.
🧰 Dicas e links úteis da semana (ferramentas, modelos e leituras)
Seleção de dicas práticas e leituras que apareceram nas seções de links rápidos, ferramentas em alta e tendências sociais. São itens para quem quer testar novos modelos, melhorar RAG/search, ou acompanhar discussões relevantes que estão moldando produto e governança.
Detalhes
- Harrier (Microsoft) — modelo de embeddings open-source para search/RAG, com suporte a 100+ idiomas.
- GLM-5.1 (página do catálogo) — ficha rápida do modelo com contexto de uso para coding agentic.
- Artificial Analysis (leaderboard de text-to-video) — ranking para acompanhar quais modelos estão realmente liderando em vídeo.
- OpenAI Safety Fellowship — programa para apoiar pesquisa externa em alignment, robustness e prevenção de abuso.
- Análise sobre Google AI Overviews — reporte sobre taxa de respostas incorretas e implicações para confiança em search.
Se você quiser manter um “radar” semanal, esses links cobrem bem produto (tooling), pesquisa (benchmarks) e governança (safety e confiabilidade). Para explorar mais ferramentas em alta, saiba mais.