E aí, IA? – Resumo do dia 30/abr/2026
Bom dia! Você está lendo a E aí, IA? — sua curadoria diária com o que realmente importa em IA, produto e negócios, sem ruído e sem publis.
Hoje o mercado ficou com os olhos em Big Tech: resultados fortes, backlog de cloud crescendo e capex ainda mais agressivo, enquanto novas capacidades (como geração direta de arquivos no Gemini) tornam a IA mais “operacional” para o trabalho do dia a dia. Também tem aposta pesada em biologia com IA e um avanço promissor em diagnóstico precoce de câncer.
Na edição de hoje:
- Big Tech acelera investimento em IA após trimestre de resultados acima do esperado
- Google Gemini passa a gerar arquivos prontos (Docs, Sheets, Word, Excel e mais) direto no chat
- Biohub de Zuckerberg e Priscilla Chan anuncia iniciativa de US$ 500M para “biologia virtual” com dados abertos
- Mayo Clinic valida IA que antecipa sinais de câncer de pâncreas em tomografias de rotina
- Startup de “agent search” do ex-CEO do Twitter chega a valuation de US$ 2B com APIs para agentes
- Food AI: modelo aprende padrões de sabor e culinária a partir de receitas, sem rótulos químicos
💼 Big Tech supera expectativas e dobra a aposta em capex para IA
Alphabet, Amazon, Meta e Microsoft divulgaram resultados no mesmo dia e, apesar de narrativas diferentes, a conclusão foi parecida: cloud segue acelerando, sinais de monetização de IA começam a aparecer e o investimento em infraestrutura continua subindo rápido. O “trade-off” do trimestre foi claro: para sustentar demanda por modelos e workloads corporativos, as empresas estão aumentando capex e assumindo custos maiores de data centers e componentes, o que pressiona caixa e margens no curto prazo.
No recorte por empresa, a Alphabet destacou crescimento forte e backlog elevado em Cloud; a Amazon ressaltou o ritmo de AWS e o avanço do negócio de chips; a Meta mostrou força do core de ads e elevou guidance de capex; e a Microsoft reforçou tração do Copilot com expansão de assentos pagos e receita anualizada de IA em alta. Esse conjunto de números sugere que a “era de experimentos” está virando fase de operação em escala — com conta de energia, hardware e construção acompanhando.
Detalhes
- Alphabet reportou US$ 109B em receita (+22% YoY) e atribuiu parte do impulso ao “full stack” de IA; Cloud cresceu forte e o backlog ficou na casa de centenas de bilhões.
- Amazon divulgou US$ 181B em receita e crescimento robusto em AWS; a empresa também apontou avanço relevante no negócio de chips e maior volume de tokens processados em plataformas de IA.
- Meta entregou crescimento acelerado em receita e elevou a faixa de capex para 2026, citando custos maiores de data centers e componentes.
- Microsoft mostrou salto em adoção do Microsoft 365 Copilot e expansão expressiva da receita anualizada ligada a IA, reforçando que IA já virou linha de negócio mensurável.
A mensagem do trimestre é que “IA vende”, mas escala exige obra, chips e energia — e isso está redesenhando o perfil financeiro das gigantes. Para ver os números e a análise no contexto original, saiba mais.
📄 Gemini agora cria arquivos prontos (Docs, Sheets, Slides, Word, Excel e mais) direto no chat
O Gemini ganhou geração direta de arquivos para quem usa o app: em vez de produzir apenas texto para copiar e colar, o modelo passa a entregar documentos baixáveis já formatados, incluindo Google Docs, Sheets e Slides, além de formatos do Microsoft 365 como Word e Excel. A mudança é importante porque reduz atrito entre “ideia” e “entrega”, aproximando a IA de um fluxo real de trabalho, em que o output precisa virar um artefato compartilhável.
Além dos formatos de escritório, o recurso também cobre tipos comuns em pipelines técnicos e corporativos — como PDF, CSV, Markdown e LaTeX — permitindo que relatórios, planilhas de análise e rascunhos de apresentações sejam produzidos com uma única conversa. Em termos práticos, isso transforma o chat em uma etapa de produção, não só de brainstorming.
Detalhes
- O usuário descreve a tarefa no chat e faz o download do arquivo pronto, evitando o ciclo de copiar/colar e “arrumar formatação” em outro app.
- Entre os formatos suportados estão PDF, DOCX, XLSX, CSV, TXT, RTF, Markdown e LaTeX, além de arquivos do ecossistema Google Workspace.
- O recurso posiciona o Gemini como uma ferramenta mais “hands-on” para entregáveis: drafts de relatórios, modelos de planilhas e slides iniciais.
A disputa por “IA que faz trabalho de verdade” está ficando mais visível — e gerar arquivos nativos é um passo direto nessa direção. Para ver o anúncio e exemplos, saiba mais.
🧬 Biohub anuncia US$ 500M para criar dados abertos e modelos de “biologia virtual”
O Chan Zuckerberg Biohub (organização sem fins lucrativos apoiada por Mark Zuckerberg e Priscilla Chan) lançou uma iniciativa de cinco anos, de US$ 500 milhões, para acelerar a criação de datasets e modelos capazes de prever como células humanas se comportam. A aposta é que, com dados em escala suficiente e boas medições (imaging e instrumentação), a IA pode avançar rumo à simulação biológica — ajudando a entender como doenças começam no nível celular e como podem ser “reprogramadas”.
O programa combina investimento pesado em geração de dados com colaboração de parceiros (incluindo organizações de pesquisa e empresas de infraestrutura), e promete manter o resultado como base aberta para a comunidade. A discussão central é escala: se em linguagem e proteínas “mais dados + mais compute” virou lei prática, ainda está em aberto se isso se transfere para o universo celular — que é mais ruidoso, contextual e difícil de medir com consistência.
Detalhes
- Do total, US$ 400M seriam direcionados a geração de dados e tecnologias de imagem/medição; US$ 100M irão para laboratórios externos e esforços de pesquisa.
- A iniciativa quer construir datasets e modelos abertos para servir como “camada comum” de pesquisa em biologia computacional baseada em IA.
- A avaliação do próprio ecossistema aponta que datasets atuais chegam perto de ~1 bilhão de células, mas seria necessário um salto de ordem de grandeza para destravar avanços mais rápidos.
Se a biologia computacional seguir a lógica de scaling, o gargalo passa a ser a capacidade de medir e organizar o mundo celular com qualidade e volume. Para os detalhes do programa, saiba mais.
🩺 IA da Mayo Clinic identifica sinais de câncer de pâncreas até 3 anos antes do diagnóstico
A Mayo Clinic divulgou uma validação de um sistema de IA (REDMOD) que encontra padrões sutis em tomografias computadorizadas (CT) padrão — sinais que costumam passar despercebidos por humanos — e que podem indicar câncer pancreático anos antes de um diagnóstico clínico típico. O ponto mais relevante é o uso de exames que pacientes já fazem rotineiramente, o que abre a porta para triagem “invisível”, adicionada ao fluxo clínico sem exigir um exame novo só para screening.
Em um cenário em que o câncer de pâncreas costuma ser detectado tarde e tem baixa taxa de sobrevida em 5 anos, a antecipação de sinais pode mudar a janela de intervenção. O trabalho também ilustra uma tendência: modelos aprendendo “texturas e microestruturas” quantitativas em imagens médicas que não são acessíveis à inspeção visual padrão, elevando o teto de performance sem necessariamente trocar o equipamento de diagnóstico.
Detalhes
- O REDMOD analisou perto de 2.000 CTs rotuladas como normais na leitura original, mas associadas a diagnósticos posteriores, e conseguiu identificar uma parte grande dos casos precocemente.
- O sistema usa centenas de features quantitativas de imagem (textura, estrutura e padrões sutis) para inferir risco antes de sinais clínicos óbvios.
- Por rodar em exames já existentes, o caminho de adoção pode ser mais simples do que protocolos que exigem triagens adicionais.
O avanço mais promissor aqui é a possibilidade de transformar CTs de rotina em um canal contínuo de alerta precoce — algo especialmente crítico para tumores agressivos e silenciosos. Para ler a validação na fonte, saiba mais.
🧭 Startup de “agent search” de Parag Agrawal chega a US$ 2B com APIs para agentes
A Parallel Web Systems, fundada por Parag Agrawal (ex-CEO do Twitter), levantou US$ 100 milhões com valuation de US$ 2 bilhões, poucos meses após uma rodada anterior que avaliava a empresa bem abaixo disso. A tese é que agentes de IA precisam de “infra de web” mais confiável do que scraping improvisado: buscar, extrair, monitorar e manter tarefas de longa duração com precisão e previsibilidade vira produto — especialmente quando times colocam agentes em produção.
O movimento sinaliza um mercado de segunda ordem em IA: não é só o modelo, é o ecossistema de serviços que o modelo usa para agir no mundo. Se o trabalho do agente depende de pesquisa na internet, dados atualizados e pipelines robustos, APIs especializadas podem se tornar tão estratégicas quanto modelos — porque viram a interface para informação e execução.
Detalhes
- A empresa oferece APIs de pesquisa e dados desenhadas para agentes, com foco em tarefas persistentes (monitoramento e extração recorrente) e maior controle sobre resultados.
- O salto de valuation em poucos meses sugere forte demanda por infraestrutura para agentes “long-running” em ambientes corporativos.
- Esse tipo de stack tende a disputar espaço com soluções internas e com provedores de search tradicionais, ao reposicionar a web como “feed” programático de agentes.
À medida que agentes deixam o modo demo e entram no modo operação, infra de pesquisa e extração vira gargalo — e também oportunidade. Para mais contexto sobre a rodada, saiba mais.
👨🍳 “ChatGPT moment” para comida: modelo aprende sabor e culinária só olhando receitas
Um trabalho apresentado pela KAIKAKU AI descreve um modelo que aprende relações de sabor, textura e identidade culinária observando como ingredientes são combinados em receitas — sem acesso a dados químicos nem rótulos explícitos de paladar. A ideia é tratar receitas como “dados comportamentais”: cada substituição, cada pairing e cada padrão recorrente funciona como sinal do que humanos consideram compatível ou desejável.
O estudo relata que, depois de limpar milhares de entradas bagunçadas de ingredientes e organizar um vocabulário mais consistente, o modelo foi capaz de recuperar estruturas como os cinco gostos básicos, distinguir níveis de picância e associar receitas a regiões/culturas. Se isso se sustentar em aplicações reais, abre espaço para sistemas de inovação de menu, sugestão de substituições e design de produtos com base em preferências aprendidas — e não apenas em “regras” gastronômicas codificadas.
Detalhes
- Os autores padronizaram milhares de ingredientes em um conjunto menor e consistente, para o modelo capturar relações ao longo de muitas receitas.
- Sem rótulos de sabor, o sistema identificou agrupamentos que se alinham a categorias clássicas (como gostos básicos) e padrões culturais por região.
- O trabalho aponta aplicações em desenvolvimento de cardápios, inovação de receitas e sugestões de pairing com menos dependência de intuição individual.
Receitas são um dataset de preferências humanas disfarçado de instruções — e modelos capazes de ler essa estrutura podem virar ferramentas úteis para criação e personalização. Para acessar o paper, saiba mais.
🛠️ Dicas rápidas (ferramentas, lançamentos e leituras)
Seleção do que vale guardar para testar depois: ferramentas em alta, updates relevantes e links que ajudam a operacionalizar IA no dia a dia.
Detalhes
- Cursor SDK: SDK em TypeScript para rodar e compor agentes de coding do Cursor dentro de outros workflows e produtos.
- Mistral Vibe Remote Agents + Medium 3.5: sessões em cloud para tarefas em paralelo e um novo modelo open-weights para fluxos de desenvolvimento e automação.
- Gemini com criação de arquivos: thread com exemplos e formatos exportáveis, útil para entender o que dá para automatizar além do texto.
- ElevenMusic: plataforma para geração/remix de músicas com IA e payout para criadores.
- MiMo-V2.5-Pro: modelo open-source da Xiaomi citado como “forte” em benchmarks e aplicações gerais.
- HeyGen: criação de avatares e video clones para conteúdo, onboarding e comunicação interna.
Se você quiser, responda com seu stack (modelos, apps e rotinas) e eu adapto uma lista de testes com foco em produtividade e qualidade. Para explorar as fontes originais desses links, saiba mais.