E aí, IA? – Resumo do dia 23/mar/2026
- Terafab: o plano de Elon Musk para fabricar chips e empurrar compute para a órbita
- Anthropic lança “Channels” e tarefas recorrentes no Claude Code
- Blue Origin entra na corrida de data centers espaciais com 51.600 satélites
- ChatGPT começa a exibir anúncios para usuários free e Go nos EUA
- OpenAI quer quase dobrar o time para 8.000 pessoas até o fim de 2026
- Halter e o “Cowgorithm”: coleiras com IA para cercas virtuais e manejo de rebanhos
Elon Musk apresentou o projeto Terafab, uma iniciativa conjunta envolvendo Tesla, SpaceX e xAI para construir uma instalação de fabricação de semicondutores em Austin capaz de produzir, segundo ele, um “terawatt de compute de IA por ano” — uma ambição equivalente a multiplicar em dezenas de vezes a capacidade global atual. A proposta combina fabricação verticalizada (do silício ao teste final) com um plano agressivo de uso: parte desses chips abasteceria veículos e robôs da Tesla, enquanto outra parte seria voltada a chips “space-grade” para satélites de compute alimentados por energia solar e lançados por Starship.
A aposta central é que data centers no espaço podem virar alternativa econômica e política aos complexos terrestres: Musk argumenta que “ninguém quer um data center de IA no quintal” e que, em poucos anos, a conta pode favorecer a órbita. Ele vendeu a visão como um passo inicial rumo a uma economia de “abundância” e, no limite, uma civilização multiplanetária — mas o desafio industrial de erguer uma fab desse porte do zero é gigantesco, exigindo cadeia de suprimentos, know-how e execução sem margem para atrasos.
- O desenho do Terafab inclui lógica, memória, empacotamento e testes no mesmo complexo, priorizando integração de ponta a ponta.
- O plano prevê duas linhas de chips: uma para aplicações da Tesla (carros e Optimus) e outra focada em uso orbital, com requisitos de radiação e energia.
- A tese de custo/aceitação social é que compute no espaço pode superar o ground-based por preço e por reduzir resistência local a novos data centers.
A Anthropic lançou o Claude Code Channels, um recurso em “research preview” que permite enviar mensagens para sessões já em execução do Claude Code via Telegram ou Discord, transformando o celular num controle remoto para tarefas de engenharia. A novidade é uma resposta direta ao tipo de experiência que o ecossistema de agentes já vinha popularizando: você dispara um comando fora do desktop, o sistema continua trabalhando com o mesmo contexto, e devolve status/resultado quando concluir.
Além disso, o Claude Code ganhou suporte a tarefas recorrentes, mirando automações de rotinas — por exemplo, rodar verificações, gerar relatórios ou executar fluxos de manutenção em horários fixos. Na prática, isso aproxima a experiência de “AI teammate” de um modelo mais operacional, em que o desenvolvedor agenda e supervisiona execuções em vez de apenas conversar pontualmente.
- Channels conectam sessões existentes a mensageria (Telegram/Discord) para comandos e acompanhamento fora do ambiente de trabalho.
- O recurso está em fase de testes e a empresa já indicou que deve expandir o escopo e a disponibilidade.
- Tarefas recorrentes abrem espaço para automação contínua de rotinas técnicas, com menos intervenção humana em fluxos repetitivos.
A Blue Origin formalizou a entrada na corrida por compute espacial com um pedido para lançar o que descreve como uma mega-constelação de 51.600 satélites voltados a executar cargas de trabalho de IA diretamente em órbita, dentro do projeto Sunrise. A ideia segue uma lógica cada vez mais repetida no setor: usar energia solar abundante, reduzir limitações de terrenos e licenças, e aproximar o compute de aplicações que demandam baixa latência com sensores e comunicações espaciais.
O anúncio posiciona a empresa de Jeff Bezos contra um grupo crescente de competidores: SpaceX, startups dedicadas a “space compute”, e também iniciativas associadas a grandes laboratórios. Se esse modelo se provar viável, ele muda a geografia do data center — e cria uma nova camada de infraestrutura onde lançamento, manutenção orbital e resiliência a falhas viram variáveis tão importantes quanto custo por GPU.
- O projeto descreve satélites solar-powered operando como nós de data center para workloads de IA em órbita.
- A escala proposta (dezenas de milhares) sugere uma estratégia de cobertura e capacidade massiva, com impacto regulatório relevante.
- A movimentação aumenta a disputa com atores que já têm capacidade de lançamento e presença forte em constelações.
A OpenAI iniciou a expansão de anúncios no ChatGPT para usuários do plano gratuito e do tier Go nos Estados Unidos, depois de testes com um grupo menor. Os anúncios aparecem no fim de respostas quando houver um “produto ou serviço patrocinado relevante”, enquanto assinantes Pro, Business e Enterprise ficam de fora por enquanto. A decisão é tratada como inevitável pela matemática: servir centenas de milhões de usuários com inferência constante custa bilhões, e a base pagante é grande, mas não acompanha o volume total de consumo.
A operação envolve parceria com a Criteo, empresa de ad-tech conhecida por remarketing em larga escala. Ao mesmo tempo, a OpenAI afirma que anúncios não devem influenciar respostas, que conversas não serão compartilhadas com anunciantes e que tópicos sensíveis (como saúde e política) ficarão fora; usuários menores de 18 anos estariam isentos. Mesmo com essas promessas, a mudança deve reabrir debates sobre confiança, neutralidade e incentivos econômicos em produtos que as pessoas usam como “motor de decisão”.
- Os ads aparecem no rodapé das respostas para free/Go nos EUA; planos pagos mais altos seguem sem anúncios por enquanto.
- A OpenAI posiciona o modelo como complemento a assinaturas e API para sustentar custos de infraestrutura em escala.
- A empresa declara restrições: sem ads em temas sensíveis e sem uso de conversas para segmentação direta por anunciantes.
A OpenAI deve quase dobrar seu quadro de funcionários, saltando de cerca de 4.500 para mais de 8.000 até o fim de 2026, em um movimento que contrasta com a onda de cortes no setor de tecnologia atribuída a ganhos de produtividade com IA. A leitura é clara: o crescimento do negócio enterprise e a complexidade de operar produtos em escala global exigem mais gente — não apenas pesquisa, mas também infraestrutura, segurança, produto, vendas e suporte especializado.
Um ponto que chama atenção é a busca por “embaixadores técnicos”, especialistas capazes de ajudar clientes a extrair valor real das ferramentas, reduzindo fricção de adoção e aumentando retenção. Na prática, isso sinaliza que a disputa não é só por melhores modelos, mas também por implantação, governança e sucesso do cliente — itens que tendem a decidir contratos grandes.
- A expansão mira diversas áreas, com foco adicional em funções que conectam produto e implementação em empresas.
- A estratégia reforça o pivot para enterprise AI, onde suporte e integração pesam tanto quanto capacidade do modelo.
- O movimento indica que, mesmo com automação, operar IA de ponta em escala ainda é intensivo em pessoas.
A neozelandesa Halter está perto de levantar uma nova rodada liderada pela Founders Fund, de Peter Thiel, que pode avaliar a companhia em cerca de US$ 2 bilhões. O produto é uma coleira solar-powered com GPS e sensores que cria “cercas virtuais” e permite conduzir o gado remotamente via app, usando sinais de vibração e áudio. Por trás disso, a empresa aplica modelos proprietários — apelidados de “Cowgorithm” — para monitorar saúde, comportamento e padrões de pastejo em tempo real.
O sistema coleta um volume massivo de telemetria (milhares de pontos por minuto por animal) para ajustar manejo e reduzir trabalho manual, substituindo cercas físicas, verificação presencial constante e até parte do papel de cães de pastoreio. A tese do negócio é que o ganho de eficiência e rastreabilidade compensa o custo do hardware e da plataforma, e a tração acumulada com dados comportamentais em escala pode virar uma vantagem defensável conforme a empresa expande para o mercado norte-americano.
- As coleiras implementam cercas virtuais e “herding” remoto, combinando GPS, vibração e áudio para orientar o rebanho.
- O Cowgorithm usa telemetria contínua para inferir saúde e otimizar rotação de pasto, aumentando produtividade e previsibilidade.
- A rodada pode dobrar a avaliação anterior e acelerar expansão, especialmente nos EUA.
Seleção de ferramentas, leituras e sinais do dia (sem publis), reunindo itens de “Quick Hits”, “Trending AI Tools”, “Everything else in AI today”, “Productivity” e destaques sociais.
- Google Stitch: gere variações de layout a partir de screenshot e exporte para Figma ou código, útil para “vibe design” rápido de páginas.
- Claude: acompanhe as novidades do ecossistema (Projects/Cowork e automações), bom para quem organiza trabalho em “contextos” persistentes.
- Composer 2: opção para coding assistido com foco em custo-benefício e produtividade em IDE.
- ASMR (Supermemory): experimento de “agent memory” para quem quer testar persistência e recuperação de contexto em agentes.
- HBR: pesquisa sugere que LLMs tendem a recomendar “estratégias da moda” mesmo quando o contexto pede algo específico — bom lembrete para usar avaliações e contraprovas.
- WSJ: Zuckerberg estaria construindo um agente pessoal para tarefas de CEO, sinal de adoção de agentes em rotinas executivas.