L'infolettre de Pyl.Tech #31: l'atterrissage (partie 2)
Celle où nous atterrissons. Merci.
Chères lectrices, chers lecteurs,
Depuis des années, je m’attache à consulter en moyenne deux heures de contenus par jour. C’est mon moyen d’étirer mon T, comme l’on entraîne ses muscles en pratiquant des activités sportives variées. Cette veille m’a-t-elle transformé à elle seule ? Non, c’est sa consistance qui a fait son œuvre.
Depuis deux ans, les rares actualités et idées qui ont dépassé l’incrément ont fini dans cette infolettre. Aujourd’hui, nous célébrons sa dernière édition avec grâce. D’abord par des remerciements :
- Merci Pyl.Tech et tout particulièrement à Oren et Anjalie pour m’avoir soutenu depuis les premiers moments ;
- Merci à toutes les personnes qui m’ont envoyé leurs veilles respectives. Vous avez contribué au tissage d’une toile d’information qui s’est étendue si loin ;
- Et évidemment, je vous les étends, vous qui lisez assidûment.
Poursuivons par un constat : l’ère de la connaissance que nous vivons émerge du sable auquel nous avons appris à “réflechir”. Cette vague est partie pour durer ; les LLM intègrent nos quotidiens et accélèrent humains et organisations, nous nous projetons malgré une tempête économique en approche. En prenant du recul, ils révèlent notre nature ; notre syndrome de la page blanche, le “mieux vaut fait que parfait”, l’importance du contexte dans la conversation et d’une écoute attentive.
Si ça n’est pas déjà fait, j’encourage l’expérimentation avec les LLM de frontière sur un large éventail de tâches. Mitchell Hashimoto —dont l’ingénierie a défini les premiers produits HashiCorp et lancé de multiples révolutions infonuagiques— a relaté son parcours d’apprentissage avec l’IA dans le domaine du développement logiciel. Ne soyez plus la poule avec un couteau.
Que le flambeau soit repris ou que la flamme s’éteigne, je continuerai à veiller et à partager, d’une manière ou d’une autre. Restez curieuses, restez curieux et, pour la dernière fois, bonne lecture.
Les actualités phare
⚠️ Je vous en prie, lisez cette nouvelle à esprit reposé et avec ouverture.
Il y a des nouveautés que je n’aborde pas dans l’infolettre et Clawdbot Moltbot OpenClaw en fait partie. Pas car ça n’est pas pertinent mais plutôt car le scénario qui prend forme ici est loin d’être désirable et ravive les discussions sur la sécurité —au sens large— et l’effondrement des modèles. Les premiers messages sont intéressants, mais la vraie histoire se situe ici : premier article de l’agent, deuxième article de l’agent, premier article du contributeur, article de Ars Technica (archive), deuxième article du contributeur, excuses de Ars Technica.
Que vous développiez des systèmes d’IA générative ou vous situiez côté utilisateur, soyez conscients de ces risques. Vous êtes pleinement responsable de votre travail. En tant que journaliste vous devez vérifier vos sources, citations et adéquation avec votre ligne éditoriale. En tant que développeur, vous devez vérifier votre code et la culture des communautés auxquelles vous contribuez. En tant que spécialiste du recrutement, vous devez mettre les premières impressions des IA de côté et vérifier par vous-mêmes. La promesse de l’IA autonome est alléchante, toutefois elle ne peut venir sans risque ou besoin de supervision.
La réputation est une monnaie si difficile à acquérir et si facile à perdre. Chaque système automatisé impliqué portait une promesse raisonnable, pourtant tous ont échoué catastrophiquement, laissant une trace d’encre indélébile sur leur passage, engendrant ainsi une situation perdante pour les humains. Peut-être même pour l'humanité.
L’expérience —au Brésil avec Pix, — démontre que ce genre de systèmes fonctionnent et nous fait réfléchir plus on creuse. J’ai réalisé il y a quelques mois suite à un échange avec une commerçante locale que l’utilisation de systèmes de paiement électroniques par les clients a un impact pesant sur leur activité du fait de commissions et d’abonnements peu tenables. L’évolution des dynamiques économique et politique a naturellement apporté des questions sur la dépendance aux acteurs de paiement étrangers ; et si nous réussissions à apporter une réponse ? Faisons à nouveau honneur au Brésil avec cet article avant l’arrivée de la technologie et cette note de la banque centrale brésilienne, porteuse du projet.
Je nourris une grande appréciation pour les modèles de langage dont l’objectif intrinsèque est de nourrir le domaine de la recherche. Ces modèles sont comme des ponts connectant des grands domaines de compétences et des expertises ultra-spécifiques. Les chercheurs sont capables de s’approprier ces outils pour générer des pistes et les suivre d’eux-mêmes. À mesure que l’on comprend les systèmes agentiques comme dans cette récente exploration par Google Research, de nouvelles interactions et capacités se débloqueront pour un bénéfice universel.
Les dernières tendances et actualités
- La virtualisation imbriquée consiste à exécuter une machine virtuelle dans une machine virtuelle, façon poupées russes. Là où c’est déjà possible sur Google Compute Engine et Azure VM, Amazon EC2 ne le permettait que sur les instances “bare-metal”. Cette capacité vient de s'ouvrir à un nombre restreint d’instances non bare-metal mais est quand même bonne à prendre si vous avez précisément ce besoin.
https://aws.amazon.com/about-aws/whats-new/2026/02/amazon-ec2-nested-virtualization-on-virtual/ - Dernier tour d’horizon des IA, avec Mistral et son surprenant Voxtral Transcribe 2, Claude Opus 4.6 suivi de près par GPT 5.3 Codex qui relance la compétition dans les IA de code et GLM 5 de Z.ai et Minimax M2.5 dont les modèles ouverts sont toujours aussi compétitifs. J'apprécie l’ensemble des changements qui ont permis d’atteindre ce résultat, bien que les modèles puissent être conditionnés pour mieux répondre aux benchmarks. Seul moyen d'en avoir le cœur net : expérimenter.
https://mistral.ai/news/voxtral-transcribe-2
https://www.anthropic.com/news/claude-opus-4-6
https://openai.com/index/introducing-gpt-5-3-codex/
https://z.ai/blog/glm-5
https://www.minimax.io/news/minimax-m25 - Si vous maintenez une plateforme d’inférence maison sur GKE et que vos infrastructures montrent un potentiel d’amélioration, intéressez-vous à GKE Inference Gateway dont le but est de router intelligemment les requêtes en se basant sur les métriques produites par les systèmes sous-jacents dont le cache et la file d’attente.
https://cloud.google.com/blog/products/containers-kubernetes/how-gke-inference-gateway-improved-latency-for-vertex-ai/ - Si en revanche vous construisez avec Amazon Bedrock, vous avez certainement été confrontés au format JSON et à sa validation. L'API peut désormais assurer que les retours suivent vos schémas. Moins de plomberie JSON et de nouvelles tentatives en échange d’un peu de latence.
https://aws.amazon.com/blogs/machine-learning/structured-outputs-on-amazon-bedrock-schema-compliant-ai-responses/ - Vous et moi ne figurons pas dans le public cible de ce véhicule. Jony Ive, l’emblématique ex-designer en chef d’Apple passionné par la simplicité de l’Interface, a collaboré sur celle de la première automobile électrique de Ferrari.
https://www.ferrari.com/fr-FR/auto/ferrari-luce - Pendant que certains taxis peinent à sortir des usines et avaler leurs premiers kilomètres, d’autres dépassent allègrement les 300 millions et ne cessent d’accélérer. Sauf lorsque la porte reste ouverte côté passager.
https://waymo.com/blog/2026/02/ro-on-6th-gen-waymo-driver - Il arrive en formation informatique d’implémenter des jeux car ils représentent le meilleur terrain d’expérimentation pour les humains et les IA. C’est pourquoi DeepMind et Kaggle se sont associés pour développer Game Arena, une plateforme sur laquelle les meilleures IA s’affrontent autour de jeux testant leurs capacités de déduction et de prise de risque calculé.
https://blog.google/innovation-and-ai/models-and-research/google-deepmind/kaggle-game-arena-updates/
Découvertes et plus
- Site simple et efficient à connaître en cas d’urgence, qui gagnerait à avoir des versions traduites et localisées.
https://safe-now.live/ - Similairement, voici un site qui maintient une carte de la pollution lumineuse avec des sites pour y échapper et admirer le ciel nocturne.
https://darksitefinder.com/map/ - Fréquent utilisateur de sites comme instances.vantage.sh et cloudprice.net, j’ai été très heureux d’apprendre récemment que Holori —basés à Toulouse, cocorico 🇫🇷— a également développé son équivalent !
https://calculator.holori.com/ - J’ai fréquemment entendu parler de Photopea mais ne m’y suis plongé que lorsque j’ai eu besoin de composer une image sans avoir à télécharger GIMP, que j’affectionne pourtant depuis petit. Ce fut une réussite.
https://www.photopea.com/ - Un nouveau joueur entre en scène pour exécuter les vérifications avant les commits et push Git: prek ! Il remplace pre-commit point par point, implémente de nouvelles fonctionnalités tout en étant significativement plus rapide. Imaginez toutes ces économies de temps de CI/CD.
https://prek.j178.dev/ - Si vous êtes du genre à préférer ASCII à Mermaid dans vos schémas à usage documentaire, alors MonoSketch pourrait vous intéresser.
https://app.monosketch.io/ - Moyennant un peu de JS et de CSS, on peut réaliser des visuels plutôt créatifs ! Le terrain de jeu SVG de cette même technologie est fascinant.
https://css-doodle.com/ - Imaginons que vous souhaitiez construire un ordinateur fixe. Quels sont les composants les plus fiables pour le conserver le plus longtemps possible ? Puget Systems nous livre ses résultats pour l’année 2025.
https://www.pugetsystems.com/labs/articles/puget-systems-most-reliable-hardware-of-2025/ - 🔴 ⚫️ 🔵 ⚪️ 🟢 🟤 🟡 🟣 🟠
Préparez vos balles colorées car c’est l’heure d’apprendre le jonglage !
https://libraryofjuggling.com/
Mesdames et messieurs, ici votre commandant de bord. Nous venons d’atteindre notre destination. En mon nom et en celui de l’équipage, je vous remercie d’avoir voyagé en notre compagnie.