IA - 11/05/2026
Voici un résumé structuré des faits extraits des sources fournies, organisé par thématique et cité conformément à votre consigne :
🔹 Modèles DeepSeek V4
- Performance de récupération (MRCR 8-needle) : La précision reste supérieure à 0,82 jusqu'à 256K tokens et se stabilise à 0,59 à 1M de tokens.
- Checkpoints disponibles : Quatre versions sur le Hub. Les modèles instruct utilisent FP4 pour les poids des experts MoE et FP8 pour le reste. Les modèles base sont entièrement en FP8.
- Capacités :
DeepSeek-V4-Pro(1,6T / 49B activés) etDeepSeek-V4-Flash(284B / 13B activés). - Modes de raisonnement :
Non-think(rapide),Think High(raisonnement explicite dans des blocs<think>),Think Max(effort maximal, nécessite ≥384K de contexte). - Paramètres d'échantillonnage recommandés :
temperature=1.0,top_p=1.0. Performances notables sur SWE Verified, MCPAtlas et benchmarks internes [Intro].
🔹 Bourses NVIDIA & Infrastructure d'Entraînement
- NVIDIA Graduate Fellowship : 25ᵉ édition, ouverture mondiale, bourses jusqu'à 60 000 $. Focus sur l'IA, le ML, les véhicules autonomes, la robotique, la santé et le HPC. Deadline : 15 sept. 2025 (année académique 2026-2027). Requiert l'année 1 du doctorat et un stage obligatoire à l'été 2026 dans un centre de recherche NVIDIA 25.
- OpenAI GPT-5.2 & GPT-5.3-Codex : GPT-5.2 lancé en décembre, GPT-5.3-Codex en février. Entraînés et servis sur NVIDIA GB200 NVL72. GPT-5.3-Codex combine codage et raisonnement, est 25 % plus rapide et bat des records sur SWE-Bench Pro, Terminal-Bench, OSWorld et GDPval 26.
- Gains d'infrastructure : GB200 NVL72 offre 3× plus de vitesse d'entraînement vs Hopper ; GB300 NVL72 offre >4×. NVIDIA est la seule plateforme à soumettre à toutes les catégories de MLPerf Training 5.1. La plateforme Blackwell est déployée dans les principaux clouds (AWS, GCP, Azure, CoreWeave, etc.) 26.
🔹 Projet UK-LLM & IA Souveraine (Gallois)
- Modèle Nemotron adapté : Basé sur Nemotron Super (49B) et Nano (9B), post-entraîné sur des données galloises. Visant à permettre un raisonnement IA de haute qualité en anglais et en gallois pour les services publics (santé, éducation, juridique) 27.
- Financement & Infrastructure : Entraîné sur le supercalculateur Isambard-AI (Bristol, 225 M£ d'investissement) via NVIDIA DGX Cloud Lepton. Traduction de >30M d'entrées Nemotron en gallois. Aligné sur l'initiative Cymraeg 2050 (objectif 1M de locuteurs) 27.
- Ouverture & Déploiement : Validation linguistique par Bangor University. Le modèle et les datasets seront ouverts. Déploiement via API par le fournisseur cloud Nscale. Méthodologie prévue pour le cornique, l'irlandais, le scots et des langues d'Afrique/Asie du Sud-Est 27.
🔹 CES 2026 & Plateforme NVIDIA Rubin
- Architecture Rubin : Première plateforme AI extreme-codesigned à 6 puces, en production. Inclut des GPU Rubin (50 PF en inference NVFP4), CPU Vera, NVLink 6, Spectrum-X, ConnectX-9 et BlueField-4 DPUs. Objectif : réduire le coût du token à 1/10ᵉ de la plateforme précédente 28.
- Stockage & Modèles ouverts : Stockage AI-native (KV-cache) promettant 5× plus de tokens/sec, 5× meilleurs perf/$ et 5× meilleure efficacité énergétique. Portefeuille de modèles ouverts : Clara (santé), Earth-2 (climat), Nemotron (raisonnement), Cosmos (simulation/robotique), GR00T (intelligence incarnée), Alpamayo (véhicules autonomes) 28.
- Autres annonces : DLSS 4.5 (Multi Frame Generation 6×, transformer de 2ᵉ gen), >250 jeux compatibles. Démo d'agents IA locaux sur DGX Spark & robot Reachy Mini. Intégration avec Siemens pour l'IA physique industrielle. Déploiement d'Alpamayo sur Mercedes-Benz CLA (conduite autonome niveau 4) 28.
🔹 Outils de Développement, Agents & Routage
- GitHub Spec-Kit : Outil open-source (90k+ étoiles) pour le Spec-Driven Development (SDD). Inverse la logique traditionnelle : les spécifications génèrent le code. CLI
specify-cli(Python 3.11+, installation viauvrecommandée). Commandes slash/speckit.constitution,.specify,.plan,.tasks,.implement,.clarify,.analyze,.checklist. Compatible Claude Code, Copilot, Gemini, Cursor, etc. 29. - Hermes Agent vs OpenClaw : Hermes (Nous Research, MIT) dépasse OpenClaw sur OpenRouter le 10 mai 2026 (224B vs 186B tokens/jour). Architecture Hermes : boucle do-learn-improve, mémoire SQLite FTS5, compétences auto-générées. Version v0.13.0 (7 mai 2026) ajoute Kanban multi-agents,
/goal, corrections de sécurité P0. OpenClaw utilise un WebSocket Gateway multi-canal mais a subi 9 CVE en mars 2026 et des audits de skills malveillants. Outil de migrationhermes claw migratedisponible 30. - Extension Chrome OpenAI Codex : Permet à Codex d'utiliser l'état navigateur signé (LinkedIn, Salesforce, Gmail, outils internes). Fonctionne en groupes d'onglets dédiés pour ne pas perturber la session active. Trois niveaux d'outils : plugins, Chrome, navigateur intégré. Permissions strictes, liste blanche/noire, avertissement sur l'injection de prompt. Fonctionnalité
Memoriesdésactivable pour l'isolation 31. - NadirClaw : Couche de routage intelligent classifiant les prompts en
simpleoucomplexavant de les orienter vers le modèle adapté. Utilise des vecteurs centroïdes et des similarités cosinuses viasentence-transformers. Fourni CLI local, visualisation, seuils de confiance, et proxy OpenAI-compatible pour le routage en direct et l'optimisation des coûts 32.
🔹 Veille Informationnelle
- Outils gratuits recensés : Feedly (agrégateur RSS, 100 sources/max gratuit), Google Alertes (suivi mots-clés), X/TweetDeck (tendances temps réel, listes), Flipboard (magazines personnalisés), Google Actualités, Swello (curation & planification), Instapaper (sauvegarde & annotation hors-ligne), Mention (social listening) 35.
- Méthodologie : L'URFIST de Rennes propose un parcours de formation structuré en 3 parties : définition & enjeux de la veille, conception d'une stratégie personnelle (collecte, stockage, gestion, diffusion), et panorama des outils libres. Complété par des tutoriels pratiques pour automatiser et centraliser le suivi sectoriel et concurrentiel 3436.
Note : Les citations [n] correspondent aux numéros de source fournis dans votre extrait. Aucune URL externe n'a été inventée ; les références sont strictement liées au contenu textuel partagé.