AIMC

État de l'art

SOTA — l'état de l'art IA pour un solo

Le snapshot des meilleurs modèles et outils IA en 2026, par usage. Mis à jour quand quelque chose change vraiment.

Mise à jour : 2 mai 2026

Pour chaque usage qu'un solo IA rencontre, le pick et les alternatives sérieuses. Mis à jour quand un changement réel arrive (release majeure, bascule de bench), pas tous les jours pour des claims marketing. Définitions des termes (modèle, frontier, openweight, etc.) dans le lexique.

Le snapshot

UsagePickAlternatives sérieuses
Coding agent (frontier)Claude Code (Opus 4.7, 1M ctx)Codex CLI (GPT-5.5 Pro) · Antigravity (Gemini 3 Pro)
Chat / reasoning (frontier)Claude Opus 4.7GPT-5.5 Pro · Gemini 3 Pro · Kimi 2.6 (2M ctx)
Coding local (openweight)Qwen 3.6 Coder (Q4_K_M, ~20 Go)DeepSeek-Coder V3 (plus lourd)
Chat local (openweight)Gemma 4 27BMistral Small 3.1 · Llama 4 8B
Agent personnelOpenClaw (Mac mini, Telegram/Discord)Hermes Agent (VPS, Docker)
Image genNano Banana 2 (gemini-3.1-flash-image-preview)DALL-E 4 · Midjourney v8
Vidéo genSora 3Veo 4
TTS (voix)ElevenLabs Multilingual v3OpenAI tts-1-hd (cheap)
Speech-to-textWhisper Large v4Deepgram Nova-3 (live)
Embeddings (RAG)OpenAI text-embedding-3-largebge-m3 (local, gratuit)

Coding agent (frontier)

Claude Code tourne en CLI dans ton terminal, agentique, tooling solide. Modèle Opus 4.7 (1M) : fenêtre de contexte d'1 million de tokens, tu y mets une codebase entière. Plan Max 5× à 100 $/mois couvre 95 % des usages solo.

  • Codex CLI (OpenAI, GPT-5.5 Pro) — plus rapide en exécution pure, tooling un peu en retrait.
  • Antigravity (Google, Gemini 3 Pro) — gratuit en preview, à surveiller de près.

→ Détails dans setup-ia-frontier.

Chat / reasoning (frontier)

Claude Opus 4.7 reste la référence pour l'écriture, l'analyse et les conversations longues. 1M de contexte = un livre entier sans broncher.

  • GPT-5.5 Pro — meilleur en raw reasoning et vitesse.
  • Gemini 3 Pro — meilleur sur le multimodal (vidéo, audio long-form).
  • Kimi 2.6 (Moonshot) — 2M+ de contexte, le seul à monter aussi haut. Utile pour les très gros corpus en input direct, sans RAG.

Coding local (openweight, gratuit)

Qwen 3.6 Coder quantizé en Q4_K_M (~20 Go RAM) reste le seul openweight coding vraiment sérieux en 2026. Tourne sur un MacBook Pro M3 Max ou une box NVIDIA 4090. Comble ~75-80 % du gap avec Opus 4.7 sur des tâches courtes ; décroche sur le reasoning long.

→ Détails dans setup-ia-100-gratuit.

Chat local (openweight)

Gemma 4 (27B) — distillé depuis Gemini 3, ~16 Go en Q4_K_M. Étonnamment bon en français, et léger pour ce niveau.

Agent personnel

OpenClaw tourne sur ton Mac mini, branché à Telegram / Discord / WhatsApp, setup en 10 min. Réutilise ton sub Claude / Codex existant — pas de coût IA en plus.

Alternative serveur : Hermes Agent (Nous Research, MIT) — sandboxing Docker propre, multi-modèle, déploiement VPS. Plus tech, plus puissant pour les tâches lourdes.

→ Détails dans agent-perso-openclaw-vs-hermes.

Image gen

Nano Banana 2 = gemini-3.1-flash-image-preview via Google AI. Jusqu'à 14 images en référence, génération rapide, qualité photo SOTA. SDK : @google/genai.

  • DALL-E 4 (OpenAI) — bon sur les rendus stylisés et l'illustration.
  • Midjourney v8 — en tête sur la direction artistique pure.

Vidéo gen

Sora 3 (OpenAI) — qualité supérieure sur 60 s+ cohérents. Cher (~5-15 €/minute).

Alternative : Veo 4 (Google) — plus rapide, parfois plus naturel sur le mouvement.

TTS (voix synthétique)

ElevenLabs Multilingual v3 — meilleur en français et anglais, voix expressive, latence faible. ~5-30 €/mois selon usage.

Alternative cheap : OpenAI tts-1-hd (voix nova ou alloy) — moins expressif qu'ElevenLabs mais ~15 € par million de caractères.

Speech-to-text

Whisper Large v4 (OpenAI) — quasi parfait sur le français. Gratuit en local via whisper.cpp ou faster-whisper (openweight), ou ~6 € par 1 000 minutes via l'API.

Alternative temps réel : Deepgram Nova-3 — plus rapide pour le streaming live (calls, podcasts).

Embeddings (RAG)

OpenAI text-embedding-3-large — bon par défaut, multilingue, ~13 € par million de tokens.

Alternative locale : bge-m3 — openweight multilingue, performance proche, gratuit en local.

Méthodologie

  • Une catégorie = un usage concret. Pas de "meilleur modèle absolu".
  • Mise à jour quand un changement réel arrive (release majeure, bascule de bench).
  • Pas mis à jour pour des releases incrémentales ni des claims marketing.
  • Si tu vois un pick désuet, ping sur le Discord.