Pour chaque usage qu'un solo IA rencontre, le pick et les alternatives sérieuses. Mis à jour quand un changement réel arrive (release majeure, bascule de bench), pas tous les jours pour des claims marketing. Définitions des termes (modèle, frontier, openweight, etc.) dans le lexique.
Le snapshot
| Usage | Pick | Alternatives sérieuses |
|---|---|---|
| Coding agent (frontier) | Claude Code (Opus 4.7, 1M ctx) | Codex CLI (GPT-5.5 Pro) · Antigravity (Gemini 3 Pro) |
| Chat / reasoning (frontier) | Claude Opus 4.7 | GPT-5.5 Pro · Gemini 3 Pro · Kimi 2.6 (2M ctx) |
| Coding local (openweight) | Qwen 3.6 Coder (Q4_K_M, ~20 Go) | DeepSeek-Coder V3 (plus lourd) |
| Chat local (openweight) | Gemma 4 27B | Mistral Small 3.1 · Llama 4 8B |
| Agent personnel | OpenClaw (Mac mini, Telegram/Discord) | Hermes Agent (VPS, Docker) |
| Image gen | Nano Banana 2 (gemini-3.1-flash-image-preview) | DALL-E 4 · Midjourney v8 |
| Vidéo gen | Sora 3 | Veo 4 |
| TTS (voix) | ElevenLabs Multilingual v3 | OpenAI tts-1-hd (cheap) |
| Speech-to-text | Whisper Large v4 | Deepgram Nova-3 (live) |
| Embeddings (RAG) | OpenAI text-embedding-3-large | bge-m3 (local, gratuit) |
Coding agent (frontier)
Claude Code tourne en CLI dans ton terminal, agentique, tooling solide. Modèle Opus 4.7 (1M) : fenêtre de contexte d'1 million de tokens, tu y mets une codebase entière. Plan Max 5× à 100 $/mois couvre 95 % des usages solo.
- Codex CLI (OpenAI, GPT-5.5 Pro) — plus rapide en exécution pure, tooling un peu en retrait.
- Antigravity (Google, Gemini 3 Pro) — gratuit en preview, à surveiller de près.
→ Détails dans setup-ia-frontier.
Chat / reasoning (frontier)
Claude Opus 4.7 reste la référence pour l'écriture, l'analyse et les conversations longues. 1M de contexte = un livre entier sans broncher.
- GPT-5.5 Pro — meilleur en raw reasoning et vitesse.
- Gemini 3 Pro — meilleur sur le multimodal (vidéo, audio long-form).
- Kimi 2.6 (Moonshot) — 2M+ de contexte, le seul à monter aussi haut. Utile pour les très gros corpus en input direct, sans RAG.
Coding local (openweight, gratuit)
Qwen 3.6 Coder quantizé en Q4_K_M (~20 Go RAM) reste le seul openweight coding vraiment sérieux en 2026. Tourne sur un MacBook Pro M3 Max ou une box NVIDIA 4090. Comble ~75-80 % du gap avec Opus 4.7 sur des tâches courtes ; décroche sur le reasoning long.
→ Détails dans setup-ia-100-gratuit.
Chat local (openweight)
Gemma 4 (27B) — distillé depuis Gemini 3, ~16 Go en Q4_K_M. Étonnamment bon en français, et léger pour ce niveau.
Agent personnel
OpenClaw tourne sur ton Mac mini, branché à Telegram / Discord / WhatsApp, setup en 10 min. Réutilise ton sub Claude / Codex existant — pas de coût IA en plus.
Alternative serveur : Hermes Agent (Nous Research, MIT) — sandboxing Docker propre, multi-modèle, déploiement VPS. Plus tech, plus puissant pour les tâches lourdes.
→ Détails dans agent-perso-openclaw-vs-hermes.
Image gen
Nano Banana 2 = gemini-3.1-flash-image-preview via Google AI. Jusqu'à 14 images en référence, génération rapide, qualité photo SOTA. SDK : @google/genai.
- DALL-E 4 (OpenAI) — bon sur les rendus stylisés et l'illustration.
- Midjourney v8 — en tête sur la direction artistique pure.
Vidéo gen
Sora 3 (OpenAI) — qualité supérieure sur 60 s+ cohérents. Cher (~5-15 €/minute).
Alternative : Veo 4 (Google) — plus rapide, parfois plus naturel sur le mouvement.
TTS (voix synthétique)
ElevenLabs Multilingual v3 — meilleur en français et anglais, voix expressive, latence faible. ~5-30 €/mois selon usage.
Alternative cheap : OpenAI tts-1-hd (voix nova ou alloy) — moins expressif qu'ElevenLabs mais ~15 € par million de caractères.
Speech-to-text
Whisper Large v4 (OpenAI) — quasi parfait sur le français. Gratuit en local via whisper.cpp ou faster-whisper (openweight), ou ~6 € par 1 000 minutes via l'API.
Alternative temps réel : Deepgram Nova-3 — plus rapide pour le streaming live (calls, podcasts).
Embeddings (RAG)
OpenAI text-embedding-3-large — bon par défaut, multilingue, ~13 € par million de tokens.
Alternative locale : bge-m3 — openweight multilingue, performance proche, gratuit en local.
Méthodologie
- Une catégorie = un usage concret. Pas de "meilleur modèle absolu".
- Mise à jour quand un changement réel arrive (release majeure, bascule de bench).
- Pas mis à jour pour des releases incrémentales ni des claims marketing.
- Si tu vois un pick désuet, ping sur le Discord.