DeepSeek : l’IA open source chinoise qui défie OpenAI
DeepSeek est devenue en quelques jours l’IA la plus commentée de la planète. Cette start-up chinoise, inconnue du grand public début 2025, a mis en ligne un modèle de langage open source capable de rivaliser avec ChatGPT pour une fraction du coût d’entraînement. L’action Nvidia s’est effondrée de 17 % le 27 janvier 2025, soit près de 600 milliards de dollars de capitalisation évaporés en une seule séance. Ce guide vous explique ce qu’est DeepSeek, comment l’utiliser et ce qu’il faut savoir avant de lui confier vos données.
📌 L’essentiel à retenir
DeepSeek est une IA chinoise open source qui rivalise avec ChatGPT à une fraction du coût. Lancée fin 2024 par Hangzhou DeepSeek, elle propose DeepSeek-V3 pour la conversation généraliste et DeepSeek-R1 pour le raisonnement pas à pas. L’annonce d’un entraînement à moins de 6 millions de dollars a fait chuter l’action Nvidia de près de 600 milliards le 27 janvier 2025. Accessible gratuitement depuis le site officiel, via API ou en local avec Ollama, DeepSeek soulève des questions de confidentialité : les serveurs sont en Chine et certains sujets sont censurés.
Pourquoi DeepSeek a secoué l’industrie de l’IA
La société Hangzhou DeepSeek Artificial Intelligence a été fondée en 2023 par Liang Wenfeng, dirigeant du fonds quantitatif chinois High-Flyer. Jusqu’au 20 janvier 2025, elle restait un acteur discret. Ce jour-là, elle publie DeepSeek-R1, un modèle de raisonnement comparable à OpenAI o1 sur plusieurs benchmarks. La société annonce l’avoir entraîné pour environ 5,6 millions de dollars, soit dix à cent fois moins que les modèles américains équivalents.
Une semaine plus tard, la bourse américaine réagit brutalement. Nvidia perd 17 % en une séance, soit 589 milliards de dollars de capitalisation : le plus gros décrochage d’une seule entreprise dans l’histoire de Wall Street. Les investisseurs réalisent qu’il est peut-être possible d’entraîner des IA de pointe sans commander des dizaines de milliers de GPU haut de gamme.
Les modèles DeepSeek : V3 et R1
DeepSeek ne publie pas un modèle unique mais une famille. Deux sont à connaître.
DeepSeek-V3, le chat généraliste
Mis en ligne en décembre 2024, DeepSeek-V3 est un large modèle de langage de 671 milliards de paramètres, dont 37 milliards activés à chaque requête grâce à une architecture Mixture of Experts. Il gère la conversation, la rédaction, le code et 128 000 tokens de contexte. C’est le modèle utilisé par défaut sur le site et l’application DeepSeek.
DeepSeek-R1, le modèle de raisonnement
DeepSeek-R1 est bâti sur V3 mais entraîné pour « réfléchir » avant de répondre. Il expose son raisonnement pas à pas, corrige ses erreurs de calcul et s’en sort mieux sur les mathématiques, le code et la logique. Sur l’interface officielle, vous l’activez avec le bouton DeepThink (R1). Publié sous licence MIT, ses poids sont téléchargeables sur Hugging Face.
Un entraînement à faible coût : comment est-ce possible ?
Le chiffre des 5,6 millions de dollars ne couvre que la phase finale d’entraînement, pas la recherche ni l’infrastructure. Il reste spectaculairement bas. Plusieurs choix techniques l’expliquent.
- Mixture of Experts (MoE) : seuls 37 des 671 milliards de paramètres sont mobilisés par requête. L’inférence consomme donc bien moins qu’un modèle dense équivalent.
- Entraînement en précision FP8 : DeepSeek utilise des nombres à 8 bits là où la plupart des concurrents restent en 16 bits, ce qui double la vitesse et divise la mémoire par deux.
- Distillation : les plus petites déclinaisons de R1 (de 1,5 à 70 milliards de paramètres) sont entraînées à imiter le grand modèle, pour tourner sur un PC ou un serveur modeste.
- Apprentissage par renforcement pur : la version R1-Zero apprend à raisonner sans supervision humaine étape par étape, uniquement à partir du résultat final.
Ces optimisations ne sont pas des secrets : DeepSeek a publié les articles scientifiques détaillant la méthode. N’importe quel laboratoire peut les reproduire, ce qui inquiète les acteurs américains habitués à un avantage lié à leurs moyens financiers.
DeepSeek face à ChatGPT, Claude et Gemini
Pour situer DeepSeek parmi les grands modèles généralistes, voici un tableau synthétique. Les prix des API sont indiqués par million de tokens d’entrée, à titre indicatif.
| Modèle | Éditeur | Licence | Contexte | Prix API (entrée / M tokens) |
|---|---|---|---|---|
| DeepSeek-R1 | DeepSeek (Chine) | MIT (open source) | 128 k | ≈ 0,55 $ |
| DeepSeek-V3 | DeepSeek (Chine) | MIT (open source) | 128 k | ≈ 0,27 $ |
| GPT-4o | OpenAI (USA) | Propriétaire | 128 k | ≈ 2,50 $ |
| Claude Sonnet | Anthropic (USA) | Propriétaire | 200 k | ≈ 3,00 $ |
| Gemini Pro | Google (USA) | Propriétaire | 1 M+ | ≈ 1,25 $ |
| Le Chat (Mistral) | Mistral AI (France) | Mixte | 32 k – 128 k | variable |
DeepSeek casse les prix : son API coûte cinq à dix fois moins cher que celle d’OpenAI. Pour les utilisateurs occasionnels, le site et l’application mobile sont gratuits, sans limite stricte d’usage. Pour situer les tarifs du concurrent américain, voyez notre comparatif des prix de ChatGPT. Côté français, l’article sur Le Chat de Mistral AI présente l’alternative européenne.
Comment utiliser DeepSeek
Depuis le site officiel ou l’application mobile
Rendez-vous sur chat.deepseek.com ou téléchargez l’application iOS ou Android. Vous créez un compte avec une adresse e-mail ou un compte Google, puis vous tapez votre question. Le bouton DeepThink (R1) active le mode raisonnement, et Search autorise la recherche web. L’interface est en anglais mais DeepSeek comprend parfaitement le français.
Via l’API, pour les développeurs
L’API DeepSeek est compatible avec le format OpenAI. Si vous avez déjà du code qui appelle GPT-4, il suffit de changer l’URL de base et la clé. La documentation se trouve sur api-docs.deepseek.com. Pour rédiger de bons prompts adaptés à R1, consultez notre guide du prompt.
En local, avec Ollama
Les versions distillées de R1 (1,5 B, 7 B, 8 B, 14 B, 32 B, 70 B paramètres) sont open source et tournent sur votre propre machine. Avec Ollama :
ollama run deepseek-r1:7b
Comptez 5 à 8 Go de RAM pour la 7 B, plus d’une vingtaine pour la 32 B. Aucune donnée ne quitte votre ordinateur, ce qui règle les questions de confidentialité abordées ci-dessous.
Confidentialité et censure : les points de vigilance
DeepSeek reste soumise au droit chinois. Trois limites méritent d’être connues.
- Hébergement en Chine : sur la version web et l’application, vos conversations transitent par des serveurs situés en République populaire de Chine. L’Italie a bloqué l’application fin janvier 2025 après une mise en demeure de son autorité de protection des données. Évitez d’y saisir des informations sensibles ou des documents professionnels confidentiels.
- Censure politique : le modèle refuse de répondre aux questions sur Tiananmen, Taïwan, le Xinjiang ou la critique du Parti communiste chinois. Les versions téléchargeables localement gardent une partie de ce biais, même si des communautés le contournent par fine-tuning.
- Erreurs factuelles : comme tous les grands modèles, DeepSeek peut inventer des faits. Vérifiez ce qu’il vous affirme avant de le reprendre dans un document sérieux.
Pour un usage professionnel ou sensible, la version locale via Ollama ou une solution d’IA hébergée en Europe reste préférable.
Foire aux questions
DeepSeek est-il gratuit ?
Oui, le site chat.deepseek.com et les applications mobiles sont gratuits sans limite stricte d’usage. Seule l’API, destinée aux développeurs, est facturée au million de tokens, à un tarif cinq à dix fois inférieur à celui d’OpenAI.
DeepSeek est-il plus performant que ChatGPT ?
Sur les tâches de raisonnement, de mathématiques et de code, DeepSeek-R1 rivalise avec OpenAI o1 et dépasse GPT-4o sur plusieurs benchmarks publics. Sur la conversation généraliste, ChatGPT reste légèrement plus à l’aise, notamment en français.
Mes données sont-elles envoyées en Chine ?
Oui, si vous passez par le site ou l’application officielle : les serveurs sont en République populaire de Chine. Pour garder vos données en local, installez la version distillée de DeepSeek-R1 avec Ollama sur votre ordinateur.
DeepSeek est-il vraiment open source ?
Oui. Les poids de DeepSeek-V3 et DeepSeek-R1 sont publiés sous licence MIT sur Hugging Face. N’importe qui peut les télécharger, les modifier et les réutiliser, y compris pour un usage commercial.
DeepSeek peut-il tourner sans connexion internet ?
Oui, via les versions distillées et un outil comme Ollama ou LM Studio. Une machine avec 8 Go de RAM fait tourner la 7 B, un PC avec 32 Go de RAM et un GPU récent encaisse la 32 B.
Pourquoi DeepSeek refuse-t-il certaines questions ?
Le modèle est soumis à la législation chinoise, qui interdit les contenus politiquement sensibles. Il esquive donc les questions sur Tiananmen, Taïwan, le Xinjiang ou le Parti communiste chinois, y compris dans les versions locales.




Commentaires
Laisser un commentaire