IA

DeepSeek : l’IA open source chinoise qui défie OpenAI

Par Fabien Peltière , le 14/04/2026 , mis à jour le 14/04/2026 - 9 minutes de lecture

DeepSeek est devenue en quelques jours l’IA la plus commentée de la planète. Cette start-up chinoise, inconnue du grand public début 2025, a mis en ligne un modèle de langage open source capable de rivaliser avec ChatGPT pour une fraction du coût d’entraînement. L’action Nvidia s’est effondrée de 17 % le 27 janvier 2025, soit près de 600 milliards de dollars de capitalisation évaporés en une seule séance. Ce guide vous explique ce qu’est DeepSeek, comment l’utiliser et ce qu’il faut savoir avant de lui confier vos données.

📌 L’essentiel à retenir

DeepSeek est une IA chinoise open source qui rivalise avec ChatGPT à une fraction du coût. Lancée fin 2024 par Hangzhou DeepSeek, elle propose DeepSeek-V3 pour la conversation généraliste et DeepSeek-R1 pour le raisonnement pas à pas. L’annonce d’un entraînement à moins de 6 millions de dollars a fait chuter l’action Nvidia de près de 600 milliards le 27 janvier 2025. Accessible gratuitement depuis le site officiel, via API ou en local avec Ollama, DeepSeek soulève des questions de confidentialité : les serveurs sont en Chine et certains sujets sont censurés.

Pourquoi DeepSeek a secoué l’industrie de l’IA

La société Hangzhou DeepSeek Artificial Intelligence a été fondée en 2023 par Liang Wenfeng, dirigeant du fonds quantitatif chinois High-Flyer. Jusqu’au 20 janvier 2025, elle restait un acteur discret. Ce jour-là, elle publie DeepSeek-R1, un modèle de raisonnement comparable à OpenAI o1 sur plusieurs benchmarks. La société annonce l’avoir entraîné pour environ 5,6 millions de dollars, soit dix à cent fois moins que les modèles américains équivalents.

À lire aussi :  Comment résumer un fichier PDF à l'aide de l'IA | Tuto 2025

Une semaine plus tard, la bourse américaine réagit brutalement. Nvidia perd 17 % en une séance, soit 589 milliards de dollars de capitalisation : le plus gros décrochage d’une seule entreprise dans l’histoire de Wall Street. Les investisseurs réalisent qu’il est peut-être possible d’entraîner des IA de pointe sans commander des dizaines de milliers de GPU haut de gamme.

Les modèles DeepSeek : V3 et R1

DeepSeek ne publie pas un modèle unique mais une famille. Deux sont à connaître.

DeepSeek-V3, le chat généraliste

Mis en ligne en décembre 2024, DeepSeek-V3 est un large modèle de langage de 671 milliards de paramètres, dont 37 milliards activés à chaque requête grâce à une architecture Mixture of Experts. Il gère la conversation, la rédaction, le code et 128 000 tokens de contexte. C’est le modèle utilisé par défaut sur le site et l’application DeepSeek.

DeepSeek-R1, le modèle de raisonnement

DeepSeek-R1 est bâti sur V3 mais entraîné pour « réfléchir » avant de répondre. Il expose son raisonnement pas à pas, corrige ses erreurs de calcul et s’en sort mieux sur les mathématiques, le code et la logique. Sur l’interface officielle, vous l’activez avec le bouton DeepThink (R1). Publié sous licence MIT, ses poids sont téléchargeables sur Hugging Face.

Un entraînement à faible coût : comment est-ce possible ?

Le chiffre des 5,6 millions de dollars ne couvre que la phase finale d’entraînement, pas la recherche ni l’infrastructure. Il reste spectaculairement bas. Plusieurs choix techniques l’expliquent.

  • Mixture of Experts (MoE) : seuls 37 des 671 milliards de paramètres sont mobilisés par requête. L’inférence consomme donc bien moins qu’un modèle dense équivalent.
  • Entraînement en précision FP8 : DeepSeek utilise des nombres à 8 bits là où la plupart des concurrents restent en 16 bits, ce qui double la vitesse et divise la mémoire par deux.
  • Distillation : les plus petites déclinaisons de R1 (de 1,5 à 70 milliards de paramètres) sont entraînées à imiter le grand modèle, pour tourner sur un PC ou un serveur modeste.
  • Apprentissage par renforcement pur : la version R1-Zero apprend à raisonner sans supervision humaine étape par étape, uniquement à partir du résultat final.
À lire aussi :  6 solutions efficaces de détecteurs de textes générés par IA

Ces optimisations ne sont pas des secrets : DeepSeek a publié les articles scientifiques détaillant la méthode. N’importe quel laboratoire peut les reproduire, ce qui inquiète les acteurs américains habitués à un avantage lié à leurs moyens financiers.

DeepSeek face à ChatGPT, Claude et Gemini

Pour situer DeepSeek parmi les grands modèles généralistes, voici un tableau synthétique. Les prix des API sont indiqués par million de tokens d’entrée, à titre indicatif.

ModèleÉditeurLicenceContextePrix API (entrée / M tokens)
DeepSeek-R1DeepSeek (Chine)MIT (open source)128 k≈ 0,55 $
DeepSeek-V3DeepSeek (Chine)MIT (open source)128 k≈ 0,27 $
GPT-4oOpenAI (USA)Propriétaire128 k≈ 2,50 $
Claude SonnetAnthropic (USA)Propriétaire200 k≈ 3,00 $
Gemini ProGoogle (USA)Propriétaire1 M+≈ 1,25 $
Le Chat (Mistral)Mistral AI (France)Mixte32 k – 128 kvariable

DeepSeek casse les prix : son API coûte cinq à dix fois moins cher que celle d’OpenAI. Pour les utilisateurs occasionnels, le site et l’application mobile sont gratuits, sans limite stricte d’usage. Pour situer les tarifs du concurrent américain, voyez notre comparatif des prix de ChatGPT. Côté français, l’article sur Le Chat de Mistral AI présente l’alternative européenne.

Comment utiliser DeepSeek

Depuis le site officiel ou l’application mobile

Rendez-vous sur chat.deepseek.com ou téléchargez l’application iOS ou Android. Vous créez un compte avec une adresse e-mail ou un compte Google, puis vous tapez votre question. Le bouton DeepThink (R1) active le mode raisonnement, et Search autorise la recherche web. L’interface est en anglais mais DeepSeek comprend parfaitement le français.

Via l’API, pour les développeurs

L’API DeepSeek est compatible avec le format OpenAI. Si vous avez déjà du code qui appelle GPT-4, il suffit de changer l’URL de base et la clé. La documentation se trouve sur api-docs.deepseek.com. Pour rédiger de bons prompts adaptés à R1, consultez notre guide du prompt.

À lire aussi :  Formation en intelligence artificielle : des parcours variés pour maîtriser l’IA

En local, avec Ollama

Les versions distillées de R1 (1,5 B, 7 B, 8 B, 14 B, 32 B, 70 B paramètres) sont open source et tournent sur votre propre machine. Avec Ollama :

ollama run deepseek-r1:7b

Comptez 5 à 8 Go de RAM pour la 7 B, plus d’une vingtaine pour la 32 B. Aucune donnée ne quitte votre ordinateur, ce qui règle les questions de confidentialité abordées ci-dessous.

Confidentialité et censure : les points de vigilance

DeepSeek reste soumise au droit chinois. Trois limites méritent d’être connues.

  • Hébergement en Chine : sur la version web et l’application, vos conversations transitent par des serveurs situés en République populaire de Chine. L’Italie a bloqué l’application fin janvier 2025 après une mise en demeure de son autorité de protection des données. Évitez d’y saisir des informations sensibles ou des documents professionnels confidentiels.
  • Censure politique : le modèle refuse de répondre aux questions sur Tiananmen, Taïwan, le Xinjiang ou la critique du Parti communiste chinois. Les versions téléchargeables localement gardent une partie de ce biais, même si des communautés le contournent par fine-tuning.
  • Erreurs factuelles : comme tous les grands modèles, DeepSeek peut inventer des faits. Vérifiez ce qu’il vous affirme avant de le reprendre dans un document sérieux.

Pour un usage professionnel ou sensible, la version locale via Ollama ou une solution d’IA hébergée en Europe reste préférable.

Foire aux questions

DeepSeek est-il gratuit ?

Oui, le site chat.deepseek.com et les applications mobiles sont gratuits sans limite stricte d’usage. Seule l’API, destinée aux développeurs, est facturée au million de tokens, à un tarif cinq à dix fois inférieur à celui d’OpenAI.

DeepSeek est-il plus performant que ChatGPT ?

Sur les tâches de raisonnement, de mathématiques et de code, DeepSeek-R1 rivalise avec OpenAI o1 et dépasse GPT-4o sur plusieurs benchmarks publics. Sur la conversation généraliste, ChatGPT reste légèrement plus à l’aise, notamment en français.

Mes données sont-elles envoyées en Chine ?

Oui, si vous passez par le site ou l’application officielle : les serveurs sont en République populaire de Chine. Pour garder vos données en local, installez la version distillée de DeepSeek-R1 avec Ollama sur votre ordinateur.

DeepSeek est-il vraiment open source ?

Oui. Les poids de DeepSeek-V3 et DeepSeek-R1 sont publiés sous licence MIT sur Hugging Face. N’importe qui peut les télécharger, les modifier et les réutiliser, y compris pour un usage commercial.

DeepSeek peut-il tourner sans connexion internet ?

Oui, via les versions distillées et un outil comme Ollama ou LM Studio. Une machine avec 8 Go de RAM fait tourner la 7 B, un PC avec 32 Go de RAM et un GPU récent encaisse la 32 B.

Pourquoi DeepSeek refuse-t-il certaines questions ?

Le modèle est soumis à la législation chinoise, qui interdit les contenus politiquement sensibles. Il esquive donc les questions sur Tiananmen, Taïwan, le Xinjiang ou le Parti communiste chinois, y compris dans les versions locales.

Fabien Peltière

Fabien Peltière

Baignant dans l'informatique depuis tout petit (j'ai écrit mes premières lignes de code sur un Amstrad CPC 464) et travaillant depuis plus de 20 ans dans le web, j'écris des tutoriels destinés aux débutants afin de leur permettre de mieux appréhender le monde numérique, ses enjeux, ses pratiques et ses menaces. Responsable des réseaux sociaux (community manager pour Astuces & Aide Informatique).

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.