DeepSeek, le modèle d'IA chinois qui a choqué l'industrie technologique et perturbé Wall Street grâce à son coût très bas et à ses bonnes performances, présente "une réelle innovation" et constitue "une bonne nouvelle", a déclaré Satya Nadella, le PDG de Microsoft.
Nadella a fait ce commentaire lors de la conférence téléphonique sur les résultats trimestriels de l'entreprise, jeudi, lorsqu'il a déclaré que l'IA ne différait en rien des développements informatiques normaux. Microsoft a commencé à proposer le modèle DeepSeek-R1 pour l'inférence, un modèle d'IA qui révèle son "processus de pensée" afin que les utilisateurs puissent vérifier ses résultats. Ce modèle a été mis à la disposition des utilisateurs de la plateforme cloud de Microsoft le même jour.
Les accusations, malgré l'utilisation de
Microsoft, l'un des principaux investisseurs dans OpenAI, le concurrent américain de DeepSeek, enquête également pour savoir si un développeur d'IA chinois a obtenu les données de sortie d'OpenAI de manière non autorisée.
OpenAI a informé les médias qu'elle disposait de preuves que DeepSeek utilisait le service OpenAI pour entraîner ses modèles d'IA, un comportement qui n'est pas conforme aux conditions de service d'OpenAI.
Cependant, ni OpenAI ni Microsoft n'ont fourni de preuves.
Alors que l'enquête se poursuit, un membre de l'administration Trump a déjà accusé DeepSeek d'utiliser des technologies américaines "volées".
Howard Lutnick, le candidat au poste de secrétaire au commerce, a déclaré mercredi, lors d'une réunion avec les sénateurs américains, que l'administration se pencherait sur la question.
Par ailleurs, David Sacks, conseiller du président Trump en matière d'IA, a déclaré qu'il existait des "preuves substantielles" que DeepSeek avait "acquis des connaissances" à partir des modèles d'OpenAI.
"La distillation violera la plupart des conditions d'utilisation, mais il est ironique, voire hypocrite, que les grandes entreprises technologiques la critiquent", a déclaré mercredi Lutz Finger, investisseur en technologie et conférencier à l'université de Cornell. "Entraîner ChatGPT sur le contenu de Forbes ou du New York Times violerait également leurs conditions d'utilisation.
Qu'est-ce que la "distillation" ?
La distillation est le processus par lequel un nouveau modèle d'IA interroge de manière répétée un modèle plus important et apprend de ses résultats.
Ce processus est décrit dans les documents de recherche publics de DeepSeek, mais les chercheurs ont déclaré l'avoir utilisé d'une manière différente. Selon l'entreprise, ils ont utilisé le modèle DeepSeek-R1 pour l'inférence comme un "modèle plus grand" qui a "enseigné" à d'autres modèles, tels que Alibaba Qwen et Meta Llama, à devenir également capables d'inférence.
Les modèles distillés et la R1 originale ont été téléchargés gratuitement, ce qui permet aux personnes disposant d'ordinateurs moins puissants ou même de smartphones d'exécuter les modèles hors ligne avec un contrôle total, ce qui est impossible pour les utilisateurs de ChatGPT, car le modèle qui sous-tend le service OpenAI est caché, même aux utilisateurs payants.
Des posts sur les médias sociaux ont indiqué que DeepSeek s'identifiait parfois comme ChatGPT, ce qui pourrait être la preuve d'un vol de données. Mais comme tous les autres modèles d'IA, DeepSeek ne dit pas toujours la vérité. Une version précédente du chatbot Gemini de Google s'identifiait comme le chatbot Ernie de Baidu lorsqu'on l'interrogeait en chinois, mais Baidu n'a jamais accusé Google d'avoir volé des données.