DeepSeek, das chinesische KI-Modell, das die Tech-Industrie schockiert und die Wall Street mit seinen niedrigen Kosten und seiner guten Leistung aus dem Gleichgewicht gebracht hat, bietet "einige echte Innovationen" und ist "eine gute Nachricht", so Satya Nadella, CEO von Microsoft.
Nadella machte diese Bemerkung während der vierteljährlichen Telefonkonferenz des Unternehmens am Donnerstag, als er sagte, dass sich die KI in keiner Weise von normalen Computerentwicklungen unterscheidet. Microsoft hat damit begonnen, das DeepSeek-R1-Modell für Inferenzen anzubieten, ein KI-Modell, das seinen "Denkprozess" offenlegt, damit die Nutzer seine Ergebnisse überprüfen können. Dieses Modell stand den Nutzern von Microsofts Cloud-Plattform am selben Tag zur Verfügung.
Die Anschuldigungen, trotz der Verwendung von
Microsoft, ein Großinvestor in den US-Konkurrenten von DeepSeek, OpenAI, untersucht ebenfalls, ob ein chinesischer KI-Entwickler die Output-Daten von OpenAI auf unbefugte Weise erhalten hat.
OpenAI hat die Medien darüber informiert, dass es Beweise dafür gibt, dass DeepSeek den OpenAI-Service zum Trainieren seiner KI-Modelle genutzt hat, ein Verhalten, das nicht mit den Nutzungsbedingungen von OpenAI übereinstimmt.
Allerdings haben weder OpenAI noch Microsoft Beweise vorgelegt.
Während die Ermittlungen noch andauern, hat ein von der Trump-Regierung ernannter Beamter DeepSeek bereits beschuldigt, "gestohlene" US-Technologie zu verwenden.
Howard Lutnick, der Kandidat für das Amt des Handelsministers, sagte am Mittwoch bei einem Treffen mit US-Senatoren, dass sich die Regierung mit diesem Thema befassen werde.
David Sacks, der KI-Berater von Präsident Trump, sagte unterdessen, es gebe "stichhaltige Beweise" dafür, dass DeepSeek "Wissen" aus OpenAI-Modellen gewonnen habe.
"Destillation wird die meisten Nutzungsbedingungen verletzen, aber es ist ironisch - oder sogar heuchlerisch - dass Big Tech es kritisiert", sagte der Technologie-Investor und Dozent der Cornell University Lutz Finger am Mittwoch. "ChatGPT auf Inhalte von Forbes oder der New York Times zu trainieren, verstößt ebenfalls gegen deren Nutzungsbedingungen."
Was ist eine "Destillation"?
Destillation ist der Prozess, bei dem ein neues KI-Modell wiederholt ein größeres Modell abfragt und aus dessen Ergebnissen lernt.
Dieser Prozess wird in den öffentlichen Forschungspapieren von DeepSeek beschrieben, aber die Forscher sagten, dass sie ihn auf eine andere Weise verwendeten. Nach Angaben des Unternehmens verwendeten sie das DeepSeek-R1-Modell für Inferenzen als "größeres Modell", das anderen Modellen wie Alibaba Qwen und Meta Llama "beibrachte", ebenfalls inferenzfähig zu werden.
Die destillierten Modelle und das Original R1 wurden zum kostenlosen Download freigegeben, so dass Personen mit weniger leistungsfähigen Computern oder sogar Smartphones die Modelle offline mit voller Kontrolle ausführen können, was für ChatGPT-Nutzer unmöglich ist, da das Modell hinter dem OpenAI-Dienst selbst für zahlende Nutzer verborgen ist.
Beiträge in sozialen Medien haben darauf hingewiesen, dass DeepSeek sich manchmal als ChatGPT identifiziert, was ein Beweis für Datendiebstahl sein könnte. Aber wie alle anderen KI-Modelle sagt auch DeepSeek nicht immer die Wahrheit. Eine frühere Version des Gemini-Chatbots von Google identifizierte sich bei Anfragen auf Chinesisch als Ernie-Bot von Baidu, aber Baidu hat Google nie des Datendiebstahls beschuldigt.