Microsofts neues Super-KI-Modell für Smartphones

Björn Schneider
Björn Schneider

Am 02.07.2024 - 06:59

Das Phi-3 Mini ist bislang Microsofts kompaktestes KI-Modell, das vor allem Smartphones smarter machen soll. Was hinter dem Sprachmodell steckt.

Frau nutzt ein Smartphone
Phi 3 Mini ist ein Small Language Model (SLM), das vor allem auf mobilen Geräten wie Smartphones zur Anwendung kommt. - Unsplash

Microsofts jüngstes KI-Modell wird – im übertragenen Sinn – tatsächlich in jede Hosentasche passen. Denn Phi-3 Mini, so der Name des KI-Modells, läuft auch auf Smartphones.

Mit dem neuesten Mitglied seiner KI-Familie beweist der Tech-Gigant einmal mehr seine Innovationskraft. Denn Phi-3 Mini soll die Leistung von GPT 3.5 bieten, ist aber wesentlich kleiner als Large Language Models (LLM).

Leistungsstarke Smartphone-KI

Die neue Version von Microsofts künstlicher Intelligenz ist also ein wahres Leichtgewicht. Phi-3 Mini hat 3,8 Milliarden Parameter – deutlich weniger als andere Modelle wie OpenAI's GPT-4.

Open AI & ChatGPT
Phi-3 Mini verfügt über 3,8 Milliarden Parameter – deutlich weniger als LLMs wie OpenAI's GPT-4. - Depositphotos

Damit ist die Voraussetzung für den Einsatz auf Smartphones erfüllt. Hieran zeigt sich, dass das jüngste KI-Modell für ganz spezielle, «kleinere» Aufgaben entwickelt wurde.

Traditionelle KI-Modelle benötigen enorme Rechenkapazitäten – teuer und umweltschädigend zugleich. Firmen wie Microsoft und Google arbeiten an kleineren Modellen, was deren Betrieb nachhaltiger gestaltet und sie ideal für Smartphones macht.

Weniger Parameter, mehr Qualität?

Parameter sind entscheidend dafür, wie gut Modelle komplizierte und verflochtene Anforderungen bewältigen können. Je mehr Parameter vorhanden sind, desto besser bearbeitet das Modell vielfältige, komplexe Anfragen.

Für alltägliche, kleine Aufgaben und weniger komplizierte Anforderungen jedoch sollte ein überschaubares Modell ausreichen. Das ist zumindest die Annahme der Microsoft-Entwickler und KI-Experten.

Mit Märchen trainierte Mini-KI

Die Forscher trainierten Phi-3 Mini mit stark gefilterten Webdaten, die den Standards für hochwertige Bildungsinformationen entsprechen, sowie mit synthetischen Daten. Interessanterweise wurde das Modell auch anhand von einfachen Märchen trainiert.

Bibliothek
Microsoft trainierte Phi-3 Mini mit Webdaten, synthetischen Daten – und mit einfachen Kinderbüchern. - Depositphotos

Das klingt ungewöhnlich, macht aber Sinn, wenn man bedenkt, wie menschliche Gehirne funktionieren. Der Ansatz hierbei ist Qualität vor Quantität – weniger Parameter nutzen und dabei trotzdem effektiv bleiben.

Mehr zum Thema:

Weiterlesen