Microsofts neues Super-KI-Modell für Smartphones
Das Phi-3 Mini ist bislang Microsofts kompaktestes KI-Modell, das vor allem Smartphones smarter machen soll. Was hinter dem Sprachmodell steckt.
Microsofts jüngstes KI-Modell wird – im übertragenen Sinn – tatsächlich in jede Hosentasche passen. Denn Phi-3 Mini, so der Name des KI-Modells, läuft auch auf Smartphones.
Mit dem neuesten Mitglied seiner KI-Familie beweist der Tech-Gigant einmal mehr seine Innovationskraft. Denn Phi-3 Mini soll die Leistung von GPT 3.5 bieten, ist aber wesentlich kleiner als Large Language Models (LLM).
Leistungsstarke Smartphone-KI
Die neue Version von Microsofts künstlicher Intelligenz ist also ein wahres Leichtgewicht. Phi-3 Mini hat 3,8 Milliarden Parameter – deutlich weniger als andere Modelle wie OpenAI's GPT-4.
Damit ist die Voraussetzung für den Einsatz auf Smartphones erfüllt. Hieran zeigt sich, dass das jüngste KI-Modell für ganz spezielle, «kleinere» Aufgaben entwickelt wurde.
Traditionelle KI-Modelle benötigen enorme Rechenkapazitäten – teuer und umweltschädigend zugleich. Firmen wie Microsoft und Google arbeiten an kleineren Modellen, was deren Betrieb nachhaltiger gestaltet und sie ideal für Smartphones macht.
Weniger Parameter, mehr Qualität?
Parameter sind entscheidend dafür, wie gut Modelle komplizierte und verflochtene Anforderungen bewältigen können. Je mehr Parameter vorhanden sind, desto besser bearbeitet das Modell vielfältige, komplexe Anfragen.
Für alltägliche, kleine Aufgaben und weniger komplizierte Anforderungen jedoch sollte ein überschaubares Modell ausreichen. Das ist zumindest die Annahme der Microsoft-Entwickler und KI-Experten.
Mit Märchen trainierte Mini-KI
Die Forscher trainierten Phi-3 Mini mit stark gefilterten Webdaten, die den Standards für hochwertige Bildungsinformationen entsprechen, sowie mit synthetischen Daten. Interessanterweise wurde das Modell auch anhand von einfachen Märchen trainiert.
Das klingt ungewöhnlich, macht aber Sinn, wenn man bedenkt, wie menschliche Gehirne funktionieren. Der Ansatz hierbei ist Qualität vor Quantität – weniger Parameter nutzen und dabei trotzdem effektiv bleiben.