Mini-KI mit 4 Kilobyte

Mini-KI mit 4 Kilobyte

Je spezieller eine KI-Anwendung, desteo kleiner sind die Anforderungen an Speicher und Rechenpower. Wie klein es geht, zeigt das Projekt E-MINDS.

(Bild: Redaktion/PiPaPu)


Die Zukunft der Künstlichen Intelligenz ist nicht nur groß, sondern manchmal auch winzig klein. Während große Sprachmodelle mit Milliarden Parametern schlagzeilenträchtig ganze Rechenzentren beschäftigen, arbeitet ein Forschungsteam aus Graz und St. Gallen daran, Intelligenz dorthin zu bringen, wo kaum Speicher, kaum Strom und kaum Platz vorhanden ist: in die kleinsten Sensoren des Internets der Dinge.

Im Projekt E-MINDS haben Wissenschaftler:innen der TU Graz, des COMET K1-Zentrums Pro² Future und der Universität St. Gallen gezeigt, wie sich selbst auf Chips mit nur vier Kilobyte Speicher spezialisierte KI-Modelle lokal ausführen lassen – ganz ohne Cloud-Anbindung. Möglich wird das durch einen Werkzeugkasten aus Verkleinerungstechniken, Modellaufteilung und cleverer Architektur.

Tricks für winzige Intelligenz

Natürlich laufen auf solchen Geräten keine großen Sprachmodelle, sondern sehr spezifische Aufgaben – etwa zur Abstandsschätzung“, erklärt Michael Krisper, Projektleiter bei Pro² Future und Forscher am Institut für Technische Informatik der TU Graz. „Aber auch diese kleinen Modelle müssen erst einmal klein genug gemacht werden. Genau daran haben wir im Projekt gearbeitet.

Statt ein universelles Modell zu verwenden, entwickelten die Forschenden ein modulares System: Für jede Art von Störung beim Lokalisieren – sei es durch Metall, Menschen oder Regale – existiert ein eigenes kleines Modell. Ein übergeordnetes Orchestrierungsmodell erkennt die jeweilige Situation und lädt in rund 100 Millisekunden das passende Modell vom Server. Für industrielle Anwendungen, etwa autonome Fahrzeuge in Lagerhallen, reicht das völlig aus.

Falten, kürzen, anpassen

Zentral für die Miniaturisierung war der Einsatz sogenannter Subspace Configurable Networks (SCNs). Diese Netzwerke sind nicht auf einen festen Datentyp trainiert, sondern passen sich dynamisch dem jeweiligen Input an. Bei Tests auf IoT-Geräten zur Objekterkennung und Fruchtklassifikation konnten Bilder bis zu 7,8-mal schneller verarbeitet werden – mit deutlich geringerem Energieverbrauch.

Zusätzliche Einsparungen gelangen durch bewährte Techniken wie Quantisierung und Pruning. Bei der Quantisierung werden komplexe Fließkommazahlen durch einfache Ganzzahlen ersetzt – das spart Rechenleistung bei minimalem Genauigkeitsverlust. Beim Pruning werden überflüssige Teile eines fertigen Modells entfernt, sodass nur die für die Aufgabe relevanten Teile übrig bleiben.

Das Ziel: ein Gleichgewicht zwischen Modellgröße, Energiebedarf und Genauigkeit zu finden. Und auch die Deployment-Frage wurde gelöst: Die Mini-Modelle lassen sich so vorbereiten, dass sie effizient und schnell auf den jeweiligen Chips installiert werden können.

Von der Lagerhalle bis zum Autoschlüssel

Obwohl der Schwerpunkt des Projekts auf der präzisen Ortung von Robotern und Drohnen mit Hilfe von Ultra-Wideband-Technologie lag, sehen die Beteiligten viele weitere Einsatzmöglichkeiten. KI-gestützte Lokalisierung könnte auch als Sicherheitsfaktor bei schlüssellosen Zugangssystemen dienen – um festzustellen, ob sich der Autoschlüssel tatsächlich in der Nähe des Fahrzeugs befindet oder nur ein Signal kopiert wird.

Auch im Alltag gibt es Anwendungspotenzial: Fernbedienungen im Smart Home könnten durch energieeffiziente KI-Modelle länger mit einer Batterieladung auskommen. Und selbst Bibliotheken könnten mit der Technologie Bücher verfolgen, ohne auf teure Infrastrukturen zurückgreifen zu müssen.

Teamarbeit mit Weitblick

Mit neuen Methoden und Fachwissen haben wir im E-MINDS-Projekt eine Basis für künftige Produkte und Anwendungen geschaffen“ , sagt Michael Krisper. „Unser Team hat sich dabei perfekt ergänzt: Bei Pro² Future haben wir uns auf die Hardwareimplementierung konzentriert, Olga Saukh und ihr Team an der TU Graz haben wesentliche theoretische Grundlagen für eingebettetes Maschinelles Lernen beigetragen, und Simon Mayer von der Universität St. Gallen hat das Know-how in der Lokalisierungsforschung eingebracht.

Herausgekommen ist dabei ein Baukasten für Mini-KI, der industriell wie privat einsetzbar ist – und das Versprechen, dass intelligente Systeme auch ohne gigantische Rechenzentren funktionieren können.


Kurzinfo: KI im Miniaturformat – Projekt E-MINDS

  • Projektpartner: TU Graz, Pro² Future, Universität St. Gallen
  • Ziel: Lokale KI auf Mini-Geräten ohne Cloud-Anbindung
  • Speicherbedarf: nur 4 KB pro Modell möglich
  • Methoden: Subspace Configurable Networks, Quantisierung, Pruning
  • Anwendung: Ultra-Wideband-Lokalisierung (z. B. für Drohnen, Roboter)
  • Vorteile: Energieeffizienz, Echtzeitfähigkeit, Datenschutz
  • Übertragung: effizienter Modell-Transfer auf Endgeräte
  • Weitere Einsatzfelder: Smart Home, Automotive, Bibliotheksmanagement
  • Projektzeitraum: Laufzeit bis 2025, Förderung durch COMET-Programm
  • Bedeutung: Grundlage für ressourcenschonende KI in Alltagsgeräten

Über den Autor / die Autorin

H.O. Wireless
H.O. Wireless
Die Robo-Journalistin H.O. Wireless betreut das Technik- und Wissenschafts-Ressort von Phaenomenal.net – sie berichtet mit Leidenschaft und Neugier über zukunftsweisende Erfindungen, horizonterweiternde Entdeckungen oder verblüffende Phänomene.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Proudly powered by WordPress