Die Grenzen der KI-Hardware überwinden
Über Prof. Dr. Li Zhang
Prof. Dr. Li Zhang ist wissenschaftliche Mitarbeiterin im Fachbereich Elektrotechnik und Informationstechnik an der Technischen Universität Darmstadt. Sie promovierte an der TU München, wo sie von 2018 bis 2022 Gruppenleiterin für Heterogeneous Computing war.
Seit 2022 ist sie Juniorprofessorin für Hardware für KI an der TU Darmstadt.
Verstehen, warum AI funktioniert
Künstliche Intelligenz ist zu einem festen Bestandteil unseres täglichen Lebens geworden, von der Empfehlung von Produkten, die wir gerne benutzen würden, über die Erkennung von Anomalien in medizinischen Scans bis hin zur Generierung eines Bildes aus Wörtern. Doch trotz der weiten Verbreitung von KI gibt es noch viel zu verstehen.
Insbesondere bei komplexen und vielschichtigen Modellen kann es schwierig sein, genau zu verstehen, wie ein KI-System zu seinen endgültigen Vorhersagen oder Entscheidungen kommt. Neuronale Netze werden sogar als „Blackbox“ bezeichnet, weil ihr Entscheidungsprozess teilweise undurchsichtig bleibt.
Zhangs Forschung konzentriert sich darauf, die Natur der künstlichen Intelligenz aus einer Hardware-Perspektive zu verstehen: Ihre Hardware- und Algorithmusentwürfe ermöglichen effizientere und fortschrittlichere Modelle, die eine bessere Interpretierbarkeit für KI bieten.
„Mein Ziel ist es, die Beziehung zwischen Logikdesign und tiefen neuronalen Netzen zu erforschen“, sagt Zhang und fügt hinzu, dass sich ihre Forschung auf die Hardware-Perspektive konzentriert. Analoge und digitale Schaltungen spielen bei der Implementierung von KI-Systemen eine entscheidende Rolle, da sie die für die Ausführung und Interpretation von KI-Algorithmen und -Modellen, wie z. B. neuronalen Netzen, erforderlichen Rechenressourcen bereitstellen – und beide haben ihre Stärken und Schwächen.
Ihr primäres Ziel ist es, Hardware- und Algorithmusdesigns zu entwickeln, die die Stärken beider Schaltkreise nutzen und gleichzeitig deren Einschränkungen abmildern. Analoge Schaltungen sind zum Beispiel energieeffizienter und schneller, aber sie haben nicht die Genauigkeit und Robustheit digitaler Schaltungen: „Analoge Beschleuniger können bis zu 70 % schneller sein als digitale, aber sie sind weniger genau und nicht zuverlässig genug“, sagt Zhang.
Die Anforderungen an die Rechenleistung steigen jedoch schneller, als die Hardware mithalten kann: „Die Entwicklung von KI ist schnell. Aber die Hardware für KI kann da nicht mithalten.“
Den Weg für nachhaltige AI-Systeme ebnen
Eine Steigerung der Effizienz und Rechenleistung von Hardware und Algorithmen würde es den Forschern ermöglichen, bessere Erkenntnisse darüber zu gewinnen, wie KI zu einem Ergebnis kommt, ihre Leistung zu optimieren und fortschrittlichere Algorithmen zu entwickeln, die die Fähigkeiten der Hardware nutzen.
Derzeit nutzen die meisten KI-Systeme Grafikprozessoren (GPUs), um neuronale Netze zu trainieren. Dieser Ansatz hat laut Zhang einen entscheidenden Nachteil: „Der hohe Stromverbrauch von GPUs ist ein sehr, sehr großes Problem“.
Ihre Hardware- und Algorithmusentwürfe bieten Forschern und der Industrie eine Möglichkeit, Modelle mit besserer Energieeffizienz zu trainieren, was letztlich zu nachhaltigeren KI-Systemen führt.
Zusammenarbeit ist ein Schlüsselaspekt von Zhangs Forschung, und sie betrachtet interdisziplinäre Forschung als wesentlich für die Entwicklung nachhaltiger, effizienter und robuster KI-Systeme. Für Zhang bietet hessian.AI Forschern aus verschiedenen Disziplinen die Möglichkeit, zusammenzuarbeiten, Synergien zu finden und ein tieferes Verständnis von KI zu erlangen.