(Grafik von Visual Capitalist veröffentlicht am 18. September 2023)
Elektronische Computer gab es in den 1940er Jahren gerade einmal ein Jahrzehnt, bevor Experimente mit KI begannen. Heute verfügen wir über KI-Modelle, die Gedichte schreiben und Bilder anhand von Textanweisungen erzeugen können. Aber wie kam es zu diesem exponentiellen Wachstum in so kurzer Zeit?
Dieses Diagramm von Our World in Data verfolgt die Geschichte der KI anhand der Rechenleistung, die zum Trainieren eines KI-Modells benötigt wird, und verwendet Daten von Epoch AI.
Die drei Epochen der KI-Berechnungen
In den 1950er Jahren trainierte der amerikanische Mathematiker Claude Shannon eine Robotermaus namens Theseus, sich in einem Labyrinth zurechtzufinden und sich den Weg zu merken – das erste offensichtliche künstliche Lernen jeglicher Art.
Theseus basierte auf 40 Gleitkommaoperationen (FLOPs), einer Maßeinheit, die verwendet wird, um die Anzahl der grundlegenden arithmetischen Operationen (Addition, Subtraktion, Multiplikation oder Division) zu zählen, die ein Computer oder Prozessor in einer Sekunde durchführen kann.
ℹ️ FLOPs werden oft als Maß für die Rechenleistung von Computerhardware verwendet. Je höher die FLOP-Zahl, desto höher die Rechenleistung, desto leistungsfähiger das System.
Rechenleistung, Verfügbarkeit von Trainingsdaten und Algorithmen sind die drei wichtigsten Zutaten für den Fortschritt der KI. In den ersten Jahrzehnten der KI-Fortschritte wuchs die Rechenleistung, die zum Trainieren eines KI-Modells benötigt wird, nach dem Mooreschen Gesetz.
Zu Beginn der Ära des Deep Learning, die 2012 mit AlexNet (einer KI zur Bilderkennung) eingeläutet wurde, verkürzte sich dieser Verdopplungszeitraum jedoch erheblich auf sechs Monate, da die Forscher mehr in Berechnungen und Prozessoren investierten.
Mit dem Auftauchen von AlphaGo im Jahr 2015 – einem Computerprogramm, das einen menschlichen Profi-Go-Spieler besiegt hat – haben Forscher eine dritte Ära ausgemacht: die Ära der groß angelegten KI-Modelle, deren Berechnungsbedarf alle bisherigen KI-Systeme in den Schatten stellt.
Vorhersage des Fortschritts bei der KI-Berechnung
Betrachtet man nur das letzte Jahrzehnt, so ist die Rechenleistung so enorm gestiegen, dass es schwer zu begreifen ist.
So beträgt beispielsweise der Rechenaufwand für das Training von Minerva, einer KI, die komplexe mathematische Probleme lösen kann, fast das 6-Millionenfache dessen, was vor 10 Jahren für das Training von AlexNet erforderlich war.
Das Ergebnis dieses Wachstums bei den Berechnungen, zusammen mit der Verfügbarkeit riesiger Datensätze und besserer Algorithmen, hat in scheinbar sehr kurzer Zeit zu großen Fortschritten bei der KI geführt. Heute ist die KI nicht nur ebenbürtig, sondern übertrifft die menschliche Leistung in vielen Bereichen.
Es ist schwer zu sagen, ob das gleiche Wachstumstempo bei der Datenverarbeitung beibehalten werden kann. Groß angelegte Modelle benötigen immer mehr Rechenleistung zum Trainieren, und wenn die Rechenleistung nicht weiter zunimmt, könnte sich der Fortschritt verlangsamen. Die Erschöpfung aller Daten, die derzeit für das Training von KI-Modellen zur Verfügung stehen, könnte auch die Entwicklung und Implementierung neuer Modelle behindern.
Bei all den Finanzmitteln, die in letzter Zeit in die KI geflossen sind, stehen vielleicht weitere Durchbrüche bevor – wie etwa das Erreichen der Rechenleistung des menschlichen Gehirns.
☞ Rangliste: Die beliebtesten KI-Anwendungen
☞ Wie KI und das Metaverse die Datenwelt beeinflussen werden
☞ Die 50 wichtigsten Rechenzentrumsmärkte nach Stromverbrauch