*
Entwickler wollen KI "menschliches Denken" beibringen |
*
Verfeinertes Training soll bessere Ergebnisse liefern |
*
Spezialrechner für KI-Training verlieren an Bedeutung |
- von Krystal Hu und Anna Tong |
New York/San Francisco, 11. Nov (Reuters) - Für das |
Training einer Künstlichen Intelligenz (KI) gilt bislang meist |
das Motto: "Viel hilft viel." Entwickler füttern ihre Software |
mit immer mehr Daten und nutzen immer leistungsstärkere |
Prozessoren, damit ChatGPT, Gemini & Co bessere Antworten geben. |
Diese Methode stößt inzwischen aber an ihre Grenzen. Daher |
versuchen Forscher, den Programmen "menschliches Denken" |
beizubringen. Dadurch könnten einerseits die Karten im Kampf um |
die Führung bei dieser Technologie neu gemischt werden. Aber |
auch die Anbieter von Hochleistungsrechnern müssen auf der Hut |
sein, denn neue KI-Generationen könnten ganz andere Chips |
benötigen als die aktuelle. |
"Die 2010er Jahre waren die Jahre der Skalierung, jetzt sind wir wieder im Zeitalter des Staunens und Entdeckens", beschreibt Ilya Sutskever, der als Mitgründer von OpenAI an der Entwicklung von ChatGPT beteiligt war, die bisherige Jagd nach immer größeren Datenmengen und immer schnelleren Rechnern. Für eine weitere Verbesserung der KI-Leistung komme es nun darauf an, sich auf wenige, aber entscheidende Punkte zu konzentrieren. Seine neue KI-Firma Safe Superintelligence (SSI) verfolge diesen Ansatz. Details nannte Sutskever allerdings nicht. Große KI-Entwickler wie OpenAI oder die Alphabet <GOOGL.O>-Tochter Google halten dagegen bislang offziell an dem Mantra fest, dass mehr Trainingsdaten und höhere Rechenpower leistungsfähigere KI-Modelle hervorbringen.
Allerdings haben Insidern zufolge zahlreiche Firmen mit Problemen zu kämpfen. Die Entwicklung ihrer KI kommt entweder langsamer voran als geplant oder bringt nicht den erhofften technologischen Sprung im Vergleich zu GPT-4, auf dem OpenAIs ChatGPT basiert. Dieses sogenannte Große Sprachmodell (Large Language Model, LLM), das allgemein als Referenz herangezogen wird, ist bereits knapp zwei Jahre alt - in der schnelllebigen Technologiewelt eine Ewigkeit.
"Trainingseinheiten" für eine KI können mehrere Monate dauern und können zweistellige Millionenbeträge kosten, da hierfür Hunderte Hochleistungsrechner rund um die Uhr arbeiten müssen. Weil dieser Prozess zudem ausgesprochen kompliziert ist, können Entwickler erst am Ende einer "Trainingseinheit" abschätzen, ob sich Fehler eingeschlichen haben und das Ganze eventuell wiederholt werden muss. Gleichzeitig herrscht ein Mangel an neuen Daten für das KI-Training, nachdem die Unternehmen bereits alles verfügbare Wissen aus dem Internet gesaugt und in ihren Datenbanken gespeichert haben. Ein weiterer Hemmschuh ist die Versorgung der KI-Rechenzentren mit Strom.
Abhilfe erhoffen sich Forscher unter anderem von einer stärkeren Konzentration auf sogenanntes "Test-Time Compute". Dabei unterteilt die KI die Bearbeitung einer Anfrage - im Fachjargon "Inferenz" genannt - in mehrere Schritte. Sie errechnet zunächst mehrere Antworten und wählt anschließend die wahrscheinlich beste aus. Steht für "Test-Time Compute" ausreichend Rechenpower zur Verfügung, können auch mit relativ wenigen Daten trainierte KI-Modelle größeren Konkurrenten Paroli bieten. "Ein Bot, der nur 20 Sekunden lang über ein Pokerspiel nachdenkt, erbringt die gleiche Leistung wie ein Modell, das 100.000 Mal länger trainiert wurde", erläuterte OpenAI-Entwickler Noam Brown unlängst bei einer KI-Konferenz.
Experten zufolge nutzt OpenAI für seine im September vorgestellte KI-Serie "o1" bereits derartige Ansätze. Sie soll komplexe Probleme besser lösen, indem sie ähnlich wie ein Mensch eine Aufgabe in mehreren Schritten "durchdenkt". Um dies zu erreichen, unterzieht OpenAI seine Basis-KI einem zusätzlichen Training, bei dem unter anderem von Fachleuten kuratierte Daten zum Einsatz kommen. Dies dient dazu, die Entscheidungsfindung der KI zu verbessern. Nach Aussagen von Insidern arbeiten Rivalen wie Google, Anthropic oder xAI an ähnlichen Technologien. Keines der genannten Unternehmen wollte sich zu diesem Thema äußern.
Die abnehmende Bedeutung des KI-Trainings zugunsten einer verbesserten Echtzeit-Entscheidungsfindung der Software während ihrer Benutzung werden auch Hardware-Anbieter zu spüren bekommen, prognostiziert Sonya Huang, Partnerin beim Finanzinvestor Sequoia. Der Chip-Hersteller Nvidia <NVDA.O> ist dank seiner marktbeherrschenden Stellung bei Hochleistungsprozessoren für das KI-Training zum weltweit wertvollsten Börsenkonzern aufgestiegen und hat den Einzug in den US-Standardwerteindex Dow Jones geschafft. Bei Spezial-Halbleitern für Inferenz ist die Konkurrenz aber größer. Nvidias Chef Jensen Huang äußert sich dennoch optimistisch über die Aussichten. Die hochmodernen "Blackwell"-KI-Chips seiner Firma seien auch für Inferenz-Berechnungen stark gefragt.
(geschrieben von Hakan Ersen. Redigiert von Olaf Brenner. Bei Rückfragen wenden Sie sich bitte an unsere Redaktion unter berlin.newsroom@thomsonreuters.com (für Politik und Konjunktur) oder frankfurt.newsroom@thomsonreuters.com (für Unternehmen und Märkte).)