Je mehr KI mit KI-erzeugten Daten trainiert wird, desto seltsamer sind die Ergebnisse.
Large Language Models (LLM) wie ChatGPT schlugen bei ihrer Präsentation vor gut zwei Jahren ein wie eine Bombe. Die Begeisterung über die zuvor noch nie gesehenen Fähigkeiten, verbunden mit der Phantasie zukünftiger Einsatzmöglichkeiten, war riesengroß. Künstliche Intelligenz werde die Welt verändern, waren (und sind) sich Experten einig.
Mittlerweile ist der Hype abgeebbt. Zwar halten KI-Systeme mehr und mehr Einzug in alltägliche Anwendungen, doch Kritik und Skepsis nehmen zu. Künstliche Intelligenz unterstützt Ärzte beim Auswerten medizinischer Daten, Asset Manager durchforsten mit KI Unternehmensberichte (beide Berufsgruppen treffen aber letztendlich menschliche Entscheidungen), um nur zwei sinnvolle Beispiele zu nennen. Fraglich ist andererseits, wie viele (vor-)wissenschaftliche Arbeiten und Hausaufgaben noch dem menschlichen Gehirn entstammen.
KI ist ein Datenstaubsauger
Für ihr Training und ihre Antworten benötigt Künstliche Intelligenz riesige Mengen an qualitativ hochwertigen menschengemachten Daten, die sie sich aus dem Internet holt (und dabei auch Urheberrechte verletzt). Derzeit sind die meisten dieser Daten noch menschlichen Ursprungs und verfügen, dank den enormen Fähigkeiten unseres Gehirns, über unübertroffene Einzigartigkeit. Mit der vermehrten Nutzung von KI steigt jedoch auch die Anzahl der KI-generierten Texte, Bilder und Videos im Internet. Und je mehr KI mit KI-generierten Daten trainiert, desto seltsamer werden die Antworten und Ergebnisse.
KI wird verrückt
Wie das US-Magazin „Futurism“ schreibt, passieren seltsame Dinge, wenn man Künstliche Intelligenz mit Daten füttert, die von KI-Systemen erzeugt wurden. In Experimenten von Datenforschern dauerte es nur fünf Durchgänge bis die KI „verrückt“ wurde. Sowohl Bild- als auch Sprachmodule lieferten groteske Ergebnisse, wenn sie mit ihren eigenen Erzeugnissen gefüttert werden. US-Forscher haben für diese Art der Dateninzucht den Begriff „Model Autophagy Disorder“, kurz „MAD“, geprägt. Ein weiterer Effekt ist, dass bestimmte Charakteristika und Vorurteile weiter verstärkt werden.
KI verzehrt sich selbst
Die Studie „Self-Consuming Generative Models Go MAD“ betrachtet was passiert, wenn beliebte Bildgeneratoren wie Midjourney oder DALL-E immer wieder mit eigenen Daten gefüttert werden. Es kommt zu einer autophagen, also selbstverzehrenden bzw. selbstverstümmelnden Feedbackschleife. Das Fazit: Erhalten die Modelle nicht genügend echte (menschengemachte) Daten, entstehen mit jedem Durchlauf zunehmend schlechtere Ergebnisse.
Entweder nimmt die Bildqualität ab oder es entsteht nur mehr Einheitsbrei. Bilder von Menschen sind meistens mit einem Lächeln versehen, der Himmel strahlend blau und Büros saubere, strahlend weiße Orte. Damit kennt die Künstliche Intelligenz nur lächelnde Menschen, blaue Himmel und saubere Büros – besonders, wenn sie immer wieder mit den eigenen Daten gefüttert wird. Ausgebeutete Fabrikarbeiter und Müllhalden werden kaum noch generiert.
KI steht zunehmend in der Kritik
Kunstschaffende und Autoren kritisieren beispielsweise, dass ihre Bilder und Texte im Internet als Basis für KI-Erzeugnisse dienen. Dazu kommt der enorme und weiter wachsende Energie- und Wasserbedarf der für den Betrieb von KI-Systemen erforderlichen Rechenzentren. Eine Suchmaschinenanfrage, die mithilfe von KI beantwortet wird, benötigt etwa zehnmal so viel Energie wie eine herkömmliche Antwort. Selber denken spart Energie. Ganz zu schweigen vom KI-Einsatz in der Kriegsführung (der übrigens im EU-AI Act ausgespart wird).
Dieser Beitrag ist erstmals im Börsen-Kurier Nr. 34-35 vom 22. August 2024 erschienen.