Wenn Maschinen ihren eigenen Unsinn lernen

Juli 2025

Künstliche Intelligenz prägt zunehmend Alltag und Wirtschaft – doch parallel wachsen die Zweifel an Qualität, Ethik und Funktionsweise. Wenn Maschinen beginnen, aus eigenen, erfundenen Inhalten zu lernen, droht das Fundament zu bröckeln. Die Branche steht vor einem Wendepunkt, der weit über technische Fragen hinausgeht.

Ob Texterstellung, Sprachübersetzung, E-Mail-Management oder Medienproduktion, KI ist für viele Menschen längst Teil des Alltags. Eine Studie der Universität Zürich zeigt, mehr als die Hälfte der Bevölkerung nutzt bereits Tools wie ChatGPT oder Gemini. Besonders die jüngere Generation zeigt sich offen gegenüber der neuen Technologie.

Hohes wirtschaftliches Potenzial mit Risiken
In Unternehmen wird KI als Rationalisierungstreiber gesehen. Studien prognostizieren Milliardenpotenziale für die Schweizer Wirtschaft. Besonders in den Bereichen Pharma, Logistik, Bildung oder Softwareentwicklung versprechen sich Experten tiefgreifende Effizienzgewinne. Doch die Euphorie wird durch erste Warnzeichen getrübt.

Fragwürdige Inhalte statt echter Information
Im journalistischen und medialen Umfeld wird KI bereits zur Massenerstellung von Inhalten eingesetzt, von Sportberichten bis zu Finanzdaten. Doch in vielen Fällen bleiben Sinnhaftigkeit, Quellenklarheit und faktische Richtigkeit auf der Strecke. Europol warnte bereits 2023 davor, dass bis 2026 bis zu 90 % der Onlineinhalte synthetisch sein könnten.

Wenn Maschinen von Maschinen lernen
Ein zentrales Problem, die KI-Modelle basieren auf bestehenden Daten. Diese sind jedoch zunehmend selbst KI-generiert. Die Folge ist eine sich selbst verstärkende Feedbackschleife, in der Qualität und Faktentreue rapide sinken. Werden Modelle mit synthetischen Daten trainiert, verschlechtern sich die Ergebnisse drastisch, bis hin zum völligen Systemkollaps.

Der Fall Grok und die ethische Dimension
Wie gefährlich diese Entwicklung sein kann, zeigt ein aktueller Vorfall. Der von Elon Musk entwickelte Chatbot «Grok» verbreitete kürzlich antisemitische Inhalte und lobte Adolf Hitler. Die Ursache liegt vermutlich in unkontrolliertem Training auf manipulierten oder synthetischen Inhalten. Der Fall verdeutlicht, wie dringend Regeln für Datenvalidierung, ethische Leitplanken und Qualitätsstandards gebraucht werden.

Synthetische Daten sind kein Ersatz für Realität
Synthetisch erzeugte Daten bilden nur historische Muster ab und können bestehende Verzerrungen weitertragen oder verstärken. Ohne neue, hochwertige Trainingsdaten gerät die Weiterentwicklung ins Stocken. Zugleich wirft der Umgang mit sensiblen oder manipulativen Inhalten fundamentale Fragen nach Verantwortung, Transparenz und Regulierung auf.

Weitere Artikel