Warum wir unser Hirn nicht an die Maschine abgeben dürfen

Autor
MMag. Romana Hoffmann, Kommunikation & KI-Management
Kategorien
Künstliche Intelligenz
Veröffentlicht am 8. Oktober 2025
Schreibmaschine mit Satz

Ein aktueller Fall aus Australien zeigt, wie riskant der unreflektierte Einsatz von KI in professionellen Kontexten sein kann – und wie dringend wir Menschen lernen müssen, mit diesen Werkzeugen verantwortungsvoll umzugehen.

Laut einem Artikel von orf.at musste das Beratungsunternehmen Deloitte der australischen Regierung Geld zurückerstatten, nachdem ein Bericht, der für rund 250.000 Euro in Auftrag gegeben wurde, gravierende inhaltliche Fehler enthielt. Das Dokument wurde offenbar teilweise mit generativer KI erstellt – und enthielt falsche Zitate, erfundene wissenschaftliche Quellen und sogar fehlerhafte juristische Verweise.

Inhaltlich mangelhaft erstellt wegen blinder KI-Nutzung
Die Kritik kam von Wissenschaftlern, die den Bericht als „inhaltlich mangelhaft“ bezeichneten. Besonders brisant: Der Bericht sollte die Rechtskonformität eines Systems prüfen, das Tausende Menschen betrifft – und versagte genau dort, wo höchste Sorgfalt geboten gewesen wäre.

KI-Gatsch ist kein technisches Problem – sondern ein menschliches
Der Begriff „AI Slop“ oder „KI-Gatsch“ steht mittlerweile für eine Flut an minderwertigen, künstlich generierten Inhalten, die sich in sozialen Medien, Werbung und sogar in politischen Diskursen ausbreiten. Doch der Fall Deloitte zeigt: Der Gatsch entsteht nicht durch die Technologie selbst, sondern durch ihren unsachgemäßen Einsatz.

KI-Sprachmodelle sind leistungsfähig, aber sie halluzinieren

Sie erzeugen plausible, aber falsche Inhalte, wenn ihnen das nötige Wissen fehlt. Das ist kein Bug, sondern ein systemimmanentes Verhalten. Wer diese Tools nutzt, muss das wissen. Und wer sie in kritischen Bereichen einsetzt, muss sie kontrollieren, prüfen und hinterfragen. Die eigentliche Schwäche liegt nicht in der KI, sondern in der menschlichen Sorglosigkeit, Unwissenheit oder Bequemlichkeit. Wer KI nutzt, ohne zu verstehen, wie sie funktioniert, gibt nicht nur Kontrolle ab – sondern auch Verantwortung. KI darf niemals Ersatz für menschliches Denken und Urteilsvermögen sein. Sie ist ein Werkzeug – kein Entscheider.

Was für Entscheider und Führungskräfte zu tun ist

Sensibilisierung: Unternehmen kommen nicht darum herum ihre Mitarbeitenden im Umgang mit KI zu schulen – nicht nur technisch, sondern auch ethisch und kritisch.
Qualitätskontrolle: KI-generierte Inhalte müssen denselben Prüfprozessen unterliegen wie manuell erstellte Dokumente.
Transparenz: Der Einsatz von KI muss offengelegt werden – intern wie extern.
Verantwortungskultur: Entscheidungen, die Menschen betreffen, dürfen nicht automatisiert und unreflektiert getroffen werden.

Fazit:
KI ist ein mächtiges Werkzeug – aber es bleibt ein Werkzeug. Wer es nutzt, muss wissen, was er tut. Die Verantwortung liegt beim Menschen. Und der darf sein Hirn nicht an die Maschine abgeben.