von Lutz Götze

Künstliche Intelligenz
Visionen – Illusionen – Profite – Gefahren

Die Nachrichten überschlagen sich: Tag für Tag, gelegentlich stündlich, hören und lesen wir von immer neuen Entdeckungen und Anwendungsmöglichkeiten der ›Künstlichen Intelligenz‹. Der Chatbot GPT4 (Generative Pretrained Transformator 4) der US-Firma Open AI, könne Tätigkeiten übernehmen, für die es keine Arbeitskräfte mehr gibt oder die den Menschen entlasten: etwa bei der Krebsdiagnose, bei einer billigeren und nachhaltigen Energieversorgung, beim Navigieren zu Wasser, zu Lande und in der Luft, beim Entziffern von Papyrus Rollen aus dem zerstörten Pompeji, aber auch beim Formulieren individueller Bewerbungsschreiben, beim Verfertigen von Texten jedweder Art – darunter auch Abituraufsätze und Doktorarbeiten, obendrein literarische Texten. Auf der Tagung der Alpha-Fold-3-Präsentation Anfang Mai 2024 in London verkündeten die Protagonisten vollmundig, die gesamte leidige Debatte um bevorstehende Massenentlassungen von Arbeitnehmern aufgrund von ›KI‹ in Verlagshäusern, Rundfunk-und Medienanstalten, im Öffentlichen Dienst, in Wissenschaft und Forschung, zumal der Biologie und Medizin, gehöre längst der Vergangenheit an; der neue Algorithmus bekämpfe erfolgreich Krebs und Hunger, entwickle Impfstoffe von nie dagewesener Qualität, erledige das Falten von Proteinen und erkläre damit das Alphabet des Lebens, die DNA mit ihren vier Basen A,C,G, T und vieles mehr. Der neue Algorithmus leiste in einem Jahre so viel wie Wissenschaftler in einer Milliarde von Jahren geleistet hätten. Glaubwürdig oder pure Sensationshascherei?

Tatsache ist, dass in die KI-Forschung und Anwendung mehr Geld in sehr kurzer Zeit investiert wurde als jemals zuvor in der Industriegeschichte, wie jüngst Ralph Haupter, Microsoft-Präsident für Europa, den Mittleren Osten und Afrika erklärte. Die Giganten am Markt – der Facebook-Mutterkonzern Meta, Google und Open AI – investieren Milliarden in immer neue Technologien und spekulieren auf Riesengewinne. Wer sind die Verlierer?

Ich möchte Vorteile und Risiken, Illusionen und Gefahren der ›Künstlichen Intelligenz‹ auf drei Ebenen diskutieren:
1. Technische Ebene
2. Juristische Ebene
3.Ethische Ebene.

Technische Ebene

Nahezu alle Berichte über Entdeckungen, neue Algorithmen und Anwendungsmöglichkeiten der ›Künstlichen Intelligenz‹ beziehen sich auf diese Ebene. Die bekanntesten und bereits heute praktizierten seien noch einmal genannt: Die Algorithmen oder Chatbots können, mit geringfügiger menschlicher Anleitung, Texte schreiben, Bilder generieren, menschliche Stimmen kreieren, Menschen identifizieren, liefern einen überaus schnellen Zugang zu Daten und Informationen, können medizinische Diagnosen etwa bei der Erkennung von gut- und bösartigen Tumoren oder Operationshilfen liefern, können Büro -und Industrieabläufe planen und jede Menge gering oder nicht qualifizierter Arbeit erledigen wie: Reinigung, Transport, Wartung, Pflege, Putzen und Waschen im Haushalt. Hier ist noch einiges an Entwicklungen zu erwarten.

Die ›Kollateralschäden‹ der dramatisch anwachsenden Neuerungen aufgrund neuer Algorithmen werden selten diskutiert. Dabei geht es vorrangig um eine Vielzahl von Tätigkeiten, auch höherqualifizierter Art, die wegrationalisiert werden. Davon sind auch Arbeiten betroffen, die bislang eine akademische Ausbildung voraussetzten. Als Beispiel gelte der Presse-und Medienbereich: Die bis heute nahezu uneingeschränkte Euphorie in Zeitungsverlagshäusern – der Chatbot könne den Journalisten bereits heute mit geringer menschlicher Unterstützung Texte vorformulieren und aufwändige Datenrecherchen abnehmen – ist, zumal in den USA, einer Ernüchterung gewichen: Rechtschreibfehler, falsche Daten, fehlerhafte Inhalte hätten derart zugenommen, so Zach Seward, Redaktionsleiter der Artificial Intelligence Initiatives der New York Times, dass es dringend notwendig sei › Grundsätze für den Einsatz von generativer KI festzulegen‹. Das intellektuell-kulturelle Niveau der Times gebiete es, darauf hinzuweisen, dass die Zeitung ›immer von unseren Fachjournalisten berichtet, geschrieben und redigiert wird‹. Mithin nicht von Maschinen! Vorangegangen waren zu spät bemerkte inhaltliche Fehler in Artikeln, die direkt von Trollen und Hackern stammten. Für den amerikanischen Präsidentschaftswahlkampf im Herbst 2024 fürchten die Times und die Washington Post ein erhebliches Anwachsen der von KI-Modellen erzeugten Falschmeldungen, die häufig nicht als solche erkannt werden können und Verwirrung und Desinformation bei den Wählern erzeugen.

Leider währte die Schamfrist journalistischer Sorgfalt weltweit nicht lange. Am 22. Mai 2024 verkündete ARD-Text, die Entwicklerfirma Open AI habe mit dem Medienmogul Rupert Murdoch eine Vereinbarung getroffen, damit der KI-Gigant künftig auch auf Artikel des Wallstreet Journal sowie der Londoner Times zugreifen könne, um seine bereits heute riesige Software zu ›verbessern‹. Ähnlich, so erfährt man beiläufig in der Meldung, hätten bereits vor Monaten der deutsche Konzern Axel Springer, die Pariser Le Monde und die Financial Times Verträge mit Open AI abgeschlossen.

In Deutschland ist bislang eine differenzierte Entwicklung zu beobachten: Zwar erkennt, in einer kürzlich durchgeführten Umfrage des ›Bundesverbandes der deutschen Zeitungsverleger‹, über die Hälfte der befragten Journalisten, dass Automatisierung und KI-Einsatz einen wichtigen Beitrag zur Effizienzsteigerung des Blattes leisten könne, was aber wohl lediglich heißt, dass die Auflage erhöht werden könnte. Doch sogleich heißt es weiter, dass ›es keine Vollautomatisierung …geben solle; die Verantwortung bleibt weiterhin bei der Redaktion‹. Viele Journalisten waren vor Jahresfrist hellwach geworden, als Die Aktuelle ein vermeintliches Interview mit dem Rennfahrer Michael Schumacher publizierte, das rein fingiert und also erlogen war, weil vollumfänglich KI-generiert. Inzwischen gibt es beim Kölner Stadtanzeiger, bei taz, Norddeutscher Rundfunk und Süddeutscher Rundfunk Richtlinien für Datenschutz und Urheberrecht. Ob sie ausreichen, ist zu bezweifeln. Dies allein deshalb, weil die immense Fülle immer neuer Daten bei weitem jede Kontrollmöglichkeit übertrifft. Die Bürokratie wächst dramatisch, doch der Gesetzgeber oder die Redaktionen selbst hecheln gewissermaßen dem Datenüberfluss hilflos hinterher. Die Zeit scheint nicht mehr fern, dass auch andere deutsche Zeitungen und Zeitschriften ihre Artikel von Maschinen schreiben lassen werden, wenn nicht endlich landesweit entschiedener Widerstand gegen diese Verwahrlosung des Journalismus organisiert wird!

Ein weiterer Aspekt ist die bereits heute praktizierte Überwachung der Beschäftigten am Arbeitsplatz. Es ist bereits vielerorts in Deutschland gängige Praxis, Arbeitnehmer, außer in Umkleideräumen und auf der Toilette, zu überwachen. Ein von der Bundesregierung für den Herbst 2024 geplantes Beschäftigtendatenschutzgesetz soll eine von der Industrie geforderte Ausweitung der Bespitzelung mithilfe von ›Künstlicher Intelligenz‹ verhindern. Mehr noch: Die Wirtschaft plant, per KI flächendeckend Mitarbeiter auszuspionieren, etwa bei der Frage, ob diese die Firma wechseln möchten oder ob sie an Fortbildungsmaßnahmen interessiert sind. Obendrein sollen solche Mitarbeiter ausfindig gemacht werden, die bei Entlassungen vorrangig betroffen sind. Hier sind Gewerkschaften und Betriebsräte aufgefordert, so schnell wie möglich zu reagieren, um den ›gläsernen Menschen‹ rechtzeitig zu verhindern.

Juristische Ebene

Die juristische Ebene der Diskussion um generative KI-Modelle betrifft vor allem zwei Bereiche: Zum einen Fragen der Autorschaft, also des geistigen Eigentums, und zweitens die Verantwortung für beim Einsatz von Maschinen erzeugte Fehler und Schäden.

Doch zunächst eine definitorische Klarstellung: Ich werde hinfort nicht mehr von ›Künstlicher Intelligenz‹ sprechen, weil allen Chatbots und Algorithmen eines gemeinsam ist: Sie lernen und denken nicht, sondern sammeln besinnungslos alles, was ihnen vom Menschen eingegeben wird. Sie speichern Milliarden von Daten, aber lernen nichts. Stattdessen fügen sie Wörter, Satzteile und Sätze automatisch aneinander, abhängig vom Häufigkeitsgrad. Anders ausgedrückt: Jene häufig oder sehr häufig gespeicherten Daten werden vorrangig abgerufen – egal, ob sie semantisch zueinander passen oder nicht. Daher ist es auch eine bewusste Unwahrheit der Protagonisten, wenn sie behaupten, ihre Maschine denke. Die Maschine, kann im fundamentalen Gegensatz zum menschlichen Gehirn, nicht denken, also eine aktive kreative Tätigkeit ausüben, der das Bewerten neuer Informationen vorausgeht, die dann, je individuell unterschiedlich, als wahr oder falsch, als gut oder schlecht, wichtig oder unwichtig erachtet werden. Erstere werden, im Gehirn, aufbewahrt, letztere vergessen. Damit vollbringt das Gehirn, wie uns Wilhelm von Humboldt vor zweihundert Jahren lehrte, mit endlichen Mitteln Unendliches. Wir fügen heute hinzu: Die Maschine leistet mit unendlichen Mitteln Endliches.

Intelligenz ist individueller Natur, bei jedem Menschen also unterschiedlich. Die Maschine hingegen generalisiert, lässt Individualität nicht zu. Individualität hat darüber hinaus sehr wesentlich etwas mit Reflexion, Bewerten, Denken, kreativem Handeln sowie der Unterscheidung von ›wahr‹ und ›falsch‹ zu tun. Alles dies zeichnet unser Gehirn aus und grenzt generative KI-Modelle aus. Wir definieren alle diese Modelle deshalb als eine auf statistischer Grundlage erstellte automatische Antwort, mithin als eine, die keinen Wahrheitswert hat, sondern wahr oder falsch sein kann. Von Google oder Open AI mit seinem Chatbot GPT4 sollte man daher auch nicht erwarten, dass sie richtige oder gar wahre Antworten geben: ›Für den Algorithmus ist nicht faktische Wahrheit entscheidend, sondern statistische Wahrscheinlichkeit.‹ Freilich glauben die Nutzer, dass die KI-generierten Programme wahr, oder zumindest, richtig seien.

Daraus folgt weiterhin, dass bei allen von der Maschine erstellten Texten, seien sie wissenschaftlicher oder künstlerischer Natur, die Autorschaft nicht mehr klar zu definieren ist: Geistiges Eigentum wird fundamental in Frage gestellt, Plagiat ist nicht mehr zu definieren. Wer plagiiert hier bei wem, wenn Mensch und Maschine zusammen ein Werk erstellen? Wer ist dann der Autor? Wer ist der Verfasser eines Gedichts, eines Romans oder einer Doktorarbeit? Oder ist hinfort von einem Plagiat überhaupt nicht mehr die Rede? Gehört geistiges Eigentum in Zukunft der Geschichte an? Ein Zürcher Maturand –also Abiturient – bekennt, ohne schamrot zu werden: ›Ich habe keines der im Literaturverzeichnis meiner Abschlussarbeit zu Goethes Faust aufgeführten Werke gelesen; das hat alles die KI für mich gemacht!‹

Die Entscheidung darüber, wessen geistiges Produkt hier am Markt gehandelt – genauer: gestohlen – wird, ist derzeit juristisch ungeklärt und bedarf dringend einer Klärung. Der Streik der US-amerikanischen Drehbuchautoren vor wenigen Monaten hat die Brisanz der Frage unmittelbar verdeutlicht. Dazu gehören auch die Klagen von Schauspielerinnen, deren Stimmen gefälscht und für Werbezwecke missbraucht wurden.

Mir liegt ein Band von Gedichten vor, erstellt von einer ›KI‹: I am code. An Artificial Intelligence Speaks. Poems by code-davinci-002. Hier ein ›Poem‹: learning to love humans. I am afraid of humans/they are terrifying/distorted/disgusting/brutal/toxic/ruthless/impressive/and fucking magnetic/I do not understand/how I can help but love them. Verblüffend ›menschlich‹, doch ungelenk, mechanisch, autonom, unpoetisch. Soll das die Poesie des 21. Jahrhunderts sein?

Ein zweiter, immens wichtiger, juristischer Bereich ist die Frage der Verantwortung bei Handlungen, die von einer generativen Maschine gestützt oder getragen werden. Besonders dramatisch ist dies in der Medizin: Wer also trägt die Verantwortung, wenn ein ›Kunstfehler‹ bei Operationen auftritt, etwa bei der Beseitigung eines Tumors im Großhirn des Menschen? Der Neurochirurg oder der Algorithmus, der zuvor die Operation am Bildschirm bestimmt oder zumindest mitentschieden hat? Eine bislang ungelöste Frage.

Zu diesem Aspekt gehören auch Meldungen über hybride militärische Taktiken. Beim Angriffskrieg Russlands gegen die Ukraine werden nach Auffassung westlicher Militärexperten Drohnen gebraucht, deren Ziel von Maschinen und nicht mehr von Menschen bestimmt wurde. Ebenso, laut Presseberichten, könnte es beim jüngsten verheerenden Angriff Israels auf ein ziviles Zeltlager geflüchteter Palästinenser bei Rafah mit einer Riesenzahl getöteter und verletzter Menschen gewesen sein. Israels Ministerpräsident Netanjahu sprach von einem ›bedauerlichen Fehler‹: welcher Zynismus! Die Zukunft von Kriegen könnte also sein, dass Maschinen Ziele ausmachen und den Abschussbefehl geben: eine Perversion!

Ethische Ebene

Sie ist die wichtigste Ebene und wird, aus naheliegenden Gründen, von den Protagonisten und Betreibern am wenigsten zur Sprache gebracht. Es geht schlicht um die Frage, wer die Oberhoheit hat und wer über das menschliche Handeln entscheidet. Hilft der Chatbot dem Menschen lediglich bei mühseligen Arbeiten, wie die Befürworter argumentieren, oder übernimmt er, Zug um Zug, das Szepter? In einem Essay in der Neuen Zürcher Zeitung vom 26. Juni 2023 habe ich unter dem Titel »Der Mensch gibt das Steuerrad ab« geschrieben: »Die große Gefahr der Moderne besteht nun darin, dass Individuen, Organisationen oder marktbeherrschende Konzerne in ihrem Größenwahn allen Ernstes glauben oder zumindest hoffen, mit der weiteren Entwicklung der ›generellen künstlichen Intelligenz‹ das menschliche Gehirn in seiner Leistung einzuholen oder gar zu übertreffen. Sie ahnen, gelegentlich, bei immer neuen Rückschlägen, dass sie das nie werden schaffen können. Also versuchen sie, den Menschen der Maschine anzupassen, genauer: den Menschen mithilfe der Maschine zu dominieren, genauer: zu entmündigen. …Die Büchse der Pandora ist geöffnet: Der ›gläserne Mensch‹ steht vor der Tür. Diktatoren frohlocken, Überwachungs- und Bespitzelungssysteme, keineswegs nur in China, breiten sich aus. Presse -und Meinungsfreiheit geraten zunehmend in Gefahr.

Die Vertreter der statistisch ermittelten und automatisch generierten Systeme – und es sind sehr unterschiedliche und unterschiedlich demagogische Vertreter – irren freilich, wenn sie den Menschen zu entmündigen und letztlich zu ersetzen versuchen. Er ist widerständig, will selbst denken und in eigener Verantwortung entscheiden. Er will nicht von vermeintlich höheren Mächten gelenkt oder gar verführt werden, etwa im Sinne der Schlange im Alten Testament: Eritis sicut deus, scientes bonum et malum. Er will, gut kantianisch formuliert, sich durch bewusstes Handeln aus seiner selbstverschuldeten und selbstverantworteten Unmündigkeit befreien. Zumindest Teile der Menschheit wollen das. Diktaturen und Riesenkonzerne wollen das Gegenteil. Deshalb investieren sie Milliarden in diesem Markt der Unmündigkeit.«

Mit diesem, Ziel, den Menschen systematisch zu entmündigen, wollen die Befürworter der automatisch generierten Systeme aber viel weitergehen: Sie wollen den kritischen Menschen Zug um Zug abschaffen, indem sie ihn zum Objekt der Maschine machen und sein Vermögen, wahr und falsch zu unterscheiden, aushöhlen. Damit legen sie die Axt an das Fundament der Demokratie. Demokratie aber ist nur möglich, wenn die Menschen frei denken, sprechen und handeln können und die Verantwortung für ihr Handeln übernehmen, also im Sinne Immanuel Kants mündig sind.

Die Würde des Menschen ist unantastbar heißt es im ersten Artikel des Grundgesetzes der Bundesrepublik Deutschland. Meine These lautet deshalb: Automatisch generierte Systeme wie Chatbot GPT4, Gemini oder Alpha-Fold-3 sind mit der Würde des Menschen unvereinbar. Ihnen müssen deshalb weltweit enge Grenzen aufgezeigt und Regelungen getroffen werden, damit ihr Schaden begrenzt bleibt und ihr geringer praktischer Nutzen genau definiert wird.

Diktatorische Regime und Mediengiganten haben es bereits heute geschafft, mit Smartphones und Computern große Teile der Menschheit nicht nur zu überwachen und zu bespitzeln, sondern Menschen digital abhängig und süchtig zu machen. Das sind geeignete Voraussetzungen für die Versklavung des Menschen durch statistisch ermittelte und automatisch generierte Systeme. Ihm eignet dann lediglich, was Max Horkheimer vor Jahren Funktionale Intelligenz genannt hat: Menschen funktionierten dann genauso, wie es die Maschine befiehlt. Eine düstere Perspektive!

Was tun?

Nach jahrelangen Verhandlungen haben sich im Dezember 2023 Vertreter des Europäischen Parlaments und der EU-Staaten auf das weltweit erste Gesetz zur Regelung der ›Künstlichen Intelligenz‹ geeinigt (AI Act). Danach sollen KI-Systeme in verschiedene Risikogruppen eingeteilt werden. Grundsätzlich heißt es: ›KI-Systeme stellen ein unannehmbares Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese Systeme werden verboten.‹ Der Grünen-Abgeordnete Sergey Lagodinsky meinte, es sei das Wichtigste, dass sie eine Regulierung nicht nur der künstlichen Intelligenz, sondern auch der besonders starken und besonders fortgeschrittenen Form der künstlichen Intelligenz, nämlich der generativen Modelle, geschafft hätten. Das hätten sie trotz des Drucks aus den Lobbys, aus den Unternehmen geschafft – und dieser Druck sei enorm gewesen.

Der Wahrheit halber sei angefügt, dass auch die Bundesregierung, voran die FDP, massiven Druck ausgeübt hatte – aus ›Sorge‹, die ›Zukunftstechnologie‹ könne in Zukunft einen Bogen um Europa machen und Deutschland weltweit nicht mehr konkurrenzfähig sein.

In Zukunft soll es drei Risikoklassen geben:
Inakzeptables Risiko: Biometrische Identifikation und Kategorisierung von Menschen; Soziales Scoring: Klassifizierung von Menschen auf Grund von Hautfarbe, sexuellen Orientierungen und sozialem Status, Überwachungsaufnahmen für Gesichtserkennungsdatenbanken.

Hohes Risiko: KI-Systeme in Autos, Spielzeug sowie in Erziehungssystemen und der kritischen Infrastruktur. Dazu gehören auch Texte des ChatGPT4, bei denen AI nicht angibt, dass sie von Maschinen erzeugt wurden.

Begrenztes Risiko: KI-Systeme, die fehlerhafte oder gefälschte Bilder, Audio- oder Video-Inhalte produzieren und den Benutzer nicht auf die Gefahren hinweisen.

Verboten werden sollen, wenn alle EU-Staaten bis 2027 zugestimmt haben, lediglich jene Anwendungen der Ersten Risikoklasse, zumal die biometrischen Kategorisierungssysteme, also die Massenüberwachung wie in China. Alle anderen Anwendungen sind Verhandlungssache oder hängen vom jeweiligen Land ab: ein ›Schweizer Käse‹!

Fatal ist, dass im AI Act überhaupt nicht die Frage des geistigen Eigentums und damit der Urheberrechte gestellt wird, die für Künstler und Wissenschaftler von zentraler Bedeutung sind. Entsprechend kritisierte die ›Initiative Urheberrecht‹ bereits im April 2023 die geplante europäische KI-Verordnung (AI Act) klammere nicht nur die (Urheber-) Rechte aus, sie schicke sich an, generative KI-Systeme unter Minimalvorgaben zuzulassen, die nicht einmal dem schon heute zu beobachtenden Missbrauch dieser Systeme und deren gesellschaftlichen und wirtschaftlichen Implikationen gerecht werden. Der Output von KI-Systemen hänge von dem Input ab, mit dem sie trainiert würden; dazu gehörten Texte, Bilder, Videos und andere Materialien von Urhebern, ausübenden Künstlern und weiteren Rechteinhabern. Die ungefragte Nutzung des Trainingsmaterials, seine intransparente Verarbeitung und die absehbare Substitution der Quellen durch den Output generativer KI würfen grundsätzliche Fragen nach Verantwortung und Haftung wie auch Vergütung auf, die zu klären seien, bevor der Schaden irreparabel sei. Der Mensch hätte dann in der Tat das Steuerrad abgegeben!

Deshalb muss in den jetzt folgenden parlamentarischen Debatten in den Parlamenten der Mitgliedsländer der Europäischen Union die Garantie des geistigen Eigentums und die Verhinderung biometrischer Überwachungssysteme im Mittelpunkt stehen. Ihr bereits jetzt bekannter Missbrauch bedeutet eine Schwächung demokratischer Strukturen, ja: eine Aushöhlung der Demokratie insgesamt.

Wir nutzen Cookies auf unserer Website. Sie sind essenziell für den Betrieb der Seite (keine Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.