Das ist die Art von Frage, die man stellen muss, um zu erkennen wie intelligent ChatGPT tatsächlich ist. Für uns ist klar, wir brauchen nur die 6 auf den Kopf zu stellen und schon steht da die Zahl 9. Aber warum scheitert eine derart mächtig geglaubte KI an so einer leichten Aufgabe?
Warum so ein Hype?
Viel vom derzeitigen Hype ist gutes Marketing. Extreme Schlagzeilen erhalten Aufmerksamkeit. Aber können wir das, was gesagt wird auch anders interpretieren? Erkennen wir die Interessen hinter den Botschaften?
„Das Ding ist so gut, dass es eigentlich verboten gehört!“ Wie könnte man besser zum Ausdruck bringen, dass man der Konkurrenz scheinbar meilenweit voraus ist?
„Wir brauchen jetzt ein Moratorium, damit die Politik aufholen kann. Es sollen 6 Monate lang keine Modelle mehr trainiert werden dürfen, die mächtiger sind als GPT-4.“ oder anders gesagt: Wir hätten gerne, dass uns 6 Monate lang niemand Konkurrenz macht, damit wir unseren Wettbewerbsvorteil festigen und unseren Vorsprung halten können. Wenn es doch jemand macht, bekommt er das Schild „Bösewicht“ umgehängt.
Die Gefahr ist real – aber anders als wir glauben
Wer kennt das nicht? Die Geschichte von der Künstlichen Intelligenz, die außer Kontrolle gerät und die Menschheit versklavt. Ist das realistisch? Nein, das ist Science-Fiction. Das ist was wir in Hollywood Filmen zu sehen bekommen.
ChatGPT ist ein beeindruckendes Tool. Wir können etwas eingeben und bekommen dann eine Antwort, bei der wir das Gefühl haben, dass wir verstanden wurden. Die Antwort fühlt sich richtig an. Das funktioniert mit einem hochentwickelten Sprachmodell und einer gigantischen Menge an Daten, die man zum Trainieren des Modells verwendet hat.
Wir sollten uns jedoch auch damit beschäftigen was ChatGPT nicht kann. Das Tool kann keine Vorhersagen machen. Es kann keine neuen Erkenntnisse gewinnen. Es kann sich auch nicht selbst weiterentwickeln. Um ein Beispiel zu nennen: Man kann damit eine Zusammenfassung von einer wissenschaftlichen Arbeit generieren lassen, aber ChatGPT lernt dadurch nichts über den Inhalt und kann auch keine neuen Schlussfolgerungen daraus ziehen.
Wenn wir wissen wollen, was die Gefahren sind, dann können wir uns ansehen, wo ein Einsatz denkbar wäre: Schüler:innen könnten ChatGPT nutzen, um zum Beispiel Aufsätze oder Referate zu schreiben. Das ist vielleicht faul, aber nicht sonderlich gefährlich. Was ist aber, wenn das, was von der Künstlichen Intelligenz generiert wurde, von Vorurteilen oder einer bestimmten ideologischen Sicht geprägt ist? Wenn wir das zu Ende denken, dann bekommt das Unternehmen dahinter einen wesentlichen Einfluss auf die Meinungsbildung. Es entscheidet mit, was ein Schüler im Unterricht vorträgt.
Regulierung, Transparenz, KI-Haftung
Das Beispiel zeigt, dass Regulierung und Transparenz wichtig sind. Auf EU-Ebene wird derzeit der Artificial Intelligence Act verhandelt. Dieser sieht einen risikobasierten Ansatz vor. Je mehr Gefahren von einem KI-System ausgehen, desto mehr Handlungspflichten werden dem Betreiber auferlegt. Das ist der erste Schritt.
Im zweiten Schritt geht es darum, dass man Geschädigten auch eine Möglichkeit verschafft, Ansprüche zivilrechtlich geltend zu machen. Dafür wurde mit der „Artificial intelligence liability directive“ ein Richtlinienvorschlag für KI-Haftung im September 2022 von der EU-Kommission gemacht.
Bis das beschlossen und umgesetzt wird, wird es noch einige Zeit dauern. Bis dahin gilt es einen kühlen Kopf zu bewahren. Denn eines wird ganz sicher passieren: Die großen Player werden mit allen Mitteln versuchen, den Regulierungsprozess zu ihrem eigenen Vorteil zu beeinflussen.