2023-01-05

ChatGPT 

Heute war über eine ganze Seit ein Artikel in der „Zeit“, in dem es darum ging, welche Begriffe oder Gegenstände politisch links oder rechts seien. ‚Rose’ sei links, ‚Tulpe‘ sei rechts. Ermittelt hat das der Journalist mittels ChatGPT, einer öffentlich verfügbaren Künstlichen Intelligenz von OpenAI, die gerade die Presse begeistert besprochen wird als besser als alles, was es bisher gab.
Wen wundert’s, wenn es mich da schauert.

Künstliche Intelligenz (KI) berechnet aus Unmengen von Daten Zusammenhänge, die sich dann zu konkreten Aussagen verdichten lassen. KI kann Industrieprozesse stabilisieren, die chemische und pharmazeutische Forschung enorm beschleunigen, Verkehrsverhalten vorhersagen, Kriminalität prognostizieren, … sie kann auch die Lebensentwicklung von Menschen vorhersagen und damit Menschen schon in jungen Jahren auf den für sie richtigen Ausbildungsweg verweisen oder Versicherungen Prämienvorschläge machen.

Wie wäre es, wenn die Bahn oder Fluggesellschaften ChatGPT befragen, wen sie lieber nicht mitnehmen sollte? Oder die Polizei, wer wohl ein Verbrecher ist? Oder Journalisten sich in ChatGPT ihre Meinung über die Menschen bilden, über die sie schreiben? Sich gar ihre Artikel von ChatGPT schreiben lassen? Und sich selbst dabei überflüssig machen?

Man kann ChatGPT als hilfreiches Werkzeug sehen, um Menschen zu ersetzen. Bei Hilfeanrufen, wenn Menschen wieder eine Software nicht verstehen, bei Behörden, bei Krankenhäusern. Doch ist das gut? Was einen Mangel mit Automaten löst, macht den Mangel nur schlimmer, kein Programmierer wird sich mehr darum kümmern, verständlich zu sein, ChatGPT löst das schon. Keine Behörde wird sich mehr um Verständlichkeit kümmern, ChatGPT übernimmt das. Kurz; ChatGPT wird eher zur Verwahrlosung beitragen als zur Servicequalität.

Man kann ChatGPT einsetzen, um Risiken zu ermitteln. Entscheidungen zu fällen oder Dinge zu prognostizieren. Hier schlägt die Eigenschaft von KI zu, dass sie keine Zukunft kennt. KI kann stets nur die Vergangenheit bewerten, KI kennt keine Hoffnung und keinen Glauben. KI ist unfähig, Veränderung zu denken. Entscheidungen werden also stets als Optimierung fallen. Das mag oft ein Vorteil sein, ist aber stets auf einem Auge blind, da KI nur die Parameter einbeziehen kann, die sie geübt hat und die kennen die Anwender nicht.

Man kann ChatGPT einsetzen, um Dinge zu bewerten. Wie die Sache mit den Gegenständen, on sie links oder rechts sind. Aber genauso, um Preise zu ermitteln, um Aussagen zu überprüfen. Die Presse jubelt schon, ChatGPT wird Google ablösen, mit einer viel weiter gehenden Kompetenz. Wahrheiten zu finden, auch bei unscharfen Fragen. Dann erhalten wir eine unkontrollierbare Wahrheitsmaschine. Der Mensch neigt dazu, sich auf unverstehbare Wahrheitsgeber zu verlassen. Auf Götter, auf Populisten, auf das geschrieben Wort. Sobald nicht nachweisbar ist, wo eine genehme Wahrheit herkommt, wird sie für gegeben eingestuft. Zweifeln ist viel zu anstrengend.

Aber ChatGPT kennt keinen Diskurs. Kennt nicht die Bedeutung von Meinung und Meinungsfindung und kennt nicht das Umgehen mit Unsicherheit, das mit Glaube und Hoffnung einhergeht. Genau das sind aber die Trigger von Innovation.

ChatGPT ist das Gegenteil von Innovation. Es ist eine autoritäre Anwendung mit Anspruch auf Wahrheit, die sich auf den Wissensfundus der Vergangenheit bezieht und keine Zukunft kennt. Vergleichbar mit der verführerischen Welterklärung der Inquisition oder der Kommunistischen Partei Chinas. Eine Wahrheitsdroge. Aber eben eine Droge.

Admin - 21:31:25 | Kommentar hinzufügen

Kommentar hinzufügen

Die Felder Name und Kommentar sind Pflichtfelder.

Um automatisierten Spam zu reduzieren, ist diese Funktion mit einem Captcha geschützt.

Dazu müssen Inhalte des Drittanbieters Google geladen und Cookies gespeichert werden.