top of page

Chat GPT – Was ist Wahrheit?

von Johannes Brill




Vor mehr als einem Jahr wurde von dem US-Amerikanischem Start-Up Open AI das KI-Modell Chat GPT veröffentlicht. Was Digitalisierungsexperten vor fünf Jahren noch prognostiziert haben, erreicht mit dem Release von Chat GPT 3.5 den breiten Markt. Seit der Einführung von Chat GPT hat sich die Art und Weise, wie Menschen mit künstlicher Intelligenz interagieren, grundlegend verändert. Chat GPT ermöglichte eine zuvor von keinem KI-Modell erreichte Interaktivität und Personalisierung im Umgang mit KI-Modellen. 

Die Frage, ob KI in der Zukunft die Arbeit erleichtern wird, oder sie sogar ganz ersetzen wird treibt viele Menschen um. Eine Studie von EY bestätigt, dass gut 25% aller Deutschen Angst vor einem Jobverlust durch künstliche Intelligenz haben. Dabei geht die Angst des Arbeitsverlust stark einher mit der Angst vor einem Identitätsverlust. Was macht der Mensch denn, wenn die KI alles für ihn erledigt?! Large Language Models (LLM), wie Open AIs Chat GPT oder Googles Bard noch nicht ausgereift genug, als dass Sie Arbeitsplätze ersetzen könnten. Sie skizzieren ein Bild einer Zukunft mit künstlicher Intelligenz und geben einen ersten Vorgeschmack auf eine Zukunft in der nicht nur Fabrikjobs und handwerkliche Tätigkeiten ersetzt werden könnten, sondern eben auch jene „white collar“ Berufe, die zuvor von vielen als „sicher“ galten. Das hängt mit der Weiterentwicklung künstlicher Intelligenz zusammen.


Von Logik zu Statistik

Traditionell wurden Computerprogramme so programmiert, dass sie spezifische Anweisungen befolgen, um Probleme zu lösen (Logik). Im Gegensatz dazu verwenden maschinelle Lernmodelle, wie Chat GPT statistische Methoden. Sie werden nicht für jede einzelne Frage speziell programmiert. Stattdessen analysieren sie große Mengen von Text und Daten, um Muster und Beziehungen selbst zu erkennen. Das Schlüsselelement hierbei ist die Skalierbarkeit. Anstatt, dass Menschen für jede mögliche Frage ein Muster erstellen, was sehr aufwendig wäre, analysiert die Maschine selbstständig eine große Auswahl an Texten und Daten. Dadurch kann das Modell mit einer viel größeren Menge an Informationen umgehen und sich an verschiedene Situationen anpassen. Der Prozess, bei dem die Maschine aus den Daten lernt und Muster erkennt, ist so, als würde die Maschine sich selbst erstellen. Sie nutzt die vorhandenen Informationen (Eingabe) und generiert daraus Antworten oder Lösungen (Ausgabe). 


Wissenschaftliche & produktspezifische Probleme

Aus der Entwicklung ergeben sich zwei Herausforderungen. Ein wissenschaftliches Problem und ein Produktproblem. Das wissenschaftliche Problem bezieht sich darauf, dass es keine absolut „richtigen“ Antworten im binären Sinne geben kann, sondern nur wahrscheinliche Antworten. Das bedeutet, dass die Antworten zwar oft nützliche und relevante Informationen liefern, aber nicht unbedingt exakte Fakten. Das Produktproblem bezieht sich darauf, dass man das System alles fragen kann und das System im Folgeschritt versucht alles zu beantworten. Selbst, wenn die Antwort korrekt ist, ist diese Antwort vielleicht nicht die beste Lösung, um das eigentliche Problem zu lösen. Die Antworten des eines KI-Modells können also informativ oder „korrekt“ im Sinne der Wahrscheinlichkeit sein, aber nicht unbedingt das liefern, was der Nutzer wirklich braucht oder sucht. 


Da Chat GPT auf der Grundlage der Daten, mit denen das Modell trainiert wurde, Antworten generiert, spielt die Qualität und Vielfalt der Daten eine entscheidende Rolle. Wenn Trainingsdaten verzerrt, unvollständig oder fehlerhaft sind, sind Antworten des Systems ebenfalls verzerrt oder ungenau. Gleichzeitig spielt die Art und Weise, wie eine Frage gestellt wird eine entscheidende Rolle. 


Chat GPT – Was ist Wahrheit?

Die Herausforderung der Architektur von Chat GPT und anderen LLMs wirft die Frage auf, was Wahrheit am Ende eigentlich wirklich ist. Bei der Frage, was Wahrheit ist, ist Chat GPT überraschend selbstkritisch: 


Die Frage "Was ist Wahrheit?" ist eine der grundlegendsten und ältesten Fragen in der Philosophie, Ethik und Erkenntnistheorie. Im Kontext von ChatGPT und ähnlichen KI-Systemen bekommt diese Frage eine zusätzliche Dimension.


In der traditionellen Philosophie wird "Wahrheit" oft als Übereinstimmung einer Aussage oder Vorstellung mit der Realität oder einem Fakt verstanden. Dieses Konzept wird als Korrespondenztheorie der Wahrheit bezeichnet. Es gibt jedoch auch andere Ansichten über Wahrheit, wie die Kohärenztheorie (Wahrheit als innere Stimmigkeit eines Systems von Überzeugungen) und die pragmatische Theorie (Wahrheit als das, was praktisch funktioniert oder nützlich ist).


Im Falle von ChatGPT und ähnlichen künstlichen Intelligenzsystemen ist es wichtig zu verstehen, dass sie keine Wahrheit im philosophischen oder menschlichen Sinne "verstehen" oder "kennen". ChatGPT generiert Antworten basierend auf Mustern in Daten, die es während seines Trainings verarbeitet hat. Diese Antworten können faktisch korrekt oder nützlich sein, aber sie sind das Ergebnis statistischer Wahrscheinlichkeiten und Algorithmen, nicht menschlicher Einsicht oder Verständnis von Wahrheit.


ChatGPT kann also Informationen liefern, die oft faktisch korrekt oder nützlich sind, aber es kann nicht über Wahrheit im menschlichen oder philosophischen Sinne reflektieren. Es ist immer wichtig, sich der Grenzen und des Kontextes der von KI generierten Informationen bewusst zu sein und diese kritisch zu bewerten.


Die selbstkritische Antwort von Chat GPT verweist darauf, was wir als Menschen am Ende tun können: Wir müssen eine aktive Rolle in der Interpretation und Bewertung der von KI generierten Informationen übernehmen. Es ist unerlässlich, dass wir die Antworten von KI-Systemen nicht als absolute Wahrheiten akzeptieren, sondern sie als das betrachten, was sie sind: hochwertige, aber letztendlich begrenzte Werkzeuge. 


Wir als Menschen müssen eine kritische Perspektive beibehalten, insbesondere in den Bereichen, wo Wahrheit entscheidend ist. Künstliche Intelligenz erfordert von uns, dass wir die Fähigkeiten zur kritischen Analyse und zum unabhängigen Denken weiterentwickeln, um die von KI-Systemen gelieferten Informationen zu kontextualisieren und ihre Gültigkeit zu prüfen. 


Die Reflexion von Chat GPT über „Wahrheit“ zeigt die wichtige Bedeutung der menschlichen Urteilskraft im beginnenden KI-Zeitalter. In einer Welt, in der KI eine immer größere Rolle in der Informationsverarbeitung spielt, wird das menschliche Urteilsvermögen umso wichtiger, um die Nuancen und komplexen Realitäten zu verstehen, die jenseits der Fähigkeiten von KI-Systemen liegen.


Wir sollten uns daran erinnern, dass Technologie am Ende ein Werkzeug ist, das von menschlichen Werten, Ethik und Entscheidungen geleitet wird. Die Verantwortung, die KI zum Wohl der Menschheit zu nutzen und dabei moralische Prinzipien zu berücksichtigen, liegt in unseren Händen. Es sollte ein Aufruf zur kritischen, bewussten und verantwortungsvollen Integration von KI in unser Leben sein, wobei der Mensch und liberal demokratische Werte im Mittelpunkt stehen. 



 


Johannes Brill hat 2022 seinen Bachelor in Politikwissenschaft an der Universität Duisburg-Essen gemacht. Aktuell macht er seinen Master in Sozioökonomie an der Universität Duisburg-Essen. Nebenbei arbeitet er als Werkstudent für ein deutsches Family Office im Bereich Real Estate. Im Jahr 2022 war er International Officer des Bundesverbandes Liberaler Hochschulgruppen.

bottom of page