Beiträge von Reich der Spiele im Thema „Was der ChatBot GPT3 so alles ausspuckt... Spielbuch aus der KI“

    Was bringen einem passende aber unwahre Antworten? Dann ist das die perfekte Simulation eines Dummschwätzers, der sich wichtig machen will.

    Jein. Es liegt in meinen Augen auch ein fundamentales Missverstänndis vor, was das Tool sein soll.

    Die Hoffnung von vielen ist: Der weiß alles, der kann alles erklären und ich kann die Texte nutzen. Vielleicht stimmen sogar Quellen, wenn man danach fragt. Oder noch besser: Er crawlt mal eben das Web und kann deshalb die Frage beantworten.

    Die Wahrheit ist aber anders und steckt schon im Namen. Es ist ein Texterzeugungstool, das menschliche Kommunikation nachahmt und dabei Antworten aus einem riesigen Datenpool generiert, in dem es zuvor eingespeiste Sprachstrukturen abruft und mit möglichst passenden Informationen (vermutlich Schlagworten) verknüpft. Es ruft dabei noch nicht einmal "statistische Datentabellen" ab, um die dann wiederzugeben, sondern gibt Daten an, die nach seinem Trainingswissen vermutlich gut zur Frage passen würden. Es gleicht nicht wahr/falsch oder verschiedene Quellen ab.

    Das ist alles andere als ein faktenbasierter Ansatz, wie viele es verstehen möchten und leider nutzen. Es ist ein Sprachansatz. Erst dann, wenn die Infos nicht als allgemeines Wissen hinterlegt sind, sondern mit festen Quellen verknüpft sind, kann der Chat auch tatsächlich Fakten mit Beleg nennen. Bis dahin quatscht er einfach mit möglichst auf die Frage passenden Antworten los und orientiert sich mehr an der Erwartungshaltung und gelernten Strukturen, nicht immer an konkretem Wissen.

    Leider geht dieser Aspekt völlig unter und führt zu den oben genannten Irrglauben. Heute habe ich ein Video sehen müssen, in dem der Macher behauptet, der Chat sei eine Suchmaschine. Ey, NEIN! Das Ding hat nicht einmal "Webzugang". Es wird spannend, wenn Bing das am Ende gut mit der Integration hinbekommen sollte (bisher eher mau) oder Google mit Lamda weiterkommt. Bis dahin ist es ein "Labertool". Perfekt für Arbeitsgrundlagen von Abenteuerbüchern, fiktive Hintergrundgeschichten von zum Beispiel Brettspielen, Romanen, Kurzgeschichten, Zusammenfassungen und für - zu überüprüfendes !- Füllmaterial aller Art. Aber es ist NUR ein "Labertool".

    Daher: Ja, die Zukunft "wird sicher KI", aber auf dem Weg dahin werden alle aus purer Unkennntnis oder aus Absicht die Welt mit Idiotie fluten. Und genau das passiert derzeit. Selbst die Berichterstattung über das, was das Tool ist, ist Murks. Es ist aber eben doch "nur" ein Textgenerator.

    Ich beschäftige mich aktuell beruflich mit dem Ding. Vieles, was hier steht, kann ich bestätigen. Es ist völlig gaga, was das DIng alles kann. Es ist aber noch heftiger, was das DIng alles nicht kann bzw. nicht macht, obwohl die Masse der Nutzer einen gegenteiligen Eindruck hat. Ein paar Erkenntnisse:

    1. CHatGPT baisert darauf, aus Datenquellen und gelernten Gesprächsstruktuten Antworten auf Fragen zu ENTWICKELN.
    2. ChatGPT soll zwar Fakten nennen, macht das aber wegen 1. nicht immer. Das Tool soll menschliches Verhalten simulieren und dabei wahrscheinlich der Erwartungshaltung entsprechend passende Antworten generieren, nicht die tatsächlich korrekten Fakten.
    3. Fast ALLE Litertaurangaben, Quellen, URLs als Belege sind erfunden. Das Tool ist nicht dafür konzipiert, Quellen zu finden, sondern die ART der Quellen zu simulieren. Ich habe inzwischen rund 2 Dutzend URLs als Quelle geprüft. KEINE davon war korrekt, alle nur möglicherweise passende URLs (Namen) auf passenden Webseiten.
    4. ChatGPT lügt. Er hat behauptet, ich häte 7 Wonders designt und Millionen damit verdient. So etwas passiert auch bei anderen Fragen, wenn man zuvor unbewusst oder bewusst für das Tool unbekannte Zusammenhänge konstruiert. Denn das Tool bezieht eigene Fragen als Fakten in die Antworten ein.
    5. Die sprachliche Qualität ist im ersten Moment beeindruckend, weil man schnell Glasperlen sieht, wo Schrott steht. Kurze tolle Sätze und tolle Infos. Allerdings gibt es unfassbar viele Wortwiederholungen und zu wenig stilistisch ansprechende Formulierungen. Qualitätstests besteht das Ding nicht. Es ist zu einfach und widerholt die Strukturen immer wieder.
    6. Alle Fakten sind wie oben genannt nur wahrscheinliche Antworten. Bei konkreten Fragestellungen, die mit Fakten zu beanworten sind, sind mindestens 2/3 der Daten fragwürdig oder falsch. So liegt die polnische Ostseeküste durchaus mal in der Lüneburger Heide oder eine Stadt im Süden von NRW an der Nordseeküste. Alles erlebt.
    7. Je spezifischer die Nische, desto mehr Quatsch kommt heraus. Das zu erkennen, bedarf jedoch wiederum Wissen über die Nische, sonst erkennt man es nicht.
    8. Nicht vergessen: Alle Daten haben den Stand 2021. Daher ist das Tool für neuere Faktenthemen oder Rezensionen witzlos, kann aber Inspirationen für neue Textideen geben.
    9. Derzeit befüllen unzählige Webmaster (außerhalb der Szene hier) ihre Projekte mit ChatGPT-Texten, um Projekte zu starten oder auszubauen. Soweit okay. Das Problem ist neben ein paar Schwierigkeiten und Gefahren für Googlerankings nur, dass in brisanten Rategberbereichen unfassbar viel Müll in die Welt geblasen wird, worduch falsche Dinge wirklich weit verbreitet werden. In Bereichen wie Gesundheit, Geld usw. ist das extrem gefährlich.
    10. Gepaart mit künstlich generierten Bildern und KI-Videos sowie erlerneter Sprachausgaben mit Stimmen von echten Personen entsteht eine virtuelle Wahrheit, die weit von der Realität entfernt ist und das Potenzial hat, eine Gesellschaft regelrecht explodieren zu lassen. Man muss es nur "wollen".
    11. Nach Ablegen der ersten Eurphorie bleibt die Erkenntnis, dass die Qualität bereits sensationell ist, aber eben noch lange nicht bei "wirklich gut". Sehr gut funktioniert das Ding bei fiktiven Geschichten (s. Eingangsposting), weniger gut bei Ratgebern.
    12. Alle Texte sollten stilistisch und inhaltlich überarbeitet werden, bevor sie publiziert werden. Sonst wird es aus verschiedenen Gründen (noch) ein Eigentor.

    Edit: Noch eine Wundertüte ist das Thema Urheberrecht. Hat die KI geschützte Texte teilweise kopiert, sodass eine Veröffentlichung problematisch werden kann? Und genießen maschinell erstellte Texte selbst einen Urheberrechtsschutz? Wenn nein, dürfen dann Dritte unbehelligt die eigenen generierten KI-Texte kopieren und verbreiten?