Was der ChatBot GPT3 so alles ausspuckt... Spielbuch aus der KI

  • Passend dazu folgende Kolumne

    Da hinter Paywall, magst du daraus kurz zusammenfassen?

    Ich könnte mir da schon so 50% bis zu 80% KI vorstellen, habe aber von derart kreativer Arbeit keine Ahnung.

    Ich könnte mir eine Mischform vorstellen. Man generiert zuerst einen Text mit KI als Vorlage und überarbeitet diese Vorlage noch einmal gründlich.

  • ... dann hoffe ich mal, dass jemand mit echter Intelligenz die maschinell erzeugten Texte noch gegenprüft.


    Was da für Halbwissen und Ungenauigkeiten bis glatte Lügen einem mit vollster Überzeugung aufgetischt werden, das ist echt heftig. Besonders weil ein Laie auf dem Themengebiet diesen Schmarn gar nicht als solchen erkennt und eventuell sogar ernst nimmt als Fakten.


    Zu mehr als ein Brainstorming-Partner taugt für mich der aktuelle Stand dieser Entwicklung noch nicht. Dazu fehlt eine eingebaute Infoausgabe der verwendeten Quellen mitsamt einer kritischen Quellenprüfung. Aber spätestens da wird dann klar, dass eventuell Weiterverwertungsrechte missachtet werden.

    Content-Nachschlag gefällig? Brettspieltag.de – Das etwas andere Boulevard-Magazin der versammelten Brettspiel-Szene

    Einmal editiert, zuletzt von ravn ()

  • Passend dazu folgende Kolumne

    Da hinter Paywall, magst du daraus kurz zusammenfassen?

    Tut mir Leid, da hatte ich nicht darauf geachtet. Es geht darum, dass künstliche Intelligenz die Arbeitswelt grundlegend ändern wird, so wie es die Fließbandarbeit/Maschinen im eher handewerklichen Bereich getan haben/tun. Wenn man bedenkt, wieviele Leute mit ihrem "Geist" tätig sind, dann kann man mal überlegen, worin genau die Arbeit besteht und ob davon nicht große Teile zukünftig von KIs übernommen werden können.

    Ja natürlich kommen da jetzt jeweils noch merkwürdige Sachen raus, aber die Entwicklung geht ja rasant und es gibt genug Felder, wo es nicht auf Perfektionismus ankommt.

  • ... dann hoffe ich mal, dass jemand mit echter Intelligenz die maschinell erzeugten Texte noch gegenprüft.


    Was da für Halbwissen und Ungenauigkeiten bis glatte Lügen einem mit vollster Überzeugung aufgetischt werden, das ist echt heftig. Besonders weil ein Laie auf dem Themengebiet diesen Schmarn gar nicht als solchen erkennt und eventuell sogar ernst nimmt als Fakten.


    Zu mehr als ein Brainstorming-Partner taugt für mich der aktuelle Stand dieser Entwicklung noch nicht. Dazu fehlt eine eingebaute Infoausgabe der verwendeten Quellen mitsamt einer kritischen Quellenprüfung. Aber spätestens da wird dann klar, dass eventuell Weiterverwertungsrechte missachtet werden.

    Jap, sehr gefährlich. Ich war im Diskurs mit der KI über Politikwissenschaft in Deutschland und fragte ihn nach einem Konzept von einer Person. Er tischte mir da einen Text auf, der Jahreszahlen und Inhalte völlig falsch einbrachte. Plötzlich war Max Weber in den 1950er angekommen und lehrte angeblich in Hamburg. Als ich die KI dann fragte, wie das sein kann, da Max Weber 1920 gestorben ist und auch nie in Hamburg lehrte, hat sich die KI dann entschuldigt. Der Text den die KI ursprünglich ausspuckte laß sich allerdings gut, war begründet und mit "Fakten" getränkt.

  • Der Bot hat halt nur Wahrscheinlichkeiten "im Kopf," mit denen er bestimmt, ob ein Wort / Satz üblicherweise in der Nähe eines anderen vorkommt. Über Bedeutung macht sich das Teil keine Gedanken...

    Funktioniert auch super (nicht) bei Berechnungen. Die Zahlen sehen teilweise super zusammen aus, aber die Ergebnisse stimmen bei komplexeren Rechnungen einfach nicht (wobei komplexer schon Punkt vor Strich in Kombination mit Klammern bedeuten kann oder die Multiplikation von größeren Zahlen).

    Das "Lustige" ist, dass er die Einzelschritte so einer Rechnung (im gleichen Antwortposting) oft richtig erklärt und sogar in den Einzelschritten am Ende die richtige Lösung herausbekommt, in der Gesamtrechnung allerdings dann trotzdem eine falsche Lösung hinschreibt.

    Mögest Du in uninteressanten Zeiten leben...

  • Ist halt perfekt wenn es eher auf die Form als auf den Inhalt ankommt. Zum Beispiel ein Grußwort zum 100 jahrigen Jubiläum des örtlichen Fußballvereins oder Kleintierzüchtervereins. Da kommt die fast perfekte inhaltlose Sonntagsrede bei raus. Wenn man die dann mit etwas Fakten anreichert ist es kaum noch zu unterscheiden von einer rein menschlich erstellten Rede.

    You know I'm born to lose, and gambling's for fools

  • Deutschlandfunk behandelt das Thema auch bei Instagram und die zwei befragten Wissenschaftlerinnen werfen auch definitiv kein gutes Licht auf ChatGPT. Erfundene Quellen, plausibel klingende, mit Zitaten gestützte nicht existierende physikalische Phänomene. Etc.


    Das klingt nach einer Politiker Karriere :)

  • Gewarnt wurde immer vor neuen Technologien. Trotzdem sind viele heutzutage ganz normal. Sowas braucht halt auch eine Entwicklungs- und Reifezeit.

    Diese Technologie steht erst ganz am Anfang. Und bzgl. Fake News ... leider nimmt die Fähigkeit selbständig zu denken immer mehr ab. Von daher ist es egal ob diese Fake-News aus einem politischen Lager, aus Wikipedia, oder sonstigen Quellen kommen: man glaubt, was man glauben will. Etwas zu hinterfragen ist leider out.

    Ich sehe Chatbot als eine Chance und eine total faszinierende Idee, die in den nächsten Jahren sicherlich viel mehr können wird als heute. Und irgendwann wird man diese Technologie so selbstverständlich nutzen wie heutzutage ein Handy.

  • Gewarnt wurde immer vor neuen Technologien. Trotzdem sind viele heutzutage ganz normal. Sowas braucht halt auch eine Entwicklungs- und Reifezeit.

    Diese Technologie steht erst ganz am Anfang. Und bzgl. Fake News ... leider nimmt die Fähigkeit selbständig zu denken immer mehr ab. Von daher ist es egal ob diese Fake-News aus einem politischen Lager, aus Wikipedia, oder sonstigen Quellen kommen: man glaubt, was man glauben will. Etwas zu hinterfragen ist leider out.

    Ich sehe Chatbot als eine Chance und eine total faszinierende Idee, die in den nächsten Jahren sicherlich viel mehr können wird als heute. Und irgendwann wird man diese Technologie so selbstverständlich nutzen wie heutzutage ein Handy.

    Ganz sicher wird es so sein.

    Man muss sich nur imho immer wieder (und durch den Einsatz von das "Denken"-Übernehmenden Programmen nochmal mehr) bewusst machen, dass man das eigene Denken und das Prüfen von Informationen nicht abschalten darf. Aber genau an dieser Kompetenz mangelt es jetzt schon bei vielen und es wird genau durch den Einsatz von Textgeneratoren nicht besser werden, weil schon Kinder und Jugendliche immer weniger "üben" selbst kreativ zu sein und zu denken, was sich dann als Erwachsener nicht einfach so "einschalten" lässt.

    Ich denke nur, dass die Überzeugungskraft von Fake-News noch einmal zunehmen wird, da die Menge und die Vielfalt, die durch KI Generation von Bildern, Videos und Texten noch einmal deutlich erhöht wird, es dann endgültig unmöglich machen dürfte, noch den Wahrheitsgehalt von Informationen zu prüfen.

    Mögest Du in uninteressanten Zeiten leben...

  • Da bin ich bei Dir - und sehe hier drin auch direkt die Chance für die künstlichen KIs: ihre Quellen mit zu nennen. Zumindest auf eine zweite Frage. Ist ja ein Chatbot. Die KI muss ja nicht ihre Algorithmen und Datenbanken preisgeben. Doch ist sie aus meiner Sicht sehr gut gerüstet, eine Frage nach den wichtigsten Quellen für ihre Behauptung zu beantworten. Damit könnte eine KI sogar einen Beitrag zum Verständnis der unabhängigen Recherche geben - wenn sie darauf programmiert ist und ihre Macher das für vermarktungswert halten.

    Letting your mind play is the best way to solve problems. (Bill Watterson)

    Bin auch immer mal in der FAIRPLAY zu lesen.

  • Das neue bing von Microsoft mit Ki-Chat-Modul gibt seine Quellen an. Jetzt müsste die normale bing-Suche nur treffsicherer werden, um als kombinierte Suchmaschine zu taugen.

    Content-Nachschlag gefällig? Brettspieltag.de – Das etwas andere Boulevard-Magazin der versammelten Brettspiel-Szene

  • Ganz sicher wird es so sein.

    Man muss sich nur imho immer wieder (und durch den Einsatz von das "Denken"-Übernehmenden Programmen nochmal mehr) bewusst machen, dass man das eigene Denken und das Prüfen von Informationen nicht abschalten darf. Aber genau an dieser Kompetenz mangelt es jetzt schon bei vielen und es wird genau durch den Einsatz von Textgeneratoren nicht besser werden, weil schon Kinder und Jugendliche immer weniger "üben" selbst kreativ zu sein und zu denken, was sich dann als Erwachsener nicht einfach so "einschalten" lässt.

    Ich denke nur, dass die Überzeugungskraft von Fake-News noch einmal zunehmen wird, da die Menge und die Vielfalt, die durch KI Generation von Bildern, Videos und Texten noch einmal deutlich erhöht wird, es dann endgültig unmöglich machen dürfte, noch den Wahrheitsgehalt von Informationen zu prüfen.

    Da bin ich bei Dir - und sehe hier drin auch direkt die Chance für die künstlichen KIs: ihre Quellen mit zu nennen. Zumindest auf eine zweite Frage. Ist ja ein Chatbot. Die KI muss ja nicht ihre Algorithmen und Datenbanken preisgeben. Doch ist sie aus meiner Sicht sehr gut gerüstet, eine Frage nach den wichtigsten Quellen für ihre Behauptung zu beantworten. Damit könnte eine KI sogar einen Beitrag zum Verständnis der unabhängigen Recherche geben - wenn sie darauf programmiert ist und ihre Macher das für vermarktungswert halten.

    Momentan erfindet der Chatbot ja einfach authentisch klingende Quellen, wenn man danach fragt (laut Beitrag DLF).

    Was daran liegt, dass er eben "nur" ein Wahrscheinlichkeitsprogramm ist, das einen Text aus vorhandenen plausiblen Bausteinen zusammenstellt.

    Ihn soweit zu bekommen, dass er eigene Aussagen auch auf Plausibilität bzw. einen korrekten Realitätsbezug hin prüft ist meiner Ansicht nach nicht trivial.

    Und solange ist er, wenn er falsch eingesetzt/verstanden wird, in der Lage, korrekt und wissenschaftlich klinenden Unsinn zu erfinden, den nur Fachleute als solchen wahrnehmen. Was ich für nicht ungefährlich halte

  • „könnte ein registrierter Benutzer bitte mal die KI für mich fragen, ob 42 immer noch DIE Antwort auf die ultimative Frage ist - danke vorab!

    „Die Antwort auf die ultimative Frage nach dem Leben, dem Universum und allem lautet in Douglas Adams' Buch "Per Anhalter durch die Galaxis" tatsächlich 42. Allerdings ist dies natürlich nur eine fiktive Antwort in einem Roman und hat keine wissenschaftliche Grundlage.

    In der Realität gibt es keine eindeutige Antwort auf die Frage nach dem Sinn des Lebens oder der Natur des Universums. Die Philosophie, die Naturwissenschaften und die Religionen haben im Laufe der Geschichte verschiedene Antworten auf diese Fragen vorgeschlagen, aber es gibt keine endgültige Antwort, die von allen akzeptiert wird.

    Also, wenn Sie sich fragen, ob 42 immer noch die Antwort auf die ultimative Frage ist, dann ist die Antwort: es hängt davon ab, wen Sie fragen und was genau Sie mit der ultimativen Frage meinen.“

  • Und etwas an den Parametern der Frage geschraubt:


    Natürlich ist 42 immer noch die Antwort auf die ultimative Frage! Aber bitte fragen Sie mich nicht, was die Frage war, ich habe sie vergessen und mein Handtuch ist auch nicht in Reichweite."

  • und sehe hier drin auch direkt die Chance für die künstlichen KIs: ihre Quellen mit zu nennen. Zumindest auf eine zweite Frage. Ist ja ein Chatbot. Die KI muss ja nicht ihre Algorithmen und Datenbanken preisgeben. Doch ist sie aus meiner Sicht sehr gut gerüstet, eine Frage nach den wichtigsten Quellen für ihre Behauptung zu beantworten

    Das kann ich mir bei einem Programm wie ChatGPT ehrlich gesagt nur sehr schlecht vorstellen. Wenn man in irgendwelchen Datenanalysen einfache Fragen nach Zusammenhängen stellt ... dann kann man zwar die Antwort messen, mit weiteren Daten bewerten und so weiter ... Was man aber nicht wirklich kann ist herauszufinden warum die Antwort genau so ausgefallen ist. Man kann das Programm zwar nach dem entscheidenden Merkmal fragen, aber die Antwort (Dateneintrag XY ging zu 55% in für Lösung ein) macht den Anwender selten schlauer. Egal ob da ein neuronales Netz oder ein Wald (oder was immer) dahinter steckt.

    Eine Chatsoftware nach Quellen zu fragen ist mehr Einschätzung noch nicht so sinnvoll, weil diese sich noch schwer tut Allgemeinwissen der Sprache von inhaltlichen Wissen zu trennen. Eigentlich finde ich ChatGPT sogar ziemlich gut darin. Weil es schon ziemlich wenig Nonsense erzählt ... Für ein Sprachprogramm.

    Ich würde erwarten, dass demnächst spezialisierte KIs für alles mögliche aus dem Boden schießen:

    • Kindergeschichten erfinden -- sozusagen ein Spezialist in kreativen Schreiben und zertifiziert Gewalt-, Sex- und Schimpfwort-frei.
    • Wissenschaftlich korrekte Antworten in wissenschaftlichen Kontext liefern (inklusive Quellen) -- sozusagen eine intelligentere Google Wissenschaftssuche mit Kontext-Interpretation
    • KIs die Newsflashs zusammen stellen, also internationale, wichtige Nachrichten nach Nutzerinteressen zusammenfassen
    • KIs die auf personalisierte Werbung spezialisiert sind (also zum Beispiel im Hintergrund zu einer anderen KI stecken, still mitlesen, dir Werbung unterzujubeln und damit das Geld für alle Dienste verdienen)
    • KIs die auf personalisierte Desinformation spezialisiert sind (die KI lernt dich kennen um dir dann genau die Wahl-manipulierenden Lügen zu erzählen auf die du ganz persönlich am leichtesten herein fällst) und die einen in Zukunft vielleicht proaktiv auf Facebook oder Telegramm anquatschen ...

    Ich bin übrigens sehr für eine Offenlegung der Algorithmen, weil ... Irgendwie muss man eine KI zukünftig für verschiedene Aufgaben zertifizierten können. Algorithmen offenzulegen ist da ein erster Schritt. Anschließend muss man sie vermutlich aufwendig prüfen. Ich kann mir schwer vorstellen, dass eine Überwachung der Quellen oder des Trainingsprozesses irgendwie praktikabel ist.

  • KIs die Newsflashs zusammen stellen, also internationale, wichtige Nachrichten nach Nutzerinteressen zusammenfassen

    Auch damit lässt sich Schindluder treiben. In der FAZ war neulich mal im FAZ-Plus-Bereich ein Artikel, in dem es um eine US-Medienfirma ging, die "Nachrichten" per KI erzeugt und das damit kombiniert, da Werbung für bestimmte Sachen einzuflechten und so Geld zu verdienen.


    Ich bin übrigens sehr für eine Offenlegung der Algorithmen

    Unbedingt. Wobei die Algorithmen (incl. der Trainingsverfahren!) nur ein Teil sind. Welche Trainingsdaten verwendet werden, ist mindestens genauso wichtig. Und da wird's bei der Offenlegung teils schwieriger, z.B. wenn wir an Training für biometrische Sachen denken.

  • Welche Trainingsdaten verwendet werden, ist mindestens genauso wichtig. Und da wird's bei der Offenlegung teils schwieriger, z.B. wenn wir an Training für biometrische Sachen denken

    Ich tue mir mit der Offenlegung der Daten auch aus anderen Gründen schwer. Weil die Trainingsdaten und der Trainingsprozesses werden dann bei den KI Firmen das neue Tafelsilber. Google hat kein Problem damit seine Software offenzulegen, wohl aber seine Daten und Parametrisierungen. Ich denke, das lässt sich auf KI übertragen. Außerdem gibt's dann noch Fälle wo KIs KIs trainieren oder diese selbstständig unüberwacht lernen.

    Und ich sehe da auch gar keinen so großen Mehrwert für die Allgemeinheit. Letztendlich kommt es ja auf das Verhalten der KI in der Praxis an. Und die Trainingsdaten sind zum Einen gewaltige Massen und zum Anderen ist der Rückschluss aus den Daten auf das Verhalten der Software extrem schwierig. Das lohnt den Aufwand nicht.

    Ich sehe da eher eine Prüfung und Zertifizierung des fertigen Produkts, also des Verhaltens der KI, analog den TÜV als zielführend an.

  • Wenn's mal alle mit ein paar von so ausgereiften Bosten Dynamics mitsamt angefütteter KI am Spieltisch sitzt's und endlich, ohne ewigen Terminproblemen, die coolsten RPG, Verhandlungs oder sonstigen Mehrspielermonster zockt's... hat es sich ausgenörgelt.

    Mit der Nase auf meinem smarten Device getippt.

    Und im Übrigen bin ich der Meinung, dass das :?: entfernt werden muss

  • Ich beschäftige mich aktuell beruflich mit dem Ding. Vieles, was hier steht, kann ich bestätigen. Es ist völlig gaga, was das DIng alles kann. Es ist aber noch heftiger, was das DIng alles nicht kann bzw. nicht macht, obwohl die Masse der Nutzer einen gegenteiligen Eindruck hat. Ein paar Erkenntnisse:

    1. CHatGPT baisert darauf, aus Datenquellen und gelernten Gesprächsstruktuten Antworten auf Fragen zu ENTWICKELN.
    2. ChatGPT soll zwar Fakten nennen, macht das aber wegen 1. nicht immer. Das Tool soll menschliches Verhalten simulieren und dabei wahrscheinlich der Erwartungshaltung entsprechend passende Antworten generieren, nicht die tatsächlich korrekten Fakten.
    3. Fast ALLE Litertaurangaben, Quellen, URLs als Belege sind erfunden. Das Tool ist nicht dafür konzipiert, Quellen zu finden, sondern die ART der Quellen zu simulieren. Ich habe inzwischen rund 2 Dutzend URLs als Quelle geprüft. KEINE davon war korrekt, alle nur möglicherweise passende URLs (Namen) auf passenden Webseiten.
    4. ChatGPT lügt. Er hat behauptet, ich häte 7 Wonders designt und Millionen damit verdient. So etwas passiert auch bei anderen Fragen, wenn man zuvor unbewusst oder bewusst für das Tool unbekannte Zusammenhänge konstruiert. Denn das Tool bezieht eigene Fragen als Fakten in die Antworten ein.
    5. Die sprachliche Qualität ist im ersten Moment beeindruckend, weil man schnell Glasperlen sieht, wo Schrott steht. Kurze tolle Sätze und tolle Infos. Allerdings gibt es unfassbar viele Wortwiederholungen und zu wenig stilistisch ansprechende Formulierungen. Qualitätstests besteht das Ding nicht. Es ist zu einfach und widerholt die Strukturen immer wieder.
    6. Alle Fakten sind wie oben genannt nur wahrscheinliche Antworten. Bei konkreten Fragestellungen, die mit Fakten zu beanworten sind, sind mindestens 2/3 der Daten fragwürdig oder falsch. So liegt die polnische Ostseeküste durchaus mal in der Lüneburger Heide oder eine Stadt im Süden von NRW an der Nordseeküste. Alles erlebt.
    7. Je spezifischer die Nische, desto mehr Quatsch kommt heraus. Das zu erkennen, bedarf jedoch wiederum Wissen über die Nische, sonst erkennt man es nicht.
    8. Nicht vergessen: Alle Daten haben den Stand 2021. Daher ist das Tool für neuere Faktenthemen oder Rezensionen witzlos, kann aber Inspirationen für neue Textideen geben.
    9. Derzeit befüllen unzählige Webmaster (außerhalb der Szene hier) ihre Projekte mit ChatGPT-Texten, um Projekte zu starten oder auszubauen. Soweit okay. Das Problem ist neben ein paar Schwierigkeiten und Gefahren für Googlerankings nur, dass in brisanten Rategberbereichen unfassbar viel Müll in die Welt geblasen wird, worduch falsche Dinge wirklich weit verbreitet werden. In Bereichen wie Gesundheit, Geld usw. ist das extrem gefährlich.
    10. Gepaart mit künstlich generierten Bildern und KI-Videos sowie erlerneter Sprachausgaben mit Stimmen von echten Personen entsteht eine virtuelle Wahrheit, die weit von der Realität entfernt ist und das Potenzial hat, eine Gesellschaft regelrecht explodieren zu lassen. Man muss es nur "wollen".
    11. Nach Ablegen der ersten Eurphorie bleibt die Erkenntnis, dass die Qualität bereits sensationell ist, aber eben noch lange nicht bei "wirklich gut". Sehr gut funktioniert das Ding bei fiktiven Geschichten (s. Eingangsposting), weniger gut bei Ratgebern.
    12. Alle Texte sollten stilistisch und inhaltlich überarbeitet werden, bevor sie publiziert werden. Sonst wird es aus verschiedenen Gründen (noch) ein Eigentor.

    Edit: Noch eine Wundertüte ist das Thema Urheberrecht. Hat die KI geschützte Texte teilweise kopiert, sodass eine Veröffentlichung problematisch werden kann? Und genießen maschinell erstellte Texte selbst einen Urheberrechtsschutz? Wenn nein, dürfen dann Dritte unbehelligt die eigenen generierten KI-Texte kopieren und verbreiten?

  • Ich finde das Ding erstaunlich. Einerseits wieviele Fehler und es macht und falsche informationen ausspuckt.

    Andererseits ist es für eine KI enorm gut darin, Frage zu verstehen und passende (wenn auch nicht immer richtige) Antworten zu geben. Da fehlt nicht allzuviel, und so ein Ding kann von Firmen eingesetzt werdenum Kundenafragen zu benatworten, ohne dass der Kunde merkt, dass er mit einer Maschine spricht.

    Oder auch social media mit solchen Bots geflutet wird, wo dann nicht kaum mehr erkennbar ist, was Bot ist und wer echt.

  • Was bringen einem passende aber unwahre Antworten? Dann ist das die perfekte Simulation eines Dummschwätzers, der sich wichtig machen will.

    Ein Tool, um schnell und unreflektiert irgendwelche Halbwahrheiten und ungenaue Fakten zu produzieren, damit die in der Masse schon irgendwo bei irgendwem eine Wirkung zeigen. Perfektes Marketingtool, um die jetzt schon unliebsamen weil geprüften Faktenlagen von kritischen Journalisten durch augenscheinlich toll klingende automatisch produzierte Inhalte mit wenig Nutzwert zu überfluten und zu verdrängen. Je öfter man eine Lüge wiederholt, desto schnell wird die inzwischen zur geglaubten Wahrheit. Willkommen in der schönen neuen Welt. <X


    "Wir" brauchen keine automatisiert erzeugten Inhalte, sondern einen kritischen Umgang mit Informationen - egal aus welcher Feder oder Quelle. Das Tool ist nur ein Werkzeug - kann man sinnvoll einsetzen (in den engen Rahmen der Möglichkeiten) oder eben für eigene Interessen missbrauchen.

    Content-Nachschlag gefällig? Brettspieltag.de – Das etwas andere Boulevard-Magazin der versammelten Brettspiel-Szene

    2 Mal editiert, zuletzt von ravn ()

  • Was bringen einem passende aber unwahre Antworten? Dann ist das die perfekte Simulation eines Dummschwätzers, der sich wichtig machen will.

    Jein. Es liegt in meinen Augen auch ein fundamentales Missverstänndis vor, was das Tool sein soll.

    Die Hoffnung von vielen ist: Der weiß alles, der kann alles erklären und ich kann die Texte nutzen. Vielleicht stimmen sogar Quellen, wenn man danach fragt. Oder noch besser: Er crawlt mal eben das Web und kann deshalb die Frage beantworten.

    Die Wahrheit ist aber anders und steckt schon im Namen. Es ist ein Texterzeugungstool, das menschliche Kommunikation nachahmt und dabei Antworten aus einem riesigen Datenpool generiert, in dem es zuvor eingespeiste Sprachstrukturen abruft und mit möglichst passenden Informationen (vermutlich Schlagworten) verknüpft. Es ruft dabei noch nicht einmal "statistische Datentabellen" ab, um die dann wiederzugeben, sondern gibt Daten an, die nach seinem Trainingswissen vermutlich gut zur Frage passen würden. Es gleicht nicht wahr/falsch oder verschiedene Quellen ab.

    Das ist alles andere als ein faktenbasierter Ansatz, wie viele es verstehen möchten und leider nutzen. Es ist ein Sprachansatz. Erst dann, wenn die Infos nicht als allgemeines Wissen hinterlegt sind, sondern mit festen Quellen verknüpft sind, kann der Chat auch tatsächlich Fakten mit Beleg nennen. Bis dahin quatscht er einfach mit möglichst auf die Frage passenden Antworten los und orientiert sich mehr an der Erwartungshaltung und gelernten Strukturen, nicht immer an konkretem Wissen.

    Leider geht dieser Aspekt völlig unter und führt zu den oben genannten Irrglauben. Heute habe ich ein Video sehen müssen, in dem der Macher behauptet, der Chat sei eine Suchmaschine. Ey, NEIN! Das Ding hat nicht einmal "Webzugang". Es wird spannend, wenn Bing das am Ende gut mit der Integration hinbekommen sollte (bisher eher mau) oder Google mit Lamda weiterkommt. Bis dahin ist es ein "Labertool". Perfekt für Arbeitsgrundlagen von Abenteuerbüchern, fiktive Hintergrundgeschichten von zum Beispiel Brettspielen, Romanen, Kurzgeschichten, Zusammenfassungen und für - zu überüprüfendes !- Füllmaterial aller Art. Aber es ist NUR ein "Labertool".

    Daher: Ja, die Zukunft "wird sicher KI", aber auf dem Weg dahin werden alle aus purer Unkennntnis oder aus Absicht die Welt mit Idiotie fluten. Und genau das passiert derzeit. Selbst die Berichterstattung über das, was das Tool ist, ist Murks. Es ist aber eben doch "nur" ein Textgenerator.

  • Was ich schon sehr nützlich finde, ist Texte von der KI Korrekturlesen zu lassen inklusive Verbesserungsvorschläge für die Formulierung.

    Channing Jones - Autor von Galactic Era