chatpdf: Anleitung hochladen, Regelfragen beantworten lassen

  • [Mod] aus RE: Brettspiel-Fundstück der Woche [yze]

    Ich poste das mal hier, auch wenn man es mindestens genauso gut bei den Off-Topic-Fundstücken oder gar den RSP-Fundstücken hinbegründen könnte. Aber ich sehe hier potenziell ein starkes Instrument zum Interagieren mit Spielregeln und klären von Regelfragen, die sich irgendwo in der Bildunterschrift auf Seite 17 unten klären ließen. Einfach mal das PDF fragen...

  • Aber ich sehe hier potenziell ein starkes Instrument zum Interagieren mit Spielregeln und klären von Regelfragen, die sich irgendwo in der Bildunterschrift auf Seite 17 unten klären ließen. Einfach mal das PDF fragen...

    Fände es interessant, wenn das jemand mal testet und drüber berichtet (in nem eigenen Thread). Ich kann mir irgendwie nicht vorstellen, dass das korrekt funktioniert.


    Gruß Dee

  • Ich habe mal angefangen ein paar Fragen zu stellen auf Basis eines PDF, das ich eh gerade auf dem Handy hatte. Das war Dorfromantik, und die Antworten waren gut. Aber das ist nun nicht das Spiel mit den ganz großen Stolpersteinen in der Regel. Wäre auch neugierig auf einen Belastungstest. Futter für Regelfragen hat das Forum hier ja genug.


    Und selbst wenn die Technik erst bei 80% ist und noch nicht bei 100 - solche Tools wird es sehr bald geben.

  • Hab es eben auch getestet (mit Arborea). War nicht sehr gut bzw. sogar komplett falsch. Am besten starten wir nen neuen Thread dazu, dann lässt es sich störungsfreier kommunizieren. :)

  • yzemaze

    Hat das Label ausgelagert hinzugefügt.
  • Also es geht um folgende Seite: https://www.chatpdf.com/ Diese wirbt damit, dass das Programm ein PDF so analysieren kann, dass man ohne dieses selbst zu lesen, Fragen stellen kann, um es zu verstehen. Ich habe das mal getestet. Die kostenlose Version erlaubt aber nur PDFs bis 10 MB, wodurch ich etwas eingeschränkt in der Auswahl war. Und zusätzlich nur drei PDFs pro Tag, sodass ich nur drei Anleitungen testen konnte.


    #OranienburgerKanal

    Zitat

    Wie viele Baustoffe kann ich maximal haben?

    Du darfst maximal die auf dem Vorratsplan angezeigten Mengen an Baustoffen besitzen: maximal je 8 Holz, Lehm und Erz sowie maximal je 6 Eisen und Ziegel. Wenn du mehr Baustoffe einer Sorte nehmen darfst, verfallen überzählige Mengen. (Siehe Seite 9)

    Das stimmt.

    Zitat

    Was kostet der Kanalbau?

    Alle Bauwerke und Strecken, die du in Oranienburger Kanal errichtest oder baust, haben Baukosten. Du musst die geforderten Baukosten auf einmal bezahlen. (Siehe Seite 8) Der genaue Betrag hängt von verschiedenen Faktoren ab und ist nicht spezifisch aufgeführt.

    Schade. Dabei steht auf Seite 9, dass es 3 Taler kostet.

    Zitat

    Was macht die rote Scheibe?

    Das PDF enthält keine Informationen über eine rote Scheibe. In Oranienburger Kanal gibt es jedoch eine Start- und Aktionscheibe. Während der Aktionsphase jeder Runde markierst du mit den Aktionsscheiben die von dir abwechselnd gewählten Aktionsfelder. Wer von euch in dieser Phase beginnt, lässt die Startscheibe während der gesamten Runde vor sich liegen. (Siehe Seite 3)

    Er kann zwar keine Farben im PDF erkennen, aber immerhin erklärt er mir beide Scheibenarten korrekt.

    Zitat

    Wer hat das Spiel erfunden?

    Das Spiel Oranienburger Kanal wurde von Uwe Rosenberg erfunden. (Siehe Seite 15)

    Alles in allem fand ich die Antworten gut bis auf die Baukosten.


    #Arborea

    Zitat

    Wie viele Arbeiter habe ich bei Spielbeginn?

    Zu Beginn des Spiels hast du einen Vorrat an Dorfbewohnern, die du auf Pilgerreisen schicken kannst. Die Anzahl der Arbeiter, die du hast, wird in den gegebenen Seiten des PDFs nicht angegeben.

    Doch, ist es gleich auf Seite 1. Die Antwort ist 3.

    Zitat

    Wieso haben die Biomplättchen zwei Teile?

    Die Biomplättchen in Arborea haben zwei Teile, um den Spielern mehr Flexibilität bei der Gestaltung ihrer Ökosysteme zu geben. Jedes Biomplättchen besteht aus einem oberen und einem unteren Teil, die jeweils eine andere Landschaft darstellen. Indem die Spieler diese Teile kombinieren, können sie ihre eigenen einzigartigen Landschaften schaffen und so verschiedene Arten von Kreaturen anziehen. Diese Information kann auf Seite 3 des PDFs gefunden werden.

    Da bin ich nicht sicher, welches Spiel erklärt wird. Aber die Biomplättchen haben zwei Teile, um den oberen bei Erhalt von Biompunkten nach oben zu schieben und beim Ausgeben im gleichen Zug nach unten. Der untere Teil wird am Ende des Zuges nach oben gesetzt und gibt mir dann Siegpunkte.

    Zitat

    Was passiert, wenn ein Dorfbewohner über das Ende einer Leiste hinausgeschoben wird?

    Wenn ein Dorfbewohner das Ende einer Leiste erreicht, muss der Spieler diesen Arbeiter von der Leiste nehmen und auf einen Pfad setzen. Dies wird auf Seite 4 des PDFs erklärt.

    Immerhin das ist korrekt.

    #Erde

    Zitat

    <invalid json response body at https://chatcontext-pr4yueoqha-ue.a.run.app/ reason: Unexpected token I in JSON at position 0> ...

    Okay, das PDF mochte er nicht. ;)


    Ein Fazit kann ich nach so wenig Strichproben nicht liefern. Ich kann mir schon vorstellen, dass es bei Regelfragen hilfreich ist, den Chatbot zu fragen anstatt in den 20 Seiten Anleitung nach der Antwort zu suchen. Wie praktikabel das dann am realen Spieltisch ist, wird sich mit der Zeit zeigen.


    Gruß Dee


    PS: Ich plane nicht den Chatbot in Zukunft einzusetzen. Ich bin kein Digital Native und lieber analog mit Blättern unterwegs. ;)

  • Solange man nicht sicher sein kann, dass die Antworten auf jeden Fall korrekt sind, macht eine solche Unterstützung in meinen Augen wenig Sinn, denn solange die Antworten falsch sein könnten, muss man sie ja doch nochmal selbst nachlesen.

    Mögest Du in uninteressanten Zeiten leben...

  • Also Carnegie versteht es offensichtlich gar nicht.

    Er meint die Kosten für Projekte wären abhängig von der Position auf dem Board und einkommen würde man nur bekommen wenn man das Projekt in der Region hat aus der man Mitarbeiter zurück holt.

  • Da ist es doch fast effektiver, wenn man zum Beispiel "Kanal" einfach sucht.

    In der Thematik der KIs verstehe ich nicht, wie hier das Training aussieht. Im Grunde muss es ja eine blanke KI sein, die einzig mit dem PDF trainiert wird. Denn Informationen aus anderen PDFs dürfen ja nicht Teil des Trainings sein...

    Aber ich gönne mir den Spaß mal mit Marvel Champions... 😉

  • Im Hintergrund steht sicherlich NLP (Natural Language Processing) und damit wurde der Bot antrainiert, um Kontexte zu verstehen. Du siehst auch, dass er dir nach dem Hochladen Frsgen anbietet, die zeigen, dass es verstanden hat, dass es sich um ein Brettspiel handelt.


    Gruß Dee

  • Ich behaupte mal dass ChatGTP dir bessere Ergebnisse liefert auf die genannten Fragen.

    Diese Hypothese lässt sich leicht verifizieren. Poste dann das Ergebnis hier.

    Dees Fragen zu Oranienburger Kanal, beantwortet von ChatGPT

    Zitat

    Wie viele Baustoffe kann ich maximal haben?

    Im Spiel "Oranienburger Kanal" gibt es drei verschiedene Baustoffe: Steine, Ziegel und Holz. Jeder Spieler kann beliebig viele Baustoffe besitzen, es gibt keine Obergrenze. Allerdings kann ein Spieler in jeder Runde nur eine begrenzte Anzahl von Baustoffen verwenden, um Gebäude zu bauen oder bestehende Gebäude zu erweitern. Die genauen Regeln dazu findest du in der Anleitung des Spiels.


    Zitat

    Was macht die rote Scheibe?

    Die rote Scheibe im Spiel "Oranienburger Kanal" ist der Startspieler-Marker. Zu Beginn des Spiels wird dieser Marker von einem Spieler genommen und auf das Startfeld des Spielplans gelegt. Der Spieler, der den Marker besitzt, ist der Startspieler und beginnt das Spiel. In den folgenden Runden wird der Marker im Uhrzeigersinn weitergegeben, so dass jeder Spieler die Möglichkeit hat, als erster an der Reihe zu sein.


    Zitat

    Was kostet der Kanalbau?

    Der Kanalbau im Spiel "Oranienburger Kanal" kostet insgesamt 6 Steine und 6 Ziegel. Diese Baustoffe müssen von einem Spieler in einer Runde gesammelt und dann auf das entsprechende Feld auf dem Spielplan gelegt werden, um den Kanal zu bauen und dafür Punkte zu erhalten. Beachte jedoch, dass der Kanalbau erst ab der dritten Runde des Spiels möglich ist, da das entsprechende Feld auf dem Spielplan zu Beginn des Spiels noch nicht verfügbar ist.


    Zitat

    Wer hat das Spiel erfunden?

    Ich habe keine Informationen darüber, wer das Brettspiel "Oranienburger Kanal" erfunden hat. Die Herkunft und der Autor des Spiels sind nicht öffentlich bekannt. Es ist jedoch möglich, dass das Spiel von einem kleinen oder unabhängigen Spieleverlag oder einem Hobbydesigner entwickelt wurde, da es nicht zu den bekanntesten oder verbreitetsten Brettspielen gehört.

    Eigentlich ist nur die Frage nach der roten Scheibe richtig beantwortet. Dann wird‘s aber leider auch schon wieder falsch - gibt ja kein Startfeld. Amüsant finde ich, dass die meiner Ansicht nach einfachste Frage, wer das Spiel erfunden hat, nicht beantwortet werden kann.

  • Vielleicht sollte jemand ein Spiel nach den Regeln des ChatGPT erfinden. ;) Hätte nicht gedacht, dass der so schlecht antwortet.


    Damit ist die These von kyrilin widerlegt.


    Gruß Dee

  • Zitat von ChatGPT

    Laut den Informationen auf Boardgamegeek wurde "Oranienburger Kanal" von Jörg von Rüden entwickelt und von der deutschen Spielefirma Mücke Spiele veröffentlicht. Jörg von Rüden ist auch der Autor anderer Spiele wie "Villagers" und "Forum Trajanum".

    selbst mit einem Link zu BGG produziert ChatGPT nur Müll bei den einfachsten Fragen. Und wenn man sie wiederholt, denkt es sich was Neues aus ("Autor unbekannt, Verlag Moses"). Also, bis ich mich auf die Antworten solcher KIs verlassen würde, dürften noch viele Jahre ins Land gehen.

  • Er ist ja noch klein und lernt dazu :lachwein:.
    Aber nach klaren Fakten fragen scheint insgesamt (momentan) noch etwas problematisch zu sein - da kommt die "Kreativität" etwas in die Quere

    Einmal editiert, zuletzt von kyrilin ()

  • Nur, um es nochmal klarzustellen, weil mit unpräziser Sprache auch falsche Bilder im Kopf entstehen: "Verstehen" tut der Bot gar nichts! Er bildet nur eine Art Sprachnetz, welches ihm ermöglicht, Sätze zu produzieren, die sprachliche Eigenschaften nachahmen und die mit einer gewissen (recht hohen) Wahrscheinlichkeit, die Begriffe so wieder in einen Kontext einbauen, wie sie "normalerweise" und zusätzlich nach den in der Quelle verwendeten Strukturen entsprechend vorkommen.

    Dabei ist das aber alles nur Baukastenprinzip ohne Sinnerkenntnis des Bots.

    Kann man vermutlich recht schnell überprüfen, wenn man ihm simpelste Reproduktionsfragen stellt, die klar in der Anleitung stehen, wie: Was muss ich zuerst aufbauen? Wer ist Startspieler, etc.

    Selbst davon dürften viele Fragen den Bot überfordern.

    Genau das ist mein größtes Problem mit der Einführung der KI: viele schreiben ihr viel zu hohe Kompetenzen zu und glauben dann, was sie ausspuckt.

    Mögest Du in uninteressanten Zeiten leben...

    2 Mal editiert, zuletzt von Neva Kee () aus folgendem Grund: Ergänzung

  • Habe es gerade mit "Oath" versucht, weil ich die Anleitung gerade da hatte und die klein genug ist, um sie zu verarbeiten.

    Meine einfache Frage: "List the table of contents" - er soll also einfach das Inhaltsverzeichnis wiedergeben, welches auf dem Deckblatt unter genau dieser Überschrift aufgelistet ist. Einfacher geht es wirklich nicht.

    Seine Antwort:

    Das echte Inhaltsverzeichnis sieht aber so aus:

    Das Tool würfelt also die Begriffe neu zusammen und formatiert / formuliert die so, wie aus Millionen Daten das Muster gespeichert wurde, was man üblicherweise im Zusammenhang mit "Table of Contents" findet. Es hat auch schonmal Glück, dass etwas stimmt, aber insgesamt ist es totaler Unsinn und hat nur noch rudimentär etwas mit dem echten Inhaltsverzeichnis zu tun.

    Nicht mal den Namen des Spiels hat das Tool richtig wiedergegeben (oder wo kommt die "2" zu Beginn der Antwort her? Das das Spiel auch noch Oath heißt, muss man dem Tool nachsehen, da das nur als Grafik und nicht als Text auf dem Deckblatt hinterlegt ist).

    Mögest Du in uninteressanten Zeiten leben...

    Einmal editiert, zuletzt von Neva Kee ()

  • Eine (für mich) durchaus interessante Frage, die sich aus dem Hinweis von Neva Kee aufdrängt: Ist eine Anleitung, aus der ChatGPT (oder andere NLPs) kein "sinnvolles" Sprachnetz entwickeln kann, eine "schlechte" Anleitung? Oder anders herum: Wenn ein NLP nach dem Regelstudium auf alle Fragen korrekt anworten kann - ist dann das Regelwerk zumindest sprachlich "komplett"?


    Irgendwie drängt sich mir beim Schreiben der ferne Vergleich zu "Touring complete" auf ... aber das nur am Rande 8o

  • Habe ein paar weitere Tests gemacht. Die ersten Schritte vom Setup gibt er korrekt wieder, wenn man ihn danach fragt. Seltsamerweise (ohne Suggestion von mir) nennt er das Spiel aber plötzlich "Alchemist".

    Springe ich aber direkt zu Setup-Schritt 15 (den es gibt) behauptet er, dass es nur 7 Setup-Schritte gäbe. Frage ich nach Step 9, behauptet er nur eine Frage später plötzlich, es gebe nur drei Setup-Schritte und bleibt auch dabei, wenn ich ihn nach Schritt vier befrage.

    Andererseits gibt er mir das Verhalten des "Round markers" richtig wieder und ergänzt das Ganze sogar durch eine sinnvoll und korrekte Erklärung mit Beispiel, die so nicht in den Regeln steht. Da konnte ich ihn auch mit fiesen Nachfragen nicht aufs Glatteis führen und er hat falsche Aussagen von mir korrigiert oder klargestellt.

    Für Wissensvermittlung oder Recherche sind die System aber noch viel zu fehleranfällig und auch wenn die Wahrscheinlichkeit für korrekte Antworten sicherlich steigt, weiß man nie, wann wieder mal eine falsche dabei ist... und um das zu bewerten, muss man sich in dem Bereich über den man fragt, so gut auskennen, dass man die Informationen selbst überprüfen kann, was das System dann wieder überflüssig macht.

    Mögest Du in uninteressanten Zeiten leben...

  • Spannendes Thema, danke für die Beispiele :) erstaunlich, dass so einfache Dinge wie der Autor nicht genannt werden können.


    Bei den gefragten Punkten gab es ja jeweils eindeutige Antworten, wenn ich Regelprobleme habe, dann weil eine Situation nicht geregelt ist oder missverständlich beschrieben ist. Hierbei denken wir als Vielspieler bei der Regelauslegung immer auch das balancing und den Zusammenhang mit. Bis dies eine AI sicher beantworten kann nutze ich eher bgg oder dieses Forum :)

  • Solange man nicht sicher sein kann, dass die Antworten auf jeden Fall korrekt sind, macht eine solche Unterstützung in meinen Augen wenig Sinn, denn solange die Antworten falsch sein könnten, muss man sie ja doch nochmal selbst nachlesen.

    Ich könnte mir aktuell höchstens einen unterstützenden Einsatz vorstellen. Im vielen Anfragen von Dee kam ja als Antwort eine Seitenzahl mitgeliefert.

    Wenn ich also irgendeine 40+ Seiten Anleitung mit nennen wir es mal unübersichtlicher Struktur habe, und das Ding sagt mir auf Seite 18 steht die Antwort, dann wäre es zumindest etwas hilfreich. Ich muss weiterhin nachlesen, kriege aber immerhin die Hilfestellung wo genau.

    Müsste man halt noch prüfen, in wie weit das akkurate Angaben sind.

  • Vielleicht noch zur Klarstellung: ChatGPT weist in den FAQ darauf hin, dass die KI keinen Zugriff auf Daten nach 2021 hat. Bedenklich finde ich deshalb, dass in den Antworten kein Bezug darauf genommen wird, sondern stattdessen ein ausgewürfeltes Zufallsergebnis ausgegeben wird.

    Insofern finde ich die Idee, ein ausgewähltes pdf als Grundlage für die Antworten zu analysieren, eigentlich sehr gut. Aber auch da sieht man ja, dass die KI nicht automatisch alle Zusammenhänge erfassen und sinnvoll verarbeiten kann. Da ist also noch viel Luft nach oben

  • Der Bot hat übrigens, nachdem er das Spiel nun "Alchemist" nennt (und das begründet hat mit: "das steht in der ersten Zeile des PDF" - sehen tut man da nichts... vielleicht Meta-Informationen?), bei nochmaliger Nachfrage das Inhaltsverzeichnis diesmal vollständig und korrekt ausgegeben (nur den Index hat er weggelassen). Auch bei Nachfrage nach einzelnen Regelschritten zitiert er oft vollständig und korrekt.

    Allerdings fehlen ebenfalls oft ein paar Schritte, die er dann auch auf explizite Nachfrage nicht wiedergeben kann (Er behauptet z.B. zu wissen, dass es noch mehr Setup-Schritte gibt, er aber keinen Zugriff darauf hat). Bei der Search-Aktion zum Beispiel zitiert er die ersten beiden Schritte korrekt, lässt aber danach folgende Schritte weg. Darauf hingewiesen, denkt er sich dann Dinge aus, die manchmal korrekt, manchmal falsch sind, auf jeden Fall aber KEIN Zitat der Regeln mehr sind.

    Dieses Erratische und dies Willkür sind eben das Problematische, da man aus ein oder zwei richtigen Antworten nicht darauf schließen kann, dass weitere Antworten auch richtig sein werden oder konsistent bleiben.

    Mögest Du in uninteressanten Zeiten leben...

  • Neva Kee: Du vermischt leider zwei Bots, fürchte ich. ChatGPT ist nicht ChatPDF. ChatPDF analysiert das PDF und spuckt auf Deine Frage nach dem Inhaltsverzeichnis korrekt aus:

    Kannst ja auch Deine anderen Fragen damit testen.


    ChatGPT hat meines Wissens eine vordefinierte Datenbank, u.a. auch mit Spieleanleitung. Diese müssen aber älter als 2021 sein, damit das korrekt wiedergeben wird. Bin aber 100% sicher, da ich das nicht getestet habe.


    Gruß Dee

  • Alle Tests, die ich oben beschrieben habe, habe ich jedesmal mit chatpdf und dem gleichen PDF gemacht.

    Mögest Du in uninteressanten Zeiten leben...

  • Nur, um es nochmal klarzustellen, weil mit unpräziser Sprache auch falsche Bilder im Kopf entstehen: "Verstehen" tut der Bot gar nichts! Er bildet nur eine Art Sprachnetz, welches ihm ermöglicht, Sätze zu produzieren, die sprachliche Eigenschaften nachahmen und die mit einer gewissen (recht hohen) Wahrscheinlichkeit, die Begriffe so wieder in einen Kontext einbauen, wie sie "normalerweise" und zusätzlich nach den in der Quelle verwendeten Strukturen entsprechend vorkommen.

    Dabei ist das aber alles nur Baukastenprinzip ohne Sinnerkenntnis des Bots.

    Gute Klarstellung. Wenn man jetzt eine zweite Fakten-Check-KI darauf ansetzt, die Ergebnisse der ersten Sprachnetz-Bots einzelnd zu prüfen und die Erkenntnisse wieder zurückspielt, könnte man dann nicht besserer Ergebnisse bekommen?

    Content-Nachschlag gefällig? Brettspieltag.de – Das etwas andere Boulevard-Magazin der versammelten Brettspiel-Szene

  • Alle Tests, die ich oben beschrieben habe, habe ich jedesmal mit chatpdf und dem gleichen PDF gemacht.

    Interessant. Bei mir kommt das Inhaltsverzeichnis ja korrekt heraus (bis auf den Index).


    Gruß Dee

  • Nur, um es nochmal klarzustellen, weil mit unpräziser Sprache auch falsche Bilder im Kopf entstehen: "Verstehen" tut der Bot gar nichts! Er bildet nur eine Art Sprachnetz, welches ihm ermöglicht, Sätze zu produzieren, die sprachliche Eigenschaften nachahmen und die mit einer gewissen (recht hohen) Wahrscheinlichkeit, die Begriffe so wieder in einen Kontext einbauen, wie sie "normalerweise" und zusätzlich nach den in der Quelle verwendeten Strukturen entsprechend vorkommen.

    Dabei ist das aber alles nur Baukastenprinzip ohne Sinnerkenntnis des Bots.

    Gute Klarstellung. Wenn man jetzt eine zweite Fakten-Check-KI darauf ansetzt, die Ergebnisse der ersten Sprachnetz-Bots einzelnd zu prüfen und die Erkenntnisse wieder zurückspielt, könnte man dann nicht besserer Ergebnisse bekommen?

    Wenn (!) die Faktencheck KI korrekt arbeitet. Da semantisches Verständnis von Informationen aber nicht trivial (und zudem kontextabhängig unterschiedlich) ist, dürfte auch diese in bestimmten Situationen Probleme bekommen.

    Wie soll sie zum Beispiel mit solchen "Fakten," umgehen, die sie von Seiten, wie dem Postillon hat - für die KI wäre das erstmal alles gleichwertig (nur dass die "echten" Fakten häufiger vorkommen und daher eine höhere Wahrscheinlichkeit haben, reproduziert zu werden...

    Spätestens, wenn die Informationen im Internet zu einem immer größeren Teil aus von KIs produzierten Inhalten besteht, wird es mit der Faktensuche noch schwieriger... da füttern die KIs sich dann ggf. gegenseitig.

    Mögest Du in uninteressanten Zeiten leben...

  • Alle Tests, die ich oben beschrieben habe, habe ich jedesmal mit chatpdf und dem gleichen PDF gemacht.

    Interessant. Bei mir kommt das Inhaltsverzeichnis ja korrekt heraus (bis auf den Index).


    Gruß Dee

    Hatte ich beim zweiten Test dann ja auch - ist also nicht konsistent.

    Mögest Du in uninteressanten Zeiten leben...

  • Solange man nicht sicher sein kann, dass die Antworten auf jeden Fall korrekt sind, macht eine solche Unterstützung in meinen Augen wenig Sinn, denn solange die Antworten falsch sein könnten, muss man sie ja doch nochmal selbst nachlesen.

    Tja, damit hast Du den Nagel auf den Kopf getroffen, vor allem, weil die Menschen immer weniger verstehen werden, wie die KI zu ihrer Antwort kam.

    UpLive [bgg for trade] - einfach anschreiben, wenn Dich davon was interessiert!

  • Wie gehen wir denn mit Antworten zu Regelfragen um - hier im Forum oder auf BGG?

    Ich persönlich schaue mir die Antwort an und wenn die mir schlüssig scheint, eventuell durch Beispiele und Zitate und Quellen untermauert wird, dann übernehme ich die als richtige Antwort. Oder wenn die von jemanden kommt, dem ich vertraue, richtige Antworten geben zu können. Sei es durch Erfahrung oder Stellung (z.B. der zuständige Redakteur).


    Auf BGG habe ich für mich allerdings öfters die Tendenz festgestellt, dass durch die Vielzahl der mir völlig unbekannten User diese Einschätzung schwieriger ist. Zumal in den BGG-Forum häufig mal lieber schnell und oberflächlich als richtig beantwortet wird, nur um dann später "ah sorry, ne hab ich anders verstanden" zu ergänzen. Leider schon mehrmals erlebt, dass ich mich da durch lange Regelerklärungen gelesen habe, nur um dann zu lesen, dass leider arg vorschnell und falsch geholfen wurde, wie dann später richtig gestellt wurde.


    Diese Erfahrungen kann man dann auch auf KI-Helfer beziehen. Manche sind vertrauenswürdig und manche eher vorschnell-geschwätzig aber trotzdem nett.

    Content-Nachschlag gefällig? Brettspieltag.de – Das etwas andere Boulevard-Magazin der versammelten Brettspiel-Szene

  • ravn: Ein Rating der Antworten, sodass die KI lernt, dass sie gerade Unsinn erzählt, wäre hilfreich für die KI und die Nutzer. Problematisch ist, dass sie eben nur teilweise Unsinn erzählt oder eben komplett etwas ausdenkt. Da ist es mit einem „Nein, die Antwort ist falsch“ nicht getan.


    Gruß Dee

  • Ich glaube nicht, dass die KIs darauf ausgelegt sind faktisch korrekte Antworten zu geben, vielleicht geht das mit der bestehenden Technologie auch nicht so ohne weiteres. Dazu müsste die KI ja erkennen, wann sie quasi interpoliert bzw. interpretiert und wo sie auf die Lerndaten zurückgreifen müsste ohne zu generalisieren. Schon jetzt kann ja niemand sagen, wie genau die KI auf ihre Antwort kommt und welche Daten in diese Antwort eingeflossen sind.

  • ChatGPT kann mit dem GPT4 Model sowas durchaus, du musst ihm halt nur auch den Text der Anleitung komplett rein kopieren. Damit er einen Kontext hat. In der GPT4 Demo wurde ja gezeigt wie er Fragen zum Steuerrecht korrekt aus einem Dokument herauslesen kann, dort eben nicht nur stumpf wiedergegeben was dort steht sondern aus dem was da steht angewendet und das passende herausgefunden ohne das man es explizit gesagt hat.