Beiträge von koala-goalie im Thema „Was der ChatBot GPT3 so alles ausspuckt... Spielbuch aus der KI“

    Welche Trainingsdaten verwendet werden, ist mindestens genauso wichtig. Und da wird's bei der Offenlegung teils schwieriger, z.B. wenn wir an Training für biometrische Sachen denken

    Ich tue mir mit der Offenlegung der Daten auch aus anderen Gründen schwer. Weil die Trainingsdaten und der Trainingsprozesses werden dann bei den KI Firmen das neue Tafelsilber. Google hat kein Problem damit seine Software offenzulegen, wohl aber seine Daten und Parametrisierungen. Ich denke, das lässt sich auf KI übertragen. Außerdem gibt's dann noch Fälle wo KIs KIs trainieren oder diese selbstständig unüberwacht lernen.

    Und ich sehe da auch gar keinen so großen Mehrwert für die Allgemeinheit. Letztendlich kommt es ja auf das Verhalten der KI in der Praxis an. Und die Trainingsdaten sind zum Einen gewaltige Massen und zum Anderen ist der Rückschluss aus den Daten auf das Verhalten der Software extrem schwierig. Das lohnt den Aufwand nicht.

    Ich sehe da eher eine Prüfung und Zertifizierung des fertigen Produkts, also des Verhaltens der KI, analog den TÜV als zielführend an.

    und sehe hier drin auch direkt die Chance für die künstlichen KIs: ihre Quellen mit zu nennen. Zumindest auf eine zweite Frage. Ist ja ein Chatbot. Die KI muss ja nicht ihre Algorithmen und Datenbanken preisgeben. Doch ist sie aus meiner Sicht sehr gut gerüstet, eine Frage nach den wichtigsten Quellen für ihre Behauptung zu beantworten

    Das kann ich mir bei einem Programm wie ChatGPT ehrlich gesagt nur sehr schlecht vorstellen. Wenn man in irgendwelchen Datenanalysen einfache Fragen nach Zusammenhängen stellt ... dann kann man zwar die Antwort messen, mit weiteren Daten bewerten und so weiter ... Was man aber nicht wirklich kann ist herauszufinden warum die Antwort genau so ausgefallen ist. Man kann das Programm zwar nach dem entscheidenden Merkmal fragen, aber die Antwort (Dateneintrag XY ging zu 55% in für Lösung ein) macht den Anwender selten schlauer. Egal ob da ein neuronales Netz oder ein Wald (oder was immer) dahinter steckt.

    Eine Chatsoftware nach Quellen zu fragen ist mehr Einschätzung noch nicht so sinnvoll, weil diese sich noch schwer tut Allgemeinwissen der Sprache von inhaltlichen Wissen zu trennen. Eigentlich finde ich ChatGPT sogar ziemlich gut darin. Weil es schon ziemlich wenig Nonsense erzählt ... Für ein Sprachprogramm.

    Ich würde erwarten, dass demnächst spezialisierte KIs für alles mögliche aus dem Boden schießen:

    • Kindergeschichten erfinden -- sozusagen ein Spezialist in kreativen Schreiben und zertifiziert Gewalt-, Sex- und Schimpfwort-frei.
    • Wissenschaftlich korrekte Antworten in wissenschaftlichen Kontext liefern (inklusive Quellen) -- sozusagen eine intelligentere Google Wissenschaftssuche mit Kontext-Interpretation
    • KIs die Newsflashs zusammen stellen, also internationale, wichtige Nachrichten nach Nutzerinteressen zusammenfassen
    • KIs die auf personalisierte Werbung spezialisiert sind (also zum Beispiel im Hintergrund zu einer anderen KI stecken, still mitlesen, dir Werbung unterzujubeln und damit das Geld für alle Dienste verdienen)
    • KIs die auf personalisierte Desinformation spezialisiert sind (die KI lernt dich kennen um dir dann genau die Wahl-manipulierenden Lügen zu erzählen auf die du ganz persönlich am leichtesten herein fällst) und die einen in Zukunft vielleicht proaktiv auf Facebook oder Telegramm anquatschen ...

    Ich bin übrigens sehr für eine Offenlegung der Algorithmen, weil ... Irgendwie muss man eine KI zukünftig für verschiedene Aufgaben zertifizierten können. Algorithmen offenzulegen ist da ein erster Schritt. Anschließend muss man sie vermutlich aufwendig prüfen. Ich kann mir schwer vorstellen, dass eine Überwachung der Quellen oder des Trainingsprozesses irgendwie praktikabel ist.

    Glaubt ihr Fluff-Texte auf Karten oder Story-Schnipseln in Kampagnenspielen werden zukünftig noch ohne künstliche Intelligenz erzeugt?

    Sicher irgendwann nicht mehr zu 100%, aber immer noch deutlich oberhalb von 50%.

    Ich könnte mir da schon so 50% bis zu 80% KI vorstellen, habe aber von derart kreativer Arbeit keine Ahnung. Ich kann mir auch gut vorstellen, dass da demnächst Profi-Tools auf den Markt drängen die eben auf bestimmte Art von Texten spezialisiert sind, also besonders korrekt für wissenschaftliche Antworten oder einfach eine grundlegend skizzierte Story ins Reine schreiben oder eben eine Welt für die Rahmenhandlung entwerfen und kleine Lore-Schnipsel dazu produzieren. Oder eben sogar NPCs mit interessanter Persönlichkeit generieren. Vielleicht muss dann nur noch jemand Parametrisierung und Auswahl vornehmen ...

    Glaubt ihr Fluff-Texte auf Karten oder Story-Schnipseln in Kampagnenspielen werden zukünftig noch ohne künstliche Intelligenz erzeugt?

    Weil diese mehr oder weniger beliebigen Story-Schnipsel lassen sich mit ChatGPT ja wunderbar automatisieren und verbilligen ...

    Mir kam der Gedanke gerade bei den Kickstartern , die bisher ja gerne mit X Seiten Story-Text geworben haben. Das wird zukünftig noch weniger ein Qualitätsmerkmal ...