und sehe hier drin auch direkt die Chance für die künstlichen KIs: ihre Quellen mit zu nennen. Zumindest auf eine zweite Frage. Ist ja ein Chatbot. Die KI muss ja nicht ihre Algorithmen und Datenbanken preisgeben. Doch ist sie aus meiner Sicht sehr gut gerüstet, eine Frage nach den wichtigsten Quellen für ihre Behauptung zu beantworten
Das kann ich mir bei einem Programm wie ChatGPT ehrlich gesagt nur sehr schlecht vorstellen. Wenn man in irgendwelchen Datenanalysen einfache Fragen nach Zusammenhängen stellt ... dann kann man zwar die Antwort messen, mit weiteren Daten bewerten und so weiter ... Was man aber nicht wirklich kann ist herauszufinden warum die Antwort genau so ausgefallen ist. Man kann das Programm zwar nach dem entscheidenden Merkmal fragen, aber die Antwort (Dateneintrag XY ging zu 55% in für Lösung ein) macht den Anwender selten schlauer. Egal ob da ein neuronales Netz oder ein Wald (oder was immer) dahinter steckt.
Eine Chatsoftware nach Quellen zu fragen ist mehr Einschätzung noch nicht so sinnvoll, weil diese sich noch schwer tut Allgemeinwissen der Sprache von inhaltlichen Wissen zu trennen. Eigentlich finde ich ChatGPT sogar ziemlich gut darin. Weil es schon ziemlich wenig Nonsense erzählt ... Für ein Sprachprogramm.
Ich würde erwarten, dass demnächst spezialisierte KIs für alles mögliche aus dem Boden schießen:
- Kindergeschichten erfinden -- sozusagen ein Spezialist in kreativen Schreiben und zertifiziert Gewalt-, Sex- und Schimpfwort-frei.
- Wissenschaftlich korrekte Antworten in wissenschaftlichen Kontext liefern (inklusive Quellen) -- sozusagen eine intelligentere Google Wissenschaftssuche mit Kontext-Interpretation
- KIs die Newsflashs zusammen stellen, also internationale, wichtige Nachrichten nach Nutzerinteressen zusammenfassen
- KIs die auf personalisierte Werbung spezialisiert sind (also zum Beispiel im Hintergrund zu einer anderen KI stecken, still mitlesen, dir Werbung unterzujubeln und damit das Geld für alle Dienste verdienen)
- KIs die auf personalisierte Desinformation spezialisiert sind (die KI lernt dich kennen um dir dann genau die Wahl-manipulierenden Lügen zu erzählen auf die du ganz persönlich am leichtesten herein fällst) und die einen in Zukunft vielleicht proaktiv auf Facebook oder Telegramm anquatschen ...
Ich bin übrigens sehr für eine Offenlegung der Algorithmen, weil ... Irgendwie muss man eine KI zukünftig für verschiedene Aufgaben zertifizierten können. Algorithmen offenzulegen ist da ein erster Schritt. Anschließend muss man sie vermutlich aufwendig prüfen. Ich kann mir schwer vorstellen, dass eine Überwachung der Quellen oder des Trainingsprozesses irgendwie praktikabel ist.