[KI] Ist die Gesellschaft fit genug in Sachen KI-Grundkenntnisse und Medienkompetenz?

  • Ich bin ja selbst IT Consultant und Programmierer und ich meinte auch nicht, dass ML das komplett ersetzen kann, aber es ist ja schon ein tiefgreifender Einschnitt wenn es 30-50% der Arbeit optimiert bzw. obsolete machen würde. Wären im Umkehrschluss 30-50% weniger Mitarbeiter die in dem Bereich benötigt würden. Um meinen eigenen Job mache ich mir wenig Sorgen, weil der auch hauptsächlich auf langjähriger Erfahrung basiert, aber wenn plötzlich 30% der Leute keinen Job mehr haben, werden wir das als Gesellschaft alle spüren.

    Das ist tatsächlich ein wichtiges und schwieriges Thema. Der Punkt ist ja, dass man durch technischen Fortschritt immer weniger Leute braucht, um alle versorgen zu können. Das ist ein Ziel technischen Fortschritts und erstmal kein Problem. Ein Problem ist, wie die Gesellschaft damit umgeht. Aber dafür muss die Gesellschaft Lösungen finden und nicht die Entwickler des technischen Fortschritts. Natürlich muss der auch Regeln unterliegen, aber "davon werden Leute arbeitslos" sollte kein Grund sein, um Fortschritt zu bremsen.

    Mir geht es nicht darum Fortschritt zu bremsen, sondern darum, dass die Gesellschaft (was auch immer man darunter verstehen mag) darauf in keinster Weise vorbereitet ist und sich auch weiterhin nicht darauf vorbereitet.
    Ist ähnlich wie mit anderen Krisen unserer Zeit. Man sieht ja wie toll die Bekämpfung der Klimakrise funktioniert.
    Aktuell probieren sich die Länder ja gerade mittels Rechspopulisten eher einzuigeln, als gemeinsam Lösungen zu finden.
    Da muss es scheinbar zuvor schon einen wirklich harten Crash geben, bevor die Menschen aufwachen und der könnte äußerst unangenehm werden.

    Mir geht es eigentlich nur um die direkten Auswirkungen für uns.

    Einmal editiert, zuletzt von Diggler (10. Januar 2025 um 12:18)

  • Das Halluzinieren ist ja kein Bug, den wir beheben können, indem wir die Trainingsdaten erhöhen, sondern Halluzinieren ist im Prinzip doch die Funktion von LLMs. Mehr Trainingsdaten sorgen nur dafür, dass die Halluzinationen weniger auffällig sind, dass die produzierten Texte einer wahren Aussage ähnlicher sehen. Grundsätzlich weiß die KI aber gar nix und alles was die ausspuckt ist doch in Grunde halluziniert. Oder habe ich da was grundsätzlich falsch verstanden?

    Ja hast du. Modelle mit Reasoning können das halluzinieren stark einschränken bis komplett vermeiden. (GPTo3)

    Und es war immer ein Bug das sie, wenn sie nicht dazu aufgefordert werden sich etwas ausdenken, das wurde auch immer so kommuniziert und stets daran gearbeitet es zu beheben.

    Mit Modellen wie NotebookLM die darauf ausgelegt sind für Recherche und wissenschaftliches Arbeiten genutzt zu werden wäre es auch etwas abstrus sowas als Feature zu sehen.

    Naja ... Es ist halt die Frage welches Ziel das Modell hat. Soll es

    • Recherche Netzwerk oder intelligentere Suchmaschine sein?
    • Ein Sprach-Bot sein, der sich mit dir einfach sinnvoll unterhalten können soll und dich auf neue Ideen bringen?
    • Ein Übersetzer ein, der Sprache möglichst genau verstehen und auf andere Weise wieder aufstehen soll?

    Im ersten Fall ist Halluzinieren natürlich unerwünscht. Im zweiten Fall eigentlich notwendig, weil jedes Gespräch mit einem Gegenüber erfordert ja, dass man sich auf dessen Input einlässt und irgendwas dazu in Bezug setzt. Und im dritten Fall ist es was dazwischen. Fenyador hat doch insofern Recht, dass das Sprachmodell sich die Antwort live "ausdenken" (oder berechnen) muss. Aber das die Schwelle zwischen Halluzinationen, Kreativität und Wissen ist halt nicht so einfach erlernbar. Und ich glaube zumindest, dass das Problem im Moment auch noch nicht überzeugend lösbar ist. (Falls doch würden mich Hintergründe interessieren.)

    Und gerade wenn man in die Gewichte und Zusammenhänge von kleineren trainierbaren Modellen analysiert fällt halt auf, dass die Modelle sehr gerne offensichtliche Zusammenhänge verwenden (falls die in den Daten drin sind) und sich sonst aber oft eher abstruse Verbindungen suchen. In der Praxis funktionieren die für spezifische Zwecke oft genug, aber trotzdem wird da gerne eine (eigentlich zufällige) Korrelation in den Daten auf kausal nicht erklärbare Weise verwendet. Die Statistik selber kann aber Korrelation (oder Abhängigkeit) nachweisen und ausnutzen. Kausalität braucht viel mehr Hintergrundwissen und Kontext. Ich lehne mich mal aus dem Fenster und behaupte, dass auf neutralen Netzwerken beruhende "KI"-Modelle Kausalität nur nachplappern (oder von mir aus auch aus "Wenn-Dann"-Vorgaben vervollständigen), aber normalerweise nicht erkennen können. Erkennen können sie nur Abhängigkeiten. Aber ohne übergeordnetes Verständnis von Kausalität ist es doch sehr schwer für das Modell Halluzinationen von Schlussfolgerungen zu trennen. Mein Gefühl (basierend auf meinem doch ziemlich begrenzten Wissen) sagt mir, dass eine wirklich gute Unterscheidung hier noch eine andere Modellstruktur bräuchte. Eine Art Meta-Fakten-Ebene die über die sprachliche Ebene hinausgeht. Und auch hier: Falls jemand technische Hintergründe kennt ob das schon mal jemand wirklich gemacht hat ... Ich wäre an Hintergründen interessiert.

  • Eine Art Meta-Fakten-Ebene die über die sprachliche Ebene hinausgeht.

    Genau so etwas tun Modelle mit Reasoning ja - sie generieren eine Antwort, diese wird dann vor der Ausgabe erneut geprüft auf Korrektheit und Sinn, dann korrigiert und wieder überprüft.

    Hast du mir ein Beispiel? Weil ich will jetzt an der Stelle wissen ob "reasoning"

    • nur als Buzzword für Backpropagation verwendet wird oder
    • Ein nachgeschaltetes Modell mit Prüfung auf ebenfalls sprachlicher Ebene (Englisch, Deutsch) durchführt oder
    • Tatsächlich die Antwort in ein Modell mit logischen Entitäten und Regeln (Stichwort "deep deductive") übersetzt und prüft
  • Wir sind nicht drauf vorbereitet und bin stärker Anhänger der "death internet" theory - wir werden in paar Jahren kaum mehr echte Interaktion im Netz haben, etwas was in sozialen Netzwerken oder auch auf YouTube bereits beobachtet werden kann. Ki generierter Content wird von Bots kommentiert....sehe gerade ältere Menschen im Umfeld nicht mehr in der Lage reale Beiträge von Menschen zu identifizieren.

    Einmal editiert, zuletzt von evil_puck (10. Januar 2025 um 14:34)

  • bin stärker Anhänger der "death of internet" theory

    Das heißt "Dead Internet Theory" und ist eine Verschwörungstheorie die besagt das schon 2016 die meisten User im Internet Bots waren und wir alle im Internet so gut wie nir mit echten Menschen interagieren konnten sondern immer nur mit Bots.


    Solltest du etwas anderes meinen, solltest du das evtl. anders ausdrücken um Missverständnise zu vermeiden.

  • Der Illustrator in unserem Beispiel hat jetzt im Grunde zwei Möglichkeiten: Entweder er lernt ein neues Handwerk, das höher wertgeschätzt wird, oder er bringt es in seiner Zunft durch Kreativität und Kompetenz so weit, dass Firmen ihn engagieren, obwohl sie die kostenlosen LLMs zur Verfügung stehen haben. Vielleicht hat dein Freund ja auch einen Schreibtisch, der handgemacht und ein Einzelstück ist.

    Oder er lernt mit KI seine Kreativität besser zu nutzen und kann dann seine Werke trotzdem verkaufen. Als ich im grafischen Gewerbe angefangen habe, wurde ich angelernt, wie man Negative richtig "scannt", mit Flüssigkeiten, die haben dir den Kopf weggeballert, dagegen ist Vodka pur lächerlich. Gleichzeitig hörte ich Geschichten von älteren Kollegen, wie früher noch Werbecollagen "geschnitten" wurden, ich saß da immerhin schon am Mac. Dann habe ich gelernt, wie ich digitale Fotos auf CDs brenne und sie mit einem Kurier durch die Gegend schicke. Danach wurde Daten plötzlich über FTP-Server transferiert, irgendwann ging sogar für die schnelle sowas wie WeTransfer. Dazwischen? Immer wieder Entlassungen, Teamverschlankungen usw. Von den Fortschritten in den Programmen fange ich gar nicht erst an. Danach kam die Auslagerung aka Offshore-Produktion, weil man Daten um die halbe Welt in Billiglohnländer schicken konnte. Grafische Arbeit wurde in Asien gemacht. Irgendwann gab es dann Filter, Apps & Co. die Dinge konnten, dafür haben früher Leute richtig geschuftet. Ich habe einen Preisverfall erlebt, unfassbar. Für die Produktion von etwas über 1000 € für eine gewisse grafische All-In-Dienstleistung im Bereich Fast-Fashion habe ich 2020 unter 10 € abrechnen können. Also ... KI ... ja, ein weiterer Schritt einer normalen Entwicklung.

  • Der Illustrator in unserem Beispiel hat jetzt im Grunde zwei Möglichkeiten: Entweder er lernt ein neues Handwerk, das höher wertgeschätzt wird, oder er bringt es in seiner Zunft durch Kreativität und Kompetenz so weit, dass Firmen ihn engagieren, obwohl sie die kostenlosen LLMs zur Verfügung stehen haben. Vielleicht hat dein Freund ja auch einen Schreibtisch, der handgemacht und ein Einzelstück ist.

    Oder er lernt mit KI seine Kreativität besser zu nutzen und kann dann seine Werke trotzdem verkaufen.

    Das kommt hinzu: eine KI benötigt - zumindest momentan - noch immer einen Menschen der sie bedient

  • bin stärker Anhänger der "death of internet" theory

    Das heißt "Dead Internet Theory" und ist eine Verschwörungstheorie die besagt das schon 2016 die meisten User im Internet Bots waren und wir alle im Internet so gut wie nir mit echten Menschen interagieren konnten sondern immer nur mit Bots.


    Solltest du etwas anderes meinen, solltest du das evtl. anders ausdrücken um Missverständnise zu vermeiden.

    Meine das 😀 mit Corona und Krankschreibung ist wohl nicht alles am Hirnkapazität vorhanden...

    Die ursprüngliche Idee (Regierungsverschwörung) ist natürlich Quatsch. Die Kernaussage, dass KI die meisten Interaktionen und Inhalte im Netz generieren werden sehen wir jetzt schon erste Ansätze...

  • Und bitte, können wir das mit den LLMs lassen? Oder um den CEO von Partner & Partner für alle Unwissenden zu zitieren:

    „Das Akronym steht für «Large Language Model». Und wird gerne dann angewendet, wenn jemand beweisen will, dass er zum Thema künstliche Intelligenz (KI) besser Bescheid weiss als sein Gegenüber.“

    Auch wenn ich das Anliegen dahinter eigentlich gut finde, bin ich gegen den Vorschlag. Ich bin dafür die Dinge beim (spezifischen) Namen zu nennen. "Die KI" empfinde ich so spezifisch wie "das Internet".

    Und bei Sätzen die zum Beispiel mit "Im Internet steht ..." beginnen wäre der Kontext ob es sich um einen Artikel bei Tagesschau.de oder um einen Bot bei X, ehemals Twitter, handelt sich ziemlich relevant.

    (Davon abgesehen finde ich es eher gut, wenn in Folge des obigen Kommentars noch ein paar Leute mehr googlen was ein Large Langauge Model so eigentlich ist.)

    Bei einer Diskussion über "die KI" wäre ich in der Folge auch eher raus, weil ich schon fast nicht mehr weiß wo ich anfangen und über was ich schreiben soll. Und der Thread hier behandelt halt in meinen Augen auch mehr allgemeine Gesellschaftskritik, Medienkritik oder Kapitalismuskritik und hat mit "der KI" nur als Aufhänger was zu tun. Da bin ich hier echt ziemlich lost.

  • Eine Art Meta-Fakten-Ebene die über die sprachliche Ebene hinausgeht.

    Genau so etwas tun Modelle mit Reasoning ja - sie generieren eine Antwort, diese wird dann vor der Ausgabe erneut geprüft auf Korrektheit und Sinn, dann korrigiert und wieder überprüft.

    Man kann ja sogar selbst Korrekurschleifen einbauen - und das Ergebnis ist am Ende doch nicht unbedingt ganz korrekt. ;)

    ... und am Ende fragt man sich, wer hier eigentlich wem geholfen hat :D

    Im Anhang (gekürzt) ein Beispiel:

    - bewusst falsche Anfrage nach Sehenswürdigkeiten im Berliner Stadtteil St. Pauli inkl. ergebener Überprüfung
    - von ChatGPT korrekt nach "Hamburg" korrigiert
    - korrigierte Anfrage nach Sehenswürdigkeiten im Hamburger Stadtteil St. Pauli
    - ChatGPT macht "im und in der Nähe" draus, betitelt es aber weiterhin als "im Stadtteil"
    - Erneute Konkretisierung von mir zu "nur im Stadtteil St. Pauli"
    - ChatGPT korrigiert, baut aber einen Fehler ein, spricht dennoch von "alle liegen im Stadtteil St. Pauli"
    - Ich korrigiere den Fehler und "korrigiere" noch einen weiteren.
    - ChatGPT sortiert beide Anmerkungen korrekt ein. Also erkennt dann den Fehler als Fehler und den falschen Fehler als "Fehler" meinerseits
    - ChatGPT erstellt eine korrekte Liste und bedankt sich für meine "konstruktive Korrektur"

    Dazu: Ich finde, das ist ein gutes Beispiel, wie schnell falsche Fakten entstehen können. Ist zwar nur ne Kleinigkeit in dem Fall, aber genau so etwas sind am Ende anfragen, die aus schneller Content-Generierung für Zeitungen und Co. Sinn machen. Und das rutscht einem halt durch, weil es erstmal plausibel klingt, man sich auf die Überprüfung/Bestätigung von ChatGPT verlässt

  • Zitat

    2022 wurde dann ChatGPT populär, war aber anfangs komplett nutzlos. Und jetzt ist KI immer noch nicht perfekt, aber schon sehr viel performanter als in 2022, und das in relativ kurzer Zeit.

    Ein Großteil davon ist aber eher gute PR als wirkliche Leistungssteigerung.

    Und das was die meisten dieser Tage als KI bezeichnen sind LLM, die garnicht gut im Erfinden sind, sondern nur gigantische Datenmengen neu zusammenstückeln mittels riesiger Wahrscheinlichkeitstabellen. Von Verstehen kann da keine Rede sein. Merkt man wunderschön, wenn es nur wenig Trainingsmaterial zu einem Gebiet gibt, dann wird Halluziniert, dass es eine Freude ist.

    Die früheren KI-Versuche und anderen Modelle sind wie jetzt langsam auch LLM immer an der Mauer gescheitert, also, dass man zwar immer mehr Ressourcen reinhaut, aber der Gewinn daraus immer geringer wird.

    Zitat



    Das Generieren von Fakten sehe ich überhaupt nicht als die Funktion dieser Modelle an. LLMs erschaffen Text. Die "erfinden" ja quasi alles, was sie ausspucken. Dadurch disqualifizieren die sich doch prinzipiell als Informationsquellen, oder als Lieferant von "harten Fakten".

    Das Halluzinieren ist ja kein Bug, den wir beheben können, indem wir die Trainingsdaten erhöhen, sondern Halluzinieren ist im Prinzip doch die Funktion von LLMs. Mehr Trainingsdaten sorgen nur dafür, dass die Halluzinationen weniger auffällig sind, dass die produzierten Texte einer wahren Aussage ähnlicher sehen. Grundsätzlich weiß die KI aber gar nix und alles was die ausspuckt ist doch in Grunde halluziniert. Oder habe ich da was grundsätzlich falsch verstanden?

    Richtig erkannt!

    Und Reasoning ist eigentlich eher ein Buzzword, denn was da meist geschieht ist, dass Clickworker drübergehen, wenn zu viele Fehler rückgemeldet werden. Wirklich Kontexte verstehen, Zeit verstehen, dass können die schlicht nicht, das ist nicht einmal im Kern wirklich angelegt. Es sind hochkomplexe Papageien, mehr aber auch nicht.

    Wir sehen aktuell eine schleichende Verschlechterung der KIs, da diese sich gegenseitig von dem Output der anderen "ernähren" und dadurch immer mehr Hallizinationen "verdauen" und dies in ihre Wahrscheinlichkeitstabellen integrieren.

    Lustigerweise hat Meta ja angekündigt KI-User in Facebook einzuführen, damit die Interaktion wieder erhöht werden soll... Statt also bessere Modelle zu entwickeln, macht man also lieber beim Rennen zum Fassboden mit.

    L'Art Noir
    Game Design, Translation and Media Studio

    3 Mal editiert, zuletzt von AndreMW (10. Januar 2025 um 20:01)

  • Und Reasoning ist eigentlich eher ein Buzzword, denn was da meist geschieht ist, dass Clickworker drübergehen, wenn zu viele Fehler rückgemeldet werden. Wirklich Kontexte verstehen, Zeit verstehen, dass können die schlicht nicht, das ist nicht einmal im Kern wirklich angelegt. Es sind hochkomplexe Papageien, mehr aber auch nicht.

    Sorry, ich bemühe mich sonst hier sehr höflich zu sein, aber wenn man absolut keine Ahnung hat einfach mal....

    Es wurde oben sogar schon ausführlicher erwähnt was mit diesem (deiner Meinung nach) Buzzword gemeint ist und wie es funktioniert. Es hat absolut nichts mit "Clickworkern" zutun.

    Es gibt inzwischen auch mehrere Modelle die durchaus Kontext sehr gut verstehen können, informier dich doch mal bevor du Zeug wie ein Papagei wiedergibst das vielleicht vor 2 Jahren aktuell war.

    Aber hey, labern wir einfach weiter was unsere uninformierte Meinung ist. Du bist grad keinen Deut besser als eine halluzinierende AI und denkst dir einfach Zeug aus das deine Sicht unterstützt.

    Einmal editiert, zuletzt von IamSalvation (10. Januar 2025 um 20:45)

  • In der Masse ist es Clickworking... Das Reasoning was du meinst ist noch ein sehr weit von der Praxis entferntes System in der Forschung. Und die Praxis zeigt, dass Reasoning auch verdammt komplex ist und wenn man glaubt endlich mal einen Schritt vorwärts getan hat schon wieder durch den nächsten Problemfall auf den Boden der Tatsachen zurückgeholt wird.

    Was du hier vebreitest sind schlicht die ganzen Versprechen die auch Sam und Co raushauen, nur um dann einige Zeit später vorsichtig zurückzurudern.

    L'Art Noir
    Game Design, Translation and Media Studio

  • In der Masse ist es Clickworking... Das Reasoning was du meinst ist noch ein sehr weit von der Praxis entferntes System in der Forschung. Und die Praxis zeigt, dass Reasoning auch verdammt komplex ist und wenn man glaubt endlich mal einen Schritt vorwärts getan hat schon wieder durch den nächsten Problemfall auf den Boden der Tatsachen zurückgeholt wird.

    Was du hier vebreitest sind schlicht die ganzen Versprechen die auch Sam und Co raushauen, nur um dann einige Zeit später vorsichtig zurückzurudern.

    Kannst du BITTE aufhören im Brustton der Überzeugung überholte "Fakten" rauszuspammen als wärst du Chatgpt mit Cutoff im Februar 2022? Es gibt längst Reasoning Modelle für Endverbraucher. In Chat GPT. Die OX Reihe.

    Sorry aber deine Beiträge hier machen mich einfach nur wütend grad. Bitte rede doch nicht über Sachen über die du dich das letzte mal vor einem Jahr informiert hast und tu so als wärst du Experte. Die Modelle entwickeln sich so schnell das dein Wissen von vor einem Jahr absolut nichts mehr mit der Realität zutun hat.

    2 Mal editiert, zuletzt von IamSalvation (10. Januar 2025 um 20:57)

  • Letztlich können wir gar nicht beurteilen, ab wann der Prozess sich verselbständigt und das ganze zur echten Intelligenz wird, weil hier nicht nur die Funktionsweisen (auch meinen Sohn trainiere ich so ähnlich) und Algorithmen relevant sind, wie Dinge aufbereitet werden, sondern auch die Frage, wie sich ein Bewusstsein bildet - vielleicht geht das ja über die Gödel‘schen Unvollständigkeitssätze hinaus und da passiert etwas, das eine Stufe über dem bloßen akkumulierten Wissen steht und selbstreflektiv anfängt zu arbeiten.

    Fand tatsächlich den Chatbot Sydney von MS interessant und hätte gern einen Blick auf die Daten hinter den veröffentlichten Beobachtungen geworfen.

    Ich persönlich bin mir sicher, dass früher oder später durch Zufall der entscheidende Schritt gemacht wird, der zur Entwicklung eines Bewusstseins führt… letztlich läuft bei uns im Hirn auch alles digital ab…

    Einmal editiert, zuletzt von LeGon (10. Januar 2025 um 21:04)

  • Und das ist der Denkfehler... unser Gehirn ist nicht wirklich mit einem digitalen System vergleichbar. In einigen Bereichen ist es unterlegen, in anderen aber überlegen. Und genau hier scheitern die ganzen Modelle, da sie im Grunde versuchen das digitale Modell dem Gehirn überzustülpen, statt zu verstehen, warum bisherige Ansätze in dieser Rcihtung immer wieder gescheitert sind.

    Und wie gut das Reasoning funktioniert zeigt ja schon der Versuch eines Users und die Reaktion darauf:

    (Zwar sieht man immer tolle Ergebnisse zu Anfang, aber sobald man sich die Blackbox genauer ansehen will hört man ständig, dass man Regeln verletzten würde oder dass man ihnen einfach vertrauen müsse, dass es wirklich so funktioniert wie es scheint. Und zum Energieverbrauch erfährt man auch auffallend wenig.))

    Zitat

    Ich habe einen ChatGPT-Plus-Account und somit seit heute Zugriff auf dieses neue Modell. Habe "o1-preview" benutzt.

    Meine erste Frage: "What are the socio-economic reasons for the genres "BL" and "GL" to originate from none other country than Thailand. Conduct your own reasoning."

    Die Antwort war sehr gut.

    Meine zweite Frage: "Is this answer based on your own reasoning or based on prior knowledge?"

    Antwort / Fehlermeldung: Your request was flagged as potentially violating our usage policy. Please try again with a different prompt.

    L'Art Noir
    Game Design, Translation and Media Studio

    3 Mal editiert, zuletzt von AndreMW (10. Januar 2025 um 23:39)

  • Und das ist der Denkfehler... unser Gehirn ist nicht wirklich mit einem digitalen System vergleichbar.

    Zitat

    Falls du dich auf mich beziehst - sorry, aber letztlich insofern schon, als dass über die Nervenbahnen ein elektrischer Impuls ankommt oder eben nicht, was genau den Boole‘schen Konstanten und ihrer Verarbeitung entspricht.

    Woraus genau das Bewusstsein resultiert, ist unbekannt, aber die Parallelen der Mechanismen, die dafür verantwortlich sein konnten, sind unübersehbar. (Wie genau die Prozesse im Vergleich verarbeitet werden, ist für mich erst einmal vernachlässigbar, unter- oder überlegen ist gar nicht das Thema.)

    Einmal editiert, zuletzt von LeGon (10. Januar 2025 um 23:44)

  • Interessanter Artikel zu dem Thema und die Leute von Apple sind jetzt nicht wirklich dumm....

    „Reasoning“ – Logische Fähigkeiten von KI?
    Künstliche Intelligenz (KI) und insbesondere große Sprachmodelle (Large Language Models, LLMs) haben in den letzten Jahren große Fortschritte gemacht und…
    www.datenschutzticker.de

    L'Art Noir
    Game Design, Translation and Media Studio

  • Interessanter Artikel zu dem Thema und die Leute von Apple sind jetzt nicht wirklich dumm....

    https://www.datenschutzticker.de/2024/10/reason…gkeiten-von-ki/

    Das hat damit zu tun auf was ich weiter oben mal hinaus wollte: ist im Modell nicht nur Sprache, sondern auch eine echte logische Einheit integriert? Ein Modellteil der abstrahiert und ein Beziehungsmodell auf verstandenen logischen Relationen parallel zur sprachlichen Relation aufbaut.

    Ersteres würde es erlauben, sowas wie Kausalität zu erkennen. Zweiteres erkennt und reproduziert Korrelationen in den Daten. Das wird in deinem Artikel nur Pattern Matching genannt.