[KI] Ist die Gesellschaft fit genug in Sachen KI-Grundkenntnisse und Medienkompetenz?

  • Ich halte mich selbst aktuell in Sachen KI und den daraus entstehenden Möglichkeiten / Risiken für ... 164

    Das Ergebnis ist nur für Teilnehmer sichtbar.

    Mal ausgelagert aus dem RANT Thread ... die Frage: Ist die Gesellschaft fit genug in Sachen KI-Grundkenntnisse und Medienkompetenz, speziell um sich den neuen Herausforderungen bezüglich der möglichen KI-Gefahren wie z.B. Betrug, Täuschung und Misinformation entgegenzustellen, oder ist es viel mehr so, dass die Mehrheit (noch / sehr) anfällig für missbräuchliche KI-Inhalte ist?

    Dies gilt z.B. auch rückwirkend von vermeintlich historischen Aufnahmen, die entweder durch KI verändert (z.B. eingefärbt werden) oder gänzlich neu erstellt wurden.

    Hier einige Quellen zur Einstimmung in diese Problematik (Google). Zum Beispiel vom SRF im Oktober dieses Jahres.

    (Quelle: Bild-Zeitung / Dreimal Original vs. KI-Generierung)

  • Die Menschheit braucht das auch nicht

    Würden wir Menschen danach handeln was wir brauchen - besonders in Bezug auf Fortschritt - wir würden immer noch in Höhlen wohnen und der säbelzahntiger würde uns fressen.

    Fortschritt geschieht einfach. Er ist nur begrenzt planbar.

    Sind wir bereit für KI in dem Maße bzw. Der Geschwindigkeit wie sie sich gerade entwickelt (als vorhersagemodell auf Basis von Wahrscheinlichkeiten): nein, definitiv nicht. Weder im Rahmen der Gesetzgebung, noch in Form von Medienkonpetenz und genau die fehlende Medienkonpetenz generell wird uns jetzt im "KI-Zeitalter" auf die Füße fallen.

    Und ja, ich denke die KI in der aktuellen Form ist nichts was mehr weg geht. Dazu ist sie in vielen Fällen viel zu Arbeitserleichternd und wird eben noch immer und immer besser. Wenn der üble Stromverbrauch nicht wäre, wäre ich rundherum happy...

  • Ich brauche das nicht, in keinster Weise und lehne es noch mehr ab als „soziale“ Medien!

    Völlig legitime Haltung, Problem ist halt nur: Du wirst bereits aktuell und noch viel stärker zukünftig mit KI in deinem Alltag konfrontiert sein - Ob du willst oder nicht. Und hierbei ist nicht die offensichtliche Nutzung von KI das Problem, sondern die verdeckte / nicht bzw. schwer erkennbare Manipulation durch KI-Inhalte, also die Dinge (wie z.B. Werbung, Inhalte in Büchern, (Online-)Printmedien, Nachrichten usw. die du unausweichlich aktiv konsumierst, die aber bewusst oder unabsichtlich immer mehr von KI-erzeugten bzw. KI-veränderten Inhalten durchsetzt sind bzw. dies auf absehbarer Zeit sein werden ... :watt:

  • Ist die Gesellschaft fit genug in Sachen KI-Grundkenntnisse und Medienkompetenz, speziell um sich den neuen Herausforderungen bezüglich der möglichen KI-Gefahren wie z.B. Betrug, Täuschung und Misinformation entgegenzustellen, oder ist es viel mehr so, dass die Mehrheit (noch / sehr) anfällig für missbräuchliche KI-Inhalte ist?

    Ich kann da natürlich nicht für die Gesellschaft im allgemeinen sprechen, aber ich selber halte mich lediglich für "wenig informiert". Ich weiß zwar, daß grundsätzlich Fake-Artikel und -Bilder möglich sind und auch als solches existieren; wenn ich aber jede Information per Internetrecherche auf ihre Richtigkeit überprüfen muß, bevor ich irgendetwas glauben darf, artet das für mich zur Sisyphusarbeit aus. Denn dann muß ich ja die vorhandenen Quellen und anderweitige Belege ebenfalls auf den Wahrheitsgehalt checken usw. usf.; schließlich könnten die ja ebenfalls gefälscht sein. Und dafür habe ich keine Zeit.

    Insofern gibt es für mich aktuell folgende Vorgehensweise:

    - Beiträge von bestimmten Webseiten, die ich für glaubwürdig halte, prüfe ich nicht weiter nach.
    - Beiträge von Webseiten, die für mich unter den Aspekt "nutzloses Wissen" fallen, nehme ich zur Kenntnis, ohne daß ich die Informationen weiter verifiziere. Sie betreffen mich in meinem Leben einfach nicht; also ist es mir dann egal, ob sie stimmen.
    - Artikel, welche ich irgendwo aufschnappe und die eine Bedeutung für mein Leben haben könnten, versuche ich nach Möglichkeit auf Wahrheitsgehalt zu überprüfen. Vor allem bevor ich sie ungefiltert weitergebe.

  • Viele Menschen besitzen noch nicht Mal ausreichende Medienkompetenz für Printmedien, geschweige denn für das Internet oder soziale Medien. Da schlägt missbräuchliche Nutzung von KI natürlich ein wie eine Atombombe.

    Absolut deiner Meinung: Und wird sind bereits mitten drin in diesem Tsunami ... Beispiel: Die US-Wahlen (Spiegel zu KI-Bildern im US-Wahlkampf).

    Echt oder Fälschung? Welchen Einfluss hatten solche Bilder bei den US-Wahlen?

  • Bisher verdienen nur die Hardware Hersteller an KI, allen voran Nvidia.

    Die KI Anbieter selbst machen mit KI vor allem eine: enorme Verluste und die Anbieter wissen noch nicht, wie sie damit überhaupt heiß verdienen können.


    Und jede Antwort einer KI müsste zuerst gegen gecheckt werden, da KI vor allem eines macht: Halluzinieren


    Und ich halte niemanden für fit genug, um sich gegen KI Täuschungen schützen zu können oder KI Inhalte immer erkennen zu können.

  • Und ich halte niemanden für fit genug, um sich gegen KI Täuschungen schützen zu können oder KI Inhalte immer erkennen zu können.

    Ich denke auch, 100%iges Erkennen wird gerade mit voranschreitender KI-Technik für kaum jemanden möglich sein, gerade weil es uns im Alltag halt nicht möglich ist bzw. sein wird jedes Bild, jeden Bericht, jede Nachricht gegenzuchecken. Grundsätzlich bleibt halt der Grad der Anfälligkeit in der breiten Masse der Gesellschaft das eigentliche Problem, z.B. in Sachen Betrug oder politische Manipulation innerhalb unserer Demokratie ...

  • Du wirst bereits aktuell und noch viel stärker zukünftig mit KI in deinem Alltag konfrontiert sein

    Ich weiß und musste auch erfahren, das in meinem alten Arbeitsumfeld schon etliche Arbeitsplätze „dank KI“ weggefallen sind.

    Würden wir Menschen danach handeln was wir brauchen - besonders in Bezug auf Fortschritt - wir würden immer noch in Höhlen wohnen und der säbelzahntiger würde uns fressen.

    Nein, würden wire nicht. Unsere bisherige Entwicklung hatte immer den Fokus „uns“ weiter zu bringen. Ab jetzt schieben wir eine zukünftig sich selbst verbessernde Verion von uns selbst an uns vorbei. Wo das wohl hinführt, ich will es nicht wissen. Und wo so richtig viel Geld verdient werden kann, da kümmerts die „Musks“ dieser Welt in keinster Weise um die Folgen. Hauptsache Kohle scheffeln!

    Nein, da kommt auf Dauer nichts gutes für uns rum.

    Bitte senden Sie mir Ihre E-Mail doppelt, ich brauche eine fürs Archiv :/

  • Du wirst bereits aktuell und noch viel stärker zukünftig mit KI in deinem Alltag konfrontiert sein

    Ich weiß und musste auch erfahren, das in meinem alten Arbeitsumfeld schon etliche Arbeitsplätze „dank KI“ weggefallen sind.

    Ich denke, dies kann man nicht deutlich genug betonen: KI und deren Inhalte / Erzeugnisse umgibt uns bereits jetzt, und dies wird noch in einem ganz anderen Ausmaß zunehmen. Unabhängig, ob man dem jetzt eher negativ oder positiv gegenübersteht, muss sich dies jeder bewusst machen. Dann KI verändert unsere Wahrnehmung von Informationen und damit der Wirklichkeit. Offensichtliche KI-Inhalte sind da sogar deutlich weniger problematisch, viel mehr potenziell gefährlich sind die unabsichtlich oder bewusst manipulierenden Inhalte, die in allen Formen uns im Alltag begegnen (werden) ...

  • Du wirst bereits aktuell und noch viel stärker zukünftig mit KI in deinem Alltag konfrontiert sein

    Ich weiß und musste auch erfahren, das in meinem alten Arbeitsumfeld schon etliche Arbeitsplätze „dank KI“ weggefallen sind.

    Technischer Fortschritt führt immer dazu, dass Arbeiten die durch Menschen durchgeführt werden, nicht mehr in dieser Form durch Menschen durchgeführt werden. Im Grunde ist genau das auch das Ziel technischen Fortschritts. Entsprechend darf "das kostet Arbeitsplätze" auch niemals ein Grund sein, eine technische Entwicklung nicht weiter zu verfolgen.

    2 Mal editiert, zuletzt von Flipp (25. Dezember 2024 um 09:26)

  • Die heutige Robotik ist schon erstaunlich gut, bei der Generierung von fragwürdigen Inhalten. Aber dabei wird nichts generiert was es nicht schonmal gegeben hat. Im Moment fehlen noch die automatisierten Tools um Fakes schnell als solche Identifizieren zu können, die werden aber ebenfalls bald folgen.

    Bis dahin hilft es sich diverser Techniken zu bedienen, die man schon von den manuell generierten Fakes her kennt. Wie Laterales Lesen, kleinere Fehler erkennen, Sprachstil auf Konsistenz prüfen (bzw. bei Bildern etwas schwieriger, aber Bildkomposition, Beleuchtung, usw.), etc.

  • Wir sollten erstmal aufhören, den aktuellen Stand als "Intelligenz" zu bezeichnen. Da fängt jegliche Kompentenz-Thematik schonmal an.

    Das ist zwar inhaltlich richtig, aber es nützt doch nix, wenn wir im öffentlichen diskurs (einem forum) Worte benutzen, die dann nur die Hälfte versteht. Der Kram wird landläufig als KI bezeichnet und es ist ja auch aktuell das weiteste was wir in Richtung KI haben. Eine Computerspiel KI macht ja auch nix anderes als auf fest einprogrammierte Muster zu reagieren, insofern ist die vorhersage anhand von Wahrscheinlichkeiten schon nen Schritt weiter - besonders aber im Hinblick auf die Zugänglichkeit für alle.

    Neuronale Netze die dazu lernen wie man z. B. ein Computerspiel löst sind da sicher noch mal was anderes, aber die benötigen halt Millionen von versuchen bis was gescheites dabei raus kommt.

    Die Frage ist doch eher, wie sich KI weiter verbessern wird.

    Das Demenzproblem ist ne wirklich spannende Kiste. Ebenso wie das trainieren eigener GPTs. Füttere ich zum Beispiel eine eigene GPT mit meinen Rollenspielinhalten ist das Teil ein super Partner als "leicht abfragbare Bibliothek" und genau da spart es mir eben (arbeits)Zeit.


    Und bezüglich wegfallender Arbeitsplätze: es ist nicht so, dass aktuell ganze jobbeschreibungen dadurch wegfallen. Noch nicht. Aber wenn z. B. Für die Auswertung von Daten Dank KI nur noch 30h pro Woche statt 70 notwendig sind, dann kann ich halt eine Vollzeitstelle streichen und einsparen. Aber genau das selbe passierte bei der Entwicklung der Dampfmaschinen, des Fließbands etc.


    Als Lerntherapeut geht seit KI ein großer Teil meiner Arbeit wesentlich schneller: das vorbereiten von passenden Aufgaben als Übungsinhalt. Ich muss mir keine Sätze, Texte oder Rechnungen mehr ausdenken. Das macht die KI. Ich übe mit Kids groß und Kleinschreibung die gerade absolut fortnite vernarrt sind? Geil, lass die KI nen Text über fortnite schreiben in dem alle Wörter klein geschrieben sind (simples Beispiel).

    Ich brauch nen Vortrag zu Thema X und weiss nicht wie ich anfangen soll? Fangen wir doch mit gamma.app an und nehmen das als Ausgangspunkt.

    KI ist bei mir nie das fertige Produkt - aber es bringt mich so viel schneller zum Ziel durch anfangen, Impulse und Hinweise. Quasi ein sparingspartner. Und dafür bin ich enorm dankbar.

  • Wir sollten erstmal aufhören, den aktuellen Stand als "Intelligenz" zu bezeichnen. Da fängt jegliche Kompentenz-Thematik schonmal an.

    Das ist zwar inhaltlich richtig, aber es nützt doch nix, wenn wir im öffentlichen diskurs (einem forum) Worte benutzen, die dann nur die Hälfte versteht. Der Kram wird landläufig als KI bezeichnet und es ist ja auch aktuell das weiteste was wir in Richtung KI haben. Eine Computerspiel KI macht ja auch nix anderes als auf fest einprogrammierte Muster zu reagieren, insofern ist die vorhersage anhand von Wahrscheinlichkeiten schon nen Schritt weiter - besonders aber im Hinblick auf die Zugänglichkeit für alle.

    .

    Ja, lieber falsches Wording festsetzen lassen, vor allem, wenn es irgendwas inhaltlich suggeriert. Viel besser.

  • Ja, lieber falsches Wording festsetzen lassen, vor allem, wenn es irgendwas inhaltlich suggeriert. Viel besser.

    Besser oder schlechter hat halt mehrere Ebenen. In Bezug auf fachliche Richtigkeit besser. Aber so lange wir Begriffe wie Quantensprung, super-Gau und ähnliches benutzen, ist mir die Verständlichkeit wenn ich von KI statt von LLM spreche tatsächlich lieber, ja. Das kannst du gerne anders handhaben.

    Nachdem OpenAI mit GPT 03 in Tests faktisch AGI erreicht hat die Menschen in 85% übertrifft in Tests, die zuvor für unlösbar für AI galten

    „Im Jahr 2023 veröffentlichten Microsoft-Forscher eine detaillierte Bewertung von GPT-4. Sie kamen zu dem Schluss: „Angesichts des Umfangs und der Tiefe der Fähigkeiten von GPT-4 glauben wir, dass es mit Recht als eine frühe (wenn auch noch unvollständige) Version eines Systems der artificial general intelligence (AGI) angesehen werden kann.“[53] Eine weitere Studie aus dem Jahr 2023 berichtete, GPT-4 übertreffe 99 % der Menschen in den Torrance-Tests für kreatives Denken.“ sagt Wiki dazu - als Unterstützung.

    Aber ich persönlich sehe hier das Problem der Definition von Intelligenz - wie auch bei IQ Tests. Das haben wir im Philosophie Studium lang und breit diskutiert weil ich am Lehrstuhl von prof. Dr. Metzinger gelernt habe, der sich mit (selbst-)Bewusstsein und Robotik/KI beschäftigte.

    Ich find die Frage daher auch sehr spannend, denn aus meiner Arbeit weiß ich. Dass der leselernprozess ähnlich einem LLM funktioniert. Das heißt, sobald das mechanische lesen (zusammenziehen von lauten zu Silben und dann zu Wörtern) erreicht ist, sammelt das Gehirn Wörter und besonders wortbilder und überlegt mit quasi anhand von Wahrscheinlichkeiten welches Wort als Nächstes im Satz folgt - deswegen lesen Ersteller oft schlechter wenn sie das mechanische lesen gemeistert haben als vorher - die „autovervollständigung“ muss halt erst trainiert werden.

  • Das ist zwar inhaltlich richtig,

    Nachdem OpenAI mit GPT 03 in Tests faktisch AGI erreicht hat die Menschen in 85% übertrifft in Tests, die zuvor für unlösbar für AI galten halte ich die Aussage das man "das nicht Intelligenz nennen kann" für bestenfalls uninformiert oder für ignorant.

    Das ist mir zu pauschal. Es gibt einfach keine allgemeine Definition von Intelligenz. Tegmark schlägt zum Beispiel das "Erreichen von komplexen Zielen" vor. Darunter würde es dann passen. Generell sollte man vielleicht eher von maschinellem Lernen sprechen. Am Ende ist das für die Debatte aber gar nicht so wichtig, würde ich sagen.

  • Viele Menschen besitzen noch nicht Mal ausreichende Medienkompetenz für Printmedien, geschweige denn für das Internet oder soziale Medien. Da schlägt missbräuchliche Nutzung von KI natürlich ein wie eine Atombombe.

    Absolut deiner Meinung: Und wird sind bereits mitten drin in diesem Tsunami ... Beispiel: Die US-Wahlen (Spiegel zu KI-Bildern im US-Wahlkampf).

    Echt oder Fälschung? Welchen Einfluss hatten solche Bilder bei den US-Wahlen?

    Ob KI oder nicht, das Bild könnte genauso gut echt sein, dabei aber gestellt und vielleicht sogar bezahlt. :/

    Es hatte (leider) bestimmt Einfluß bei den Wahlen, aber das liegt dann hauptsächlich an der Dummheit der Massen, und nicht an KI oder nicht-KI.

    Ich glaube nicht, daß jemand wirklich objektiv sein kann - alle Meinungen sind subjektiv.
    Natürlich gilt das auch für mich.

  • Die Menschheit braucht das auch nicht

    Würden wir Menschen danach handeln was wir brauchen - besonders in Bezug auf Fortschritt - wir würden immer noch in Höhlen wohnen und der säbelzahntiger würde uns fressen.

    Fortschritt geschieht einfach.

    Äh ... nein.

    Wir sollten erstmal aufhören, den aktuellen Stand als "Intelligenz" zu bezeichnen. Da fängt jegliche Kompentenz-Thematik schonmal an.

    Oh, schau, wir haben über etwas die wortwörtlich selbe Ansicht. Das muss dieses viel zitierte "Weihnachtswunder" sein. :)


  • In dem von dem ich schrieb ging es speziell um GPT 03 und um Benchmarks die vor wenigen Tagen veröffentlicht wurden. Dabei ging es um Aufgaben die eben bisher als für unmöglich für KI galten da sie das erfordern was gemeinhin als Intelligenz, kreatives Denken und umfassendes Verständnis einer Aufgabe erfordert.

  • In dem von dem ich schrieb ging es speziell um GPT 03 und um Benchmarks die vor wenigen Tagen veröffentlicht wurden. Dabei ging es um Aufgaben die eben bisher als für unmöglich für KI galten da sie das erfordern was gemeinhin als Intelligenz, kreatives Denken und umfassendes Verständnis einer Aufgabe erfordert.

    Welcher Influencer hat dir denn diesen Schmarrn in den Kopf gesetzt?

    Der Test stammt aus 2019, und die Ergebnisse sind nicht neu (da haben andere openAI schon übertroffen), und ist somit keineswegs ein Test, der als "unmöglich" für KI galt (nur als schwierig). Im Gegenteil, der Zweck des Testes war nur, Modelle für komplexere Mustererkennungen vorzubereiten, mit Sachen, die Menschen leicht fallen. Darum ging es!

    Der Test erfordert natürlich auch nicht das, was als Intelligenz oder kreatives Denken bezeichnet wird. Es geht um abstraktere Mustererkennung ohne spezifische Vorbereitung. Es ist also genau anders herum - Chollet (also der Kerl, der sich den Test ausgedacht hat) sieht das Ergebnis nur als Schritt auf dem langen Weg zu einer AGI.


    Derzeit wissen wir nichtmal, ob openAI nicht schon wieder getrickst hat und ihr Modell nicht mit Trainingsdaten zum Test spezifisch gefüttert hat, was das Testergebnis nochmal relativieren würde. Das Testergebnis, dass dich so vom Hocker haute, war übrigens auch mit extremen Kosten erkauft. So hoch, dass openAI sogar drum bettelt, dass die nicht veröffentlicht werden. Manche Organisatoren nennen das Ergebnis einfach Brute Forcing, es ging ihnen also völlig am Test vorbei (nach Aussagen von Knoop so etwa um den Faktor von 17200-172000!!!!!). Habe ich erwähnt, dass GPT selbst damit nichtmal alles gelöst hat, trotz der extremen Rechenleistung, die sie reingebrettert haben? :)


    Also nein, hier ist überhaupt nichts "faktisch AGI". Ich würde deine Beiträge eigentlich exemplarisch für die Gefahren zu AI sehen. Sobald man nicht in der Materie ist wird so ziemlich alles missverstanden und überhyped. Der Test heißt ARC-AGI, also glaubst du, der beweist, dass etwas "faktisch" eine AGI ist. Der Test ist "unmöglich", auch wenn jeder im Feld den nur für schwierig hält und der schon bestanden wurde. Die ganzen Elemente, die GPT nicht lösen konnte, blendest du aus, genauso wie die extreme Rechenleistung (die effektiv eben bedeutet, dass der Test inherent nicht bestanden wurde).


    Genau das ist das Problem mit "KI" als Wort für LLMs, es führt zu einem Missverständnis darüber, was die Technik eigentlich ist.


    LLMs sind eine ziemlich großartige Technik mit massivem Potential. Schon in der Medizin können wir damit in ein paar Jahren vermutlich Probleme lösen, die heute wirklich als unmöglich gelten. Aber von AGI sind wir noch meilenweit entfernt. Deshalb ist "AI" dafür auch nur ein Marketingbuzzword.

  • Da ich jeden Monat mehrere (VHS)-Kurse gebe zum Thema Machine Learning, kann ich euch versichern, dass der Großteil der Gesellschaft keinen Plan hat und jeden Deep Fake Mist glaubt. Man muss ja nur mal den entsprechenden Unknowns Thread durchlesen. Da wird kritisiert, dass ein KI-System Regelfragen nicht akkurat beantwortet, obwohl es dafür noch gar nicht angelernt wurde.

  • Vielleicht würde es dir gut tun deine Antworten nochmal durch ein LLM zu schicken bevor du sie absendest mit einem Prompt der dafür sorgt das es weniger von oben herab und aggressiv klingt.

    Vielleicht schaffst du es auch ohne.

  • Viele Menschen besitzen noch nicht Mal ausreichende Medienkompetenz für Printmedien, geschweige denn für das Internet oder soziale Medien. Da schlägt missbräuchliche Nutzung von KI natürlich ein wie eine Atombombe.

    Absolut.

    Wobei ich da schon leichte Probleme damit habe, wie "Medienkompetenz" zu definieren wäre.
    So wie schon von euch erwähnt: es kann nicht angehen, dass die letztendliche Wahrheitsprüfung beim Endkunden liegt.

    Wobei bei Gefahr und Risiken schon in ausreichender Menge dystopische Bücher und Filme vorzeichneten, was bei Kenntnis des menschlichen Wesens da noch kommen mag, sobald die Vereinigung von KI und Maschine einen gewissen Reifegrad erreicht.

    Und selbst im Bestfall fehlt mir die Fantasie, wie unsere Gesellschaft überhaupt noch funktionieren kann, wenn der Mensch quasi sein Hervorstellungsmerkmal verloren hat und evolutionär abgelöst ist. Ob uns die Roboter dann wie skurrile Naturvölkchen in Reservaten lässt?

    In den nettesten SyFy Filmen sind so Androiden ja meist in geringer Anzahl anzutreffende Helferleins. Ich fürcht, diese TNG/SW Variante fällt flach.

    Mit der Nase auf meinem smarten Device getippt.

    Und im Übrigen bin ich der Meinung, dass das :?: entfernt werden muss

  • Der Test stammt aus 2019, und die Ergebnisse sind nicht neu (da haben andere openAI schon übertroffen)

    kannst du das irgendwie belegen das der Test von GPT o3 von 2019 stammt?

    Meine Top Spiele


    Meine 10er: Mage Wars, Cthulhu Wars, Pax Pamir, Kemet Blut und Sand
    und 9er: Britannia, Dune Imperium, Maria, Fief-Frankreich1492, Blood Rage, Cosmic Encounter, Great Western Trail

    Einmal editiert, zuletzt von s3chaos (25. Dezember 2024 um 17:17)

  • Und bezüglich wegfallender Arbeitsplätze: es ist nicht so, dass aktuell ganze jobbeschreibungen dadurch wegfallen. Noch nicht. Aber wenn z. B. Für die Auswertung von Daten Dank KI nur noch 30h pro Woche statt 70 notwendig sind, dann kann ich halt eine Vollzeitstelle streichen und einsparen. Aber genau das selbe passierte bei der Entwicklung der Dampfmaschinen, des Fließbands etc.

    Das sehe ich weitaus problematischer als du.
    Ja auch Industrialisierung und die IT haben die Arbeitswelt stark verändert, aber in beiden Fällen fielen niedrigqualifizierte Jobs weg und es entstanden im Gegenzug höherqualiifizierte neue Jobs (Mechaniker, Techniker, Ingenieure, IT-Fachleute, Programmierer, …).
    Bildung war also immer ein Mittel.

    Bezüglich KI/ML sehe ich aber vor allem auch viele höherqualifizierte und auch kreative Jobs gefährdet und keine neuen Ersatzjobs entstehen.
    Das wird vor allem den Mittelstand beträchtlich treffen, welcher auch für einen großen Teil der Steuerlasten verantwortlich ist.
    Bin schon neugierig, was es da für ein Lösungskonzept geben wird, außer gar keines?

    2 Mal editiert, zuletzt von Diggler (25. Dezember 2024 um 18:02)

  • Viele Menschen besitzen noch nicht Mal ausreichende Medienkompetenz für Printmedien, geschweige denn für das Internet oder soziale Medien. Da schlägt missbräuchliche Nutzung von KI natürlich ein wie eine Atombombe.

    Absolut deiner Meinung: Und wird sind bereits mitten drin in diesem Tsunami ... Beispiel: Die US-Wahlen (Spiegel zu KI-Bildern im US-Wahlkampf).

    Echt oder Fälschung? Welchen Einfluss hatten solche Bilder bei den US-Wahlen?

    Fälschung, die Hände verraten es noch.

  • Viele Menschen besitzen noch nicht Mal ausreichende Medienkompetenz für Printmedien, geschweige denn für das Internet oder soziale Medien. Da schlägt missbräuchliche Nutzung von KI natürlich ein wie eine Atombombe.

    Absolut.

    Wobei ich da schon leichte Probleme damit habe, wie "Medienkompetenz" zu definieren wäre.
    So wie schon von euch erwähnt: es kann nicht angehen, dass die letztendliche Wahrheitsprüfung beim Endkunden liegt.

    Das sehe ich genauso. Leider bekleckern sich weite Teile des journalistischen Berufszweigs, dessen Kerngeschäft eigentlich die Verbreitung glaubwürdig auf Wahrheit geprüfter Informationen sein sollte, in den letzten Jahrzehnten absolut nicht mit Ruhm. Über weite Strecken wird da ungeprüft voneinander abgeschrieben, die sprachliche Qualität bewegt sich bei vielen namhaften Zeitungen zunehmend auf dem Niveau einer mittelmäßigen Schülerzeitung und nicht selten hat die Überschrift nichts mit dem Artikel zu tun. Das trägt ja direkt dazu bei, dass viele Leute inzwischen jeden Scheiß glauben, der irgendwo geschrieben steht.


    Auch wenn es ein Extrembeispiel sein mag, aber besäße zum Beispiel deren primäre Zielgruppe auch nur ein Gramm Medienkompetenz, könnte die gesamte Yellow Press dicht machen.

  • Bezüglich KI/ML sehe ich aber vor allem auch viele höherqualifizierte und auch kreative Jobs gefährdet und keine neuen Ersatzjobs entstehen.

    Ich versuche mal, diese Diskussion wieder aufzuwärmen.

    Ist das eigentlich wirklich so? Ich bin gar nicht sicher, ob wirklich höherqualifizierte oder kreative Jobs von LLMs bedroht sind. Letztlich würde man die "KI" keine Entscheidung treffen lassen und nutzt die aktuellen Modelle doch in erster Linie zum ordnen von Informationen und zum generieren von Wiederholungen.

    Klar verstehe ich den Frust z.B. von Illustratoren, die ihre Arbeit nun durch LLMs bedroht sehen, aber seien wir mal ehrlich: Ein Illustrator ist in erster Linie ein Handwerker, der halt auf Auftrag ordentliche Ergebnisse produziert. Im Prinzip ist der Job des Illustrators doch nicht kreativer, als der Job des Tischlers, der früher in Handarbeit den Schrank gezimmert hat und jetzt weitestgehend (!) durch Maschinen ersetzt werden konnte.

    Jobs, dir in erster Linie daraus bestehen ein vielleicht kompliziert erlerntes Muster zu erkennen und Daten auf dieses Muster hin zu überprüfen erfordern vielleicht ein großes Maß an "Bildung", sind dadurch aber nicht "kreativ" oder "höherqualifiziert". - klar, der Studierte Wirtschaftswissenschaftler wird sein mühselig erworbenes Wissen vielleicht nicht mehr sinnvoll einsetzten können, weil LLMs die vielen erlernten Daten sofort griffbereit haben und das alles zusätzlich auch noch unmittelbar berechnen können. Das liegt aber daran, das viele dieser "höherqualifizierten Jobs" vielleicht auch gar nicht genuin eine höhere Bedeutung haben.

    Erfahrungswerte, eine ausgebildete Intuition und vielleicht auch der zur Kreativität zugehörige Mut Entscheidungen zu treffen und unter Umständen Fehlschläge zu erleiden und sinnvoll zu nutzen - das alles sind Dinge, die durch LLMs meiner Meinung nach her nicht bedroht sind.

    Von daher könnte es doch auch einfach nur zu einer Neubewertung verschiedener Tätigkeiten kommen. Im Grunde ganz ähnlich, wie es bei der Industrialisierung doch auch passiert ist, oder schätze ich das falsch ein?

    Auf diesen Weg rechtfertigen ich mir auch meine Gelassenheit, was die Auswirkungen von Deep Fakes auf unsere Gesellschaft angeht. Letztlich waren Fakes schon immer möglich und sind ja auch schon immer allgegenwärtig gewesen. Dass es jetzt leichter ist, solche Fakes zu erstellen, könnte doch auch den positiven Effekt haben, das man Quellen dadurch grundsätzlich skeptischer gegenüber steht.

    Vertrauen war ja schon immer die antreibende Kraft hinter den meisten gesellschaftlichen Vereinbarungen. Und Institutionen, denen ich vertraue, müssen mich nicht mit Bildern oder Videos überzeugen.

    Ich weiß, ich bin sehr fortschrittseuphorisch - vermutlich eher stumpf naiv 🤷🏼‍♂️. Aber bei all den Horrorszenarien, die die aktuellen Entwicklungen immer produzieren, habe ich das Gefühl, dass die Optimistischen Deutungen meistens viel zu kurz kommen.

    Und ihr wisst ja: Die Entwicklung der Computerspiele hat bekanntlich das Brettspiel auch nicht aussterben lassen... womit ich das Off-Topic fast schon wieder zum Topic zurückgeführt hätte 😁

  • Ein Beispiel:

    Ein Freund von mir hat einen eigenen Betrieb der Schädlingsbekämpfung und macht richtig viel in Social Media und auch richtig viel mit KI.

    Früher hätte er für verschiedenste Dinge / Logos / Flyer etc. Grafiker engagieren müssen - Heute lässt er sich selbst innerhalb von 2 Minuten Dinge wie ein „Comic-Ratten, die Silvester mit Raketen feiern“ Meme für den Firmen-Instagram-Account als Silverstergruß für die treuen Kunden erstellen….Ganz ohne Grafik-Kenntnisse. Der wird nie wieder auch nur einen Cent für externe Gestaltungsaufgaben ausgeben.


    Sein Büro wird aber natürlich weiterhin 2x die Woche von der Reinigungsdame gereinigt.

    Top 10 (jeweils ohne Reihenfolge)

    Spoiler anzeigen

    Top 10:

    Verbotene Welten

    Cthulhu Wars

    Eclipse

    Rune Wars

    Twilight Imperium 4

    Kingdom Death Monster

    Ringkrieg

    Conan

    Dungeons & Dragons 5. Edition

    Star Wars Rebellion

    Knapp dahinter/Top 20:

    Villen des Wahnsinns 2

    Eldritch Horror

    Aristeia!

    Blood Bowl

    Rune Age

    Descent 2

    Cosmic Encounter

    Hyperborea

    Zombicide

    Planet Apocalypse

    Top 10 Partyspiele:

    Agent Undercover

    Jenga

    Crossboule

    Tempel des Schreckens

    Dixit

    Concept

    Junk Art

    Krazy Wördz

    Bezzerwizzer

    Deception

    Einmal editiert, zuletzt von Harry2017 (9. Januar 2025 um 23:12)

  • Klar, so wie dein Freund in seinem Büro vielleicht auch einen Ikea Schreibtisch stehen hat, für den er früher einen Tischler engagieren musste, der richtig viel Ahnung von Holzverarbeitung hat.

    Das ist ärgerlich für den Tischler, oder den Illustrator, keine Frage. Ob die Reinigungskraft jetzt als gutes Beispiel geeignet ist um zu zeigen, welche Kompetenzen vielleicht in Zukunft höher bewertet werden könnten weiß ich nicht... Vielleicht aber schon: Saug- und Wischroboter gibt es schon eine ganze Weile, aber ich glaube, wenn ich eine Firma hätte, würde ich eine kompetente Reinigungskraft vorziehen 🤔

    Der Illustrator in unserem Beispiel hat jetzt im Grunde zwei Möglichkeiten: Entweder er lernt ein neues Handwerk, das höher wertgeschätzt wird, oder er bringt es in seiner Zunft durch Kreativität und Kompetenz so weit, dass Firmen ihn engagieren, obwohl sie die kostenlosen LLMs zur Verfügung stehen haben. Vielleicht hat dein Freund ja auch einen Schreibtisch, der handgemacht und ein Einzelstück ist.

  • Die Gesellschaft ist nicht mal ansatzweise bereit für KI. Natürlich kann ich die Zukunft nicht vorraussehen, aber wenn alles so weitergeht, wie jetzt, werden wir einen Haufen Probleme bekommen. Schauen wir uns einmal den aktuellen Stand an und nehmen an, die KI Entwicklung würde plötzlich stoppen, KIs werden also nicht mehr "intelligenter". Die Probleme mit Fake News und Jobverlusten wurden ja bereits angesprochen, aber ich sehe ein weiteres großes Problem: Da mittlerweile immer mehr Menschen ChatGPT oder ähnliche Produkte nutzen (die überwiegend nicht Open Source sind) und sich mehr oder weniger auf die Antworten verlassen, lassen diese sich auch extrem von der KI beeinflussen. Plötzlich gibt es nicht nur Produktplatzierung in Filmen, sondern maßgeschneiderte "Empfehlungen" der KI. Das Gleiche geht natürlich auch für jegliche Arten von "Meinungsmache" zu diversen RSP Themen. Wenn OpenAI also eine gewisse Stimmung in der Bevölkerung erzeugen will, ist ChatGPT ein geeignetes Mittel. Wenn man sich anschaut, wie gut Meinungsmache in sozialen Medien aktuell schon funktioniert, will ich mir nicht ausmalen, wie die Zukunft wird.

    Einmal editiert, zuletzt von Serenity1701 (9. Januar 2025 um 23:18)

  • Klar wird sich die Gesellschaft als Ganzes anpassen. Wenn beispielsweise die Pflegezeit der Babyboomer beginnt, wird man recht schnell merken, in welche Richtung sich der Arbeitsmarkt u.a. hin orientieren wird.


    Das wird nur natürlich nicht jedem jetzt 25j. Jung-Grafiker / Programmier etc. gefallen…

    Top 10 (jeweils ohne Reihenfolge)

    Spoiler anzeigen

    Top 10:

    Verbotene Welten

    Cthulhu Wars

    Eclipse

    Rune Wars

    Twilight Imperium 4

    Kingdom Death Monster

    Ringkrieg

    Conan

    Dungeons & Dragons 5. Edition

    Star Wars Rebellion

    Knapp dahinter/Top 20:

    Villen des Wahnsinns 2

    Eldritch Horror

    Aristeia!

    Blood Bowl

    Rune Age

    Descent 2

    Cosmic Encounter

    Hyperborea

    Zombicide

    Planet Apocalypse

    Top 10 Partyspiele:

    Agent Undercover

    Jenga

    Crossboule

    Tempel des Schreckens

    Dixit

    Concept

    Junk Art

    Krazy Wördz

    Bezzerwizzer

    Deception

  • Wenn man sich anschaut, wie gut Meinungsmache in sozialen Medien aktuell schon funktioniert, will ich mir nicht ausmalen, wie die Zukunft wird.

    Aber hat den Meinungsmache nicht schon immer gut funktioniert? In Grunde ist diese ganze Debatte hier doch ein Anzeichen dafür, dass durch LLMs zumindest offensichtlicher wird, dass Meinungsmache betrieben wird - immerhin beunruhigt uns das jetzt. Wer beunruhigt ist, neigt dazu vorsichtiger zu werden 🤷🏼‍♂️😁

  • Klar wird sich die Gesellschaft als Ganzes anpassen. Wenn beispielsweise die Pflegezeit der Babyboomer beginnt, wird man recht schnell merken, in welche Richtung sich der Arbeitsmarkt u.a. hin orientieren wird.


    Das wird nur natürlich nicht jedem jetzt 25j. Jung-Grafiker / Programmier etc. gefallen…

    Auch das ist leider gar nicht so einfach. Gute Pflege ist sehr teuer. Klar, theoretisch bräuchten wir sehr viel Pflegepersonal für so viele Leute, aber viele dieser Leute können sich das auch nicht einfach so leisten. Und wenn die weitere Entwicklung von KI tatsächlich zur AGI führen sollte, wären sofort alle "Bürojobs" ersetzbar. Ob es soweit kommt, weiß aktuell niemand mit Gewissheit. Aber falls es passiert, wird die gesellschaftliche Anpassung mehr als nur holprig werden.

  • Ein Beispiel:

    Ein Freund von mir hat einen eigenen Betrieb der Schädlingsbekämpfung und macht richtig viel in Social Media und auch richtig viel mit KI.

    Früher hätte er für verschiedenste Dinge / Logos / Flyer etc. Grafiker engagieren müssen - Heute lässt er sich selbst innerhalb von 2 Minuten Dinge wie ein „Comic-Ratten, die Silvester mit Raketen feiern“ Meme für den Firmen-Instagram-Account als Silverstergruß für die treuen Kunden erstellen….Ganz ohne Grafik-Kenntnisse. Der wird nie wieder auch nur einen Cent für externe Gestaltungsaufgaben ausgeben.


    Sein Büro wird aber natürlich weiterhin 2x die Woche von der Reinigungsdame gereinigt.

    Heute noch bei der Arbeit die Fachzeitschrift für Schädlingsbekämpfung gelesen, da war auch alles voll mit KI-Insekten-Werbebildern. :D