Spieleentwicklung mit KI-Unterstützung? / KI vs. Mensch

  • [Mod] aus Wie entwickelt man bitte ein Spiel??

    Wahrscheinlich dauert es dann auch nicht Jahre von der ersten Idee bis zum finalen Produkt, sondern nur Monate? Also so bei nem 2h Spiel? Bis es beim Verlag landet?

    Es beschleunigt das Testen sicherlich, aber eben nicht zwangsläufig auch die Entwicklung zwischen den Tests. Gerade um schnell, mehrere Iterationen eines Mechanismus oder Balancen zu testen, dürfte es helfen. Aber wenn grundlegend etwas am Spiel geändert werden muss, kann einem das digitale Testen das Austüfteln und die grundlegende Umsetzung passender Mechanismen ja auch nicht abnehmen. Spiele zu erfinden/kreieren/designen/younameit ist eben auch mit besseren Testmöglichkeiten immer noch ein kreativer Prozess, der bei jedem anders abläuft und so oder so Zeit braucht - mal mehr, mal weniger.

    Die Möglichkeiten mit AIs auch diesen Prozess zu unterstützen, lasse ich mal außen vor. Spannend ist’s aber definitiv beim Balancing: Can Artificial Intelligence Fix the Monopoly Board Game?

    Ebenfalls interessant wäre natürlich AlphaZero o. ä. auf Prototypen loszulassen. Wenn Go, Schach und Shogi binnen so kurzer Zeit zu meistern sind, sollten auch bei noch komplexeren Spielen brauchbare Ergebnisse herauskommen. Ob die freilich für die Entwicklung nutzbare Erkenntnisse lieferten, steht auf einem anderen Blatt.

    Einmal editiert, zuletzt von yzemaze ()

  • Wenn Go, Schach und Shogi binnen so kurzer Zeit zu meistern sind, sollten auch bei noch komplexeren Spielen brauchbare Ergebnisse herauskommen.

    Moment mal. Go, Schach und meines Wissens auch Shogi sind alles deterministische 2er-Spiele komplett ohne Zufallselemente. Eine solche Engine kannst du sicher mit gutem Erfolg auf Spiele der Gipf-Serie loslassen, aber die Spiele, die hier im Forum üblicherweise diskutiert werden, sind nochmal etwas komplett anderes. Zufallselemente sorgen ganz schnell dafür, dass die Zahl der zu analysierenden Spielsituationen explodiert.


  • Wenn Go, Schach und Shogi binnen so kurzer Zeit zu meistern sind, sollten auch bei noch komplexeren Spielen brauchbare Ergebnisse herauskommen.

    Moment mal. Go, Schach und meines Wissens auch Shogi sind alles deterministische 2er-Spiele komplett ohne Zufallselemente. Eine solche Engine kannst du sicher mit gutem Erfolg auf Spiele der Gipf-Serie loslassen, aber die Spiele, die hier im Forum üblicherweise diskutiert werden, sind nochmal etwas komplett anderes. Zufallselemente sorgen ganz schnell dafür, dass die Zahl der zu analysierenden Spielsituationen explodiert.


    Das ist absolut kein Problem, Probleme sind zum Beispiel das finden vernünftiger Bewertungsmaßstäbe durch KI oder Entwickler. Im Gegensatz zu den von dir genannten Beispielen muss die Simulation auch keine guten Spieler simulieren, sondern am Besten eine aussagekräftige Bandbreite aller möglichen.

    Es gibt da genug Beispiele das solche Simulationen im wissenschaftlichen Rahmen schon durchgeführt wurden. Bei Poker zum Beispiel sogar mit Erfolg was die Qualität des Spiels angeht.

    Die Hürden liegen mehr bei Modelbildung und Bewertung, nicht bei der Anzahl der Züge.Im einfachsten Fall zeigt dir schon eine einfache Monte Carlo Simulation ohne weitere Verfeinerung grobe Fehler im Design oder Balancing.

  • MetalPirate

    Wie war das noch gleich mit dem „wohlwollend interpretieren“? ;)

    Ich habe nicht geschrieben und auch nicht gemeint: „AlphaZero wird morgen 5p Agricola mit allen Karten gelöst haben.“ Ich schrieb „Ebenfalls interessant wäre natürlich AlphaZero o. ä. auf Prototypen loszulassen. Wenn Go, Schach und Shogi binnen so kurzer Zeit zu meistern sind, sollten auch bei noch komplexeren Spielen brauchbare Ergebnisse herauskommen.“


    Wenn schon in wenigen Stunden alles bisher dagewesene in den genannten Spielen entscheidend geschlagen wird, darf man damit rechnen, dass eben auch bei komplexeren [Komparativ!] Spielen brauchbare Ergebnisse anfallen dürften. Beispiele habe ich ganz bewusst nicht genannt.

    Man muss sich immer vor Augen halten, dass DeepMind (und letzten Endes Alphabet) AlphaZero (AZ) nicht entwickelt haben, um Brettspiele zu lösen. Das sind alles nur Tests, sie schrauben nach und nach die Ansprüche nach oben. Alleine die Meilensteine AlphaGo, AlphaGo Zero und AZ sollten das deutlich machen. Wenn es ihr Interesse wäre, (hoch-) komplexe Multiplayerspiele anzugehen, kämen ziemlich sicher ziemlich zügig brauchbare Ergebnisse dabei herum. Ich würde auch nicht ausschließen, dass das einer der nächsten Schritte sein könnte¹. Dass aber selbst dann der Otto-Normal-Spieleerfinder erst mal nichts davon hätte, ist doch vollkommen klar. Wer hat schon Zugriff auf Hardware, deren Leistungsfähigkeit in PFLOPS angegeben wird? ;) Es wäre eben „nur“ „interessant“.

    Das Spannendste ist aber eigentlich, dass AZ allein auf Basis der Spielregeln diese enorme Spielstärke erreicht hat. Keine Eröffnungstabellen, keine Analysen von Menschen oder Programmen gespielter Partien, nix. Nur Spielregeln. Die müsste man halt nur maschinenlesbar formulieren, aber auch das ist keine unüberwindbare Hürde, wie diverse Online-Implementierungen zeigen.


    Die Gipfe dürften AZ i. ü. nicht vor größere Probleme stellen, da wohl alle weniger komplex sind als Go (= weniger relevante Zustände aufweisen).


    => Ich erwarte in dem Bereich weiterhin große Fortschritte und wäre absolut nicht verwundert, wenn Tests durch AIs in ein paar Jahren auch bei der Spieleentwicklung im analogen Bereich möglich wären.


    ¹ Wenn ich was tippen müsste: Siedler von Catan, binnen 2-3 Jahren. Monte-Carlo-Algorithmen wurden ja auch schon (vor einigen Jahren) darauf losgelassen: Monte-Carlo Tree Search in Settlers of Catan

  • Hier wird einiges zusammengeschmissen, der Test eines Spiels braucht keine Perfektion beim Spielen des Spiels. Simple Simulation ist für viele völlig ausreichend. Zudem wird auch oft Komplexität eines Spiels mit dessen Überschaubarkeit, speziell für den Menschen verwechselt.

    Testen eines Spieles braucht auch üblicherweise keine Rechenleistung die über die Kapazität eines Standard PC hinaus geht.


    Was es aber bedarf, je nach Automatisierungsgrad mehr oder weniger , ist ein klares Bewertungssystem. Leicht rausfinden lässt sich durch Simulation zum Beispiel ob ein Startspielervorteil besteht, ob ein Führender schnell uneinholbar ist und ähnliches, diese Quantifizierbaren Eigenschaften aber in einen Wert für Spielspaß umzusetzen,ist schwierig bis unmöglich.

    Am Spiel Siedler von Catan und der Entwicklung von KIs für dieses kann man das gut ablesen. Klaus Teuber bekam bei einer der frühen Umsetzungen für PC einige böse Nachrichten, das die KI massiv schummeln würde beim Würfeln. Er versichert,das dem nicht so war, aber es wurde von den Leuten so empfunden. Und dieses Empfinden ist schwierig in Tests einzufangen. Bei einer KI kann man diese adaptiv gestalten, indem sie mit dem Spieler mitlernt, und ihre Stärke an den Spieler anpasst, das ist dann wirklich Schummeln, aber dem Spieler wird es nicht auffallen. Bei einem Test hat man es nicht so einfach, weil man zum einen den konkreten Spieler nicht kennt, und zum anderen die Kriterien dort generell schwerer zu fassen sind.

  • [...] der Test eines Spiels braucht keine Perfektion beim Spielen des Spiels. Simple Simulation ist für viele völlig ausreichend.

    Ersteres hat keiner behauptet, Letzteres keiner angezweifelt. :)

    Vollkommen unabhängig davon fände ich es spannend, die Ergebnisse von „AZ vs. komplexes Eurogame“ zu sehen. Ob’s bei der Entwicklung von Prototypen überhaupt hülfe, diese AZ o. ä. zum Fraß vorzuwerfen, steht - wie gesagt - auf einem anderen Blatt. Ich kann mir gut vorstellen, dass dem so wäre.

    Testen eines Spieles braucht auch üblicherweise keine Rechenleistung die über die Kapazität eines Standard PC hinaus geht.

    Nicht umsonst werden Simulationen in der Entwicklung vieler Videospiele genutzt. Ich gehe auch davon aus, dass es im analogen Bereich verbreiteter ist, als hier in diesem Thread bisher deutlich wurde.

  • [...] der Test eines Spiels braucht keine Perfektion beim Spielen des Spiels. Simple Simulation ist für viele völlig ausreichend.

    Ersteres hat keiner behauptet, Letzteres keiner angezweifelt. :)


    Der Vergleich mit dem Algorithmus der für GO genutzt wurde hat das aus meiner Sicht impliziert. Beim Testen werden sicher ähnliche Methoden angewandt, aber nur wenn man ein Spiel auf hohem Niveau "lösen" will, ist der Aufwand der dort getrieben wird nötig.

    Irgendwo in England wird in die Richtung geforscht, habe mal bei Nestor Games mit 2 Leuten gesprochen die sich damit beschäftigen. Bei Nestor Games gibt es auch mindestens ein Spiel, welches allein von einem PC entwickelt wurde. Ist zwar abstrakt, aber Thema drauf klatschen wäre wohl das kleinste Problem. Vermutlich wäre der PC auch in der Lage kompliziertere Kombinationen von Mechanismen zu einem Spiel zusammen zu bauen.

  • ¹ Wenn ich was tippen müsste: Siedler von Catan, binnen 2-3 Jahren. Monte-Carlo-Algorithmen wurden ja auch schon (vor einigen Jahren) darauf losgelassen: Monte-Carlo Tree Search in Settlers of Catan

    Ich wünschte ich würd den Statistik-Prof dazu kriegen mir sowas als Thesis (Mathematik) zu ermöglichen...

    Cardboard Games Master Race

  • ¹ Wenn ich was tippen müsste: Siedler von Catan, binnen 2-3 Jahren. Monte-Carlo-Algorithmen wurden ja auch schon (vor einigen Jahren) darauf losgelassen: Monte-Carlo Tree Search in Settlers of Catan

    Ich wünschte ich würd den Statistik-Prof dazu kriegen mir sowas als Thesis (Mathematik) zu ermöglichen...

    Vielleicht solltest Du dich mal bei Ingo Althöfer oder über ihn informieren vielleicht fällt dabei eine gute Thesis Idee ab.


    Ingo Althöfer – Wikipedia


    Eine gute Quelle ist auch das Buch von Bewersdorff


    www.bewersdorff-online.de

  • Irgendwo in England wird in die Richtung geforscht, habe mal bei Nestor Games mit 2 Leuten gesprochen die sich damit beschäftigen.Bei Nestor Games gibt es auch mindestens ein Spiel, welches allein von einem PC entwickelt wurde.

    Nestor + Cameron Browne? Letzterer hat das Programm für seinen Ph. D. geschrieben. „Ludi produced 1,389 new games over a four week run, of which it deemed 19 to be playable and of varying degrees of interest.“ Eines davon war Yavalath, welches bei nestorgames veröffentlicht wurde. Mehr in Yavalath: On Evolutionary Game Design | BoardGameGeek News | BoardGameGeek

    Für Pentalath gilt das gleiche. Beide sind quasi Geschwister. Kauft man eins, kann man beide spielen.

    [Muss ich noch erwähnen, dass ich abstrakte Spiele sehr mag? ;) ]

  • Irgendwo in England wird in die Richtung geforscht, habe mal bei Nestor Games mit 2 Leuten gesprochen die sich damit beschäftigen.Bei Nestor Games gibt es auch mindestens ein Spiel, welches allein von einem PC entwickelt wurde.

    Nestor + Cameron Browne? [...]

    Cameron Browne ist glaube ich Australier. Waren in dem Fall zwei junge englische Studenten, die Universität habe ich leider vergessen. Die hatten glaube ich auch ein eigenes Spiel dafür entwickelt, aber mit Hilfe der Sprache die Cameron Browne dafür geschaffen hat.

    Es gibt auch sicher in Deutschland Projekte die sich daran orientieren. Ingo Althöfer hat soweit ich mich erinnere auch schon mit Cameron Browne zusammengearbeitet.

    Wissenschaftliche Arbeiten haben oft das Problem, das sie über ihre Forschungsprojekt hinaus, selbst an anderen Einrichtungen nicht bekannt werden. Im Internet findet man heute schon mal eher was, aber systematisch danach suchen ist nicht immer einfach.

    2 Mal editiert, zuletzt von yzemaze () aus folgendem Grund: fullquote

    • Offizieller Beitrag

    Cameron Browne ist glaube ich Australier.

    Ist er (laut BGG-Profile). Er kommt offenbar viel rum: „I currently live in Brisbane Berkeley Sydney Seattle London Berlin Munich Tokyo.“


    [Mod]

    Reduzier doch mal den Zitate-Dschungel ;)

  • Habe jetzt mal kurz recherchiert, und die waren vermutlich von der Uni York oder Essex und es ging um ein Spielsystem namens Shibumi. Davon gibt es auch eine ios App. Das Shibumi System gibt es auch bei Nestor Games.

  • Shibumi ist auch von Cameron Browne (und ein geniales System).

  • Bei Interesse an dem Thema lohnt vielleicht auch ein Blick auf AiAi:

    AiAi is a Java-based general game playing engine based on Mogal (a GGP designed and developed by Stephen Tavener and Cameron Browne). Games can be hand-coded in Java (for efficiency), or assembled from blocks using a scripting language based on JSON.

    AiAi allows you to play games against a variety of AIs, mostly variations of MCTS (Monte Carlo tree search). It also contains analysis tools for game authoring; though these are more for my benefit than anyone else’s at present.

    Ca. 50 Spiele sind schon umgesetzt.

  • Interessant, vor allem da es auch Tensorflow nutzt. Allerdings ist es ohne Dokumentation nur schwer durchschaubar. Jedenfalls nichts wo man mal kurz drüber guckt und alles versteht.

    Es scheint wohl auch nur auf eine Kombination von Göttern abzuzielen, da andere Kombinationen den Aufwand deutlich erhöhen, und zu keinem optimalen Ergebnis für jede Kombination führen. So habe ich das jedenfalls verstanden. Fände ich auch logisch.

  • Die Möglichkeiten mit AIs auch diesen Prozess zu unterstützen, lasse ich mal außen vor. Spannend ist’s aber definitiv beim Balancing: Can Artificial Intelligence Fix the Monopoly Board Game?

    Wo ist denn da eine AI von Nöten??

    Zum Einen Würfeln-Ziehen-Keine Entscheidungen treffen.

    Zum Anderen hat der im Artikel erwähnte Mensch lediglich eine Million mal 30 Züge lang die Würfel rollen lassen, um zu sehen, wie oft man auf welchem Feld landet... Blah...

  • Die Möglichkeiten mit AIs auch diesen Prozess zu unterstützen, lasse ich mal außen vor. Spannend ist’s aber definitiv beim Balancing: Can Artificial Intelligence Fix the Monopoly Board Game?

    Wo ist denn da eine AI von Nöten??

    Zum Einen Würfeln-Ziehen-Keine Entscheidungen treffen.

    Zum Anderen hat der im Artikel erwähnte Mensch lediglich eine Million mal 30 Züge lang die Würfel rollen lassen, um zu sehen, wie oft man auf welchem Feld landet... Blah...

    Dann mache das mal alles manuell, und versuche dann die Erträge der Grundstücke zu optimieren auf Gleichverteilung. Kann man hinbekommen, aber mit einem Neuronalen Netzwerk mit Feedback Schleife ist das viel einfacher.

    Hier nochmal das Vorgehen des Programmierers im Detail, was da beschrieben wird, wurde aber sicher automatisiert und nicht händisch optimiert:


    How I Fixed Monopoly - Ludible

  • Weltherrscher

    Ja, genau das, was ich meine: Wo ist da die Künstliche Intelligenz? Eine Schleife, ein paar Zufallszahlen, ein paar Counter. Mehr sehe ich da nicht.

    Für mich gehört zu einer AI zumindest in irgendeiner Art und Weise auch eine Entscheidungsfindung. Die gibt es in dieser Simulation aber nicht, weil eben nur eine 2W6 Zufallszahl geworfen wird...

  • Weltherrscher

    Ja, genau das, was ich meine: Wo ist da die Künstliche Intelligenz? Eine Schleife, ein paar Zufallszahlen, ein paar Counter. Mehr sehe ich da nicht.

    Für mich gehört zu einer AI zumindest in irgendeiner Art und Weise auch eine Entscheidungsfindung. Die gibt es in dieser Simulation aber nicht, weil eben nur eine 2W6 Zufallszahl geworfen wird...

    Du weißt schon was ein neuronales Netz ist? Eine Feedback Schleife ist das ,was dem Netz das Lernen ermöglicht. Man kann es sich als Revenue vorstellen. Mit einer Schleife des prozeduralen Programmierens hat das nix zu tun.

    Im Monopoly Fall soll bei allen Ausgängen des Netzes der selbe Wert stehen, ein Teil der Eingänge ist durch die Erwartungswerte für die Grundstücke schon vorgegeben. Die anderen Eingänge sind die nötige Gewichtungen, damit am Ende überall der selbe Ertrag steht. Wenn alle Werte gleich sind, ist der Fehler des Netzes 0, zur Vorsicht kann man ihn auch etwas höher ansetzen, oder die Trainingsdurchläufe begrenzen damit sich das Netz nicht tot läuft.

    Das war jetzt vereinfacht dargestellt, das Modell ist etwas komplizierter, wie man aus dem Text ersehen kann. Unter anderem weil es unterschiedliche Formen von Erträgen gibt.

    Es

    Was am Beispiel Monopoly vermutlich irritiert ist die Unabhängigkeit der Erträge voneinander. Das sind alles lineare Formeln, und keine Gleichungssysteme wo sich die Werte gegenseitig beeinflussen. Das ist aber nicht bei jedem Spiel so. Der Mechanismus funktioniert dort aber immer noch.

  • Wo liest Du denn, dass er für Monopoly ein neuronales Netz benutzt hat??

    Ergibt sich aus dem Kontext, auch ein anderer generischer Algorithmus wird üblicherweise unter KI verortet. Sein Hintergrund ist die Studium von AI Techniken, er wäre ziemlich doof keinen allgemeinen Ansatz dieser Art zu nutzen. Bei Monopoly geht's wie gesagt durchaus auch anders, aber wenn er was allgemeines anbieten will, dann am Besten so. Das Simulieren allein liefert nur die Daten , das optimieren erfolgt über AI.


    Zitat aus dem ersten Artikel:


    Ten years ago, van der Beek graduated with a Master’s Degree in Artificial Intelligence, and since then, he’s been working on AI systems, smart parsers, and algorithms for various projects.

  • Nur blöd, dass es hinter ner Paywall versteckt ist...

    Zum Zeitpunkt von Thygra s Beitrag war das noch nicht der Fall. Du hast aber nix verpasst. Mehr Infos als in dem FAZ-Artikel gibt’s z. B. in:

    A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play | Science

    AlphaZero: Shedding new light on the grand games of chess, shogi and Go | DeepMind

    AlphaZero Crushes Stockfish In New 1,000-Game Match - Chess.com

    How DeepMind's AlphaZero Mastered Complex Games With No Human Input


    Games have been popular research domains in AI in part because it is easy to identify games in which humans are better than computers. Chess, shogi, and Go are immensely complex, and numerous human players have devoted much of their lives to understanding and playing these games at the professional level. The AlphaZero approach still has limitations that could be addressed (for example, large computational requirements, brittleness, and lack of interpretability), but this work has, in effect, closed a multidecade chapter in AI research. AI researchers need to look to a new generation of games to provide the next set of challenges.

  • Der nächste Schritt:

    Prior AI breakthroughs in complex games have focused on either the purely adversarial or purely cooperative settings. In contrast, Diplomacy is a game of shifting alliances that involves both cooperation and competition. For this reason, Diplomacy has proven to be a formidable research challenge. In this paper we describe an agent for the no-press variant of Diplomacy that combines supervised learning on human data with one-step lookahead search via external regret minimization. External regret minimization techniques have been behind previous AI successes in adversarial games, most notably poker, but have not previously been shown to be successful in large-scale games involving cooperation. We show that our agent greatly exceeds the performance of past no-press Diplomacy bots, is unexploitable by expert humans, and achieves a rank of 23 out of 1,128 human players when playing anonymous games on a popular Diplomacy website.

  • yzemaze

    Hat den Titel des Themas von „Spieleentwicklung mit KI-Unterstützung?“ zu „Spieleentwicklung mit KI-Unterstützung? / KI vs. Mensch“ geändert.
  • Ich hatte gar nicht mitbekommen, dass sie zwischendurch auch schon an Hanabi versucht hatten.

    (ist im Paper verlinkt)


    Leider hab ich das Paper kaum lesen können und es war auch nicht so anschaulich, dass es mir grob erklärt hat, wie der Bot tickt.
    Vermutlich wenn einem all die Markov-Ketten und Algorithmen etwas gesagt hätten (mir nicht).
    Sind das da Optimierungen von Machine Learning?