Ich merk bei den ganzen "hype"-Serien immer, dass ich irgendwie in vielen Teilen aus der Welt gefallen zu sein scheine, zumindest was das Empfinden von Gewalt angeht. Vll bin ich auch etwas zart besaitet, aber ich kann krasse sichtbare Gewalt, Splitter und Co absolut nicht ab. Früher musste ich nur einen Bogen um Horrorfilme machen, heutzutage erfreut sich das Stilmittel der expliziten Gewaltdarstellung aber solcher Beliebtheit, dass ich kaum noch etwas mit Freude schauen kann. Teils scheint es so, dass gerade dir Qualitäten einer Serie oft an dieser bemessen wird.
Das beste Beispiel dabei ist für mich Game of Thrones. Ich liebe die Bücher, kann die Serie aber nicht schauen, weil mir das "too much" ist. Ich kann keine Dolche in Augen sehen, da wird mir übel. Drüber zu lesen stört mich nicht, nur das optische dazu schaff ich halt nicht. Wobei hier noch der Sonderfall ist, das bei GoT als Serie bei mir alleine dadurch negativ vorbelastet ist, dass hier ganz extrem mit der sexualusierten Gewalt gespielt, bzw diese nicht zum Tragen der Szenen, sondern einfach dem Effekt wegen genutzt wird. Beispiel: im Buch unterhalten sich zwei Personen, in der Serie findet der selbe Dialog statt, während die beiden Personen Oralverkehr praktizieren. Da frag ich mich schon: warum? Es gibt genug Szenen in den Büchern wo Sex und Gewalt im Fokus stehen, da muss man das nicht noch künstlich ausbauen. Mit der Meinung stehe ich vll alleine da, aber es stört mich.
Worauf ich hinaus will: Irgendwie kann ich immer mehr Serien, die weithin gelobt werden, nicht mehr schauen. Was schade ist, weil diese Serien meist wegen ihrer Story gut sind, nicht wegen ihrer Gewalt. Warum ist die explizite Gewaltdarstellung also überhaupt nötig und warum ist sie so "in"?