es ist eigentlivh keine Frage sondern ein Anstoss für eine Diskussion.
Was haltet Ihr von der Serie?
Ich hab jetzt eine Folge gesehen und ich find die voll krass.
Das ist alles ganz fürchterlich gewesen wenn das so richtig dargestellt ist.
gerne kann man sich hier austauschen, werden vorsichtshalber eine spoilerwarnung
an deinem threadtitel vermerken und bitten, wenn möglich nicht zu spoilern.
Jau letztendlich wollte ich nur darauf aufmerksam machen wie krass ich die Serie finde und wie sehr sie mit den klassichen Western aufräumt. Ich denke mal das ist kein spoilern sondern ein neugierig machen.
Mir gefällt die Serie sehr gut, ich habe sie vollständig gesehen. Ich denke, dass sie recht realistisch darstellt, wie es damals war. Blut, Schlamm, Schweiß, Schmerzen und Tränen. Jede/r war sich selbst die/der nächste, die Menschlichkeit musste fast immer auf der Strecke bleiben, sonst kam man nicht weit.
Als Kind habe ich die Western mit John Wayne geliebt, mein Vater war ein großer Fan. Mich hat damals gewundert, dass alle immer so sauber waren .... auch nach tage- und wochenlangen Trecks durch Wüsten und sonstiges unwegsames Gelände. Meine damalige noch etwas "romantische" Sicht hat sich recht schnell erledigt, da ich als Teenager und auch später viel über die "Koloniarisierung" Amerikas gelesen habe.
Denn alles war schrecklich und brutal.