Filmlexikon

Western

Erbarmungslos brennt die Sonne vom Himmel; angespannt stehen sich der Sheriff und der Gangster gegenüber, die Hände in Höhe der Halterung ihrer Colts.... So könnte eine typische Szene in einem Western aussehen. Der Western ist ein Genre, bei dem die Geschichten normalerweise in den USA spielen, zu der Zeit, als der Westen des Landes besiedelt wurde. Sheriff, Gangster, Cowboys und Indianer, ein Saloon, Pferde, die Prärie - es gibt viele Bestandteile, an denen der Western leicht zu erkennen ist.

Allerdings sind die erzählten Geschichten Legenden und zeigen nicht, wie die Besiedelung tatsächlich stattgefunden hat. So hat es zum Beispiel lange gedauert, bis Indianer in Western gerecht dargestellt wurden - lange Zeit mussten sie immer die Rolle der Bösen spielen, obwohl es die Siedler waren, die ihnen ihr Land weggenommen haben. Und obwohl es damals auch Cowgirls gab, sind die Helden in Western fast immer nur Männer.