Filmlexikon

Dokumentarfilm

Der Dokumentarfilm ist eine besondere Form von Filmen, die sich mit Ereignissen, Orten oder Menschen befassen, die es wirklich gibt. Im Gegensatz zu Spielfilmen zeigt der Dokumentarfilm also keine ausgedachten Geschichten und es spielen in der Regel keine bezahlten Schauspieler mit.

Das heißt aber nicht unbedingt, dass ein Dokumentarfilm die Wirklichkeit genau so zeigt, wie sie ist.

Die Filmemacher wählen ja aus, was sie zeigen wollen, was sie am Schluss weglassen, wie sie das gedrehte Material montieren (siehe Montage) und so weiter. Manche Filmemacher versuchen, ihre Sicht auf die Dinge so gut es geht aus dem Film herauszuhalten, damit sich die Zuschauer ihre eigenen Gedanken machen können.

Es ist aber wichtig, daran zu denken, dass das nicht bei jedem Dokumentarfilm so ist und das man auch gar nicht vollständig die eigene Sicht heraushalten kann. Die Trennung zwischen Dokumentar- und Spielfilmen ist daher nicht immer so einfach.  Schau dir als Beispiele doch mal die Dokumentarfilme "Willi und die Wunder dieser Welt" oder "Wächter der Wüste" an!