„Der Tiger“ Deutschland kann Film
Der Film „Der Tiger“ ist ein Drama über deutsche Soldaten während des Zweiten Weltkriegs. Die bildgewaltige, deutsche Produktion verzichtet dabei auf moralische Bewertungen. Gerade im Ausland sorgt das für Furore.
Dieser Beitrag „Der Tiger“ Deutschland kann Film wurde veröffentlich auf JUNGE FREIHEIT.