O pacto entre Hollywood e o nazismo - Como o cinema americano colaborou com a Alemanha de Hitler

Para continuar a fazer negócios na Alemanha após a ascensão de Adolf Hitler ao poder, na década de 1930, os estúdios de Hollywood concordaram em não produzir filmes que...

ver detalhes