Nos films présents dans ce festival

Festival Logo Festival du film de Hollywood
États-Unis

Le festival du film de Hollywood (Hollywood Film Festival) est un festival de cinéma américain créé en 1997 et qui se déroule chaque année à Hollywood (Californie) au mois d'octobre.

Le festival est aussi l'occasion de remettre les Hollywood Film Awards.