West

Disambiguazione – Se stai cercando altri significati, vedi West (disambigua).
Disambiguazione – "Far West" rimanda qui. Se stai cercando altri significati, vedi Far West (disambigua).
West
Carta geofisica del Nordamerica
StatiBandiera degli Stati Uniti Stati Uniti

Il termine West ("ovest" in inglese), o Far West (lontano ovest) indica i territori degli Stati Uniti d'America (grosso modo a ovest del Mississippi) in particolare nel periodo della loro progressiva occupazione da parte degli statunitensi o immigrati bianchi, più o meno lungo tutto il XIX secolo.[1]

Nell'immaginario americano rappresentava anche un ideale; una terra di frontiera, tutta da esplorare e costruire, dove la legge e l'ordine sociale ancora non erano arrivati e dove si poteva essere liberi. Rappresentava anche il prototipo di una conquista sudata metro dopo metro, a dispetto di condizioni ambientali e naturali non sempre propizie, e quindi frutto della forza di volontà e di quella delle armi.

Nella storia del West sono infatti spesso narrate le vicende dei pionieri, degli esploratori (scout o mountain man), dei cowboy, dei banditi, dei criminali, degli sceriffi, dei militari, dei cercatori d'oro, dei pellegrini di chiese, di sette e movimenti religiosi (come per esempio i mormoni, gli anabattisti e i metodisti) e naturalmente dei nativi americani.

  1. ^ Far West nell'Enciclopedia Treccani, su www.treccani.it. URL consultato il 6 gennaio 2023.

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search