Si has crecido viendo películas de Hollywood, probablemente tengas una imagen determinada de
Estados Unidos: una tierra donde los sueños se hacen realidad, todo el mundo persigue el éxito y el patriotismo está muy arraigado. Pero los Estados Unidos son
mucho más de lo que Hollywood nos muestra.
Hoy hemos reunido una colección de cosas curiosas y sorprendentes sobre la vida en
Estados Unidos que quizá te pillen
desprevenido, te hagan
cuestionarte algunos estereotipos o te hagan darte cuenta de que la vida en
Estados Unidos no siempre es tan glamurosa como parece en las películas. Así que, ¡vamos a sumergirnos en la
realidad!