lunes, 4 de agosto de 2014

Documentales

Seguro que mucha gente ha visto documentales.
La verdad se supone que los emiten para aprender, pero luego no te enseñan lo peor de ese país o de ese lugar. Algunos solo te ponen playas, lugares lujosos, todo con mucho encanto...Para hacer comercio, parece que el dinero sea lo mas importante, cuando en realidad hay cosas que deberían tener mas repercusión...Nunca he visto un documental sobre la violencia de genero, de violencia infantil, acoso...Solo muestran animales comiendo a otros animales, las playas mas bonitas del continente asiático...Ojala que alguien algún día cambie las cosas como hizo Mándela en Sudáfrica...