O feminismo no Brasil

Ver o tópico anterior Ver o tópico seguinte Ir em baixo

O feminismo no Brasil

Mensagem  pamellitas em Sex Set 22, 2017 5:31 pm

Feminismo: é um movimento que luta pela igualdade social, política e econômica entre os sexos. O qual foi protagonista de diversas conquistas das mulheres, dentre elas o direito ao voto, ao estudo e ao trabalho. Entretanto, o Brasil, com sua sociedade conservadora, insiste em desmerecer essa revolução.
      Pode-se dizer que esse grupo de mulheres têm se tornado cada vez mais forte, contudo ainda é minoria. Por ser um movimento que abrange várias vertentes -como: as radicais, o feminismo negro e afins-, acaba sendo visto como uma ferramenta de vitimização.
      Em consequência disso, vê-se, a todo instante discursos de ódio contra essa luta, insistência da violência contra a mulher e por fim: a culpa sob a vítima. Observa-se que o nosso país entende empoderamento feminino como uma ameaça, já que, muitos enxergam essa união como forma de submissão masculina.
     Portanto, percebe-se que o conhecimento de nossa sociedade sobre igualdade de gênero é superfícial. Para que isso mude, faz-se necessário o uso da educação, para explicar a importância do feminismo desde as crianças até os idosos, realizar campanhas de incentivo á esse movimento, e a supervisão da eficácia da Lei Maria da Penha de tal forma que tenhamos, enfim, uma sociedade igualitária.

pamellitas

Mensagens : 1
Pontos : 3
Data de inscrição : 22/09/2017

Ver perfil do usuário

Voltar ao Topo Ir em baixo

Ver o tópico anterior Ver o tópico seguinte Voltar ao Topo

- Tópicos similares

 
Permissão deste fórum:
Você não pode responder aos tópicos neste fórum