Definición de androcentrismo

El androcentrismo es la postura que ubica al varón en el centro. Esto quiere decir que los vínculos sociales y la visión de la realidad se construyen según la perspectiva masculina.

El androcentrismo abarca diversas prácticas y condiciones que privilegian al hombre en detrimento de la mujer. De esta manera, el hombre es el sujeto de referencia a nivel histórico, social y cultural, mientras que la mujer resulta marginada o invisibilizada.

Es importante tener en cuenta que el androcentrismo va más allá de la actitud de los individuos. Se trata de una posición que aparece en las instituciones de la sociedad e incluso en el lenguaje.

Aquel que posee una mirada caracterizada por el androcentrismo tiende a reproducir estereotipos de género. En este marco, atribuye roles estáticos al hombre y a la mujer siempre con la mujer en un segundo plano.

Con el androcentrismo, en definitiva, el hombre se ubica en un lugar de dominación y la mujer queda relegada a un sitio de subordinación. Esta visión está vinculada al patriarcado y al machismo y puede asociarse a problemáticas como la violencia de género.

En los últimos años, sin embargo, el movimiento feminista se fue expandiendo a nivel mundial, exigiendo el fin del dominio masculino y la igualdad de derechos y oportunidades. Esa lucha contra el androcentrismo aparece, por ejemplo, en la difusión del llamado lenguaje inclusivo, que se opone al uso del masculino como genérico. También en la denuncia de la brecha salarial que favorece a los hombres, quienes suelen ganar más que las mujeres por el desarrollo de las mismas tareas.

Definición siguiente →