O trabalho dignifica o homem | Vitor Rocha Saúde
O trabalho dignifica o homem. Mas o que exatamente essa frase quer dizer? Significa criar no mundo através da nossa ação, transformando o mundo e a nós mesmos. Veja que estou dialogando com conceito original de trabalho, e não como o significado popular que ele adquiriu ao longo dos anos. Muita gente até hoje sente que o trabalho é algo ruim, uma atividade obrigatório desprovida de qualquer identificação. Cujo objetivo é ganhar algum dinheiro no fim do mês. Ponto final. O começo de tudo Eu comecei a estudar o tema do trabalho em 2014 quando me dei conta que praticamente todos os meus clientes do consultório tinham questões envolvendo esse tema. Talvez isso seja porque eu atendi na cidade de São Paulo, local conhecido no Brasil por ter a capital Econômica. É absolutamente impossível ir a São Paulo e não ouvir alguém te perguntando: ” com o quê você trabalha?”…
O post O trabalho dignifica o homem apareceu primeiro em Blog Vittude.