Responsabilidade social: o que é, significado, conceito e definição

O que é Responsabilidade Social?

O termo responsabilidade social caiu no gosto dos empresários, recentemente, e por isso, ele é bastante ouvido e visto, inclusive, em material publicitário relacionado, em especial, às grandes corporações. Conceitualmente, responsabilidade social é o cumprimento dos deveres e obrigações para com a sociedade em geral.

Nesse sentido, as empresas devem seguir algumas normas voluntariamente para que possam promover a responsabilidade social. Entre elas, estão incluídas ações para contribuir para uma sociedade mais justa e cm um ambiente mais saudável. Para tanto, as corporações não devem basear o seu trabalho apenas na geração de lucros para os proprietários e acionistas. Mas sim, agir de forma que os seus trabalhadores, comunidade local, clientes, fornecedores, autoridades públicas, concorrência e sociedade em geral sejam assistidos.

Na sociologia, responsabilidade social é visto como uma maneira de retribuir a alguém ou a um grupo, por algo alcançado ou cedido, a fim de modificar para melhor o sujeito ou o local que recebeu o impacto de quem está retribuindo. Já os primeiros estudos sobre o tema iniciaram nos anos 1950, nos Estados Unidos.

No entanto, o termo já havia aparecido em trabalhos de Charles Eliot em 1906 e de Arthur Hakley em 1907. Na ocasião, não deram importância, pois tinha cunho socialista. Quando ressurgiu, a responsabilidade social se tornou um fator decisivo para o desenvolvimento e crescimento das empresas.

Para os críticos do uso atual do termo, o problema está nas empresas apenas se valerem do mesmo para publicidade, como forma de autopromoção. Isto é, as corporações vendem uma imagem positiva da sua empresa, quando na realidade apenas mascaram a realidade com pequenas ações separadas e, por isso, ineficiente.