A Responsabilidade Social Quando As Empresas
Responsabilidade social é quando as empresas, por iniciativa própria, criam comportamentos e ações que adotam o bem-estar dos seus públicos interno e externo. É uma iniciativa voluntária, portanto não deverá nunca ser comparada exclusivamente por ações impostas pelo governo ou por algum incentivo (como fiscal, por exemplo). O objetivo, nesse caso envolve o benefício do todo, tanto para o interno (empregados, acionistas,) ou agentes externos (comunidade, parceiros, meio ambiente, etc.)
A responsabilidade social nos traz a ideia de que uma empresa não tem apenas o objetivo de lucrar e produzir benefício financeiro aos colaboradores que trabalham na empresa, mas deverá sempre contribuir socialmente para o meio em que está inserida. Sendo assim, a responsabilidade social muitas vezes envolve medidas que trazem cultura e boas condições para a sociedade.
Há vários fatores que iniciaram o significado de responsabilidade social, em um mundo que só fala em globalização e visando mudanças “para ontem” nas indústrias, surgem então interrogações e expectativas das pessoas comuns, dos consumidores, das pessoas públicas e dos parceiros em relação às grandes empresas. A população e as instituições, como consumidores e investidores, começaram a repudiar os males gerados contra o meio ambiente pelas atividades exercidas e em meio a isso, cobraram das empresas iniciativas que observassem os requisitos ambientais e exigindo às entidades governamentais a vigilância se esses princípios estão sendo respeitados para a proteção do meio ambiente.
Os estudos que tratam da responsabilidade social começaram nos Estados Unidos, na década de 50, e na Europa, nos anos 60. As primeiras iniciativas sobre este assunto foram no ano de 1906, mas essas não receberam atenção, pois eram consideradas de interesses particulares, e quase cinquenta anos mais tarde, em 1953, nos Estados Unidos, que o tema ganhou um olhar diferenciado. Em meados da década de 70, surgiram várias