Direito do Trabalho
Direito do trabalho é o conjunto de normas jurídicas que regem as relações entre empregados e empregadores, são os direitos resultantes da condição jurídica dos trabalhadores. Estas normas, no Brasil, estão regidas pela Consolidação das Leis do Trabalho (CLT), Constituição Federal de 1988 e várias leis esparsas (como a lei que define o trabalho do estagiário, dentre outras).
Surge como autêntica expressão do humanismo jurídico e instrumento de renovação social. Constitui atitude de intervenção jurídica em busca de um melhor relacionamento entre o homem que trabalha e aqueles para os quais o trabalho se destina. Visa também a estabelecer uma plataforma de direitos básicos. Portanto, a definição de Direito do Trabalho é o conjunto de normas e princípios que regulamentam o relacionamento entre empregado e empregadores.
Pode ser conceituado também segundo Hernainz Marques, professor de Direito do Trabalho, como “Conjunto de normas jurídicas que regulam as relações de trabalho, sua preparação, desenvolvimento, conseqüências e instituições complementares dos elementos pessoais que nelas intervêm." Não é apenas o conjunto de leis, mas de normas jurídicas, entre as quais os contratos coletivos, e não regula apenas as relações entre empregados e empregadores num contrato de trabalho, mas vai desde a sua preparação com a aprendizagem até as conseqüências complementares, como por exemplo a organização profissional.
História
A origem do Direito do trabalho ou direito laboral remonta à Revolução Industrial, no século XIX.
A formação de uma consciência de classe se dá em decorrência:
• da concentração do proletariado em centros industriais nascentes;
• da exploração de um capitalismo sem peias;
• da reação à filosofia individualista da Revolução Francesa;
• da aplicação do princípio do laisser faire, laisser passer, enfatizando a liberdade de contratar;
• do largo emprego do trabalho de meia força;
• da não intervenção estatal e o surgimento da