Direitos do trabalho
Direito do trabalho é o conjunto de normas jurídicas que regem as relações entre empregados e empregadores, são os direitos resultantes da condição jurídica dos trabalhadores. Estas normas, no Brasil, estão regidas pela Consolidação das Leis do Trabalho (CLT), Constituição Federal de 1988 e várias leis esparsas (como a lei que define o trabalho do estagiário, dentre outras).
Surge como autêntica expressão do humanismo jurídico e instrumento de renovação social. Constitui atitude de intervenção jurídica em busca de um melhor relacionamento entre o homem que trabalha e aqueles para os quais o trabalho se destina. Visa também a estabelecer uma plataforma de direitos básicos. Portanto, a definição de Direito do Trabalho é o conjunto de normas e princípios que regulamentam o relacionamento entre empregado e empregadores.
Histórico
O Direito do Trabalho teve seu início na Revolução Industrial, no século XIX. Com a chegada das máquinas, o desemprego cresceu e com isso gerou mais união. Com a Revolução, a insatisfação dos intelectuais, a revolta dos trabalhadores e a posição da Igreja, passou o Estado de mero espectador, para uma postura intervencionista, Ele passa a intervir para obter a paz social, através do equilíbrio entre capital e trabalho. Isso foi feito através da superioridade jurídica do trabalhador para suprir a inferioridade no capital. Daí o caráter protecionista do Direito do Trabalho. Mas o Estado intervém de forma consciente, afirmando que o trabalho não é mercadoria. A partir desse momento começaram a surgir as primeiras normas, leis.
Mas foi após a 1ª Guerra Mundial que o direito do trabalho se firmou, com a criação da OIT (organização internacional do trabalho), que tinha a finalidade específica de cuidar da melhoria do trabalho em todo mundo.
DIREITOS DO TRABALHO NO BRASIL
No Brasil, o Direito do Trabalho foi influenciado por fatores externos e internos.
Por