A evolução do direito no brasil
O Brasil como todos sabem foi colônia de Portugal de 1500 a 1822 ano da independência. As doutrinas falam muito sobre o direito ter sido implantado no Brasil a partir do momento em que Portugal começou realmente a exploração após o período pré-colonial quando foi imposta aos índios à cultura portuguesa e leis especiais para melhorar a exploração das riquezas como mão-de-obra indígena escrava. Assim o direito português foi se estabelecendo na colônia e se desenvolvendo para melhor atender as necessidades da metrópole, mas se partirmos do ponto em que o direito nasce a partir do momento em que existir sociedade podemos dizer que existia direito antes do descobrimento do Brasil, pois o país já era habitado por índios que viviam em sociedade, para os de visão eurocêntrica os tinham como um povo atrasado, estes não enxergavam que os índios já tinham suas leis para o convívio nas aldeias, claro que não seriam leis articuladas como nos dias atuais, mas já existiam.
Com a independência do Brasil nasceu um novo país que teve de dar seus passos sem a metrópole e para isso era necessário leis para a sociedade brasileira, lembrando que nessa época ainda havia muitos resquícios de Portugal, afinal sua cultura fora forçada ao Brasil que aprendeu a ser colônia submissa. Assim gradativamente o direito brasileiro junto com a política fora evoluindo e tomando sua forma, até chegar aos dias atuais onde o texto da lei foi e é lindamente escrito, mas por causa do nosso triste contexto histórico não se encaixa na realidade da sociedade, deixando de ser plenamente