Normalização Banco de Dados
O conceito de normalização de dados data de 1970 e é mais uma contribuição do memorável Edgard F. Codd. É uma técnica empregada na organização de um conjunto de dados, procurando detectar e eliminar possíveis redundâncias. Esse conjunto é subdividido em outros que contem as mesmas informações, porem sem a redundância inicialmente apresentada. É um processo de refinamento das entidades do mundo real envolvidas num sistema computadorizado.
Podemos utilizar dois tipos de abordagens/metodologias no processo de normalização de um banco de dados:
De cima para baixo (Top-Down): trabalha com agrupamentos de atributos em relação já definidas a partir do projeto conceitual. Uma analise é então aplicada a essa ralação, decompondo-as em entidades e relacionamentos ate serem atingidas as propriedades desejadas para implementação física.
De baixo para cima (Bottom-Up): é um processo inverso ao anterior, que considera os relacionamentos entre os atributos o ponto de partida para o processo, utilizando-os na construção das relações. Também é denominada de projeto por síntese.
A normalização de dados é um processo que nos conduz por uma serie de analises para verificação de esquemas de relação quanto à sua situação diante de uma “forma normal”. Essas análises são efetuadas com base nas dependências funcionais e chaves primarias, procurando assim reduzir possíveis redundâncias e as anomalias oriundas de inclusão, exclusões e atualizações.
A forma normal de uma relação indica o grau de normalização em que ela se encontra. Academicamente falando, existem cinco formas normais, embora apenas as três primeiras já sejam suficientes para se ter uma boa definição da estrutura do banco de dados. No fim da normalização teremos a resposta a principal pergunta que surge quando iniciamos um projeto: quantas tabelas serão necessárias em nosso banco de dados?
As regras de normalização permitem que bancos de dados robustos e eficientes possam ser criados e