Lei de Amdahl
1.1 Conceitos e Motivação
Um computador, a grosso modo, nada mais é que uma máquina que realiza vários cálculos. Computação/Arquitetura paralela é uma forma de realizar esses cálculos simultaneamente, usando o principio que um dado problema pode ser dividido em problemas menores que são resolvidos concorrentemente, ou seja, em paralelo.
Em geral a demanda por poder computacional cresce cada vez mais, além do fato que o hardware possui limitações físicas que impedem o aumento da frequência de processamento, esses são alguns móvitos de realizar estudos aprofundados nessa área.
1.2 Lei de Amdahl
Como mencionado, o objetivo de se usar paralelismo é executar uma quantidade de operações de um ou mais programas em um tempo menor, esse aumento de desempenho é utilizando paralelismo é chamado de SpeedUp. Entretanto, por maior que seja o nível de paralelismo sempre haverá uma parte que não pode ser paralelizada (Existe essa palavra), essa parte não paralelizada limita o desempenho total da aplicação.
Amdahl desenvolveu uma formula, conhecida como Lei de Amdahl, que possibilita calcular o limite do SpeedUp de uma aplicação em paralelo levando em as porçãos paralelizável e não paralelizável e o numero de processadores envolvidos:
SpeedUp =
SpeedUp =
Onde: N: numero de processadores envolvidos rs: porcentagem sequencial do programa rp: porcentagem paralelizável do programa.
A lei de Amdahl é importante pois prova que o aumento de desempenho não é linearmente direto ao acréscimo do numero de processados. Além do mais existe outros fatores que limitam o SpeedUp como por exemplo o tempo de comunicação que existe entre os elementos de processamento. Referencias
http://www.lume.ufrgs.br/bitstream/handle/10183/19076/000679860.pdf?sequence=1 http://www.dcc.fc.up.pt/~zp/aulas/9899/me/trabalhos/alunos/Processadores/conceitos/main .htm