Sistemas Multiprocessadores e Cluster
Introdução
Organizaç
Organização e Arquitetura de computadores
Multiprocessadores e clusters
Prof. Dr. Luciano José Senger
Memó
Memória compartilhada
• Espaço de endereçamento único:
– O primeiro leva o mesmo tempo para acessar a memória principal independente de qual processador o requisita e de qual word é requisitada. Essas máquinas são chamadas UMA
(Uniform Memory Access) ou SMP (Symmetric
Multiprocessors)
– No segundo estilo, alguns acessos à memória são mais rápidos do que outros, dependendo de que processador pede que word. Essas máquinas são chamadas NUMA (Nonuniform Memory Access)
• As dificuldades de programação em um multiprocessador NUMA são diferentes das dificuldades em um multiprocessador UMA, mas as máquinas NUMA podem escalar para tamanhos maiores e, portanto, potencialmente possuem desempenho mais alto.
Programaç
Programação Paralela
• Aplicações paralelas
– Para que a computação paralela tenha bom desempenho, geralmente é necessário que sejam escritas aplicações paralelas que resolvem problemas que demandam de maior potência computacional
– Objetivo: obter Speed-up linear: desempenho aumenta
(tempo de execução diminui) linearmente na medida que aumenta a quantidade de processadores
– Limitação: Lei de Amdhal – certas partes de um programa não podem ser paralelizáveis
• Ta = Tea/Q + Ten
• Ta: tempo de execução após a melhoria
• Tea: tempo de execução antes da melhoria
• Q: quantidade da melhoria (no caso número de processadores)
• Ten: tempo de execução não afetado pela melhoria
• Os multiprocessadores e clusters normalmente definem alto desempenho como alta vazão para tarefas independentes. – Como os processadores paralelos compartilham dados?
– Como os processadores paralelos se coordenam?
– Quantos processadores?
• Compartilhamento de dados:
– Os processadores com um único espaço de endereçamento, algumas vezes chamados de processadores de memória compartilhada, oferecem