Ciencia da computação
Hierarquia de Memórias • Memória ideal: • Capacidade de armazenamento (tamanho) muito grande. • Tempo de acesso muito baixo (velocidade de acesso muito alta). • Custo baixo. • Princípio de localidade: • Em um instante de tempo qualquer, um programa acessa uma porção relativamente pequena do seu espaço de endereçamento. • Localidade temporal: se um item (instrução ou dado) do programa é acessado, ele provavelmente logo será acessado novamente. • Localidade espacial: se um item do programa é acessado, itens cujos endereços são próximos provavelmente logo serão acessados. • Programas em geral exibem localidade temporal e espacial devido às estruturas de dados e de controle utilizadas (laços, execução seqüencial, subrotinas, vetores, ...). • Hierarquia de memórias: • Idéia: tirar vantagem do princípio de localidade. • Múltiplos níveis de memória com diferentes tamanhos e velocidades de acesso. • Memória mais rápida colocada mais perto do processador, memória mais lenta colocada mais distante do processador. • Objetivo: • Dar ilusão de que computador possui memória ideal. • Oferecer para programas memória com grande capacidade (nível mais baixo) e com tempo de acesso pequeno (nível mais alto) ⇒ obter bom desempenho dos programas. tamanho velocidade de acesso custo dis tância da CPU
nível mais alto
memória
memória
nível mais baixo
memória
Bacharelado em Análise de Sistemas – DCT/UFMS
1
Organização e Arquitetura de Computadores
• Sistema de memória organizado como uma hierarquia de memórias: • Existem vários níveis. • Em geral, um nível mais alto é um subconjunto de qualquer nível mais baixo. Isto é, dados contidos em um nível, estão contidos em todos os níveis abaixo. • Dados são copiados apenas entre níveis adjacentes. • Entre 2 níveis adjacentes: nível mais alto e nível mais baixo. • Bloco: unidade mínima de informação que pode estar presente ou não no nível mais alto. • Em geral, um bloco