Memória Cache
Naiara Gomes Pimenta
Professor: Paulo Rodrigues
Centro Universitário Leonardo da Vinci - UNIASSELVI
Análise e Desenvolvimentos de Sistemas – 2° Semestre
Novembro de 2014
Devido a grande diferença de velocidade existente entre o processador e a memória principal, foi desenvolvido um elemento intermediário que tem o propósito de minimizar o impacto desse problema no sistema de computação: A memória Cache.A vantagem principal na utilização de uma cache consiste em evitar o acesso ao dispositivo de armazenamento (que pode ser demorado), armazenando dados em meios de acesso mais rápidos. Mas o que é um cache? Um Cache é um bloco de memória para o armazenamento temporário de dados que possuem uma grande probabilidade de serem utilizados novamente. Uma definição mais simples de cache poderia ser: Uma área de armazenamento temporária onde os dados frequentemente acedidos são armazenados para acesso rápido. A memória cache contém uma cópia de partes da memória principal. Assim, quando o processador deseja ler uma palavra da memória, uma verificação é efetuada para determinar se a palavra está na memória cache, otimizando o acesso. Caso ela esteja é imediatamente fornecida ao processador. Caso contrário, um bloco de dados da memória principal é lido para a memória cache e em seguida a palavra requerida é entregue ao processador. Os tipos de memória cache mais conhecidos são: mapeamento direto, totalmente associativa e associativa por conjunto (N-way).
Mapeamento direto: cada bloco da memória principal é mapeado para uma linha do cache.
Mapeamento associativo: um bloco da memória principal pode ser carregado para qualquer linha do cache.
Mapeamento associativo por conjunto: meio termo direto e o associativo. Com a evolução na velocidade dos dispositivos, em particular nos processadores, o cache foi dividido em níveis, já que a demanda de velocidade a memória é tão grande que são necessários caches grandes com velocidades altíssimas de