processador....o que é cache

quando vamos comprar ou comparar um computador somos deparados por uma palavra desconhecida intitulada cache(le-se quesh).

tentarei aqui explicar do que se refere essa palavra ja que estamos aprendendo sobre computadores.

Na área da computação, cache é um dispositivo de acesso rápido, interno a um sistema, que serve de intermediário entre um operador de um processo e o dispositivo de armazenamento ao qual esse operador acede. A vantagem principal na utilização de uma cache consiste em evitar o acesso ao dispositivo de armazenamento - que pode ser demorado -, armazenando os dados em meios de acesso mais rápidos


[editar]nos dispositivos de armazenamento

Com os avanços tecnológicos, vários tipos de cache foram desenvolvidos. Atualmente há cache em processadores, discos-rígidos, sistemas, servidores, nas placas-mães, entre outros. Qualquer dispositivo que requeira do usuário uma solicitação/requisição a algum outro recurso, seja de rede ou local, interno ou externo a essa rede, pode requerer ou possuir de fábrica o recurso de cache.

Por ser mais caro, o recurso mais rápido não pode ser usado para armazenar todas as informações. Sendo assim, usa-se a cache para armazenar apenas as informações mais frequentemente usadas. Nas unidades de disco também conhecidas como disco rígido ou Hard Drive (HD), também existem chips de cache nas placas eletrônicas que os acompanham. Como exemplo, a unidade Samsung de 160 GB tem 8 MBytes de cache.

No caso da informática, a cache é útil em vários contextos:

  • Nos casos dos processadores, em que a cache disponibiliza alguns dados já requisitados e outros a processar;
  • No caso dos navegadores, em que as páginas são guardadas localmente para evitar consultas constantes à rede (especialmente úteis quando se navega por páginas estáticas);
  • No caso das redes de computadores , o acesso externo , ou à Internet , se dá por meio de um software que compartilha a conexão ou link , software este também chamado de proxy , que tem por função rotear as requisições a IPs externos à rede que se encontra , nestes proxys temos ainda um cache , que na verdade é uma enorme lista de todos os sites que foram visitados pelos usuários dos computadores desta rede, fazendo com isto a mesma função que os caches presentes nos navegadores , ou browsers, só que com a atribuição de servir a toda a rede e com isso aumentar a taxa de acerto dos proxys , minimizar o consumo do link e agilizar a navegação.[1]
  • Os servidores Web, também podem dispor caches configurados pelo administrador, que variam de tamanho conforme o número de page views que o servidor tem.

[editar]Operação

Um cache é um bloco de memória para o armazenamento temporário de dados que possuem uma grande probabilidade de serem utilizados novamente.

Uma definição mais simples de cache poderia ser: uma área de armazenamento temporária onde os dados freqüentemente acedidos são armazenados para acesso rápido.

Uma cache é feita de uma fila de elementos. Cada elemento tem um dado que é a cópia exacta do dado presente em algum outro local (original). Cada elemento tem uma etiqueta que especifica a identidade do dado no local de armazenamento original, que foi copiado.

Quando o cliente da cache (CPU, navegador etc.) deseja aceder a um dado que acredita estar no local de armazenamento, primeiramente ele verifica a cache. Se uma entrada for encontrada com uma etiqueta correspondente ao dado desejado, o elemento da cache é então utilizado ao invés do dado original. Essa situação é conhecida como cache hit (acerto do cache). Como exemplo, um navegador poderia verificar a sua cache local no disco para ver se tem uma cópia local dos conteúdos de uma página Web numa URL particular. Nesse exemplo, a URL é a etiqueta e o conteúdo da página é o dado desejado. A percentagem de acessos que resultam em cache hits é conhecida como a taxa de acerto (hit rate ou hit ratio) da cache.

Uma situação alternativa, que ocorre quando a cache é consultada e não contém um dado com a etiqueta desejada, é conhecida como cache miss (erro do cache). O dado então é copiado do local original de armazenamento e inserido na cache, ficando pronto para o próximo acesso.

Se a cache possuir capacidade de armazenamento limitada (algo comum de acontecer devido ao seu custo), e não houver mais espaço para armazenar o novo dado, algum outro elemento deve ser retirado dela para que liberte espaço para o novo elemento. A forma (heurística) utilizada para seleccionar o elemento a ser retirado é conhecida como política de troca (replacement policy). Uma política de troca muito popular é a LRU (least recently used), que significa algo como “elemento recentemente menos usado”.

Quando um dado é escrito na cache, ele deve ser gravado no local de armazenamento nalgum momento. O momento da escrita é controlado pela política de escrita (write policy). Existem diferentes políticas. A política de write-through (algo como “escrita através”) funciona da seguinte forma: a cada vez que um elemento é colocado no cache, ele também é gravado no local de armazenamento original. Alternativamente, pode ser utilizada a política de write-back (escrever de volta), onde as escritas não são directamente espelhadas no armazenamento. Ao invés, o mecanismo de cache identifica quais de seus elementos foram sobrepostos (marcados como sujos) e somente essas posições são colocadas de volta nos locais de armazenamento quando o elemento for retirado do cache. Por essa razão, quando ocorre um cache miss (erro de acesso ao cache pelo fato de um elemento não existir nele) em um cache com a política write-back, são necessários dois acessos à memória: um para recuperar o dado necessário e outro para gravar o dado que foi modificado no cache.

O mecanismo de write-back pode ser accionado por outras políticas também. O cliente pode primeiro realizar diversas mudanças nos dados do cache e depois solicitar ao cache para gravar os dados no dispositivo de uma única vez.

Os dados disponíveis nos locais de armazenamento original podem ser modificados por outras entidades diferentes, além do próprio cache. Nesse caso, a cópia existente no cache pode se tornar inválida. Da mesma forma, quando um cliente atualiza os dados no cache, as cópias do dado que estejam presentes em outros caches se tornarão inválidas. Protocolos de comunicação entre gerentes de cache são responsáveis por manter os dados consistentes e são conhecidos por protocolos de coerência.


Princípio da Localidade

É a tendência de o processador ao longo de uma execução referenciar instruções e dados da memória principal localizados em endereços próximos. Tal tendência é justificada devido as estruturas de repetição e as estruturas de dados, vetores e tabelas utilizarem a memória de forma subseqüente (um dado após o outro). Assim a aplicabilidade da cache internamente ao processador fazendo o intermédio entre a memória principal e o processador de forma a adiantar as informações da memória principal para o processador.



Memória Cache é uma pequena quantidade de memória estática de alto desempenho, tendo por finalidade aumentar o desempenho do processador realizando uma busca antecipada na memória Ram

Quando o processador necessita de um dado, e este não está presente no cache, ele terá de realizar a busca diretamente na memória RAM, utilizando wait statese reduzindo o desempenho do computador. Como provavelmente será requisitado novamente (localidade temporal) o dado que foi buscado na RAM é copiado na cache.


[editar]Cache L1

Uma pequena porção de memória estática presente dentro do processador. Em alguns tipos de processador, como o Pentium 2, o L1 é dividido em dois níveis: dados e instruções (que "dizem" o que fazer com os dados). A partir do Intel 486, começou a se colocar a L1 no próprio chip [processador]. Geralmente tem entre 16KB e 512KB. O AMD Sempron 2600+ possui 64KB de cache L1. Neste aspecto a Intel fica a perder em relação à AMD, visto possuir menor memória cache nível 1 do que a sua concorrrente direta. Assim já existem processadores AMD com instruções a 128K de memória cache nível 1, como por exemplo o AMD Turion 64 ML-40.

[editar]Cache L2

Possuindo o Cache L1 um tamanho reduzido e não apresentando uma solução ideal, foi desenvolvido o cache L2, que contém muito mais memória que o cache L1. Ela é mais um caminho para que a informação requisitada não tenha que ser procurada na lenta memória principal. Alguns processadores colocam essa cache fora do processador, por questões econômicas, pois uma cache grande implica num custo grande, mas há exceções, como no Pentium II, por exemplo, cujas caches L1 e L2 estão no mesmo cartucho que está o processador. É neste aspecto essencial que a Intel ganha todo o prestígio e rendimento dos seus processadores. A memória cache L2 é, sobre tudo, um dos elementos essenciais para um bom rendimento do processador mesmo que tenha um clock baixo. Um exemplo prático é o caso do Intel Xeon (para servidores) que tem apenas 1.4 GHz de clock interno e ganha de longe do atual Intel Extreme, pelo fato de possuir uma memória cache de 12Mb. Quanto mais alto é o clock do processador, mais este aquece e mais instável se torna. Os processadores Intel Celeron tem tão fraco desempenho por possuir menor memória cache L2. Um Pentium M 730 de 1.6 GHz de clock interno, 533 MHz FSB e 2 MB de cache L2, tem rendimento semelhante a um Intel Pentium 4 2.4 GHz, aquece muito menos e torna-se muito mais estável e bem mais rentável do que o Intel Celeron M 440 de 1.86 GHz de clock interno, 533 MHz FSB e 1 MB de cache L2.

[editar]Cache L3

Terceiro nível de cache de memória. Inicialmente utilizado pelo AMD K6-III (por apresentar o cache L2 integrado ao seu núcleo) utilizava o cache externo presente na placa-mãe como uma memória de cache adicional. Ainda é um tipo de cache raro devido a complexidade dos processadores atuais, com suas áreas chegando a milhões de transístores por micrómetros ou picómetros de área. Ela será muito útil, é possível a necessidade futura de níveis ainda mais elevados de cache, como L4 e assim por diante.

[editar]Tamanho da cache

  • A relação acerto/falha
  • Tempo de acesso a memória principal
  • O custo médio, por bit, da memória principal, da cache L1 e L2
  • O tempo de acesso da cache L1 ou L2
  • A natureza do programa a ser executado no momento

[editar]Técnicas de escrita de dados da cache

-Tecnicas de "Write Hit":

[editar]Write-Back Cache

Usando esta técnica a CPU escreve dados diretamente na cache, cabendo ao sistema a escrita posterior da informação na memória principal. Como resultado o CPU fica livre mais rapidamente para executar outras operações. Em contrapartida, a latência do controlador pode induzir problemas de consistência de dados namemória principal, em sistemas multiprocessados com memória compartilhada. Esses problemas são tratados por protocolos de consistência da cache.

Exemplo: A escrita de um endereço e feita inicialmente numa linha da cache, e somente na cache. Quando mais tarde algum novo endereço necessitar desta linha da cache, estando esta já ocupada, então o endereço inicial e guardado na memoria e o novo endereço ocupa-lhe o lugar na respectiva linha da cache.

Para reduzir a frequência de escrita de blocos de endereços na memoria aquando da substituição é usado um "dirty bit", este é um bit de estado, ou seja, quando o endereço é instanciado inicialmente numa linha da cache, estando essa linha vazia, o valor inicial e implicitamente '0', quando o bloco do endereço e modificado(quando ocorre uma substituição) o valor inicial passa a '1' e diz-se que o bloco do endereço esta "dirty".

Vantagens: -A escrita ocorre à velocidade da cache; -Escritas múltiplas de um endereço requerem apenas uma escrita na memoria; -Consome menos largura de banda.

Desvantagens: -Difícil de implementar; -Nem sempre existe consistência entre os dados existentes na cache e na memoria; -Leituras de blocos de endereços na cache podem resultar em escritas de blocos de endereços "dirty" na memoria.

[editar]Write-Through Cache

Quando o sistema escreve para uma zona de memória, que está sustida na cache, escreve a informação, tanto na linha específica da cache como na zona de memória ao mesmo tempo. Este tipo de caching providencia pior desempenho do que Write-Back Cache, mas é mais simples de implementar e tem a vantagem da consistência interna, porque a cache nunca está dessíncrona com a memória como acontece com a técnica Write-Back Cache.

Vantagens: -Fácil de implementar; -Um "cache-miss" nunca resulta em escritas na memoria; -A memoria tem sempre a informação mais recente.

Desvantagens: -A escrita é lenta; -Cada escrita necessita de um acesso à memoria; -Consequentemente usa mais largura de banda da memoria.

-Tecnicas de "Write Miss":

[editar]Write Allocate

O bloco de endereço e carregado na ocorrência de um "write miss", seguindo-se uma acção de "write hit". O "Write Allocate" é usado com frequencia em caches de "Write-back".

[editar]No Write Allocate

O bloco de endereço e directamente modificado na memoria, não e carregado na cache. O "No Write Allocate" é usado frequentemente em caches de "Write Through".

0 comentários:

Postar um comentário

Seguidores