Busca

Fontes de alimentação ATX: principais características

Tipos de fontes de alimentação

Como já dito, as fontes de alimentação são equipamentos responsáveis pelo fornecimento de energia elétrica aos dispositivos dos computadores. Para isso, convertem corrente alternada (AC - Alternating Current) - grossamente falando, a energia recebida por meio de geradores, como uma hidroelétrica - em corrente contínua (DC - Direct Current), uma tensão apropriada para uso em aparelhos eletrônicos. Assim, a energia que chega nas tomadas da sua casa em 110 V (Volts) ou 220 V é transformada em tensões como 5 V e 12 V.
Os computadores usam fontes de alimentação do tipo chaveada. Trata-se de um padrão que faz uso de capacitores e indutores no processo de conversão de energia e recebe esse nome por possuir, grossamente falando, um controle de chaveamento que "liga e desliga" a passagem de energia de forma a gerar e fixar uma tensão de saída. Há também uma categoria chamada fonte linear, mas esse tipo não se mostra adequado aos computadores por vários motivos, entre eles, tamanho físico e peso elevado, além de menor eficiência (conceito que será explicado neste texto), uma vez que fontes lineares utilizam um "excesso" de energia para manter sua tensão de saída, gerando também mais calor. Nas fontes chaveadas isso não ocorre porque esse tipo simplesmente desativa o fluxo de energia em vez de dissipar a "sobra". Além disso, fontes chaveadas também exigem menor consumo, pois utilizam praticamente toda a energia que "entra" no dispositivo.

Fonte de alimentação ATX - Imagem por OCZ
Por se tratar de um equipamento que gera campo eletromagnético (já que é capaz de trabalhar com frequências altas), as fontes devem ser blindadas para evitar interferência em outros aparelhos e no próprio computador.
Antes de ligar seu computador na rede elétrica, é de extrema importância verificar se o seletor de voltagem da fonte de alimentação corresponde à tensão da tomada (no Brasil, 110 V ou 220 V). Se o seletor estiver na posição errada, a fonte poderá ser danificada, assim como outros componentes da máquina. Menos comuns, há modelos de fontes que são capazes de fazer a seleção automaticamente.

Padrões de fontes de alimentação

Assim como qualquer tecnologia produzida por mais de um fabricante, as fontes de alimentação devem ser fornecidas dentro de padrões estabelecidos pela indústria de forma a garantir sua compatibilidade com outros dispositivos e o seu funcionamento regular. No caso das fontes, o padrão mais utilizado nos dias de hoje é o ATX (Advanced Tecnology Extendend), que surgiu em meados de 1996 e que também especifica formatos de gabinetes de computadores e deplacas-mãe.
Com essa padronização, uma pessoa saberá que, ao montar uma computador, a placa-mãe se encaixará adequadamente no gabinete da máquina, assim como a fonte de alimentação. Também haverá certeza de provimento de certos recursos, por exemplo: as fontes ATX são capazes de fornecer tensão de 3,3 V, característica que não existia no padrão anterior, o AT (Advanced Tecnology). O padrão ATX, na verdade, é uma evolução deste último, portanto, adiciona melhorias em pontos deficientes do AT. Isso fica evidente, por exemplo, no conector de alimentação da placa-mãe: no padrão AT, esse plugue era dividido em dois, podendo facilmente fazer com que o usuário os invertesse e ocasionasse danos. No padrão ATX, esse conector é uma peça única e só possível de ser encaixada de uma forma, evitando problemas por conexão incorreta.
As fontes ATX também trouxeram um recurso que permite o desligamento do computador por software. Para isso, as fontes desse tipo contam com um sinal TTL (Transistor-Transistor Logic) chamado PS_ON (Power Supply On). Quando está ligada e em uso, a placa-mãe mantém o PS_ON em nível baixo, como se o estive deixando em um estado considerado "desligado". Se a placa-mãe estiver em desuso, ou seja, não estiver recebendo as tensões, deixa de gerar o nível baixo e o PS_ON fica em nível alto. Esse sinal pode mudar seu nível quando receber ordens de ativação ou desativação de determinados recursos, por exemplo:
- Soft Power Control: usado para ligar ou desligar a fonte por software. É graças a esse recurso que o sistema operacional consegue desligar o computador sem que o usuário tenha que apertar um botão para isso;
- Wake-on-LAN: permite ligar ou desligar a fonte por placa de rede.
O sinal PS_ON depende da existência de outro: o sinal +5 VSB ou Standby. Como o nome indica, esse sinal permite que determinados circuitos sejam alimentados quando as tensões em corrente contínua estão suspensas, mantendo ativa apenas a tensão de 5 V. Em outras palavras, esse recurso é o que permite ao computador entrar em "modo de descanso". É por isso que a placa de vídeo ou o HD, por exemplo, pode ser desativado e o computador permanecer ligado.
Há também outro sinal importante chamado Power Good que tem a função de comunicar à máquina que a fonte está apresentando funcionamento correto. Se o sinal Power Good não existir ou for interrompido, geralmente o computador desliga automaticamente. Isso ocorre porque a interrupção do sinal indica que o dispositivo está operando com voltagens alteradas e isso pode danificar permanentemente um componente. O Power Good é capaz de impedir o funcionamento de chips enquanto não houver tensões aceitáveis. Esse sinal, na verdade, existe desde padrão AT. No caso do padrão ATX, sua denominação é PWR_OK (Power Good OK) e sua existência se refere às tensões de +3,3 V e de +5 V.
Como se trata de uma padrão relativamente antigo, o ATX passou - e passa - por algumas mudanças para se adequar a necessidades que foram - e vão - aparecendo por conta da evolução tecnológica de outros dispositivos. Com isso, surgiram várias versões:
- ATX12V 1.x: essa nova especificação surgiu em meados de 2000 e consiste, basicamente, em um conector adicional de 12 V formado por 4 pinos, e outro, opcional, de 6 pinos e tensão de 3,3 V ou 5 V. Essa versão foi sofrendo pequenas revisões ao longo do tempo. A última, a 1.3, teve como principal novidade a implementação de um conector de energia para dispositivosSATA;
ATX12V 2.x: série de revisões que lançou um conector para a placa-mãe de 24 pinos (até então, o padrão era 20 pinos) e adicionou, na versão 2.2, um plugue para placas de vídeo que usam o slot PCI Express, recurso necessário devido ao alto consumo de energia desses dispositivos. Neste padrão, o conector opcional de 6 pinos foi removido;
- EPS12V: especificação muito parecida com a série ATX12V 2.x, definida pela SSI (Server System Infrastructure) inicialmente para ser aplicada em servidores. Seu principal diferencial é a oferta de um conector adicional de 8 pinos (que pode ser uma combinação de dois conectores de 4 pinos) e um opcional de 4. Para atender de forma expressiva o mercado, muitos fabricantes oferecem fontes que são, ao mesmo tempo, ATX12V v2.x e EPS12V.
Vale frisar que há ainda vários outros formatos menos comuns para atender determinadas necessidades, como variações do ATX (EATX, microATX, etc), EBX, ITX (e suas versões), entre outros.
Com tantos padrões, você pode estar se perguntando qual escolher, não é mesmo? Essa decisão pode ser mais fácil do que parece. Via de regra, se você está montando um computador novo, com componentes totalmente recentes, basta escolher o último padrão disponível, que muito provavelmente será o mais fácil de se encontrar no mercado. Em caso de dúvida, basta consultar a descrição de sua placa-mãe para ver qual padrão ela utiliza e checar se a fonte pela qual você se interessa oferece suporte a essa especificação.

Tensões das fontes de alimentação

Os dispositivos que compõem um computador são tão variados que requerem níveis diferentes de tensão para o seu funcionamento. Por isso, as fontes de alimentação fornecem, essencialmente, as seguintes tensões: +3,3 V, +5 V, +12 V, -5 V e -12 V (as antigas fontes AT não oferecem a tensão de +3,3 V). As saídas de +3,3 V e +5 V são mais direcionadas a dispositivos menores, como chips de memória. A tensão de +12 V é utilizada por dispositivos que consomem mais energia, tais como aqueles que contam com "motores", como HDs (cujo motor é responsável por girar os discos) e drives de DVD ou Blu-ray (que possuem motores para abrir a gaveta e para girar o disco). As tensões de -5 V e -12 V são pouco utilizadas - serviam ao antigo barramento ISA, por exemplo.
É claro que há dispositivos que exigem voltagens menores. Memórias RAM do tipo DDR3, por exemplo, podem trabalhar com +1,5 V. Para esses casos, a placa-mãe conta com reguladores que convertem uma saída de voltagem da fonte de alimentação para a tensão necessária ao componente em questão.

Potência das fontes de alimentação

Esse é o aspecto mais considerado por qualquer pessoa na hora de comprar uma fonte. E deve ser mesmo. Se adquirir uma fonte com potência mais baixa que a que seu computador necessita, vários problemas podem acontecer, como desligamento repentino da máquina ou reinicializações constantes. O ideal é optar por uma fonte que ofereça uma certa "folga" neste aspecto. Mas escolher uma requer alguns cuidados.
O principal problema está no fato de que algumas fontes, principalmente as de baixo custo, nem sempre oferecem toda a potência que é descrita em seu rótulo. Por exemplo, uma fonte de alimentação pode ter em sua descrição 500 W (Watts) de potência, mas em condições normais de uso pode oferecer, no máximo 400 W. Acontece que o fabricante pode ter atingindo a capacidade de 500 W em testes laboratoriais com temperaturas abaixo das que são encontradas dentro do computador ou ter informado esse número com base em cálculos duvidosos, por exemplo. Por isso, no ato da compra, é importante se informar sobre a potênciareal da fonte.
Para isso, é necessário fazer um cálculo que considera alguns aspectos, sendo o mais importante deles o conceito de potência combinada. Antes de compreendermos o que isso significa, vamos entender o seguinte: como você já viu, no que se refere às fontes ATX, temos as seguintes saídas: +3,3 V, +5 V, +12 V, -5 V e -12 V. Há mais uma chamada de +5 VSB (standby). O fabricante deve informar, para cada uma dessas saídas, o seu respectivo valor de corrente, que é medido em ampères (A). A definição da potência de cada saída é então calculada multiplicando o valor em volts pelo número de ampères. Por exemplo, se a saída de +5 V tem 30 A, basta fazer 5x30, que é igual a 150. A partir daí, resta fazer esse cálculo para todas as saídas e somar todos os resultados para conhecer a potência total da fonte, certo? Errado! Esse, aliás, é um dos cálculos duvidosos que alguns fabricantes usam para "maquiar" a potência de suas fontes.
É aí que entra em cena a potência combinada. As saídas de +3,3 V e +5 V são combinadas, assim como todas as saídas de +12 V. A potência máxima de cada uma só é possível de ser alcançada quando a saída "vizinha" não estiver em uso. Ou seja, no exemplo anterior, a potência da saída de +5 V só seria possível se a tensão de +3,3 V não fosse utilizada. Há ainda outro detalhe: uma outra medida de potência combinada considera os três tipos de saída mencionados: +3,3 V, +5 V, +12 V. Esse valor é então somado com as potências das saídas de -12 V (note que o sinal de negativo deve ser ignorado no cálculo) e +5 VSB. Daí obtém-se a potência total da fonte.
Para facilitar na compreensão, vamos partir para um exemplo. Vamos considerar uma fonte cujo rótulo informa o seguinte:


Observe que a potências combinada das tensões +3,3 V, + 5 V e +12 V é de 477,8 W, que é somada com a potência das saídas de - 12 V e +5 VSB, que é 22,2 W (7,2 + 15). Assim, a fonte tem 500 W de potência total. Mas aqui vai uma dica: no ato da compra, observe se as saídas de +12 V (sim, geralmente há mais de uma) fornecem uma potência combinada razoável. Essa é mais importante porque consiste na tensão que é utilizada pelos dispositivos que mais exigem energia, como o processador e a placa de vídeo. No nosso exemplo, esse valor é de 384 W.


Rótulo descritivo na lateral de uma fonte ATX
Mas você deve estar se perguntando: como saber a potência adequada para o meu computador? Você já sabe que terá problemas se adquirir uma fonte com potência insuficiente. Por outro lado, se comprar uma fonte muito poderosa para uma PC que não precisa de tudo isso, vai ser como comprar um ônibus para uma família de 5 pessoas. A tabela a seguir pode te ajudar nisso. Ela fornece uma estimativa do quanto os principais componentes de um computador podem consumir:

Como já dito, processadores e placas de vídeo são os dispositivos que mais exigem energia. Para piorar a situação, essa medida pode variar muito de modelo para modelo. Por isso, é importante consultar as especificações desses itens para conhecer suas médias de consumo. Suponha, por exemplo, que você tenha escolhido a seguinte configuração:


Veja que o total é de 260 W, sem considerar outros itens, como placas-mãe, pentes de memória, etc. Neste caso, uma fonte com pelo menos 400 W reais seria o ideal (lembre-se da dica de sempre contar com uma "folga").

Eficiência das fontes de alimentação

Esse é outro aspecto de extrema importância na hora de escolher uma fonte. Em poucas palavras, a eficiência é uma medida percentual que indica o quanto de energia da rede elétrica, isto é, da corrente alternada, é efetivamente transformada em corrente contínua. Para entender melhor, vamos a um rápido exemplo: suponha que você tenha um computador que exige 300 W, mas a fonte está extraindo 400 W. A eficiência aqui é então de 75%. Os 100 W a mais que não são utilizados são eliminados em forma de calor.
Com base nisso, perceba o seguinte: quanto maior a eficiência da fonte, menor é o calor gerador e menor é o desperdício de energia, fazendo bem para o seu bolso e evitando que seu computador tenha algum problema causado por aquecimento excessivo. Por isso que eficiência é um fator muito importante a ser considerado. Fontes de maior qualidade tem eficiência de pelo menos 80%, portanto, estas são as mais indicadas. Fontes com eficiência entre 70% e 80% são até aceitáveis, mas abaixo disso não são recomendadas.

Power Factor Correction (PFC)

PFC (Power Factor Correction ou, em bom português, Fator de Correção de Potência) é, em poucas palavras, um meio de permitir o máximo de otimização possível na distribuição de energia. Vamos entender melhor: dispositivos constituídos por motores, transformadores, reatores, entre outros, lidam com dois tipos de energia: ativa e reativa. A diferença básica entre ambos é que a energia reativa é aquela que é utilizada apenas para magnetizar determinados componentes dos motores, transformadores, etc.
A questão é que o excesso de energia reativa pode causar vários problemas, como aquecimento, sobrecarga, entre outros. Isso acontece porque a energia reativa não é energia de "trabalho", cabendo à energia ativa esse papel, mas pode utilizar recursos que poderiam ser dedicados a esta última. Por isso, quanto menos energia reativa for usada, melhor.
Uma maneira de medir o uso de energia reativa é comparando-a com a energia ativa. Isso se chama Fator de Potência. A medição é feita analisando valores entre 0 e 1. Quanto mais próximo de 1, menor é a utilização de energia reativa. Pelo menos em aplicações industriais, o ideal é que o fator de potência seja de, pelo menos, 0,92.
Nas fontes de alimentação, o Fator de Correção de Potência é utilizado para manter essa relação em patamares aceitáveis. Há dois tipos de mecanismos para isso: PFC ativo e PFC passivo. O primeiro faz uso de componentes que conseguem deixar o fator de potência em 0,95 ou mais - pelo menos teoricamente - e que também conseguem reduzir interferências. O segundo tipo, por sua vez, é menos eficiente, pois utiliza componentes que não conseguem oferecer um "equilíbrio" tão otimizado quanto o PFC ativo. O fator de potência de fontes com PFC passivo fica em torno de 0,80, mas modelos de menor qualidade podem chegar a 0,60.
É evidente que fontes com PFC ativo são mais recomendadas, mesmo porque estas podem oferecer um recurso bastante interessante: seleção automática de voltagem. Note, no entanto, que em termos de benefícios para o usuário final, o PFC é vantajoso em seus aspectos de proteção. Não há relevância em termos de economia de energia, por exemplo. Fabricantes passaram a adotar esse recurso mais por determinação de autoridades reguladoras de alguns países.

Conectores das fontes de alimentação

As imagens a seguir mostram os principais conectores existentes em uma fonte ATX, começando pelo conector que é ligado à placa-mãe:


A foto acima mostra um conector de placa-mãe com 24 pinos, sendo que uma parte, com 4 pinos, é separada. Isso existe para garantir compatibilidade com placas-mãe que utilizam conectores de 20 pinos. Na imagem abaixo, é possível ver seu respectivo encaixe na placa-mãe:



A imagem abaixo mostra um conector utilizado em dispositivos como HDs e unidades de CD/DVD que utilizam a inferface PATA, também conhecida como IDE. Esse padrão está caindo em desuso, pois foi substituído pelas especificações SATA:

Na figura abaixo é possível ver o encaixe desse conector na parte traseira de um HD:

Por sua vez, a imagem abaixo mostra um conector utilizado em unidades de disquetes. Esse dispositivo também caiu em desuso, portanto, trata-se de um conector que tende a desaparecer:

Vemos abaixo um conector de energia do atual padrão SATA:

Na foto seguinte, o encaixe SATA na parte traseira de um disco rígido:


Chamado de ATX12V, o conector visto abaixo conta com 4 pinos, deve ser encaixado na placa-mãe e geralmente tem a função de fornecer alimentação elétrica para o processador. Há uma versão mais atual, denominada EPS12V, que utiliza 8 pinos e que pode ser formada também pela união de dois conectores de 4 pinos:


Na figura seguinte, o encaixe na placa-mãe do conector da imagem anterior:



Ventoinha das fontes

Ao pegar uma fonte de alimentação, você vai perceber que ela possui uma ventoinha, isto é, um "ventilador" que tem a função de retirar o ar quente proveniente do calor que é gerado dentro do computador. Para o usuário, esse é um aspecto que é importante de ser analisado por um simples motivo: barulho. Boa parte das fontes disponíveis no mercado, principalmente as de baixo de custo, utilizam uma ventoinha que fica em sua parte traseira, geralmente de 80 mm, de forma que é possível visualizá-la ao olhar a parte de trás da máquina. Por outro lado, há modelos de fonte que utilizam uma ventoinha maior, quase sempre de 120 mm, que fica instalada na parte de baixo, de forma que só é possível vê-la com a abertura do gabinete da máquina, como mostra a imagem a seguir:
A vantagem de utilizar um fonte deste último tipo é que a ventoinha é maior, portanto, requer um número menor de rotações para direcionar o fluxo de ar. Dessa forma, essa fonte também consegue ser mais silenciosa.
Modelos mais sofisticados também contam com um sensor de temperatura que é capaz de acelerar a rotação das ventoinhas em caso de aumento de calor. Esse recurso é interessante não só por oferecer proteção contra aumento excessivo de temperatura, como também por servir de alerta de que alguma coisa está atrapalhando a circulação de ar necessária para o bom funcionamento da máquina.

Finalizando

Como você deve ter percebido no decorrer do artigo, a fonte de alimentação tem mais importância para um computador do que pensa. Por isso, é necessário direcionar maior atenção a esse item na hora de fazer um upgrade ou montar uma máquina. Como dica final, uma orientação que é comum na comprar de qualquer produto: pesquise. Dê preferência por modelos de marcas conceituadas, que fornecem todos os detalhes de seus produtos e garantia. E, mesmo assim, pesquise na internet pelos modelos que te interessatrm, pois mesmo entre fabricantes reconhecidos há produtos que decepcionam. É claro que na maioria das vezes não é necessário adquirir uma fonte top de linha, por outro lado, fontes de custo muito baixo, apelidadas de "genéricas", devem ser evitadas sempre que possível, pois quase sempre são de baixa qualidade e podem inclusive representar algum risco ao seu computador.
Escrito por  - Publicado em 29_04_2010 - Atualizado em 08_12_2010

O que é SSD (Solid-State Drive)?


O que é SSD?

Como você já sabe, SSD é a sigla para Solid-State Drive, algo como "Unidade de Estado Sólido", em português. Trata-se de um tipo de dispositivo para armazenamento de dados que, de certa forma, concorre com os discos rígidos. Aceita-se a ideia de que seu nome faz alusão à inexistência de peças móveis na constituição do dispositivo, o que já não acontece nos HDs, que precisam de motores, discos e cabeçotes de leitura e gravação para funcionar.
O termo "Estado Sólido", na verdade, faz referência ao uso de material sólido para o transporte de sinais elétricos entre transistores em vez de uma passagem baseada em tubos a vácuo, como era feito na época das válvulas.
Em aparelhos SSD, o armazenamento é feito em um ou mais chips de memória, dispensando totalmente o uso de sistemas mecânicos para o seu funcionamento. Como consequência desta característica, unidades do tipo acabam sendo mais econômicas no consumo de energia, afinal, não precisam alimentar motores ou componentes semelhantes (note, no entanto, que há outras condições que podem elevar o consumo de energia, dependendo do produto).
Esta característica também faz com que "discos SSD "(não se trata de um disco, portanto, o uso desta denominação não é correto, mesmo assim, é um termo relativamente comum) utilizem menos espaço físico, já que os dados são armazenados em chips especiais, de tamanho reduzido. Graças a isso, a tecnologia SSD começou a ser empregada de forma ampla em dispositivos portáteis, tais como notebooks ultrafinos (ultrabooks) e tablets

Visão interna e externa de uma unidade SSD de 64 GB da Sandisk - 
Note que o dispositivo é composto, essencialmente, por chips
Outra vantagem da não utilização de peças móveis está no silêncio - você não ouve uma unidade SSD trabalhar, tal como pode acontecer com um HD - e na melhor resistência física quando o dispositivo sofre quedas ou é balançado (o que não quer dizer que sejam indestrutíveis também). Além disso, dispositivos SSD pesam menos e, pelo menos na maioria dos casos, podem trabalhar com temperaturas mais elevadas que as que são suportadas pelos discos rígidos. Há ainda outra característica considerável: o tempo transferência de dados entre a memória RAM e unidades SSD pode ser muito menor.
É claro que também há desvantagens: unidades SSD são muito mais caras que HDs, embora os preços possam diminuir à medida que a sua utilização aumenta. Por causa disso - em muitos casos, também por limitações tecnológicas -, a grande maioria das unidades SSD oferecidas no mercado tem capacidade de armazenamento muito inferior em comparação aos discos rígidos que possuem a mesma faixa de preço.

Memória Flash

A tecnologia SSD é baseada em chips especialmente preparados para armazenar dados, mesmo quando não há recebimento de energia. São, portanto, dispositivos não-voláteis. Isso significa que não é necessário usar baterias ou deixar o dispositivo constantemente ligado na tomada para manter os dados nele.
Para que isso seja possível, convencionou-se entre os fabricantes de SSD o uso de memórias Flash. Trata-se de um tipo de memória EEPROM* (ver explicação abaixo) desenvolvido pela Toshiba nos anos 1980. Os chips de memória Flash são parecidos com a memória RAM usada nos computadores, porém, ao contrário desta última, suas propriedades fazem com que os dados não sejam perdidos quando não há mais fornecimento de energia, como já informado.
* EEPROM é um tipo de memória ROM que permite a regravação de dados, no entanto, ao contrário do que acontece com as memórias EPROM, os processos para apagar e gravar informações são feitos eletricamente, fazendo com que não seja necessário mover o dispositivo de seu lugar para um aparelho especial para que a regravação ocorra.
Há, basicamente, dois tipos de memória Flash: Flash NOR (Not OR) e Flash NAND (Not AND). O nome é proveniente da tecnologia de mapeamento de dados de cada um. O primeiro tipo permite acesso às células de memória de maneira aleatória, tal como acontece com a RAM, mas com alta velocidade. Em outras palavras, o tipo NOR permite acessar dados em posições diferentes da memória de maneira rápida, sem necessidade de esta atividade de ser sequencial. O tipo NOR é usado em chips de BIOS ou firmwares de smartphones, por exemplo.
O tipo NAND, por sua vez, também trabalha em alta velocidade, porém faz acesso sequencial às células de memória e as trata em conjunto, isto é, em blocos de células, em vez de acessá-las de maneira individual. Em geral, memórias NAND também podem armazenar mais dados que memórias NOR, considerando blocos físicos de tamanhos equivalentes. É, portanto, o tipo mais barato e mais utilizado em SSD.


Chip de memória Flash NAND da Micron

Tecnologias Multi-Level Cell, Single-Level Cell, Triple-Level Cell e Die-Stacking

Atualmente, há três tecnologias principais que podem ser empregadas tanto em memórias Flash NOR quando em Flash NAND: Multi-Level Cell (MLC), Single-Level Cell (SLC) e Triple-Level Cell (TLC).

Multi-Level Cell (MLC)

O primeiro tipo, MLC, consiste em um processo que utiliza tensões diferenciadas que fazem com que uma célula de memória armazene dois (mais comum) ou mais bits, em vez de apenas um, como é o padrão. Graças à tecnologia MLC, os custos de dispositivos de armazenamento Flash se tornaram menores, aumentando consideravelmente a oferta de produtos como pendrives e tocadores de MP3 de preços mais acessíveis. Vale frisar que o MLC tem uma tecnologia concorrente e parecida chamada Multi-Bit Cell (MBC).

Single-Level Cell (SLC)

O tipo SLC, por sua vez, nada mais é do que as memórias Flash "normais", isto é, que armazenam um bit em cada célula. Chips do tipo SLC, obviamente, são mais caros, mas isso não quer dizer que são inviáveis: em geral, são mais resistentes, suportando, por padrão, cerca de 100 mil operações de leitura e escrita por célula, contra 10 mil do MLC (esses números podem variar, conforme a evolução da tecnologia), e permitem que estas execuções sejam efetuadas em menor tempo. A tecnologia SLC é normalmente utilizada em dispositivos de armazenamento de alto desempenho.

Triple-Level Cell (TLC)

O tipo TLC é mais comumente encontrado em unidades SSD "econômicas", uma vez que se trata de uma tecnologia mais lenta nos processos de leitura ou gravação de dados e que possui menor tempo de vida útil. Cada uma de suas células de memória podem armazenar até 3 bits simultaneamente.

Die-Stacking

É importante destacar que há também uma técnica chamada Die-Stacking que igualmente tem o objetivo de aumentar a capacidade de armazenamento de memórias Flash. Para isso, os chips são "empilhados". A ideia aqui é relativamente simples: dois ou mais chips de memória Flash são colocados um em cima do outro, interconectados e encapsulados, como se fossem um dispositivo só. A técnica Die-Stacking pode ser encontrada, por exemplo, nos cartões de memória microSD.

* * *

Vale destacar que a tecnologia Flash é a mais aplicada em unidades SSD, no entanto, não é a única. A Gigabyte, por exemplo, lançou um produto chamado iRAM que pode ser entendido como um tipo de SSD. Nele, os dados são armazenados em um dispositivo que permite a conexão de pentes de memória RAM DDR. Os dados são mantidos graças a uma bateria recarregável. A autonomia da bateria é de aproximadamente 15 horas, um desvantagem considerável. Apesar disso, o dispositivo pode ser útil para armazenar temporariamente dados de um servidor que irá passar por manutenção, por exemplo.

Formatos de SSD

Pela abordagem que fizemos até agora, podemos entender qualquer dispositivo que utiliza memória Flash como sendo uma unidade SSD. Mas, na verdade, é mais adequado pensarmos em SSD como um tipo de dispositivo concorrente ao disco rígido - não podemos esquecer da palavra "Drive" no nome.
Nessa linha de pensamento, a indústria começou a fornecer unidades SSD como se fossem HDs, só que com chips de memória em vez de discos. Assim, esses dispositivos podem ser conectados em interfaces SATA ou IDE (PATA), por exemplo. Dessa forma, é possível encontrar então unidades SSD em formatos de 1,8, 2,5 e 3,5 polegadas, tal com em HDs.

Unidade SSD de 2,5 polegadas e interface SATA da Micron
Esses drives SSD também podem contar com uma pequena quantidade de memória RAM que atua como cache (ou buffer), não só para acelerar o acesso aos dados mais utilizados, mas também para aumentar a vida útil do dispositivo. E é claro: também podem ter um chip controlador (muitas vezes chamado de SoC, de System on a Chip) responsável por gerenciar o acesso aos chips de armazenamento.
A tecnologia aplicada nos chips de memória Flash das unidades SSD pode variar de modelo para modelo. Como você já sabe, unidades baseadas em MLC são mais baratas, sendo indicadas para uso doméstico ou em escritórios. Unidades com chips SLC, por sua vez, são mais adequados para aplicações mais críticas, como um servidor de ERP, por exemplo.
A capacidade de cada chip também pode variar, obviamente. Um dos principais fatores para isso é uma característica chamada miniaturalização. Aqui, a ideia é a de deixar os transistores que compõem o chip com o menor tamanho possível. Assim, pode-se armazenar mais dados sem, no entanto, ser necessário aumentar o tamanho físico do chip como um todo. Na época da publicação desta matéria, a Intel havia anunciado unidades SSD com chips com processo de fabricação de apenas 25 nanômetros (nm), medida que equivale a um milionésimo de milímetro, isto é, um milímetro dividido por um milhão. Em abril de 2011, a própria Intel havia anunciado uma tecnologia de fabricação de chips NAND com 20 nm:

A imagem, fornecida pela Intel, mostra uma comparação entre 34, 25 e 20 nanômetros
É interessante notar também que existem dispositivos "híbridos", que misturam as funções de HD e SSD. Um exemplo é a linha Momentus XT, anunciada pela Seagate em maio de 2010. Nela, são oferecidos HDs com 250 GB, 320 GB e 500 GB, no entanto, todos os modelos também contam com uma memória Flash de 4 GB. A função dessa memória extra, no entanto, não é a de aumentar ligeiramente a capacidade dos dispositivos, mas sim a de oferecer um cache(buffer) generoso, capaz de otimizar o desempenho da máquina, uma vez que os dados mais acessados são direcionados a esse buffer, dado o seu tempo de acesso reduzido.

Ilustração que a Seagate utilizou para promover a unidade híbrida Momentus XT
Por fim, vale ressaltar que há unidades SSD adaptadas para determinadas aplicações e, que, portanto, podem ter formatos não usuais, assim como há unidades SSD que utilizam interfaceUSB ou FireWire, por exemplo, fazendo frente aos famosos HDs externos.

TRIM

Quando o assunto é SSD, especialmente quando nos referimos às unidades mais recentes, uma característica relacionada vem ganhando cada mais atenção: o recurso TRIM. Ele é extremamente importante. Vamos entender o porquê.
Em geral, quando você apaga um arquivo em seu sistema operacional, ele não é completamente eliminado. Na verdade, a área ocupada por ele é marcada como “livre para uso” e os dados ficam ali de maneira oculta ao sistema até que uma nova gravação ocorra. É por isso que muitos programas de recuperação de arquivos apagados acidentalmente conseguem ter sucesso nessa tarefa.
Nos HDs, o espaço disponível para dados pode ser gravado e regravado sem maiores dificuldades. Isso é possível porque, nos discos rígidos, os dados são agrupados em setores de 512 bytes (saiba mais sobre isso nesta matéria sobre HDs), onde cada setor pode ser gravado e regravado de maneira independente.
No SSD, esse processo é um pouco diferente, já que na memória Flash os dados são agrupados em blocos, geralmente de 512 KB, sendo que cada grupo é composto por várias divisões chamadas páginas, onde cada uma tem, usualmente, 4 KB. O problema é que esse blocos de dados não podem simplesmente ser gravados e, posteriormente, regravados com a mesma facilidade existente nos HDs. Para isso, é necessário primeiro apagar os dados de uma área gravada, fazendo-a retornar ao seu estado original, para somente depois inserir os dados novos. A questão se agrava pelo fato de que, geralmente, esse processo precisar abranger o bloco inteiro e não apenas determinadas páginas deste. Você já deve ter percebido que essa situação pode causar uma significativa perda de desempenho.
Uma das maneiras de lidar com isso é fazer com que o sistema operacional sempre utilize uma área livre do SSD. Mas essa é uma solução paliativa, umas vez que, mais ou cedo ou mais tarde, os blocos não utilizados serão todos preenchidos. O TRIM surge justamente para evitar que o usuário "entre em pânico" ao perceber que sua unidade SSD está "sobrescrevendo" dados e, consequentemente, ficando mais lenta.
Com o TRIM, o sistema operacional é instruído a fazer uma verificação para “zerar” as páginas de arquivos apagados, em vez de simplesmente marcá-las como “disponível para uso”, como acontece nos HDs. Assim, quando os blocos que passarem por esse processo tiverem que receber novos dados, já estarão preparados para recebê-los, como se nunca nada tivesse sido gravado ali.
É por isso que o TRIM é tão importante. A sua função é capaz de evitar sérios problemas de desempenho. O único porém é que esse recurso precisa ser suportado tanto pelo sistema operacional quanto pela unidade SSD, portanto, confira sua existência ao adquirir um produto do tipo. O Windows 7 e versões mais recentes do kernel Linux, por exemplo, têm suporte ao TRIM.

Características a se observar na escolha de uma unidade SSD

Ao escolher uma unidade SSD, é sempre importante verificar as especificações do dispositivo. Uma delas está ligada ao aspecto do desempenho. Quantos kilobytes podem ser lidos por segundo? Quantos podem ser gravados nesse mesmo tempo? Tais parâmetros podem variar bastante de um produto para outro. É comum, por exemplo, encontrar unidades SSD formada por um conjunto de 10 chips de memória Flash. O controlador do dispositivo pode dividir um determinado arquivo em 10 partes para que estes sejam gravados simultaneamente na unidade, tornando o processo de gravação como um todo mais rápido, por exemplo. Porém, recursos a mais ou menos podem melhorar ou piorar esse processo. Daí a importância de verificar esses detalhes. Felizmente, é praticamente regra entre os fabricantes informar a quantidade de dados que podem ser gravados e também lidos por segundo.
Outro parâmetro que também pode ser observado é o IOPS (Input/Output Operations Per Second), que indica a quantidade estimada de operações de entrada e saída por segundo, tanto para leitura quanto para escrita de dados. Quanto maiores esses números, melhor.
Quanto à capacidade, como já informado no texto, esta costuma ser muito menor quanto comparado aos HDs porque ainda se trata de um tecnologia cara. Por isso, não será raro encontrar situações onde um mesmo computador oferece, por exemplo, HD de 500 GB ou, como opção, SSD de apenas 128 GB. Dependendo do caso, você pode utilizar ambas as tecnologias: instalar o sistema operacional em um SSD para agilizar o desempenho e armazenar seus arquivos pessoais em um disco rígido convencional.
Por fim, vale a pena checar também qual o tempo médio de durabilidade previsto pelo fabricante e se a unidade conta com recursos adicionais, como buffer, o já mencionado TRIM, a tecnologia de monitoramento S.M.A.R.T. (amplamente utilizada com HDs), ou até mesmo RoHS(Restriction of Certain Hazardous Substances), que indica que o fabricante não utilizou determinadas substâncias prejudiciais à saúde e ao meio ambiente na fabricação do produto.

História: o primeiro SSD do mercado

Os dispositivos SSD começaram a aparecer de maneira massiva no mercado a partir de 2006, mas pode-se dizer que a tecnologia em si surgiu muito antes, embora não com o mesmo nome.
Em 1976, uma companhia de nome Dataram colocou no mercado um dispositivo de armazenamento de dados de nome BULK CORE que era composto por oito módulos de um tipo de memória não-volátil com a incrível (para a época) capacidade de 256 KB cada um.

Um HD da época à esquerda e o BULK CORE à direita - Imagem por StorageSearch.com
O BULK CORE "emulava" as unidades de disco utilizadas na época, com o diferencial de ser mais rápido que estas. Custava cerca de 10 mil dólares e era utilizado em centros de processamento de dados, uma vez que a ideia de computação pessoal ainda não era difundida.
Em vista de suas características (uso de memória não volátil e maior velocidade de transferência de dados), este pode ser considerado primeiro SSD do mercado.

Finalizando

Muita gente se pergunta se a tecnologia SSD sinaliza o fim da era dos discos rígidos. É difícil dizer. Em relação à capacidade de armazenamento, os HDs ainda representam uma excelente relação custo-benefício, sem contar que esses dispositivos contam com uma média de durabilidade bastante satisfatória.
Uma vez que as unidades SSD têm um custo de armazenamento muito mais elevado e, em muitos casos, são vistas com a desconfiança que é natural em tudo o que é novo, vai levar algum tempo para que os HDs percam o seu reinado, se é que isso vai acontecer. Mas o fato é que, inegavelmente, a tecnologia SSD veio para ficar.
Escrito por  - Publicado em 29_09_2010 - Atualizado em 24_06_2013
Fonte: infowester

Memória DDR3 (Double Data Rate 3)

Introdução

As memórias DDR3 (Double Data Rate 3) chegaram ao mercado para substituir o padrão DDR2, tal como este substituiu o tipo DDR. A motivação dessa mudança é, como sempre, a necessidade de melhor desempenho. Neste artigo, você verá as principais características das memórias DDR3 e conhecerá suas diferenças em relação aos padrões anteriores.

Principais características das memórias DDR3

As memórias DDR se destacam em relação ao padrão anterior - memórias SDR SDRAM - porque são capazes de realizar duas operações de leitura ou escrita por ciclo de clock (em poucas palavras, a velocidade com a qual o processador solicita operações - entenda mais neste artigo sobre processadores). As memórias DDR2, por sua vez, dobram essa capacidade, realizando quatro operações por ciclo de clock.
O tipo DDR3 segue o mesmo caminho: dobra a quantidade de operações por vez em relação ao padrão anterior, ou seja, realiza 8 procedimentos de leitura ou gravação a cada ciclo de clock, quatro no início deste e outros quatro no final.
Para compreender melhor este aspecto, considere que, quando nos referimos ao ciclo de clock, estamos tratando da comunicação da memória com o exterior. Porém, a memória trabalha com uma frequência própria internamente.
Levando essa característica em conta mais a questão das operações por ciclo de clock, temos o seguinte cenário:
- Um módulo DDR-400, por exemplo, funciona internamente a 200 MHz, mas oferece 400 MHz por trabalhar com duas operações por ciclo (2 x 200);
- Um pente DDR2-800, que também funciona internamente a 200 MHz, pode oferecer 800 MHz, já que faz uso de quatro operações por vez (4 x 200).
- Seguindo a mesma lógica, podemos tomar como exemplo um módulo DDR3-1600 que, assim como os anteriores, funciona internamente a 200 MHz, no entanto, por utilizar 8 operações por ciclo de clock, pode oferecer 1.600 MHz (8 x 200).
Vale frisar que, em termos gerais, as taxas da frequência de comunicação externa são quatro vezes maiores que o clock interno. Com isso, um módulo que trabalhar internamente a 200 MHz funciona externamente a 800 MHz, por exemplo.
Há, no entanto, um aspecto onde a memória DDR3 leva desvantagem: a latência, em poucas palavras, o tempo que a memória leva para fornecer um dado solicitado. Quanto menor esse número, melhor. Eis as taxas mais comuns para cada tipo de memória:
DDR: 2, 2,5 e 3 ciclos de clock;
DDR2: 3, 4 e 5 ciclos de clock;
DDR3: 7, 6, 8 ou 9 ciclos de clock.
Perceba que, com isso, um módulo DDR2 pode gastar até 5 ciclos de clock para começar a fornecer um determinado dado, enquanto que no tipo DDR3 esse intervalo pode ser de até 9 ciclos.
Para conseguir diminuir a latência, fabricantes fazem uso de vários recursos nos módulos DDR3, como um mecanismo de calibragem de sinal elétrico, que proporciona maior estabilidade nas transmissões.
Saiba mais sobre latência no texto Memória ROM e RAM.
No que se refere ao consumo de energia, as memórias DDR3 conseguem levar vantagem em relação às tecnologias anteriores: por padrão, trabalham com 1,5 V, contra 1,7 V e 2,5 V dos tipos DDR2 e DDR, respectivamente. É importante destacar, no entanto, que esses valores podem ser aumentados ligeiramente pelo fabricante para atender a determinadas necessidades - alcançar um determinado nível de clock, por exemplo.

Dual-Channel e Triple-Channel


Tal como acontece com seus antecessores, os módulos DDR3 também podem trabalhar com o esquema Dual-Channel, onde controlador faz com que as memórias possam transferir o dobro de dados por ciclo: em vez de 64 bits, transferem 128 bits.
Mas, a partir da linha de processadores Intel Core i7, as memórias DDR3 passaram a contar com uma nova modalidade: Triple-Channel. Como o nome indica, neste modo, as memórias passam a trabalhar com o triplo de dados por ciclo. Assim, se cada canal transmite 64 bits, temos então um total de 192 bits por vez. Além disso, se no modo Dual-Channel é necessário utilizar dois pentes de memória com as mesmas especificações, no Triple-Channel são necessários três. Isso indica que a placa-mãe necessita contar não só com um chipset compatível (o mesmo vale para o processador) como também possuir mais slots de memória, tornando tais dispositivos mais caros ao usuário.
Placa-mãe com suporte a Triple-Channel - Imagem por Asus
Da mesma forma que é possível encontrar kits com pentes de memória para Dual-Channel, há fabricantes disponibilizando kits para Triple-Channel.

Aspectos físicos das memórias DDR3

Assim como as memórias DDR e DDR2, os módulos DDR3 contam com uma ranhura, isto é, com uma pequena divisão entre seus terminais de contato. Para evitar confusão entre os padrões, cada tipo possui esse espaço em uma posição diferente. No caso das memórias DDR3, a ranhura está mais à esquerda. A imagem abaixo mostra um comparativo entre os três tipos:

As memórias DDR3 seguem o exemplo do tipo DDR2: geralmente são encontradas com chips que utilizam encapsulamento CSP (Chip Scale Package) com encaixes FBGA (Fine pitch Ball Grid Array), cuja principal característica é o fato de os terminais do chip serem pequenas soldas. A vantagem disso é que o sinal elétrico flui mais facilmente e há menos chances de danos físicos. A memória DDR, por sua vez, é frequentemente encontrada em encapsulamento TSOP (Thin Small Outline Package). Saiba mais sobre isso no artigo Memórias ROM e RAM.

Nos notebooks, as memórias geralmente possuem dimensões diferentes - Na foto, um pente DDR3 em um Macbook Pro
O número de contatos dos módulos DDR3 também é o mesmo dos pentes DDR2: 240. O tipo DDR possui 184.

On-Die Termination (ODT)

Este é mais um ponto onde as memórias DDR3 são semelhantes ao padrão DDR2: ambas trabalham com um recurso denominado On-Die Termination (ODT). Trata-se de uma tecnologia que ajuda a evitar erros de transmissão. Como?
Os sinais elétricos sofrem um efeito de retorno quando chegam ao final de um caminho de transmissão. Grossamente falando, é como se a energia batesse em uma parede no final de seu caminho e voltasse. Por motivos diversos, esse efeito também pode ocorrer no "meio do caminho". No caso das memórias, esse problema, conhecido como "sinal de reflexão", pode significar perda de desempenho e necessidade de retransmissão de dados.
Nas memórias DDR, esse problema é tratado por meio de um método que reduz o sinal de reflexão a partir de resistores que são adicionados à placa-mãe. É desse dispositivo que vem o nome "terminação resistiva".
Nas tecnologias DDR2 e DDR3, a terminação resistiva na placa-mãe não se mostrou eficiente, pelas características físicas desses tipos de memória. Diante desse problema, foi necessário estudar alternativas e então surgiu o ODT. Nesta tecnologia, a terminação resistiva fica dentro do próprio chip de memória. Com isso, o caminho percorrido pelo sinal é menor e há menos ruídos, isto é, menos perda de dados. Até a placa-mãe acaba se beneficiando dessa tecnologia, já que um componente deixa de ser adicionado, reduzindo custos de produção.

Nomenclatura das memórias DDR3

Tal como suas antecessoras, as memórias DDR3 seguem duas denominações: DDR3-XXXX ePC3-YYYY, onde YYYY indica a quantidade de megabytes transferidos por segundo (valor máximo teórico). A tabela a seguir mostra as especificações mais comuns:

Faltou explicar o significado de XXXX, não é mesmo? Esse número faz alusão a uma medida conhecida como megatransfer - em nosso caso, megatransfer por segundo, isto é, MT/s -, que informa a quantidade de dados transferidos por vez. Assim, um módulo DDR3-800 indica que o dispotivos trabalha com até 800 milhões de transferência de dados por segundo.

Finalizando

DDR, DDR2 e, agora, DDR3. Tanta variação faz parte da necessidade constante que a indústria tem de oferecer tecnologias que possam acompanhar o crescente poder dos processadores. Isso indica que um novo padrão, talvez o DDR4, está por vir? Pode ter certeza que sim. Empresas como Intel e entidades comoJEDEC já trabalham nas especificações de novos de memórias que possam ser não só mais rápidas, mas também viáveis em termos de custo e consumo de energia.

Fonte: infowester