Busca

Como limpar o seu computador 


Todo mundo aqui concorda que é importante manter limpos o seu ambiente de trabalho, seu quarto e sua casa. O grande problema é que acabamos nos preocupando mais em tirar a sujeira que está visível e esquecemos de procurar onde ela mais se esconde. Se por acaso você já precisou abrir o seu computador, com certeza já descobriu que uma boa quantidade de poeira se acumula dentro do gabinete. E aí surgem sempre as mesmas perguntas: como limpar? o que usar? o que posso e o que não posso fazer?
A foto a seguir mostra como pode estar o seu computador nesse exato momento. E olha que esta nem é uma das piores fotos que eu consegui encontrar por aqui.

Para responder a essas e muitas outras perguntas, inicio aqui uma série de dicas que vão ser muito úteis na hora de realizar a limpeza e manutenção preventiva do seu computador. Continue lendo e descubra como deixar o seu computador completamente limpo e livre dos problemas causados por essa sujeira.

Que tipo de problemas um computador sujo pode causar?

Se você é um profissional extremamente técnico, deve responder essa pergunta dizendo que a sujeira pode causar problemas de contato entre os componentes, degradação de dispositivos, falhas de leitura, corrosão, superaquecimento e em casos mais extremos pode até queimar um chip ou placa, já que a poeira é condutora de energia e quando acumulada pode fechar um circuito que deveria estar isolado.
Se você não compreende muito esse papo técnico, posso te afirmar que a sujeira acumulada dentro de um gabinete pode ser o motivo de alergias, infecções respiratórias e vários outros problemas relacionados. Este é outro importante motivo para que tenhamos sempre a preocupação de manter o seu computador sempre limpo.

Como limpar um computador?

Vamos começar as dicas de limpeza com um dos elementos do computador que mais acumula sujeira: o gabinete. O motivo de tanta poeira dentro de um gabinete é simples: os coolers/ventoinhas devem criar uma corrente de ar contínua para que a CPU e outros componentes não sofram um superaquecimento. Essa circulação natural faz com que a sujeira veja junto. A situação se agrava ainda mais nos casos em que o gabinete fica posicionado abaixo da mesa, mais perto do chão. O simples movimento de pessoas passando por perto levanta a sujeira que é sugada para dentro do gabinete.


E nem pense em tentar diminuir a entrada de ar para diminuir a captação de sujeira, pois isso pode causar problemas ainda mais graves de superaquecimento e diminuir consideravelmente a vida útil do computador.
O primeiro passo é abrir o gabinete. Antes disso, assegure-se de que o computador está completamente desligado e solte todos os conectores da traseira do gabinete, começando pelo cabo de força. Depois solte os parafusos da parte traseira (se existirem) e abra o compartimento lateral que dá acesso aos componentes internos.

É importante lembrar que para garantir que o contato das suas mãos com os componentes internos não causem nenhum dano a eles, é preciso usar uma pulseira anti-estática que vai eliminar todo e qualquer acúmulo de cargas do seu corpo e manter o equilíbrio necessário. Você pode encontrar essas pulseiras em várias lojas especializadas em material de manutenção de computadores ou eletrônicos e geralmente elas custam entre R$8 e R$20.


Agora vem a tarefa mais complicada, delicada e trabalhosa: retirar toda a poeira que está acumulada dentro do gabinete. Utilize um pincel com cerdas finas e maleáveis para tirar o excesso de poeira sobre os componentes e jogar tudo para um canto. Depois utilize um pequeno aspirador de pó para capturar toda a sujeira. Mas cuidado! Não utilize um aspirador daqueles que usamos para limpar a casa, já que os equipamentos maiores podem gerar muita estática, e já vimos que isso é prejudicial. O mais recomendado nesses casos são pequenos aspiradores que servem para essa finalidade.


Sei que o procedimento é um tanto quanto demorado, mas vai valer a pena ter o seu computador sempre limpo, pois isso previne cerca de 70% dos problemas de travamento por falhas de contato. Se por acaso você precisar recolher sujeiras menores que porventura o aspirador não dá conta, utilize um pano seco e que não solte fios ou então cotonetes, mas nunca se esqueça de jamais molhar os componentes nessa fase com qualquer tipo de produto.
Se você repetir esse procedimento periodicamente de dois em dois meses, com certeza vai aumentar bastante a vida útil de todos os componentes. Um outro tipo de limpeza requer um pouco mais de paciência e habilidade, e inclui a remoção das placas para a limpeza dos contatos, mas isso nós só vamos discutir no artigo da próxima semana. Até lá!

Fonte: Techtudo



Master Overclocking Arena: conheça o maior campeonato de overclock do mundo

Edição 2013 do evento conta com dois brasileiros na lista de finalistas.
Por Ramon de Souza em 5 de Agosto de 2013




Imagine uma competição anual e global que reúne especialistas em overclocking ao redor do mundo inteiro, desafiando-os a utilizar qualquer tipo de técnica para quebrar os limites de seus próprios maquinários eletrônicos. Organizado desde 2008 pela MSI, o Master Overclocking Arena(MOA) é o maior e mais respeitado campeonato de overclock do mundo, reunindo participantes ao redor do globo inteiro através de etapas de qualificações regionais.
A edição 2013 está prevista para ocorrer em meados de outubro, em Taipei (capital de Taiwan). Os prêmios para os três melhores colocados serão de US$ 5 mil, US$ 3 mil e US$ 1,5 mil – além de diversos equipamentos fabricados pela MSI.
Após três meses de duras competições eliminatórias, a lista dos finalistas finalmente foi divulgada hoje (5) e conta com dois nomes brasileiros: Iuri Alvez Balzana (gnidaol), que fará sua terceira participação na final do mundial, e Ronaldo Buassali (rbuass), capitão do time Corsair 3DTeam X5, “Overclocking Emperor” por ter chegado a número 3 da liga mundial profissional, considerado um dos melhores overclockers do mundo.


(Fonte da imagem: Reprodução/HWBot)


Trabalho pesado

Buassali já participou de diversas edições do MOA e precisou fazer sua própria placa de vídeo para se classificar nas etapas preliminares das América, tendo como base um equipamento de nível relativamente inferior ao usado nas competições. De acordo com o especialista, todos os outros competidores utilizavam placas Lightning, que saem de fábrica preparadas para utilização de nitrogênio líquido (utilizado para o resfriamento dos componentes durante o overclocking).



(Fonte da imagem: Reprodução/Ronaldo Buassali)

Com a indisponibilidade deste equipamento no território brasileiro, Buassali adquiriu uma Radeon HD 7970 e fez diversas modificações pesadas no equipamento, combinando-a com a plataforma Intel X79. Como resultado, o equipamento ganhou 11 potenciômetros, teve seus mosfets trocados, todas as proteções removidas, recebeu uma fase adicional e um painel de controle.
A placa modificada também quebrou o recorde mundial do benchmark 3DMark Fire Strike Extreme, contabilizando um total de 6.208 pontos, com as frequências de 1735 / 1955 Mhz respectivamente em sua GPU e em suas memórias (o padrão é de 925 / 1375 Mhz). Na imagem acima, você confere como ficou o sistema de resfriamento utilizado por Ronaldo para frear o aquecimento da placa. Tal pontuação consagrou Buassali como o Campeão das Américas na etapa de qualificação.

Não basta apenas ter técnica

Balzana e Buassali enfrentarão representantes da Austrália, Canadá, Dinamarca, Indonésia, Itália, Japão, Polônia, Rússia, África do Sul, Ucrânia e Estados Unidos. Nas finais presenciais, todos os equipamentos utilizados pelos competidores são sorteados e idênticos, com o intuito de diminuir a diferença entre os recursos de cada participante. Contudo, conforme Ronaldo, “cada chip é como um ser humano” e dois componentes podem apresentar desempenhos diferentes mesmo que estes tenham as mesmas especificações técnicas.
“Numa decisão, todos os fatores devem ocorrer perfeitamente”, afirma o especialista, que acredita na combinação entre técnica, estratégia e sorte. “O competidor que ficar em último lugar em uma competição dessas não é necessariamente melhor ou pior do que os outros participantes”, comenta.

Fonte: Tecmundo

Nova substância pode servir na produção de chips com menos de 10 nm

Composto tem estrutura que pode ajudar na construção e ajuste interno dos minúsculos elementos de um processador.

Há alguns anos, as fabricantes de chips vêm buscando maneiras de driblar o limite na redução do tamanho dos nanocomponentes utilizados nos mais diversos dispositivos eletrônicos.
A corrida para criar processadores com maior desempenho e que gerem menos calor já teve muitos avanços, mas, atualmente, estamos presos a tecnologias na ordem dos 22 nm.
Agora, um grupo de pesquisadores da Universidade de Akron desenvolveu um novo material que pode garantir a confecção de processadores com tecnologia inferior aos 10 nm. Segundo notícia do ExtremeTech, o composto é um surfactante gigante que pode manter sua função até mesmo em nanoescala.

Um surfactante (ou tensioativo) é um elemento que diminui a tensão superficial entre dois líquidos. Como isso pode ajudar? Basicamente, ele pode garantir que as minúsculas peças não entrem em contato, garantindo o posicionamento perfeito de cada componente.

Trabalhando em nanoescala

Além de evitar que um transistor entre em contato com outro, a estrutura especial deste surfactante gigante deve ajudar na construção de chips mais densos. O material deve ajudar na nano-padronização e posicionamento de cada elemento.


Outra vantagem do novo composto é a maior eficiência na construção dos chips. Em teoria, se você tem um maior controle em nanoescala, menor será o desperdício de peças e a quantidade de erros na fabricação dos produtos.
De acordo com a informação da Universidade de Akron, o surfactante gigante pode levar a construção de notebooks mais leves, televisores ainda mais finos e displays mais nítidos para smartphones. A introdução da nova tecnologia não deve acontecer de imediato, porque os pesquisadores ainda estão patenteando as ideias.

Fonte: 
ExtremeTechUniversity of Akron, Tecmundo

Chips neuromórficos podem simular neurônios do cérebro humano.

Avanços na tecnologia dos processadores podem levar a criação de sistemas com inteligência própria que podem interagir com pessoas e o ambiente em tempo real.





Um dos grandes objetivos da computação é criar cérebros inteligentes como os dos humanos. Até agora, os processadores que utilizamos são limitados a obedecer a uma série de regras e a realizar tarefas bem específicas.


Entretanto, os chips neuromórficos vêm mostrando grandes progressos. Depois de imitarem a rede neural do cérebro humano, esses sistemas deram mais um grande passo: agora eles também simulam neurônios

.

Conforme a publicação do Science Daily, os pesquisadores da Universidade de Zurich, que vem trabalhando no ramo há alguns anos, conseguiram desenvolver um sistema neuromórfico capaz de realizar tarefas sensório-motoras em tempo real.

Tomando decisões próprias

Um dos principais diferenciais do cérebro humano, quando comparado com processadores, é a capacidade de tomar decisões. Todavia, parece que as máquinas já não são mais tão burras. Os cientistas suíços conseguiram demonstrar que os novos chips podem realizar tarefas que necessitem de memórias de curto prazo e decisões dependentes do contexto.



Vale notar que os novos chips não são necessariamente cérebros que agirão sozinhos sem o consentimento de uma pessoa. Conforme o Science Daily, o sistema neuromórfico suíço pode ser configurado para ter diferentes comportamentos que são ditados pelo utilizador. A ideia é que futuramente os chips possam reagir e interagir com o ambiente e com pessoas.


Fonte: Link Link2 

Fontes de alimentação ATX: principais características

Tipos de fontes de alimentação

Como já dito, as fontes de alimentação são equipamentos responsáveis pelo fornecimento de energia elétrica aos dispositivos dos computadores. Para isso, convertem corrente alternada (AC - Alternating Current) - grossamente falando, a energia recebida por meio de geradores, como uma hidroelétrica - em corrente contínua (DC - Direct Current), uma tensão apropriada para uso em aparelhos eletrônicos. Assim, a energia que chega nas tomadas da sua casa em 110 V (Volts) ou 220 V é transformada em tensões como 5 V e 12 V.
Os computadores usam fontes de alimentação do tipo chaveada. Trata-se de um padrão que faz uso de capacitores e indutores no processo de conversão de energia e recebe esse nome por possuir, grossamente falando, um controle de chaveamento que "liga e desliga" a passagem de energia de forma a gerar e fixar uma tensão de saída. Há também uma categoria chamada fonte linear, mas esse tipo não se mostra adequado aos computadores por vários motivos, entre eles, tamanho físico e peso elevado, além de menor eficiência (conceito que será explicado neste texto), uma vez que fontes lineares utilizam um "excesso" de energia para manter sua tensão de saída, gerando também mais calor. Nas fontes chaveadas isso não ocorre porque esse tipo simplesmente desativa o fluxo de energia em vez de dissipar a "sobra". Além disso, fontes chaveadas também exigem menor consumo, pois utilizam praticamente toda a energia que "entra" no dispositivo.

Fonte de alimentação ATX - Imagem por OCZ
Por se tratar de um equipamento que gera campo eletromagnético (já que é capaz de trabalhar com frequências altas), as fontes devem ser blindadas para evitar interferência em outros aparelhos e no próprio computador.
Antes de ligar seu computador na rede elétrica, é de extrema importância verificar se o seletor de voltagem da fonte de alimentação corresponde à tensão da tomada (no Brasil, 110 V ou 220 V). Se o seletor estiver na posição errada, a fonte poderá ser danificada, assim como outros componentes da máquina. Menos comuns, há modelos de fontes que são capazes de fazer a seleção automaticamente.

Padrões de fontes de alimentação

Assim como qualquer tecnologia produzida por mais de um fabricante, as fontes de alimentação devem ser fornecidas dentro de padrões estabelecidos pela indústria de forma a garantir sua compatibilidade com outros dispositivos e o seu funcionamento regular. No caso das fontes, o padrão mais utilizado nos dias de hoje é o ATX (Advanced Tecnology Extendend), que surgiu em meados de 1996 e que também especifica formatos de gabinetes de computadores e deplacas-mãe.
Com essa padronização, uma pessoa saberá que, ao montar uma computador, a placa-mãe se encaixará adequadamente no gabinete da máquina, assim como a fonte de alimentação. Também haverá certeza de provimento de certos recursos, por exemplo: as fontes ATX são capazes de fornecer tensão de 3,3 V, característica que não existia no padrão anterior, o AT (Advanced Tecnology). O padrão ATX, na verdade, é uma evolução deste último, portanto, adiciona melhorias em pontos deficientes do AT. Isso fica evidente, por exemplo, no conector de alimentação da placa-mãe: no padrão AT, esse plugue era dividido em dois, podendo facilmente fazer com que o usuário os invertesse e ocasionasse danos. No padrão ATX, esse conector é uma peça única e só possível de ser encaixada de uma forma, evitando problemas por conexão incorreta.
As fontes ATX também trouxeram um recurso que permite o desligamento do computador por software. Para isso, as fontes desse tipo contam com um sinal TTL (Transistor-Transistor Logic) chamado PS_ON (Power Supply On). Quando está ligada e em uso, a placa-mãe mantém o PS_ON em nível baixo, como se o estive deixando em um estado considerado "desligado". Se a placa-mãe estiver em desuso, ou seja, não estiver recebendo as tensões, deixa de gerar o nível baixo e o PS_ON fica em nível alto. Esse sinal pode mudar seu nível quando receber ordens de ativação ou desativação de determinados recursos, por exemplo:
- Soft Power Control: usado para ligar ou desligar a fonte por software. É graças a esse recurso que o sistema operacional consegue desligar o computador sem que o usuário tenha que apertar um botão para isso;
- Wake-on-LAN: permite ligar ou desligar a fonte por placa de rede.
O sinal PS_ON depende da existência de outro: o sinal +5 VSB ou Standby. Como o nome indica, esse sinal permite que determinados circuitos sejam alimentados quando as tensões em corrente contínua estão suspensas, mantendo ativa apenas a tensão de 5 V. Em outras palavras, esse recurso é o que permite ao computador entrar em "modo de descanso". É por isso que a placa de vídeo ou o HD, por exemplo, pode ser desativado e o computador permanecer ligado.
Há também outro sinal importante chamado Power Good que tem a função de comunicar à máquina que a fonte está apresentando funcionamento correto. Se o sinal Power Good não existir ou for interrompido, geralmente o computador desliga automaticamente. Isso ocorre porque a interrupção do sinal indica que o dispositivo está operando com voltagens alteradas e isso pode danificar permanentemente um componente. O Power Good é capaz de impedir o funcionamento de chips enquanto não houver tensões aceitáveis. Esse sinal, na verdade, existe desde padrão AT. No caso do padrão ATX, sua denominação é PWR_OK (Power Good OK) e sua existência se refere às tensões de +3,3 V e de +5 V.
Como se trata de uma padrão relativamente antigo, o ATX passou - e passa - por algumas mudanças para se adequar a necessidades que foram - e vão - aparecendo por conta da evolução tecnológica de outros dispositivos. Com isso, surgiram várias versões:
- ATX12V 1.x: essa nova especificação surgiu em meados de 2000 e consiste, basicamente, em um conector adicional de 12 V formado por 4 pinos, e outro, opcional, de 6 pinos e tensão de 3,3 V ou 5 V. Essa versão foi sofrendo pequenas revisões ao longo do tempo. A última, a 1.3, teve como principal novidade a implementação de um conector de energia para dispositivosSATA;
ATX12V 2.x: série de revisões que lançou um conector para a placa-mãe de 24 pinos (até então, o padrão era 20 pinos) e adicionou, na versão 2.2, um plugue para placas de vídeo que usam o slot PCI Express, recurso necessário devido ao alto consumo de energia desses dispositivos. Neste padrão, o conector opcional de 6 pinos foi removido;
- EPS12V: especificação muito parecida com a série ATX12V 2.x, definida pela SSI (Server System Infrastructure) inicialmente para ser aplicada em servidores. Seu principal diferencial é a oferta de um conector adicional de 8 pinos (que pode ser uma combinação de dois conectores de 4 pinos) e um opcional de 4. Para atender de forma expressiva o mercado, muitos fabricantes oferecem fontes que são, ao mesmo tempo, ATX12V v2.x e EPS12V.
Vale frisar que há ainda vários outros formatos menos comuns para atender determinadas necessidades, como variações do ATX (EATX, microATX, etc), EBX, ITX (e suas versões), entre outros.
Com tantos padrões, você pode estar se perguntando qual escolher, não é mesmo? Essa decisão pode ser mais fácil do que parece. Via de regra, se você está montando um computador novo, com componentes totalmente recentes, basta escolher o último padrão disponível, que muito provavelmente será o mais fácil de se encontrar no mercado. Em caso de dúvida, basta consultar a descrição de sua placa-mãe para ver qual padrão ela utiliza e checar se a fonte pela qual você se interessa oferece suporte a essa especificação.

Tensões das fontes de alimentação

Os dispositivos que compõem um computador são tão variados que requerem níveis diferentes de tensão para o seu funcionamento. Por isso, as fontes de alimentação fornecem, essencialmente, as seguintes tensões: +3,3 V, +5 V, +12 V, -5 V e -12 V (as antigas fontes AT não oferecem a tensão de +3,3 V). As saídas de +3,3 V e +5 V são mais direcionadas a dispositivos menores, como chips de memória. A tensão de +12 V é utilizada por dispositivos que consomem mais energia, tais como aqueles que contam com "motores", como HDs (cujo motor é responsável por girar os discos) e drives de DVD ou Blu-ray (que possuem motores para abrir a gaveta e para girar o disco). As tensões de -5 V e -12 V são pouco utilizadas - serviam ao antigo barramento ISA, por exemplo.
É claro que há dispositivos que exigem voltagens menores. Memórias RAM do tipo DDR3, por exemplo, podem trabalhar com +1,5 V. Para esses casos, a placa-mãe conta com reguladores que convertem uma saída de voltagem da fonte de alimentação para a tensão necessária ao componente em questão.

Potência das fontes de alimentação

Esse é o aspecto mais considerado por qualquer pessoa na hora de comprar uma fonte. E deve ser mesmo. Se adquirir uma fonte com potência mais baixa que a que seu computador necessita, vários problemas podem acontecer, como desligamento repentino da máquina ou reinicializações constantes. O ideal é optar por uma fonte que ofereça uma certa "folga" neste aspecto. Mas escolher uma requer alguns cuidados.
O principal problema está no fato de que algumas fontes, principalmente as de baixo custo, nem sempre oferecem toda a potência que é descrita em seu rótulo. Por exemplo, uma fonte de alimentação pode ter em sua descrição 500 W (Watts) de potência, mas em condições normais de uso pode oferecer, no máximo 400 W. Acontece que o fabricante pode ter atingindo a capacidade de 500 W em testes laboratoriais com temperaturas abaixo das que são encontradas dentro do computador ou ter informado esse número com base em cálculos duvidosos, por exemplo. Por isso, no ato da compra, é importante se informar sobre a potênciareal da fonte.
Para isso, é necessário fazer um cálculo que considera alguns aspectos, sendo o mais importante deles o conceito de potência combinada. Antes de compreendermos o que isso significa, vamos entender o seguinte: como você já viu, no que se refere às fontes ATX, temos as seguintes saídas: +3,3 V, +5 V, +12 V, -5 V e -12 V. Há mais uma chamada de +5 VSB (standby). O fabricante deve informar, para cada uma dessas saídas, o seu respectivo valor de corrente, que é medido em ampères (A). A definição da potência de cada saída é então calculada multiplicando o valor em volts pelo número de ampères. Por exemplo, se a saída de +5 V tem 30 A, basta fazer 5x30, que é igual a 150. A partir daí, resta fazer esse cálculo para todas as saídas e somar todos os resultados para conhecer a potência total da fonte, certo? Errado! Esse, aliás, é um dos cálculos duvidosos que alguns fabricantes usam para "maquiar" a potência de suas fontes.
É aí que entra em cena a potência combinada. As saídas de +3,3 V e +5 V são combinadas, assim como todas as saídas de +12 V. A potência máxima de cada uma só é possível de ser alcançada quando a saída "vizinha" não estiver em uso. Ou seja, no exemplo anterior, a potência da saída de +5 V só seria possível se a tensão de +3,3 V não fosse utilizada. Há ainda outro detalhe: uma outra medida de potência combinada considera os três tipos de saída mencionados: +3,3 V, +5 V, +12 V. Esse valor é então somado com as potências das saídas de -12 V (note que o sinal de negativo deve ser ignorado no cálculo) e +5 VSB. Daí obtém-se a potência total da fonte.
Para facilitar na compreensão, vamos partir para um exemplo. Vamos considerar uma fonte cujo rótulo informa o seguinte:


Observe que a potências combinada das tensões +3,3 V, + 5 V e +12 V é de 477,8 W, que é somada com a potência das saídas de - 12 V e +5 VSB, que é 22,2 W (7,2 + 15). Assim, a fonte tem 500 W de potência total. Mas aqui vai uma dica: no ato da compra, observe se as saídas de +12 V (sim, geralmente há mais de uma) fornecem uma potência combinada razoável. Essa é mais importante porque consiste na tensão que é utilizada pelos dispositivos que mais exigem energia, como o processador e a placa de vídeo. No nosso exemplo, esse valor é de 384 W.


Rótulo descritivo na lateral de uma fonte ATX
Mas você deve estar se perguntando: como saber a potência adequada para o meu computador? Você já sabe que terá problemas se adquirir uma fonte com potência insuficiente. Por outro lado, se comprar uma fonte muito poderosa para uma PC que não precisa de tudo isso, vai ser como comprar um ônibus para uma família de 5 pessoas. A tabela a seguir pode te ajudar nisso. Ela fornece uma estimativa do quanto os principais componentes de um computador podem consumir:

Como já dito, processadores e placas de vídeo são os dispositivos que mais exigem energia. Para piorar a situação, essa medida pode variar muito de modelo para modelo. Por isso, é importante consultar as especificações desses itens para conhecer suas médias de consumo. Suponha, por exemplo, que você tenha escolhido a seguinte configuração:


Veja que o total é de 260 W, sem considerar outros itens, como placas-mãe, pentes de memória, etc. Neste caso, uma fonte com pelo menos 400 W reais seria o ideal (lembre-se da dica de sempre contar com uma "folga").

Eficiência das fontes de alimentação

Esse é outro aspecto de extrema importância na hora de escolher uma fonte. Em poucas palavras, a eficiência é uma medida percentual que indica o quanto de energia da rede elétrica, isto é, da corrente alternada, é efetivamente transformada em corrente contínua. Para entender melhor, vamos a um rápido exemplo: suponha que você tenha um computador que exige 300 W, mas a fonte está extraindo 400 W. A eficiência aqui é então de 75%. Os 100 W a mais que não são utilizados são eliminados em forma de calor.
Com base nisso, perceba o seguinte: quanto maior a eficiência da fonte, menor é o calor gerador e menor é o desperdício de energia, fazendo bem para o seu bolso e evitando que seu computador tenha algum problema causado por aquecimento excessivo. Por isso que eficiência é um fator muito importante a ser considerado. Fontes de maior qualidade tem eficiência de pelo menos 80%, portanto, estas são as mais indicadas. Fontes com eficiência entre 70% e 80% são até aceitáveis, mas abaixo disso não são recomendadas.

Power Factor Correction (PFC)

PFC (Power Factor Correction ou, em bom português, Fator de Correção de Potência) é, em poucas palavras, um meio de permitir o máximo de otimização possível na distribuição de energia. Vamos entender melhor: dispositivos constituídos por motores, transformadores, reatores, entre outros, lidam com dois tipos de energia: ativa e reativa. A diferença básica entre ambos é que a energia reativa é aquela que é utilizada apenas para magnetizar determinados componentes dos motores, transformadores, etc.
A questão é que o excesso de energia reativa pode causar vários problemas, como aquecimento, sobrecarga, entre outros. Isso acontece porque a energia reativa não é energia de "trabalho", cabendo à energia ativa esse papel, mas pode utilizar recursos que poderiam ser dedicados a esta última. Por isso, quanto menos energia reativa for usada, melhor.
Uma maneira de medir o uso de energia reativa é comparando-a com a energia ativa. Isso se chama Fator de Potência. A medição é feita analisando valores entre 0 e 1. Quanto mais próximo de 1, menor é a utilização de energia reativa. Pelo menos em aplicações industriais, o ideal é que o fator de potência seja de, pelo menos, 0,92.
Nas fontes de alimentação, o Fator de Correção de Potência é utilizado para manter essa relação em patamares aceitáveis. Há dois tipos de mecanismos para isso: PFC ativo e PFC passivo. O primeiro faz uso de componentes que conseguem deixar o fator de potência em 0,95 ou mais - pelo menos teoricamente - e que também conseguem reduzir interferências. O segundo tipo, por sua vez, é menos eficiente, pois utiliza componentes que não conseguem oferecer um "equilíbrio" tão otimizado quanto o PFC ativo. O fator de potência de fontes com PFC passivo fica em torno de 0,80, mas modelos de menor qualidade podem chegar a 0,60.
É evidente que fontes com PFC ativo são mais recomendadas, mesmo porque estas podem oferecer um recurso bastante interessante: seleção automática de voltagem. Note, no entanto, que em termos de benefícios para o usuário final, o PFC é vantajoso em seus aspectos de proteção. Não há relevância em termos de economia de energia, por exemplo. Fabricantes passaram a adotar esse recurso mais por determinação de autoridades reguladoras de alguns países.

Conectores das fontes de alimentação

As imagens a seguir mostram os principais conectores existentes em uma fonte ATX, começando pelo conector que é ligado à placa-mãe:


A foto acima mostra um conector de placa-mãe com 24 pinos, sendo que uma parte, com 4 pinos, é separada. Isso existe para garantir compatibilidade com placas-mãe que utilizam conectores de 20 pinos. Na imagem abaixo, é possível ver seu respectivo encaixe na placa-mãe:



A imagem abaixo mostra um conector utilizado em dispositivos como HDs e unidades de CD/DVD que utilizam a inferface PATA, também conhecida como IDE. Esse padrão está caindo em desuso, pois foi substituído pelas especificações SATA:

Na figura abaixo é possível ver o encaixe desse conector na parte traseira de um HD:

Por sua vez, a imagem abaixo mostra um conector utilizado em unidades de disquetes. Esse dispositivo também caiu em desuso, portanto, trata-se de um conector que tende a desaparecer:

Vemos abaixo um conector de energia do atual padrão SATA:

Na foto seguinte, o encaixe SATA na parte traseira de um disco rígido:


Chamado de ATX12V, o conector visto abaixo conta com 4 pinos, deve ser encaixado na placa-mãe e geralmente tem a função de fornecer alimentação elétrica para o processador. Há uma versão mais atual, denominada EPS12V, que utiliza 8 pinos e que pode ser formada também pela união de dois conectores de 4 pinos:


Na figura seguinte, o encaixe na placa-mãe do conector da imagem anterior:



Ventoinha das fontes

Ao pegar uma fonte de alimentação, você vai perceber que ela possui uma ventoinha, isto é, um "ventilador" que tem a função de retirar o ar quente proveniente do calor que é gerado dentro do computador. Para o usuário, esse é um aspecto que é importante de ser analisado por um simples motivo: barulho. Boa parte das fontes disponíveis no mercado, principalmente as de baixo de custo, utilizam uma ventoinha que fica em sua parte traseira, geralmente de 80 mm, de forma que é possível visualizá-la ao olhar a parte de trás da máquina. Por outro lado, há modelos de fonte que utilizam uma ventoinha maior, quase sempre de 120 mm, que fica instalada na parte de baixo, de forma que só é possível vê-la com a abertura do gabinete da máquina, como mostra a imagem a seguir:
A vantagem de utilizar um fonte deste último tipo é que a ventoinha é maior, portanto, requer um número menor de rotações para direcionar o fluxo de ar. Dessa forma, essa fonte também consegue ser mais silenciosa.
Modelos mais sofisticados também contam com um sensor de temperatura que é capaz de acelerar a rotação das ventoinhas em caso de aumento de calor. Esse recurso é interessante não só por oferecer proteção contra aumento excessivo de temperatura, como também por servir de alerta de que alguma coisa está atrapalhando a circulação de ar necessária para o bom funcionamento da máquina.

Finalizando

Como você deve ter percebido no decorrer do artigo, a fonte de alimentação tem mais importância para um computador do que pensa. Por isso, é necessário direcionar maior atenção a esse item na hora de fazer um upgrade ou montar uma máquina. Como dica final, uma orientação que é comum na comprar de qualquer produto: pesquise. Dê preferência por modelos de marcas conceituadas, que fornecem todos os detalhes de seus produtos e garantia. E, mesmo assim, pesquise na internet pelos modelos que te interessatrm, pois mesmo entre fabricantes reconhecidos há produtos que decepcionam. É claro que na maioria das vezes não é necessário adquirir uma fonte top de linha, por outro lado, fontes de custo muito baixo, apelidadas de "genéricas", devem ser evitadas sempre que possível, pois quase sempre são de baixa qualidade e podem inclusive representar algum risco ao seu computador.
Escrito por  - Publicado em 29_04_2010 - Atualizado em 08_12_2010

O que é SSD (Solid-State Drive)?


O que é SSD?

Como você já sabe, SSD é a sigla para Solid-State Drive, algo como "Unidade de Estado Sólido", em português. Trata-se de um tipo de dispositivo para armazenamento de dados que, de certa forma, concorre com os discos rígidos. Aceita-se a ideia de que seu nome faz alusão à inexistência de peças móveis na constituição do dispositivo, o que já não acontece nos HDs, que precisam de motores, discos e cabeçotes de leitura e gravação para funcionar.
O termo "Estado Sólido", na verdade, faz referência ao uso de material sólido para o transporte de sinais elétricos entre transistores em vez de uma passagem baseada em tubos a vácuo, como era feito na época das válvulas.
Em aparelhos SSD, o armazenamento é feito em um ou mais chips de memória, dispensando totalmente o uso de sistemas mecânicos para o seu funcionamento. Como consequência desta característica, unidades do tipo acabam sendo mais econômicas no consumo de energia, afinal, não precisam alimentar motores ou componentes semelhantes (note, no entanto, que há outras condições que podem elevar o consumo de energia, dependendo do produto).
Esta característica também faz com que "discos SSD "(não se trata de um disco, portanto, o uso desta denominação não é correto, mesmo assim, é um termo relativamente comum) utilizem menos espaço físico, já que os dados são armazenados em chips especiais, de tamanho reduzido. Graças a isso, a tecnologia SSD começou a ser empregada de forma ampla em dispositivos portáteis, tais como notebooks ultrafinos (ultrabooks) e tablets

Visão interna e externa de uma unidade SSD de 64 GB da Sandisk - 
Note que o dispositivo é composto, essencialmente, por chips
Outra vantagem da não utilização de peças móveis está no silêncio - você não ouve uma unidade SSD trabalhar, tal como pode acontecer com um HD - e na melhor resistência física quando o dispositivo sofre quedas ou é balançado (o que não quer dizer que sejam indestrutíveis também). Além disso, dispositivos SSD pesam menos e, pelo menos na maioria dos casos, podem trabalhar com temperaturas mais elevadas que as que são suportadas pelos discos rígidos. Há ainda outra característica considerável: o tempo transferência de dados entre a memória RAM e unidades SSD pode ser muito menor.
É claro que também há desvantagens: unidades SSD são muito mais caras que HDs, embora os preços possam diminuir à medida que a sua utilização aumenta. Por causa disso - em muitos casos, também por limitações tecnológicas -, a grande maioria das unidades SSD oferecidas no mercado tem capacidade de armazenamento muito inferior em comparação aos discos rígidos que possuem a mesma faixa de preço.

Memória Flash

A tecnologia SSD é baseada em chips especialmente preparados para armazenar dados, mesmo quando não há recebimento de energia. São, portanto, dispositivos não-voláteis. Isso significa que não é necessário usar baterias ou deixar o dispositivo constantemente ligado na tomada para manter os dados nele.
Para que isso seja possível, convencionou-se entre os fabricantes de SSD o uso de memórias Flash. Trata-se de um tipo de memória EEPROM* (ver explicação abaixo) desenvolvido pela Toshiba nos anos 1980. Os chips de memória Flash são parecidos com a memória RAM usada nos computadores, porém, ao contrário desta última, suas propriedades fazem com que os dados não sejam perdidos quando não há mais fornecimento de energia, como já informado.
* EEPROM é um tipo de memória ROM que permite a regravação de dados, no entanto, ao contrário do que acontece com as memórias EPROM, os processos para apagar e gravar informações são feitos eletricamente, fazendo com que não seja necessário mover o dispositivo de seu lugar para um aparelho especial para que a regravação ocorra.
Há, basicamente, dois tipos de memória Flash: Flash NOR (Not OR) e Flash NAND (Not AND). O nome é proveniente da tecnologia de mapeamento de dados de cada um. O primeiro tipo permite acesso às células de memória de maneira aleatória, tal como acontece com a RAM, mas com alta velocidade. Em outras palavras, o tipo NOR permite acessar dados em posições diferentes da memória de maneira rápida, sem necessidade de esta atividade de ser sequencial. O tipo NOR é usado em chips de BIOS ou firmwares de smartphones, por exemplo.
O tipo NAND, por sua vez, também trabalha em alta velocidade, porém faz acesso sequencial às células de memória e as trata em conjunto, isto é, em blocos de células, em vez de acessá-las de maneira individual. Em geral, memórias NAND também podem armazenar mais dados que memórias NOR, considerando blocos físicos de tamanhos equivalentes. É, portanto, o tipo mais barato e mais utilizado em SSD.


Chip de memória Flash NAND da Micron

Tecnologias Multi-Level Cell, Single-Level Cell, Triple-Level Cell e Die-Stacking

Atualmente, há três tecnologias principais que podem ser empregadas tanto em memórias Flash NOR quando em Flash NAND: Multi-Level Cell (MLC), Single-Level Cell (SLC) e Triple-Level Cell (TLC).

Multi-Level Cell (MLC)

O primeiro tipo, MLC, consiste em um processo que utiliza tensões diferenciadas que fazem com que uma célula de memória armazene dois (mais comum) ou mais bits, em vez de apenas um, como é o padrão. Graças à tecnologia MLC, os custos de dispositivos de armazenamento Flash se tornaram menores, aumentando consideravelmente a oferta de produtos como pendrives e tocadores de MP3 de preços mais acessíveis. Vale frisar que o MLC tem uma tecnologia concorrente e parecida chamada Multi-Bit Cell (MBC).

Single-Level Cell (SLC)

O tipo SLC, por sua vez, nada mais é do que as memórias Flash "normais", isto é, que armazenam um bit em cada célula. Chips do tipo SLC, obviamente, são mais caros, mas isso não quer dizer que são inviáveis: em geral, são mais resistentes, suportando, por padrão, cerca de 100 mil operações de leitura e escrita por célula, contra 10 mil do MLC (esses números podem variar, conforme a evolução da tecnologia), e permitem que estas execuções sejam efetuadas em menor tempo. A tecnologia SLC é normalmente utilizada em dispositivos de armazenamento de alto desempenho.

Triple-Level Cell (TLC)

O tipo TLC é mais comumente encontrado em unidades SSD "econômicas", uma vez que se trata de uma tecnologia mais lenta nos processos de leitura ou gravação de dados e que possui menor tempo de vida útil. Cada uma de suas células de memória podem armazenar até 3 bits simultaneamente.

Die-Stacking

É importante destacar que há também uma técnica chamada Die-Stacking que igualmente tem o objetivo de aumentar a capacidade de armazenamento de memórias Flash. Para isso, os chips são "empilhados". A ideia aqui é relativamente simples: dois ou mais chips de memória Flash são colocados um em cima do outro, interconectados e encapsulados, como se fossem um dispositivo só. A técnica Die-Stacking pode ser encontrada, por exemplo, nos cartões de memória microSD.

* * *

Vale destacar que a tecnologia Flash é a mais aplicada em unidades SSD, no entanto, não é a única. A Gigabyte, por exemplo, lançou um produto chamado iRAM que pode ser entendido como um tipo de SSD. Nele, os dados são armazenados em um dispositivo que permite a conexão de pentes de memória RAM DDR. Os dados são mantidos graças a uma bateria recarregável. A autonomia da bateria é de aproximadamente 15 horas, um desvantagem considerável. Apesar disso, o dispositivo pode ser útil para armazenar temporariamente dados de um servidor que irá passar por manutenção, por exemplo.

Formatos de SSD

Pela abordagem que fizemos até agora, podemos entender qualquer dispositivo que utiliza memória Flash como sendo uma unidade SSD. Mas, na verdade, é mais adequado pensarmos em SSD como um tipo de dispositivo concorrente ao disco rígido - não podemos esquecer da palavra "Drive" no nome.
Nessa linha de pensamento, a indústria começou a fornecer unidades SSD como se fossem HDs, só que com chips de memória em vez de discos. Assim, esses dispositivos podem ser conectados em interfaces SATA ou IDE (PATA), por exemplo. Dessa forma, é possível encontrar então unidades SSD em formatos de 1,8, 2,5 e 3,5 polegadas, tal com em HDs.

Unidade SSD de 2,5 polegadas e interface SATA da Micron
Esses drives SSD também podem contar com uma pequena quantidade de memória RAM que atua como cache (ou buffer), não só para acelerar o acesso aos dados mais utilizados, mas também para aumentar a vida útil do dispositivo. E é claro: também podem ter um chip controlador (muitas vezes chamado de SoC, de System on a Chip) responsável por gerenciar o acesso aos chips de armazenamento.
A tecnologia aplicada nos chips de memória Flash das unidades SSD pode variar de modelo para modelo. Como você já sabe, unidades baseadas em MLC são mais baratas, sendo indicadas para uso doméstico ou em escritórios. Unidades com chips SLC, por sua vez, são mais adequados para aplicações mais críticas, como um servidor de ERP, por exemplo.
A capacidade de cada chip também pode variar, obviamente. Um dos principais fatores para isso é uma característica chamada miniaturalização. Aqui, a ideia é a de deixar os transistores que compõem o chip com o menor tamanho possível. Assim, pode-se armazenar mais dados sem, no entanto, ser necessário aumentar o tamanho físico do chip como um todo. Na época da publicação desta matéria, a Intel havia anunciado unidades SSD com chips com processo de fabricação de apenas 25 nanômetros (nm), medida que equivale a um milionésimo de milímetro, isto é, um milímetro dividido por um milhão. Em abril de 2011, a própria Intel havia anunciado uma tecnologia de fabricação de chips NAND com 20 nm:

A imagem, fornecida pela Intel, mostra uma comparação entre 34, 25 e 20 nanômetros
É interessante notar também que existem dispositivos "híbridos", que misturam as funções de HD e SSD. Um exemplo é a linha Momentus XT, anunciada pela Seagate em maio de 2010. Nela, são oferecidos HDs com 250 GB, 320 GB e 500 GB, no entanto, todos os modelos também contam com uma memória Flash de 4 GB. A função dessa memória extra, no entanto, não é a de aumentar ligeiramente a capacidade dos dispositivos, mas sim a de oferecer um cache(buffer) generoso, capaz de otimizar o desempenho da máquina, uma vez que os dados mais acessados são direcionados a esse buffer, dado o seu tempo de acesso reduzido.

Ilustração que a Seagate utilizou para promover a unidade híbrida Momentus XT
Por fim, vale ressaltar que há unidades SSD adaptadas para determinadas aplicações e, que, portanto, podem ter formatos não usuais, assim como há unidades SSD que utilizam interfaceUSB ou FireWire, por exemplo, fazendo frente aos famosos HDs externos.

TRIM

Quando o assunto é SSD, especialmente quando nos referimos às unidades mais recentes, uma característica relacionada vem ganhando cada mais atenção: o recurso TRIM. Ele é extremamente importante. Vamos entender o porquê.
Em geral, quando você apaga um arquivo em seu sistema operacional, ele não é completamente eliminado. Na verdade, a área ocupada por ele é marcada como “livre para uso” e os dados ficam ali de maneira oculta ao sistema até que uma nova gravação ocorra. É por isso que muitos programas de recuperação de arquivos apagados acidentalmente conseguem ter sucesso nessa tarefa.
Nos HDs, o espaço disponível para dados pode ser gravado e regravado sem maiores dificuldades. Isso é possível porque, nos discos rígidos, os dados são agrupados em setores de 512 bytes (saiba mais sobre isso nesta matéria sobre HDs), onde cada setor pode ser gravado e regravado de maneira independente.
No SSD, esse processo é um pouco diferente, já que na memória Flash os dados são agrupados em blocos, geralmente de 512 KB, sendo que cada grupo é composto por várias divisões chamadas páginas, onde cada uma tem, usualmente, 4 KB. O problema é que esse blocos de dados não podem simplesmente ser gravados e, posteriormente, regravados com a mesma facilidade existente nos HDs. Para isso, é necessário primeiro apagar os dados de uma área gravada, fazendo-a retornar ao seu estado original, para somente depois inserir os dados novos. A questão se agrava pelo fato de que, geralmente, esse processo precisar abranger o bloco inteiro e não apenas determinadas páginas deste. Você já deve ter percebido que essa situação pode causar uma significativa perda de desempenho.
Uma das maneiras de lidar com isso é fazer com que o sistema operacional sempre utilize uma área livre do SSD. Mas essa é uma solução paliativa, umas vez que, mais ou cedo ou mais tarde, os blocos não utilizados serão todos preenchidos. O TRIM surge justamente para evitar que o usuário "entre em pânico" ao perceber que sua unidade SSD está "sobrescrevendo" dados e, consequentemente, ficando mais lenta.
Com o TRIM, o sistema operacional é instruído a fazer uma verificação para “zerar” as páginas de arquivos apagados, em vez de simplesmente marcá-las como “disponível para uso”, como acontece nos HDs. Assim, quando os blocos que passarem por esse processo tiverem que receber novos dados, já estarão preparados para recebê-los, como se nunca nada tivesse sido gravado ali.
É por isso que o TRIM é tão importante. A sua função é capaz de evitar sérios problemas de desempenho. O único porém é que esse recurso precisa ser suportado tanto pelo sistema operacional quanto pela unidade SSD, portanto, confira sua existência ao adquirir um produto do tipo. O Windows 7 e versões mais recentes do kernel Linux, por exemplo, têm suporte ao TRIM.

Características a se observar na escolha de uma unidade SSD

Ao escolher uma unidade SSD, é sempre importante verificar as especificações do dispositivo. Uma delas está ligada ao aspecto do desempenho. Quantos kilobytes podem ser lidos por segundo? Quantos podem ser gravados nesse mesmo tempo? Tais parâmetros podem variar bastante de um produto para outro. É comum, por exemplo, encontrar unidades SSD formada por um conjunto de 10 chips de memória Flash. O controlador do dispositivo pode dividir um determinado arquivo em 10 partes para que estes sejam gravados simultaneamente na unidade, tornando o processo de gravação como um todo mais rápido, por exemplo. Porém, recursos a mais ou menos podem melhorar ou piorar esse processo. Daí a importância de verificar esses detalhes. Felizmente, é praticamente regra entre os fabricantes informar a quantidade de dados que podem ser gravados e também lidos por segundo.
Outro parâmetro que também pode ser observado é o IOPS (Input/Output Operations Per Second), que indica a quantidade estimada de operações de entrada e saída por segundo, tanto para leitura quanto para escrita de dados. Quanto maiores esses números, melhor.
Quanto à capacidade, como já informado no texto, esta costuma ser muito menor quanto comparado aos HDs porque ainda se trata de um tecnologia cara. Por isso, não será raro encontrar situações onde um mesmo computador oferece, por exemplo, HD de 500 GB ou, como opção, SSD de apenas 128 GB. Dependendo do caso, você pode utilizar ambas as tecnologias: instalar o sistema operacional em um SSD para agilizar o desempenho e armazenar seus arquivos pessoais em um disco rígido convencional.
Por fim, vale a pena checar também qual o tempo médio de durabilidade previsto pelo fabricante e se a unidade conta com recursos adicionais, como buffer, o já mencionado TRIM, a tecnologia de monitoramento S.M.A.R.T. (amplamente utilizada com HDs), ou até mesmo RoHS(Restriction of Certain Hazardous Substances), que indica que o fabricante não utilizou determinadas substâncias prejudiciais à saúde e ao meio ambiente na fabricação do produto.

História: o primeiro SSD do mercado

Os dispositivos SSD começaram a aparecer de maneira massiva no mercado a partir de 2006, mas pode-se dizer que a tecnologia em si surgiu muito antes, embora não com o mesmo nome.
Em 1976, uma companhia de nome Dataram colocou no mercado um dispositivo de armazenamento de dados de nome BULK CORE que era composto por oito módulos de um tipo de memória não-volátil com a incrível (para a época) capacidade de 256 KB cada um.

Um HD da época à esquerda e o BULK CORE à direita - Imagem por StorageSearch.com
O BULK CORE "emulava" as unidades de disco utilizadas na época, com o diferencial de ser mais rápido que estas. Custava cerca de 10 mil dólares e era utilizado em centros de processamento de dados, uma vez que a ideia de computação pessoal ainda não era difundida.
Em vista de suas características (uso de memória não volátil e maior velocidade de transferência de dados), este pode ser considerado primeiro SSD do mercado.

Finalizando

Muita gente se pergunta se a tecnologia SSD sinaliza o fim da era dos discos rígidos. É difícil dizer. Em relação à capacidade de armazenamento, os HDs ainda representam uma excelente relação custo-benefício, sem contar que esses dispositivos contam com uma média de durabilidade bastante satisfatória.
Uma vez que as unidades SSD têm um custo de armazenamento muito mais elevado e, em muitos casos, são vistas com a desconfiança que é natural em tudo o que é novo, vai levar algum tempo para que os HDs percam o seu reinado, se é que isso vai acontecer. Mas o fato é que, inegavelmente, a tecnologia SSD veio para ficar.
Escrito por  - Publicado em 29_09_2010 - Atualizado em 24_06_2013
Fonte: infowester