Another Geek Blog

SSD e você *

Antes de começar esse post queria agradecer os comentários no post anterior. Não tinha idéia que tem, pelo menos, 9 pessoas seguindo o blog. Sensacional.

 

Bom, conversando com meu amigo Júlio Mauro outro dia cheguei a conclusão que os preços de SSD no Brasil ainda são abusivos e talvez por ai não seja economicamente viável as soluções que eu implementei aqui, mas falando apenas da tecnologia…

Um tempo atrás precisávamos de 2 novos storages para nossa farm virtual. Um pra produção e um pra servidores internos, desenvolvimento e teste. Comecei da forma tradicional procurando preços para expandir ou nosso Equallogic ou o NetApp (sim, tenho um de cada). Mas ao mesmo tempo que precisava de mais espaço a empresa fez uma mudança enorme no kernel do nosso principal software (que disponibilizamos no modelo software-como-serviço) e descobrimos uma enorme demanda por I/O. Depois de analisarmos tudo com cuidado chegamos a conclusão que essa nova demanda, uma vez que todos os clientes recebessem o upgrade e todos as novas instalações previstas estivessem no ar iriam justificar não um upgrade simples adicionando mais shelfs e discos nos storages existentes mas sim um upgrade para versões mais high-end.

Foi ai que resolvi parar pra pensar um pouco e considerar uma solução mais geek: Vamos construir nosso próprio storage. Comparando as cotações que recebi da Equallogic e NetApp e olhando o que eu podia comprar com aquele dinheiro caso eu fizesse o storage eu mesmo cheguei a conclusão que dava pra ter em produção o mesmo espaço disponível em SSD que eu teria com discos SAS de 10K usando os storage appliances.

O resultado foi esse aqui. Um Dell PowerEdge R710 com 96GB de memória, um etherchannel LACP de 2Gb/s e  6 discos SSD de 480GB em raid-z (ZFS!) num FreeBSD. Lindo. O filesystem é exportado via NFS, facilmente configurável no VMware.

 

Assim que foi pro ar vimos uma melhora incrível na performance geral da infra virtual. As VMs migradas para esse novo storage tiveram o I/O incrementado pelo menos 5x em relação ao ambiente anterior (man iostat para mais informações) e com umas 20 VMs migradas pros SSDs a pressão nos outros storages diminui também. E o detalhe: A versão de FreeBSD atual tem um bug que não deixa ela fazer uso total da capacidade ethernet disponível no meu servidor. Assim que tiver um update eu vou poder usar um ethernchannel de 4Gb/s, efetivamente dobrando o throuhtput, já que rede é meu gargalo no momento.

Vendo o excelente resultado em produção e precisando de um storage pro ambiente interno resolvi tomar uma atitude parecida. A única coisa é que me recuso a comprar servidor de marca e top-de-linha pra ambiente interno, então montamos um servidor nós mesmos. Só partes de alta qualidade, placa-mãe super-micro modelo servidor, processador AMD, fonte redundante, 48GB de memória, 3 controladoras SATA top-de-linha e um gabinete 4U com 24 baias hot-swappable.

Nesse sujeito adicionamos uma penca de discos SATA baratos de 750GB, 1, 2 ou 3 TB entre 5.4K RPM e 7.2K RPM num raid-z. Mas ai o truque: Adicionamos também 3 SSDs de 250 GB: 1 para caching e 2 (mirror) pra logs. De novo um etherchannel de 2Gb/s e NFS.  Não estou exagerando ao dizer que esse servidor custou 1/8 ou menos do que nosso NetApp, tem mais do que o triplo de capacidade e praticamente a mesma performance. Provavel que se eu gastar mais uns $2K em SSD para mais caching/logging eu até supere o NetApp.

O resultado foi tão impressionante (e barato comparado com comprar um storage) que os executivos da empresa, após discutirem um novo modelo de data-mining com alguns clientes e os desenvolvedores e prometerem ainda mais melhoras de performance para outros clientes, chegaram para mim com um saquinho de dinheiro (figurativamente falando) e disseram: Gasta isso com SSD. Mas instala o mais perto possível dos servidores X, Y e Z.

Traduzindo o que eles queriam é os SSD rodando direto no ESXi como local storage (vmfs). Missão dada é missão cumprida. Mais 3 SSDs de 480GB em RAID5 direto em um dos nossos ESXi (dual socket, quad-core X5560, 48GB de RAM). Rapaz… Dá vontade chorar. Enquanto algumas VMs que rodam no Equallogic chegam a um pico de 5000 rd_sec/s as VMs rodando no RAID5 de SSD bate fácil em 25000 rd_sec/s.

Já estou com mais 3 SSDs encaminhadas e logo devo colocar essas crianças em outro ESXi.

E agora começa a outra parte da história… Vendo tudo isso acontecendo no ambiente dos servidores deu coceira, né? Meu laptop do trabalho já estava com a garantia expirada fazia uns 3 meses ou mais e era hora de compara um novo… Consegui a aprovação pra um Latitude bacanudo, turbinado com 8GB de memória, CPU i7 e tudo mais… só que ai aquela tristeza, né? Disco de 5400RPM… Resolvi tirar o escorpião do bolso e comprei, do meu próprio dinheiro um SSD da Intel de 120GB e um adaptador pra colocar no lugar do CD-ROM pro disco original.

Rodando Ubuntu nessa criança com o SO no SSD e meus dados no disco normal. Sensacional. Google Chrome abre em menos de 1 segundo. Firefox em menos de 2. O sistema dá boot em 13 segundos. Coisa insana mesmo. Acho que nunca mais consigo ir pra discos normais. To estragado pra vida.

Resumindo a história: Se financeiramente for possível eu recomendo altamente ir pra SSDs. Usamos OCZ, Patriots e Intel. OCZ sem dúvida o mais rápido, Intel a seguir, eu acho. Dependendo do uso ou direto no seu ESXi ou num storage rodando ZFS deve ficar lindo. Na empresa nosso ambiente é 100% virtual em cima de ESXi. Inclusive bancos de dados. Queixa nenhuma até o momento. E não deixe ninguém te assustar com papo de que SSD falha ou estraga fácil. Leia os specs técnicos do modelo que estiver pesquisando e veja o MTBF. No caso dos OCZ dá dó dos discos normais ao comparar. 😉

Se tiverem alguma pergunta é só mandar um comentário. Quem sabe dá sorte e eu sei responder?

* Foi só pra rimar esse Título ridículo. – Foi mal aê.

Exit mobile version