danilofugi 0 Denunciar post Postado Março 5, 2015 Danilo M. Fugi - Ciência da Computação - 7º Período danilofugi@gmail.com IF Sul de Minas - Muzambinho O que é Cluster Um Cluster é formado por um conjunto de computadores interligados através de uma rede, as máquinas membros deste cluster são denominadas nó ou node. É importante utilizar uma infraestrutura de rede que facilite a inclusão, alteração e exclusão de máquinas. Na maioria das vezes o cluster é formado de computadores convencionais e se apresenta de forma transparente ao usuário, como sendo um único computador de grande porte, é válido frisar que é possível a utilização de máquinas mais robustas para construção de Clusters. Não é necessário que as máquinas sejam idênticas, mas sim o Sistema Operacional, para que os softwares que gerenciam as trocas de mensagens e sincronismo dos dados funcionem de forma correta. Existem hoje tipos de cluster, mas alguns se destacam pela aplicação e custo benefício: Cluster de Alto Desempenho: denominado, também, de Alta Performance (High Performance Computing – HPC), sua característica é o grande volume de processamento de dados em computadores convencionais, que garante baixo custo na construção, e com processamento na ordem de gigaflops. Os servidores deste cluster trabalham com a tecnologia de paralelismo, dividindo o processamento com as outras máquinas, buscando a otimização e desempenho de um supercomputador. Cluster de Alta Disponibilidade: (High Availability – HA) são caracterizados por se manterem em pleno funcionamento por um longo período de tempo, utilizando redundância para manter um serviço ativo e se proteger de falhas, geralmente são computadores convencionais que disponibilizam o mesmo recurso em todas as máquinas da rede, configuradas com prioridades diferentes, onde existe um servidor ativo e os outros ociosos. Cluster de Balanceamento de Carga: (Horizontal Scaling – HS) são caracterizados por dividirem, de forma equilibrada, as tarefas entre os membros do cluster, onde cada nó atenda a uma requisição e não, necessariamente, que divida uma tarefa com outras máquinas. É importante salientar que é possível a combinação de mais de uma metodologia de construção de clusters, onde uma implementação de Alta Disponibilidade para garantir acesso aos serviços de vendas online possa ser incrementada com a utilização de um cluster de Balanceamento de Carga para atender o aumento nos acessos ao serviço. As características marcantes dos clusters são a facilidade de gerenciamento dos nós, onde podemos adicionar, dar manutenção e remover um nó do cluster sem que afete seu funcionamento, recuperação de falhas de forma otimizada. Podemos obter resultados tão satisfatórios no uso de um cluster quanto em servidores sofisticados com um custo muito menor. A implementação pode ser utilizada para aplicações sofisticadas e, também, para aplicações domésticas. MONTAGEM DO CLUSTER A implementação do cluster foi realizada, inicialmente, em máquinas virtuais, para testes, visando fácil locomoção, ambiente físico reduzido e clonagem dos nós é feita de forma rápida e confiável. A máquina física hospedeira das virtuais utiliza processador Intel i3, com 4 GB de memória RAM e HD de 1 TB, cada máquina virtual possui 512 MB de memória RAM, HD de 8 GB e 02 placas de rede, as configurações das máquinas são mostradas abaixo: Máquina 01: Debian 7.1, hostname Servidor, IP eth0 10.0.2.15/24 (recebido via DHCP da máquina hospedeira que faz o NAT para acesso a internet) IP eth1192.168.0.1/24 (rede interna), dominio: dominio.com.br. Máquina 02: Debian 7.1, hostname bw2, IP eth0 10.0.2.15/24 (recebido via DHCP da máquina hospedeira que faz o NAT para acesso a internet) IP eth1192.168.0.2/24 (rede interna), domínio: dominio.com.br. Máquina 03: Debian 7.1, hostname bw3, IP eth0 10.0.2.15/24 (recebido via DHCP da máquina hospedeira que faz o NAT para acesso a internet) IP eth1192.168.0.3/24 (rede interna), dominio: dominio.com.br. Máquina 04: Debian 7.1, hostname bw4, IP eth0 10.0.2.15/24 (recebido via DHCP da máquina hospedeira que faz o NAT para acesso a internet) IP eth1192.168.0.3/24 (rede interna), dominio: dominio.com.br. Os ajustes realizados nos nós foram feitos em apenas um nó e copiados via SSH para os outros nós, garantindo a não ocorrência erros de configurações diferentes. Atualização de repositórios de pacotes no arquivos source.list e atualização com o comando #aptitudo update && aptitude -y dist-upgrade Nome de máquina: servidor, bw2, bw3 e bw4. Abaixo, segue os sources.list utilizados nos sistemas. São arquivos básicos, uma vez que somente o servidor está com a parte gráfica e os nós estão sem a parte gráfica. sources.list servidor: # # deb cdrom:[Debian GNU/Linux 7.1.0 _Wheezy_ - Official amd64 CD Binary-1 20130615-23:06]/ wheezy main #deb cdrom:[Debian GNU/Linux 7.1.0 _Wheezy_ - Official amd64 CD Binary-1 20130615-23:06]/ wheezy main deb http://ftp.br.debian.org/debian/ wheezy main contrib non-free deb-src http://ftp.br.debian.org/debian/ wheezy main contrib non-free deb http://security.debian.org/ wheezy/updates main contrib non-free deb-src http://security.debian.org/ wheezy/updates main contrib non-free # wheezy-updates, previously known as 'volatile' deb http://ftp.br.debian.org/debian/ wheezy-updates main contrib non-free deb-src http://ftp.br.debian.org/debian/ wheezy-updates main contrib non-free deb http://mirrors.kernel.org/debian/ wheezy-updates main contrib non-free deb-src http://mirrors.kernel.org/debian/ wheezy-updates main contrib non-free deb http://ftp.debian.org/debian/ wheezy-updates main contrib non-free deb-src http://ftp.debian.org/debian/ wheezy-updates main contrib non-free CONFIGURAÇÕES1. Preparando o sistema (servidor e nós): # apt-get update # aptitude safe-upgrade 2. Instalando e atualizando pacotes (servidor e nós): NA DÚVIDA FAÇA CADA PACOTE SEPARADO # aptitude install build-essential module-init-tools kernel-package initramfs-tools # aptitude install autoconf libaal-dev wget liblzo2-dev gzip libncurses5 libncurses5-dev dpatch udev # aptitude install openjdk-7-jre # Somente se for trabalhar com Java - servidor e nós 4. Instalando mais pacotes necessários (servidor e nós): # apt-get update # apt-get install -y gfortran-* Tem que ser o apt-get serão 500mb aproximadamente Reiniciar: # shutdown -r now 5. Alterando os arquivos necessários (servidor e nós): # ifconfig # nano /etc/network/interfaces allow hotplug eth1 iface eth0 inet static address 192.168.0.1 netmask 255.255.255.0 network 192.168.0.0 broadcast 192.168.0.255 O arquivo interfaces acima deve ser configurado em todos os nós, a configuração acima é do Servidor O Arquivo hosts deve ser igual em todos os nós # nano /etc/hosts 127.0.0.1 localhost 192.168.0.1 servidor.dominio.com.br servidor 192.168.0.2 bw2.dominio.com.br bw2 192.168.0.3 bw3.dominio.com.br bw3 192.168.0.4 bw4.dominio.com.br bw4 O Arquivo hosts.equiv deve ser igual em todos os nós # nano /etc/hosts.equiv servidor bw2 bw3 bw4 O Arquivo hosts.equiv deve ser igual em todos os nós # nano /home/.rhosts servidor bw2 bw3 bw4 O arquivo /home/.rhosts, deve ser o mesmo em todas as máquinas do Cluster. # nano /root/.rhosts servidor bw2 bw3 bw4 # nano /etc/securetty No arquivo securetty, somente acrescente as linhas: console rsh ssh O arquivo /opt/hostfile, deve ser o mesmo em todas as máquinas do Cluster. # nano /opt/hostfile servidor bw2 bw3 bw4 6. Servidor SSH: Servidor e nós # aptitude install -y ssh openssh-server No servidor, gerando a chave com 1024 bits: # ssh-keygen -b 1024 -t rsa Copiando a chave, comando: (troque os IPs dos nós) # ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.0.X Para testar, na primeira vez, deverá pedir a senha, digite a senha. # ssh 192.168.0.2 -n 'echo $SHELL' Deverá aparecer: /bin/bash Teste todos os ips do cluster em caso de erro, primeiro reinicie a máquina e apague todo o conteúdo do arquivo: # nano /root/.ssh/known_hosts Depois, ao acessar um nó: # ssh no01 Aparece uma mensagem "Are you sure you want to continue...", digite yes. Irá pedir a senha, digite e, na próxima vez, não pedirá mais senha. 6. Instalando PVFS2 (servidor e nós) Parallel Virtual File System é um sistema de arquivos concebido para proporcionar alto desempenho para aplicações paralelas. Nos nós e no servidor: instalando as bibliotecas: # apt-get install libdb5.1 libdb5.1-dev Após isso, faça os passos para instalar o pvfs: # cd /usr/src # wget ftp://ftp.parl.clemson.edu/pub/pvfs2/pvfs-2.8.2.tar.gz # mkdir /opt/mpich # mkdir /opt/pvfs2 # tar -xzvf pvfs-2.8.2.tar.gz # cd pvfs-2.8.2 # ./configure Deve terminar sem erros com a linha: PVFS2 version string: 2.8.2 # make Deverá terminar com a última linha: GENCONFIG examples/fs.conf # make install Acrescentar no arquivo (servidor e nós): # nano /etc/fstab tcp://servidor(ou no0X):3334/pvfs2-fs /mnt/pvfs2 pvfs2 defaults,noauto 0 0 # mkdir /mnt/pvfs2 Nos nós remover MTA para não atrasar a inicialização # update-rc.d -f exim4 remove Configurando a variável de ambiente, entrar no arquivo: # nano ~/.bashcrc E acrescentar no final: LD_LIBRARY_PATH=/opt/pvfs2/lib:$LD_LIBRARY_PATH export LD_LIBRARY_PATH Salvar e sair. Reiniciar: # reboot Executar no servidor: # /opt/pvfs2/bin/pvfs2-genconfig /etc/pvfs2-fs.conf Criando um novo storage e preparando para iniciar pela primeira vez: # /opt/pvfs2/sbin/pvfs2-server /etc/pvfs2-fs.conf -f Ele deve retornar: /opt/pvfs2/sbin/pvfs2-server /etc/pvfs2-fs.conf -f [s 09/15 15:50] PVFS2 Server on node servidor version 2.8.2 starting... [D 09/13 15:50] PVFS2 Server: storage space created. Exiting. Iniciando: # /opt/pvfs2/sbin/pvfs2-server /etc/pvfs2-fs.conf [s 09/09 15:55] PVFS2 Server on node servidor version 2.8.2 starting... Copiando para os nós pvfs2-fs.conf para os nós. # scp /etc/pvfs2-fs.conf 192.168.1.X:/etc/ Ainda no servidor: # /opt/pvfs2/sbin/pvfs2-server /etc/pvfs2-fs.conf Testando: # /opt/pvfs2/bin/pvfs2-ping -m /mnt/pvfs2 7. Servidor NFS O NFS faz o compartilhamento e sincronização de diretórios e arquivos no cluster. Iniciando a instalação do NFS: # cd /home/Usuario No servidor: # apt-get install portmap # apt-get install nfs-common # apt-get install nfs-kernel-server # apt-get install nfs-user-server Entre no arquivo: # nano /etc/exports Coloque o conteúdo no final: /home/Usuario 192.168.1.0/24(rw,all_squash,subtree_check,anonuid=150,anongid=100) /opt 192.168.1.0/24(rw,all_squash,subtree_check) /usr/local 192.168.1.0/24(rw,all_squash,subtree_check) Atualizando o kernel com as mudanças no arquivo /etc/exports: # exportfs -a Reinicie o serviço: # service nfs-kernel-server restart Nos nós: Entre no arquivo /etc/fstab: # nano /etc/fstab Adicione no final: 192.168.1.6:/home/Usuario /home/Usuario nfs defaults 0 0 192.168.1.6:/opt /opt nfs defaults 0 0 192.168.1.6:/usr/local /usr/local nfs defaults 0 0 8. MPICH Message Passing Interface é uma Interface de Passagem de Mensagens. Essa é a biblioteca que transforma um conjunto de máquinas em um Cluster. Servidor e nós: (ORANGEFS JÁ TRÁS TUDO IMBUTIDO COMO PVFS, MPICH2 e MPI-IO (ROMIO))# cd /usr/src # wget http://orangefs.org/downloads/LATEST/source/orangefs-2.9.1.tar.gz # tar -xzvf orangefs-2.9.1.tar.gz #cd orangefs-2.9.1.tar.gz #./configure Se não tiver erros, terminará com: Configuration completed # make # make install # wget http://ftp.de.debian.org/debian/pool/main/l/lam/lam_7.1.4.orig.tar.gz # tar -xzvf lam_7.1.4.orig.tar.gz #cd lam-7.1.4 #./configure Se não tiver erros, terminará com: Configuration completed # make # make install # wget http://www.mpich.org/static/downloads/3.0.4/mpich-3.0.4.tar.gz # tar -xzvf mpich-3.0.4.tar.gz # cd mpich-3.0.4 #./configure Se não tiver erros, terminará com: Configuration completed # make # make install Configurando as variáveis: # nano ~/.bashrc PATH=/opt/mpich/bin:$PATH export PATH LD_LIBRARY_PATH=/opt/mpich/lib:/opt/pvfs2/lib:$LD_LIBRARY_PATH export LD_LIBRARY_PATH /opt/mpich/lib O arquivo bashrc deve ser copiado para todos os nós Reinicie: # reboot Ver as informações # mpiexec -info Vamos testar nossa instalação, compilando e executando: # cd /usr/src/mpich-3.0.4/examples # mpicc -o cpi cpi.c Compilando o arquivo em todas as máquinas: utilizar o comando: # mpicc -o -hostfile /opt/hostfile /usr/src/mpich-3.0.4/examples/cpi.c cpi cpi.c Calcula o valor de PI Testando: # mpirun -hostfile /opt/hostfile -n 7 /usr/src/mpich-3.0.4/examples/cpi Deverá aparecer o processo de calculo dividindo o processo em todos os nós, com resultado e tempo gasto no cálculo. Neste momento nosso cluster HP já está funcionando! 9. instalando o Ganglia (monitor gráfico) Nos nós: # apt-get update # apt-get install ganglia-monitor No servidor: invoke-rc.d gdm3 start - habilita interface grafica Caso tenha desabilitado # apt-get update # apt-get install apache2 Abra o navegador e digite: localhost, deverá aparecer: It works, assim o apache está funcionando # apt-get install php5 libapache2-mod-php5 Crie o arquivo: # nano /var/www/info.php Coloque dentro dele: <?php phpinfo(); ?> Salve e saia. Reinicie o Apache: # service apache2 restart Abra o navegador e digite localhost/info.php, deverá aparecer a página de informações do PHP. Instalando o Ganglia: # apt-get install ganglia-webfrontend ganglia-monitor Vamos copiar o arquivo necessário: # cp /etc/ganglia-webfrontend/apache.conf /etc/apache2/sites-enabled/ganglia.conf Alterar o arquivo /etc/ganglia/gmod.conf no servidor e copiar para os nós. A parte que nos interessa alterar, está na imagem acima. Comente as linhas onde tem o IP 239.2.11.71 name= “kluster” owner= “kluster” /* mcast join 239.2.11.71 */ host = 192.168.0.1 /* mcast join 239.2.11.71 */ /* bind = 239.2.11.71 */ , ou similar, e configure o host com o IP do servidor. Altere o arquivo /etc/ganglia/gmetad.conf no servidor, deixando como na imagem acima, não sendo necessário copiar para os nós. data_source “kluster” 15 localhost 192.168.0.1 gridname = “kluster” authority “http://localhost/ganglia/” Para reiniciar o serviço nos nós: # service ganglia-monitor restart Reiniciar o Apache e o Ganglia no servidor: # service apache2 restart # service gmetad restart A partir daí é só digitar no navegador localhost/ganglia Compartilhar este post Link para o post Compartilhar em outros sites