RAC 11G R2 Grid Infraestructure em português instalação passo passo

Olá amigos.

Esse documento é uma tradução que eu fiz para o português de um dos melhores guias de instalação do Oracle RAC 11g R2 Grid Infraestructure para AIX que eu conheço,  infelizmente não consta o nome do autor no pdf original, porém ele é totalmente baseado na documentação oficial Oracle.

Boa Leitura para todos.

1.  Introdução

1.1.  Visão geral dos novos conceitos do 11gR2 Grid Infrastructure

1.1.1. SCAN.

1.1.2. GNS1

1.1.3. OCR e Voting Disk usando armazenamento ASM

1.1.4. Intelligent Platform Management Interface (IPMI)

1.1.5. Tempo

1.1.6. Clusterware ecompartilhamento do mesmo Oracle Home por ASM

1.2. Requerimento do Sistema

1.2.1. Requerimento de Hardware

1.2.2. Requerimentos de Hardware de rede

1.2.3. Requetimento para Endereçamento IP

1.2.4. Método de Instalação

2.  Preparação dos nós de cluster para OracleRAC

2.1. Contas de Usuário

2.1.1. Criação de Usuarios

2.1.2. Verificando usuários criados

2.1.3. Verifique e Concedendo privilégios

2.1.4. Configuração de equivalencia de usuário via SSH

2.1.5. Configurand0 o perfil do usuário GRID

2.2. Configuração de SO

2.2.1. Verificando AIO

2.2.2. Veficando parâmetro VMM

2.2.3. Modificação para ajuste restrito do strict_maxperm

2.2.4. Alterando o NTP

2.3. Rodando o rootpre.sh

2.4. Preparando a Rede

2.5. Preparando o Cliente

3. Preparando  o storage compartilhado para Oracle RAC

4. Instalando o Oracle Grid Infraestruture

4.1. Instalanção basica do Oracle Grid Infraestruture (sem GNS e IPMI)

4.2. Detalhando o resultado do script “Root.sh”

5. Definindo o caminho do Grid Infrastructure Home

6. Instalação do programa RDBMS

7. Definindo o caminho do RDBMS Home

8. Executando o ASMCA para criar os diskgroups

9. Executando o DBCA paracriar o database.

1

1

1

1

1

1

2

2

2

2

2

3

3

3

3

3

4

4

4

4

4

4

4

5

5

5

5

6

6

7

7

24

27

27

39

39

40

1. Introdução

NOTA: A idéia desse artigo sobre RAC 11gR2 não é substituir ou deprezar a documentação Oracle, mas sim, é servir de complemento e auxiliar aqueles que tem dificuldade com o Inglês. Para fornecer respostas a quaisquer perguntas que não puderem ser claramente abordadas por esse artigo, use a documentação Oficial Oracle.

1.1. Visão geral dos novos conceitos do 11gR2 Grid Infrastructure

 

1.1.1. SCAN

O cliente de nome único de acesso (SCAN) “Single Client Access Name” é o endereço usado por todos os clientes conectados ao cluster. O nome SCAN é um nome de domínio registrado em três endereços IP, quer no domain name service (DNS) ou no Grid Naming Service (GNS). O nome SCAN elimina a necessidade de alterar os clientes quando nós são adicionados ou removidos do cluster. Os clientes que usam nomes SCAN também pode acessar o cluster usando EZCONNECT.

O cliente de nome único de acess (SCAN) é um nome de domínio que resolve todos os endereços alocados para o nome SCAN. Defina três endereços para o SCAN. Durante a instalação do Oracle grid infrastructure listeners são criados para cada um dos endereços SCAN, o Oracle grid infrastructure controla qual servidor responde a uma solicitação de endereço SCAN. Forneça três endereços IP no DNS para serem usados no mapeamento de nome SCAN. Isto assegura a alta disponibilidade.

•Os endereços SCAN precisam estar na mesma sub-rede que os endereços VIP dos nós de cluster.

•O nome de domínio SCAN deve ser único dentro de sua rede corporativa.

1.1.2. GNS

No passado, os nomes de host e endereços VIP eram definidos no DNS ou localmente no arquivo hosts. GNS pode simplificar esta configuração usando DHCP. Para usar GNS, o DHCP deve ser configurado no subdomínio em que o cluster reside.

1.1.3. OCR e Voting Disk usando ASM

A habilidade de usar diskgroups ASM para o armazenamento de Clusterware OCR e discos de votação é um novo recurso no o Oracle Database 11g Release 2 Grid Infrastructure. Se você escolher esta opção e ASM ainda não estiver configurado, o OUI iniciará o assistente de configuração do AM  para configurar o ASM e o diskgroup.

1.1.4. Intelligent Platform Management Interface (IPMI)

Intelligent Platform Management Interface (IPMI) fornece um conjunto de interfaces comuns de hardware e firmware para que os  administradores gerenciarem e monitorarem o funcionamento do sistema.

Com o Oracle Database 11g Release 2, o Oracle Clusterware pode integrar IPMI para fornecer suporte ao isolamento de falha e garantir a integridade do cluster. Você deve ter o seguinte hardware e software configurado para permitir que os nós do cluster sejam gerenciados com IPMI:

Cada nó membro do cluster requer uma Baseboard Management Controller (BMC) rodando firmware compatível com IPMI versão 1.5  que suporta IPMI sobre LANs  e aceita configuração para controle remoto.

Cada nó membro do cluster requer um driver IPMI instalado. O cluster requer uma rede de gestão para IPMI. Esta pode ser uma rede compartilhada, mas a Oracle recomenda que você configure uma rede dedicada.

Cada porta ethernet de cada nó do cluster usada pelo BMC deve ser conectada à rede de gerenciamento IPMI.

Se você pretende usar IPMI, então você deve fornecer um nome de usuário e senha para administração quando solicitado durante a instalação.

1.1.5. A sincronização da hora

Oracle Clusterware 11g Release 2 (11.2) requer a sincronização de tempo em todos os nós dentro de um cluster quando o Oracle RAC é instalado. Para conseguir isso, você deve ter o network time protocol (NTP) configurado no seu SO. O novo Serviço Oracle Cluster Time Synchronization foi projetado para organizações cujos database Oracle RAC são incapazes de acessar os serviços NTP.

1.1.6. Clusterware e ASM compartilham o mesmo Oracle Home

O Clusterware e ASM compartilham o mesmo Oracle Home mesmo assim, nós chamamos isso de Grid Infrastructure home (antes do 11gR2 o ASM podia e ser instalado em um home separado ou no mesmo Oracle home do RDBMS).

1.2. Requisitos de Sistema

 

1.2.1. Requisitos de hardware

· Memória física (pelo menos 1,5 gigabyte (GB) de RAM)

· Uma quantidade de area de swap igual à quantidade de memória RAM

· Área temporária (pelo menos 1 GB) disponível no / tmp

·O tipo de Processador (CPU) que seja certificada com a versão do software Oracle que está sendo instalado

.Resolução de tela mínima de 1024 x 786, de modo que o Oracle Universal Installer (OUI) seja exibido corretamente

·Todos os processadores dos servidores que serão utilizados no cluster devem ter a mesma arquitetura.

Exemplo:  processadores de 32 bit ou processadores de 64-bit

·Espaço em disco nos locais de instalação do software.

Você vai precisar de pelo menos 4,5 GB de espaço disponível em disco para o diretório Grid home, que inclui tanto os arquivos binários do Oracle Clusterware quanto os do Oracle Automatic  Storage Management (Oracle ASM) , todos seus arquivos de log associados e pelo menos 4 GB de espaço disponível em disco para o diretório home do Oracle Database.

· Espaço de disco compartilhado

Um banco de dados Oracle RAC é um tipo de banco de dados compartilhado. Todos os arquivos de dados, arquivos de controle, arquivos de redo log e o arquivo de parâmetro do servidor (SPFILE) utilizados pelo banco de dados Oracle RAC devem estar em um storage compartilhado que seja acessível por todas as instâncias de banco de dados Oracle RAC.  A instalação do Oracle RAC que é descrito nesse artigo, usa o Oracle ASM para o armazenamento compartilhado do Oracle Clusterware e dos arquivos de banco de dados Oracle. A quantidadedo espaço de disco partilhado é determinada pelo tamanho do seu banco de dados.

1.2.2. Requisitos de hardware de rede

· Cada nódeve ter pelo menos duas placas de rede (NIC) ou adaptadores de rede.

Nomes de interface pública devem ser os mesmos para todos os nós. Se a interface pública em um nó usa o adaptadore de rede “PublicLan”, então você deve configurar “PublicLan” como a interface pública em todos os nós.

1.1.4. Intelligent Platform Management Interface (IPMI) 2

Você deve configurar os mesmos nomes de interfaces privadas para todos os nós. Se ‘PrivateLAN’ é o nome da interface privada para o primeiro nó, então ‘PrivateLAN “deve ser o nome da interface privada para o segundo nó.

•Para a rede privada, os pontos finais de todas as interfaces de interconexão designadas devem ser totalmente acessíveis na rede. Cada nó no cluster deve ser capaz de se conectar a todas as interfaces de rede privada no cluster.

•O nome do host de cada nó deve estar em conformidade com o padrão RFC 952, que permite caracteres alfanuméricos. Nomes de host usando sublinhados (“_”) não são permitidos.

1.2.3.Requisitos de Endereço IP

•Um endereço de IP público para cada nó

•Um endereço IP virtual para cada nó

•Três endereços para single client access name (SCAN) do cluster

1.2.4. Método de instalação

Este documento detalha os passos para a instalação de um Oracle 11gR2 RAC cluster de 2 nós com AIX:

•Os binários do Oracle Grid Infrastructure Home são instalados no disco local de cada um dos nós do RAC.

•Os arquivos requeridos pelo Oracle Clusterware (OCR e discos de voting) são armazenados em ASM

•A instalação é explicada sem GNS e IPMI.

2. Prepare os nós do cluster para Oracle RAC

2.1. Contas de Usuário

Nós recomendamos  usuários diferentes para a instalação do Grid Infrastructure (GI) e do RDBMS Oracle Home.

O Grid Infrastructure será instalado em um Oracle base separado, de propriedade do usuário grid. Após instalar o grid  o GI home será de propriedade da root, e inacessível para usuários não autorizados.

2.1.1. Criação de usuários

#mkgroup -'A' id='1000' adms='root' oinstall
#mkgroup -'A' id='1100' adms='root' asmadmin
#mkgroup -'A' id='1200' adms='root' dba
#mkgroup -'A' id='1300' adms='root' asmdba
#mkgroup -'A' id='1301' adms='root' asmoper
#mkuser id='1100' pgrp='oinstall' groups='asmadmin,asmdba,asmoper' home='/home/grid' grid
#mkuser id='1101' pgrp='oinstall' groups='dba,asmdba' home='/home/oracle' oracle
#mkdir -p /haclu/app/11.2.0/grid
#chown -R grid:oinstall /haclu
#mkdir -p /haclu/app/oracle
#chown oracle:oinstall /haclu/app/oracle
#chmod -R 775 /haclu

1.2.2. Requisitos de hardware de rede

2.1.2. Verifique os usuários criados

# id oracle uid=1101(oracle) gid=1000(oinstall) groups=1001(dba),1300(asmdba)

# id grid uid=1100(grid) gid=1000(oinstall) groups=1100(asmadmin),1301(asmoper),1300(asmdba)

2.1.3. Verifique e conceder privilégios

#lsuser -a capabilities grid grid
#chuser capabilities=CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM,CAP_PROPAGATE grid
#lsuser -a capabilities grid grid
capabilities=CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM,CAP_PROPAGATE

 

2.1.4. Instalação de equivalência de usuário SSH

Recomendamos a criação de ssh ao configurar as contas de usuário (mas também é possível configurar ssh através do Oracle Universal Installer (OUI)):

passwd grid 
passwd oracle

Use usuário grid em todos os nós

rm -rf $HOME/.ssh

No nó1:

$GI_OUI/sshsetup/sshUserSetup.sh -user grid -hosts "node1 node2" -advanced -noPromptPassphrase

Use o usuário Oracle:

$OUI_HOME/sshsetup/sshUserSetup.sh-user oracle-hosts "node1 node2" avançada -NoPromptPassphrase

Por favor, teste se ssh é bem-sucedido para e em ambos os nós sem pedir senha.

2.1.5. Configure o perfil do usuário GRID

# su - grid $ echo $SHELL /usr/bin/ksh $ vi .profile umask 022

Se as variáveis de ambiente ORACLE_SID, ORACLE_HOME, ou ORACLE_BASE estivrem definidas no arquivo, remova essas linhas do arquivo.

export GI_OUI=/stage/core/AIX/PPC-64/64bit/rdbms/11.2.0.1.0/grid/
cd $GI_OUI

2.2.Configuração do S.O.

 

NOTA: Este artigo apenas lista as ações e melhores práticas relacionadas a exemplos básico nesse ambiente.

Mais patches do sistema operacional e pacotes podem ser necessários quando se utiliza outras tecnologias, como VIO, DLPA, etc. Por favor, veja a  Nota :282.036,1: “Minimum Software Versions and Patches Required to Support Oracle Products on IBM Power Systems”  para obter informações mais detalhadas do software do sistema operacional e dos requisitos do kernel.

2.2.1. Verificando AIO

# ioo ¨Co aio_maxreqs aio_maxreqs = 65536

Para AIX 5.3:

# lsattr -El aio0 -a maxreqs

2.2.2. Verificação do parâmetro VMM

Verificação:

 #vmo -L minperm% #vmo -L maxperm% #vmo -L maxclient% #vmo -L lru_file_repage #vmo -L
strict_maxclient #vmo -L strict_maxperm
Mudança: 
#vmo -p -o minperm%=3 #vmo -p -o maxperm%=90 #vmo -p -o maxclient%=90 #vmo -p -o
lru_file_repage=0 #vmo -p -o strict_maxclient=1 #vmo -p -o strict_maxperm=0

2.1.2. Verificando os usuários criados

2.2.3. Modificação para restricted tunable strict_maxperm

Alterando strict_maxperm para 0 no 
No Próximo boot o arquivo strict_maxperm estará alteradopara 0

Warning: a restricted tunable has been modified

AIX 5.3:#/usr/sbin/chdev -l sys0 -a ncargs='128'
Alterando maxuproc: #lsattr -E -l sys0 -a maxuproc #/usr/sbin/chdev -l sys0 -a maxuproc = 16384 sys0 changed

2.2.4. Mudando NTP

NTP não é necessário para 11gR2 uma vez que temos o serviço de cluster de sincronização de tempo (CTSD), mas se você estiver usando NTP você precisará usá-lo com opção â-xâ.

Verificação: ps -ef |grep ntps

Se ele não tem opção -x siga os passos abaixo:

· A. Abra o arquivo /etc/rc.tcpip, e localize a seguinte linha: start /usr/sbin/xntpd "$src_running"

· B. Altere a linha para o seguinte: start /usr/sbin/xntpd "$src_running" "-x"

· C. Salve o arquivo.

2.3. Execute o  rootpre.sh

#./rootpre.sh

./rootpre.sh  saída será registrado no /tmp/rootpre.out_10-05-30.05: 58:36

Salvando os arquivos originais em /etc/ora_save_10-05-30.05: 58:36 ….

Copiando extensão novo kernel para /etc …

Carregando o kernel de extensão /etc

2.4. Preparação da rede

Configurando a rede:

/etc/hosts
10.220.19.160 node1
10.220.19.148 node2
10.220.19.161 node1-vip
10.220.19.149 node2-vip
10.220.52.160 node1-ic
10.220.52.149 node2-ic

NOTA: Neste momento (antes de começar a instalação, mas depois de configurar o /etc/hosts e DNS para SCAN)

· Devemos ser capazes de dar ping node1, node2, node1-ic, node2-ic

· Não devemos ser capazes de executar dar ping node1-vip, node2-vip, scan-vip

· Devemos ser capazes de resolver os IPs (usando DNS ou o arquivo hosts) para: node1-vip, node2-vip, scan-vip

O endereço SCAN cluster deve ser configurado através do DNS para resolver a 3 endereços IP. para configurar os SCAN IPs no DNS siga a Nota:1107295.1 : ‘How to Configure the DNS Server for SCAN VIP on Linux for 11gR2 GI installation’

2.5. Preparação do Cliente

Aqui estamos usando o cliente de VNC, vVocê também pode usar outro software x-terminal.

Baixar os pacotes vnc*. Rpm. Instale o RPM em AIX5L? usando o comando: rpm-Uhv * vnc

Inicie: vncserver -geometry 1024x800

Utilize o usuário root: xhost + (remotehost)

3. Prepare o storage compartilhado para Oracle RAC

 

Esta seção descreve como preparar o storage compartilhado para Oracle RAC.

Cada nó em um cluster exige discos externos compartilhados para armazenar os arquivos do Oracle Clusterware (Oracle Cluster Registry and voting disk) e de dados do banco de dados Oracle. Para garantir a alta disponibilidade dos arquivos do Oracle Clusterware no ASM, você precisa ter pelo menos 2 GB de espaço em disco para arquivos Oracle Clusterware em três grupos de falha distintos, com pelo menos três discos físicos. Cada disco tem de ter pelo menos uma 1GB de capacidade para assegurar que há espaço suficiente para criar os arquivos do Clusterware. Use as seguintes diretrizes para identificar dispositivos de disco adequados:

•Todos os dispositivos em um grupo automático de disco de armazenamento administração deve ser do mesmo tamanho e têm as mesmas características de desempenho.

•Um grupo de discos não deve conter mais do que uma partição de um dispositivo único disco físico.

•Usar volumes lógicos como um dispositivo em um grupo de discos ASM não é suportado com o Oracle RAC.

•A conta de usuário com o qual você executar a instalação (Oracle) deve ter permissões de escrita para

criar os arquivos no caminho que você especificar.

No nosso exemplo, já temos o /dev/rhdisk4 disponível em ambos os nós como um raw device.

Emita o seguinte comando em todos os nós:

#chown grid:asmadmin /dev/rhdisk4
#chmod 660 /dev/rhdisk4
#lsattr -E -l hdisk4 | grep reserve_
reserve_policy no_reserve
#chdev -l hdisk4 -a [ reserve_lock=no | reserve_policy=no_reserve ]

reserve_policy é para Storage AIX, reserve_lock é para EMC e outro storage. Você precisa mudar a

opção de reserva em cada dispositivo de storage que será utilizado no ASM

# /usr/sbin/chdev -l hdisk4 -a pv=clear

Você deve fazer isso antes de colocar qualquer disco em um diskgroup ASM. Depois de colocar esse hdiskX em um

diskgroup, executando este comando em qualquer nó irá causar uma corrupção dos discos ASM. para mais detalhes.veja Referência Oracle Support Note: 750.016,1: ‘Corrective Action for Diskgroup with Disks Having PVIDs’.

Neste ponto podemos usar /dev/rhdisk4 para o nosso diskgroup ASM que irá conter o OCR e Voting Disk ou os

arquivos de dados. Posteriormente, trataremos de como usar esse arquivo para criar um diskgroup utilizando o Assistente de Configuração do ASM (ASMCA).

4. Instalação do Oracle Grid Infrastructure

 

4.1. Instalação básica do Oracle Grid Infrastructure (sem GNS e IPMI)

Como o usuário grid (proprietário do software Grid Infrastructure) execute os comandos abaixo para iniciar o OUI

NOTA:Certifique-se de executar o instalador como o proprietário (owner) desse software, o único método suportado para alterar o owner do software é reinstalar.

#su - grid
$export DISPLAY=localhost:1.0
$./runInstaller_

Instalação do Grid Infrastructure Passo 1:


Instalação do Grid
Infrastructure Passo 2:

Instalação do Grid
Infrastructure Passo 3:



Instalação do Grid Infrastructure Passo 4:

Ação: Durante esta etapa, é
preciso introduzir o nome da SCAN, que neste momento, nós podemos ‘pesquisa’,
mas ainda não podemos usar o ping.

Abaixo documentações Oracle de
exemplo de  configuração de DNS para SCAN.

ExtNote:887522.1: ’11gR2 Grid Infrastructure Single Client Access Name (SCAN) Explained’

ExtNote:1107295.1 :’How to Configure the DNS Server for SCAN VIP on Linux for 11gR2 GI installation’

Como pode ser visto aqui, a definição de GNS foi muito simples e não pode ser configurado a partir desta tela.

DHCP e DNS deve ser configurado corretamente antes de configurar GNS nesta etapa.

Para um exemplo de como configurar o DHCP e DNS para GNS,verifique My A Oracle ExtNote Apoio: 946.452,1: ‘DNS e DHCP Exemplo de configuração para GNS  Grid Infrastructure’

Instalação do Grid Infrastructure
Passo 5:

Ação: Neste passo vamos configurar o uso da interface para o IG. Embora seja possível configurar múltiplas interfaces para interconexão na tela, configurando várias interfaces para esse propósito somente será permitido o uso do balanceamento de carga, não de failover.

Instalação do Grid Infrastructure
Passo 6:



Instalação do Grid Infrastructure
Passo 7:



Instalação do Grid Infrastructure
Passo 8

Ação: Aqui nós designaremos os
raw devices para serem utilizadas para o grupo de discos (diskgroup) do ASM
“Dados”. Só podemos criar um grupo de discos aqui e o OCR e o disco
de votação serão criados neste grupo de discos (diskgroup). Podemos criar grupo
de discos (diskgroup) adicionais depois que IG esteja totalmente instalado e
configurado.

:



Instalação do Grid Infrastructure
Passo 9



Instalação do Grid Infrastructure
Passo 10

Nota: Para o nosso exemplo de
instalação estamos usando os grupos mais complexos. Você pode configurar seus
grupos de S.O. como simples ou complexos dependendo
dos requisitos individuais de negócio.



Instalação do Grid Infrastructure
Passo 11

Nota: A localização de software
Oracle não pode ser colocado sobre o ORACLE_BASE



Instalação do Grid Infrastructure
Passo 12



Instalação do Grid Infrastructure
Passo 13

Ignore a mensagem de warning:

Ação: Para saber onde está explicado o porque esse IZ necessário pode ser ignorado Veja My Oracle Support ExtNote:1083353.1: ’11gR2 OS Requirements APAR Check Failed on AIX 6.1′



Instalação do Grid Infrastructure
Passo 14



Instalação do Grid Infrastructure
Passo 15



Instalação do Grid Infrastructure
Passo 16

Ação: Neste ponto, devemos deixar o OUI rodando e o root.sh deve ser executado em cada nó (um nó por vez).

Antes de executar root.sh, é aconselhável apagar o diretório que contém arquivos de soquete fictícios.

Quaisquer arquivos socket perdidos fará o script root.sh falhar.

 

#rm -rf /tmp/.oracle/



Instalação do Grid Infrastructure
Passo 17

Ação: Após root.sh ter sido executado com sucesso em cada nó de cluster clique em avançar (next).



Instalação do Grid Infrastructure
Passo 18

Neste ponto, a instalação do Oracle Grid Infrastructure está completa.



4,2. Detalhando a saida do script “root.sh”.

#$ORACLE_BASE/oraInventory/orainstRoot.sh
Changing permissions of/haclu/app/11.2.0/oraInventory.
Adding read,write permissions for group.
Removing read,write,execute permissions for world.
Changing groupname of/haclu/app/11.2.0/oraInventory to oinstall.
The execution of the script is complete.

# ./root.sh
Running Oracle 11g root.sh script...
The following environment variables are set as:
ORACLE_OWNER= grid
ORACLE_HOME= /haclu/app/11.2.0/grid
Enter the full pathname of the local bin directory: [/usr/local/bin]:
The file "dbhome" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y
Copying dbhome to /usr/local/bin ...
The file "oraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y
Copying oraenv to /usr/local/bin ...
The file "coraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: y
Copying coraenv to /usr/local/bin ...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root.sh script.
Now product-specific root actions will be performed.
2010-05-29 23:58:14: Parsing the host name
2010-05-29 23:58:14: Checking for super user privileges
2010-05-29 23:58:14: User has super user privileges
Using configuration parameter file: /haclu/app/11.2.0/grid/crs/install/crsconfig_params
User grid has the required capabilities to run CSSD in realtime mode
LOCAL ADD MODE
Creating OCR keys for user 'root', privgrp 'system'..
Operation successful.
Adding daemon to inittab
CRS-4123: Oracle High Availability Services has been started.
ohasd is starting
CRS-2672: Attempting to start 'ora.gipcd' on 'node1'
CRS-2672: Attempting to start 'ora.mdnsd' on 'node1'
CRS-2676: Start of 'ora.gipcd' on 'node1' succeeded
CRS-2676: Start of 'ora.mdnsd' on 'node1' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'node1'
CRS-2676: Start of 'ora.gpnpd' on 'node1' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'node1'
CRS-2676: Start of 'ora.cssdmonitor' on 'node1' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'node1'
CRS-2672: Attempting to start 'ora.diskmon' on 'node1'
CRS-2676: Start of 'ora.diskmon' on 'node1' succeeded
CRS-2676: Start of 'ora.cssd' on 'node1' succeeded
CRS-2672: Attempting to start 'ora.ctssd' on 'node1'
CRS-2676: Start of 'ora.ctssd' on 'node1' succeeded
ASM created and started successfully.
Diskgroup DATA created successfully.
clscfg: -install mode specified
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'system'..
Operation successful.
CRS-2672: Attempting to start 'ora.crsd' on 'node1'
CRS-2676: Start of 'ora.crsd' on 'node1' succeeded
CRS-4256: Updating the profile
Successful addition of voting disk 9fe9435cb5de4fb3bfb90bf463221f14.
Successfully replaced voting disk group with +DATA.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced
## STATE File Universal Id File Name Disk group
1. ONLINE 9fe9435cb5de4fb3bfb90bf463221f14 (/dev/rhdisk3) [DATA]
Located 1 voting disk(s).
CRS-2673: Attempting to stop 'ora.crsd' on 'node1'
CRS-2677: Stop of 'ora.crsd' on 'node1' succeeded
CRS-2673: Attempting to stop 'ora.asm' on 'node1'
CRS-2677: Stop of 'ora.asm' on 'node1' succeeded
CRS-2673: Attempting to stop 'ora.ctssd' on 'node1'
CRS-2677: Stop of 'ora.ctssd' on 'node1' succeeded
CRS-2673: Attempting to stop 'ora.cssdmonitor' on 'node1'
CRS-2677: Stop of 'ora.cssdmonitor' on 'node1' succeeded
CRS-2673: Attempting to stop 'ora.cssd' on 'node1'
CRS-2677: Stop of 'ora.cssd' on 'node1' succeeded
CRS-2673: Attempting to stop 'ora.gpnpd' on 'node1'
CRS-2677: Stop of 'ora.gpnpd' on 'node1' succeeded
CRS-2673: Attempting to stop 'ora.gipcd' on 'node1'
CRS-2677: Stop of 'ora.gipcd' on 'node1' succeeded
CRS-2673: Attempting to stop 'ora.mdnsd' on 'node1'
CRS-2677: Stop of 'ora.mdnsd' on 'node1' succeeded
CRS-2672: Attempting to start 'ora.mdnsd' on 'node1'
CRS-2676: Start of 'ora.mdnsd' on 'node1' succeeded
CRS-2672: Attempting to start 'ora.gipcd' on 'node1 succeeded

Este é o fim do root.sh no node1. No node2 o root.sh vai fazer coisas semelhantes, masquando verificar que o OCR disco de voto foram configurados ele vai parar o Grid Infrastructure no node1 e reiniciá-lo em ambos os nós. Teste se o Grid Infrastructure está sendo executado conforme o esperado, execute o seguintecomando a partir de $GI_HOME/bin

# crsctl stat res t

Name Type Target State Host
------------------------------------------------------------
ora.DATA.dg ora....up.type ONLINE ONLINE node1
ora....N1.lsnr ora....er.type ONLINE ONLINE node1
ora.asm ora.asm.type ONLINE ONLINE node1
ora....SM1.asm application ONLINE ONLINE node1
ora....lu7.gsd application OFFLINE OFFLINE
ora....lu7.ons application ONLINE ONLINE node1
ora....lu7.vip ora....t1.type ONLINE ONLINE node1
ora....SM2.asm application ONLINE ONLINE node2
ora....lu8.gsd application OFFLINE OFFLINE
ora....lu8.ons application ONLINE ONLINE node2
ora....lu8.vip ora....t1.type ONLINE ONLINE node2
ora.eons ora.eons.type ONLINE ONLINE node1
ora.gsd ora.gsd.type OFFLINE OFFLINE
ora....network ora....rk.type ONLINE ONLINE node1
ora.oc4j ora.oc4j.type OFFLINE OFFLINE
ora.ons ora.ons.type ONLINE ONLINE node1
ora.scan1.vip ora....ip.type ONLINE ONLINE node1

Podemos ver que todos os recursos que são direcionados para “ONLINE” foram de fato colocados on-line.

Volte para a OUI e clique em ‘Next’ isso irá executar um utilitário de verificação de cluster (cluvfy)  para verificar o status do cluster.

5. Aplicando Patches de correção no home do Grid Infrastructure

É muito importante manter atualizado e aplicar os ultimos Patch Set Update (PSU) disponíveis, Patches que são liberados trimestralmente. Siga as instruções incluídas no patch PSU README para saber como aplicar o patch e também use como referência a nota do suporte Oracle: My Oracle Support ExtNote:1082394.1 : ‘11.2.0.X Grid Infrastructure PSU Known Issues.’

6. Instalação do software RDBMS

NOTA: Certifique-se que o instalador seja executado como o proprietário do software, o único método suportado para mudar o proprietário será a reinstalação.

#su – oracle

Você vai notar que nós criamos o usuário oracle e configuramos ssh para o usuário oracle anteriormente, volte ao item

2. seção


2.1.1. se necessário.

$export DISPLAY=localhost:1.0

Para testar se o xclock exibe corretamente, execute: xclock (supondo que o  xhost+ já foi executado pelo usuário root) Como usuário oracle (proprietário do software RDBMS) inicie o instalador executando “runInstaller” a partir da midia ou direto do local onde foram copiados os arquivos de instalação.
$./RunInstaller

· Instalação de Software RDBMS Passo 1:

·Instalação de Software RDBMS Passo 2:

· Instalação de Software RDBMS Passo 3:



· Instalação de Software RDBMS Passo 4:


· Instalação de Software RDBMS Passo 5:

· RDBMS Passo de Instalação de Software 6 – O ORACLE_HOME RDBMS está abaixo ORACLE_BASE:



· Instalação de Software RDBMS Passo 6:



· Instalação de Software RDBMS Passo 7:



· Instalação de SoftwareRDBMS Passo 8:

Note: Reference My Oracle Support
ExtNote:1083353.1 : ’11gR2 OS Requirements APAR CheckFailed on AIX 6.1′ para obter informações sobre ignorar com segurança o IZ necessário.



· Instalação de Software  RDBMS Passo 9:



· Instalação de Software R DBMS Passo 10:



· Instalação de Software RDBMS
Passo 11:

Instalação de Software RDBMS  Passo 12:

Ação: Entrar em uma janela de terminal como usuário root e executar o script root.sh no primeiro nó. Quando terminar fazer o mesmo para todos os outros nós do
cluster.  Quando terminar, clique em ‘OK’

NOTA: root.sh deve serexecutado em um nó de cada vez.

# ./root.sh

Running Oracle 11g root.sh script…    

As seguintes variáveis de  ambiente serão definidas como:

ORACLE_OWNER= oracle

ORACLE_HOME= /haclu/app/11.2.0/product/11.2.0/dbhome_1

Enter the full pathname of the local bin directory: [/usr/local/bin]:

The file “dbhome” already exists in /usr/local/bin.
Overwrite it? (y/n) [n]: y

Copying dbhome to /usr/local/bin …

The file “oraenv” already exists in /usr/local/bin.
Overwrite it? (y/n) [n]: y

Copying oraenv to /usr/local/bin …

The file “coraenv” already exists in /usr/local/bin.
Overwrite it? (y/n) [n]: y

Copying coraenv to /usr/local/bin …

Serão adicionadas linhas no arquivo /etc/oratab conforme necessário

Database Configuration Assistant when a database is created

Finished running generic part of root.sh script.

Now product-specific root actions will be performed.

Finished product-specific root actions.

Neste ponto, instalação e a configuração do 11gR2 Oracle RDBMS está completa.

7. Aplicando patches no home do RDBMS

É muito importante manter atualizado e aplicar os ultimos Patch Set Update (PSU ) disponíveis, Patches que são liberados trimestralmente. Siga as instruções incluídas no patch PSU README para saber como aplicar o patch e também use como referência a nota do suporte Oracle: My Oracle Support ExtNote:854428.1 : ‘Patch Set Updates for Oracle Products’

8. Execute o ASMCA para criar diskgroups

Podemos usar ASMCA para criar mais diskgroups se necessário. Como o usuário grid inicie o Assistante de configuração ASM (ASMCA). Para o nosso exemplo de instalação, vamos usar o mesmo “+DATA” diskgroup que usamos para OCR, para o disco de votação e também para os arquivos de dados. Como mencionado anteriormente, é uma prática recomendada para o Oracle 11gR2 armazenar o OCR e o disco de votação dentro de ASM, para manter as melhores práticas de ASM recomendado não ter mais de 2 diskgroups (área de recuperação flash e área de banco de dados).

Isto significa que o OCR e o disco de votação serão armazenados juntamente com os arquivos de dados relacionados.

Se você estiver utilizando redundância externa para seus diskgroups isso significa que você terá um OCR e um disco de votação.

Se você desejar utilizar a redundância Oracle fornecida para os discos de OCR e votação você pode criar um ASM diskgroup separado (3rd) tendo no mínimo de 2 grupos de falha (total de 3 discos). Esta configuração proporcionaria um OCR (que assume a redundância do diskgroup (espelhado dentro ASM)) e três discos de votação.

O tamanho mínimo dos três discos que compõem este diskgroup redundância normal é de 1 GB cada.

9. Executar DBCA para criar o banco de dados 

Como o usuário oracle iniciar o Database Configuration Assistant (DBCA)

#cd $ORACLE_HOME/bin

#su – oracle

./dbca

· Usando o DBCA para criar banco de dados RAC Passo 1:


· Usando o DBCA para criar banco de dados RAC Passo 2:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 3:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 4:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 5:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 6:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 7 – Escolha o ASM diskgroup:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 8:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 9

Nota: Flash Recovery Area (FRA) é muito importante para backup e recuperação. Nós altamente recomendado ter um diskgroup ASM separado para FRA

Figura



· Usando o DBCA para criar banco de dados RAC Passo 10:

Figura

· Usando o DBCA para criar banco de dados RAC Passo 11:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 12:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 13:

Figura



· Usando o DBCA para criar banco de dados RAC Passo 14:

O banco de dados agora está criado, você poderá ou alterar ou desbloquear suas senhas ou simplesmente clicar em EXIT para terminar a criação do banco de dados.

Figura



· Usando o DBCA para criar banco de dados RAC Passo 15:

Terminado.

Sobre Alexandre Pires

ORACLE OCS Goldengate Specialist, OCE RAC 10g R2, OCP 12C, 11g, 10g , 9i e 8i - Mais de 25 anos de experiência na área de TI. Participei de projetos na G&P alocado na TOK STOK, EDINFOR alocado na TV CIDADE "NET", 3CON Alocado no PÃO DE AÇUCAR, DISCOVER alocado na VIVO, BANCO IBI e TIVIT, SPC BRASIL, UOLDIVEO alocado no CARREFOUR e atualmente na ORACLE ACS atendendo os seguintes projetos: VIVO, CLARO, TIM, CIELO, CAIXA SEGUROS, MAPFRE, PORTO SEGURO, SULAMERICA, BRADESCO SEGUROS, BANCO BRADESCO, BASA, SANTANDER, CNJ, TSE, ELETROPAULO, EDP, SKY, NATURA, ODEBRESHT, NISSEI, SICREDI, CELEPAR, TAM, TIVIT, IBM, SMILES, CELEPAR, SERPRO,OKI,BANCO PAN, etc
Esse post foi publicado em RAC, TUTORIAL e marcado , , , , , , , , , , , , , . Guardar link permanente.

Uma resposta para RAC 11G R2 Grid Infraestructure em português instalação passo passo

  1. Rivesnei disse:

    Obrigado por compartilhar os conhecimentos.

Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s