UNIVERSIDAD
DE EL SALVADOR
FACULTAD
MULTIDISCIPLINARIA DE OCCIDENTE
DEPARTAMENTO
DE INGENIERIA Y ARQUITECTURA
ORACLE
DATABASE 12C:
RAC 12C
GUIA
DE INSTALACIÓN
José
Eduardo Agreda Rivas
José
Wilfredo Argueta
Daniel
Eduardo Hurtado Herrera
Erick
Omar Madrid Molina
Krisna
Iveth Realegeño Cornejo
Guillermo
Aldolfo Delsas Murcia
¿QUÉ
ES RAC 12c?
RAC
(Real Application Clusters) nació y emergió en el mercado como
producto en la versión de BD (base de datos) Oracle 9i,
representando un producto estable y de altas funcionalidades para el
área de Alta Disponibilidad. En versión “Oracle 10g”, RAC
represento una de las soluciones clave para la filosofía “Grid
Computing” ofreciendo consigo una escalabilidad horizontal. En
liberaciones 11g & 11gR2 obtuvo mejoras de alta relevancia y en
versión 12c trae consigo mejoras en sus componentes, arquitecturas
basadas en “Cloud Computing”.
Las
mejoras y nuevas características de RAC12c están clasificadas en 4
grandes aéreas:
-
Continuidad
de Negocio & Alta Disponibilidad
-
Flexibilidad
& Agilidad
-
Despliegue
estandarizado & “Patching”
-
Integración
y administración en “Data Centers”
PASOS
PRELIMINARES
Antes
de comenzar esta instalación, hay unas cuantas cosas que deben ser
consideradas:
-
El sistema resultante incluye al sistema operativo anfitrión
(HOST), dos sistemas operativos invitados, dos instancias de
Oracle Grid Infrastructure (clúster + ASM) y dos
instancias de la Base de Datos, todo en un solo servidor.
Como se puede imaginar, esto requiere una cantidad significativa de
espacio en disco, la CPU y la memoria.
-
Al finalizar las máquinas necesitarán cada uno al menos de 3G
RAM, 4G preferentemente. No
asuma que usted será capaz de ejecutar esto en una PC pequeña o
portátil. Usted no lo hará.
-
La guía proporciona una instalación básica para conseguir el
funcionamiento de RAC. No hay redundancia en la instalación de
infraestructura de cuadrícula o la instalación ASM. Para
agregarla, basta con crear el doble de la cantidad de discos
compartidos y seleccionar la opción de redundancia "normal"
cuando se ofrece. Por supuesto, esto tomará más espacio en disco.
-
El nombre único de acceso de cliente (SCAN) se debe definir
en el DNS o GNS y de todos contra todos entre una de
las 3 direcciones, que están en la misma sub-red que las
direcciones IP públicas y virtuales. Antes de la versión 11.2.0.2
que se podría definir como una única dirección IP en el archivo
"/etc / hosts", lo que está mal y hará que la
verificación de clúster falle, pero permitirá que complete la
instalación sin la presencia de un DNS. Esto no parece funcionar
para 11.2.0.2 adelante.
-
La configuración pueden limitarse a 2GB de intercambio (SWAP),
lo que provoca un fallo de comprobación de requisitos previos, pero
no impide el funcionamiento de la instalación. Si se quiere evitar
esto, definir 3 GB de swap o más.
-
En esta guía se utilizan las versiones de 64 bits de Oracle Linux 7
y Oracle 12c Release 1.
-
El sistema operativo debera tener instalado Virtualbox o un software
para virtualizar.
SOFTWARE
A DESCARGAR:
Instalación
Básica del Sistema Operativo
Se
llevará a cabo la instalación de Oracle Linux 7 como si se tratara
de un servidor básico. Más específicamente, debe ser una
instalación de servidor con un mínimo de 4G de swap, cortafuegos
deshabilitado, SELinux permisivo y los siguientes grupos de paquetes
instalados:
-
Servidor con interfaz gráfica de usuario. (Server
with GUI)
-
Utilidades de motorización del hardware. (Hardware
Monitoring Utilities)
-
Rendimiento para grandes sistemas. (Large
Systems Performance)
-
Cliente para sistema de archivos en red. (Network
file system client)
-
Herramientas de rendimiento. (Performance
Tools)
-
Las bibliotecas de compatibilidad. (Compatibility
Libraries)
-
Herramientas de desarrollo. (Development
Tools)
Además que la siguiente información debe establecerse durante la
instalación:
-
Crear un usuario Oracle (oracle)
-
nombre de host: rac1.racdomain
-
enp0s3 (eth0): DHCP (Conectar Automáticamente)
-
enp0s8 (eth1): IP=192.168.1.11, Subred=255.255.255.0,
Gateway=192.168.0.71, DNS=192.168.0.100, Search=racdomain (Conectar
Automáticamente)
-
enp0s9 (eth2): IP=192.168.1.101, Subred=255.255.255.0,
Gateway=<blank>, DNS=<blank>, Search=<blank>
(Conectar Automáticamente)
Usted es libre de cambiar las direcciones IP para adaptarse a su red,
pero recuerde que debe ser coherente con esos ajustes en todo el
resto de la guía. Del mismo modo, esta guía se refiere a los
adaptadores de red como enp0s3, enp0s8 y enp0s9, en versiones
anteriores de Linux habrían sido eth0, eth1 y eth2 respectivamente.
PREREQUISITOS PARA INSTALAR ORACLE
Los siguientes comandos deberán ser ingresados en línea de comandos
y necesitarán los privilegios del usuario root. Instalación
automática:
#
yum –y install oracle-rdbms-server-12cR1-preinstall
#
yum –y install ntp
#
yum –y update
A
este punto, no es necesario pero, se recomienda reiniciar.
En
el dado caso que alguno de los paquetes anteriores no funcionara
correctamente o prefiera usted conducir una instalación no
automatizada.
Agrega
las siguientes líneas al archivo "/etc/sysctl.conf"
(Necesitará privilegios de root):
fs.file-max
= 6815744
kernel.sem
= 250 32000 100 128
kernel.shmmni
= 4096
kernel.shmall
= 1073741824
kernel.shmmax
= 4398046511104
net.core.rmem_default
= 262144
net.core.rmem_max
= 4194304
net.core.wmem_default
= 262144
net.core.wmem_max
= 1048576
fs.aio-max-nr
= 1048576
net.ipv4.ip_local_port_range
= 9000 65500
Luego
ejecuta el siguiente comando para cambiar los parámetros del kernel:
#
/sbin/sysctl -p
Agrega
las siguientes líneas al archivo "/etc/security/limits.conf":
oracle
soft nofile 1024
oracle
hard nofile 65536
oracle
soft nproc 2047
oracle
hard nproc 16384
oracle
soft stack 10240
oracle
hard stack 32768
Además de la instalación básica del sistema operativo, los
siguientes paquetes se deben instalar (privilegios de root serán
necesarios). Esto incluye las versiones de 64 bits y 32 bits de
algunos paquetes.
yum install binutils -y
yum install compat-libstdc++-33 -y
yum install compat-libstdc++-33.i686 -y
yum install gcc -y
yum install gcc-c++ -y
yum install glibc -y
yum install glibc.i686 -y
yum install glibc-devel -y
yum install glibc-devel.i686 -y
yum install ksh -y
yum install libgcc -y
yum install libgcc.i686 -y
yum install libstdc++ -y
yum install libstdc++.i686 -y
yum install libstdc++-devel -y
yum install libstdc++-devel.i686 -y
yum install libaio -y
yum install libaio.i686 -y
yum install libaio-devel -y
yum install libaio-devel.i686 -y
yum install libXext -y
yum install libXext.i686 -y
yum install libXtst -y
yum install libXtst.i686 -y
yum install libX11 -y
yum install libX11.i686 -y
yum install libXau -y
yum install libXau.i686 -y
yum install libxcb -y
yum install libxcb.i686 -y
yum install libXi -y
yum install libXi.i686 -y
yum install make -y
yum install sysstat -y
yum install unixODBC -y
yum install unixODBC-devel -y
yum install zlib-devel -y
yum install zlib-devel.i686 –y
Sin
olvidar que debes crear los siguientes grupos y usuarios:
groupadd -g 54321 oinstall
groupadd -g 54322 dba
groupadd -g 54323 oper
groupadd -g 54324 backupdba
groupadd -g 54325 dgdba
groupadd -g 54326 kmdba
groupadd -g 54327 asmdba
groupadd -g 54328 asmoper
groupadd -g 54329 asmadmin
useradd -u 54321 -g oinstall -G dba,oper oracle
Y
cambiar la contraseña del usuario Oracle por “oracle”:
passwd
oracle
Modificar
el archivo "/etc/hosts":
127.0.0.1 rac1 rac1.racdomain localhost localhost.localdomain
localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6
localhost6.localdomain6
# Public
192.168.1.11 rac1.racdomain rac1
192.168.1.12 rac2.racdomain rac2
# Private
192.168.0.71 rac1-priv.racdomain rac1-priv
192.168.0.72 rac2-priv.racdomain rac2-priv
# Virtual
192.168.0.81 rac1-vip.racdomain rac1-vip
192.168.0.82 rac2-vip.racdomain rac2-vip
# SCAN
#192.168.0.91 rac-scan.racdomain rac-scan
#192.168.0.92 rac-scan.racdomain rac-scan
#192.168.0.93 rac-scan.racdomain rac-scan
No
se olvide que al crear las redes debe existir una Publica (rac1 y
rac2, para este ejemplo), una red privada (rac1-priv, rac2-priv), la
red virtual que será creada por el instalador (rac1-vip, rac2-vip) y
SCAN (rac-scan). Habrá que asegurarse que le archivo
"/etc/resolv.conf" incluya una entrada NAMESERVER que
apunte al nombre de servidor correcto. También verificar que si
existen las entradas “domain” y “search” una de ellas deberá
ir comentada.
#domain racdomain
search racdomain
nameserver 192.168.0.70
Los
cambios en el archivo "resolv.conf" serán reemplazados por
el administrador de la red, debido a la presencia de la interfaz NAT.
Por esta razón, esta interfaz deberá estar desactivada en el
inicio. Se puede activar de forma manual si necesita acceder a
Internet. Para ello, editar el archivo
"/etc/sysconfig/network-scripts/ifcfg-enp0s3"
archivo (eth0), haciendo el siguiente cambio. Esto se llevará a
efecto después del siguiente reinicio.
ONBOOT=no
No
es necesario reiniciar, solamente ejecutar el siguiente comando:
#
ifdown enp0s3
#
#ifdown eth0
En
este punto, la red para el primer nodo debe ser algo como lo
siguiente:
#
ifconfig -a
enp0s3: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
ether 08:00:27:eb:72:86 txqueuelen 1000 (Ethernet)
RX packets 10 bytes 1716 (1.6 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 55 bytes 8308 (8.1 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enp0s8: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.11 netmask 255.255.255.0 broadcast
192.168.0.71
inet6 fe80::a00:27ff:fe84:31f5 prefixlen 64 scopeid
0x20<link>
ether 08:00:27:84:31:f5 txqueuelen 1000 (Ethernet)
RX packets 342 bytes 33597 (32.8 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 302 bytes 43228 (42.2 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enp0s9: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.11 netmask 255.255.255.0 broadcast
192.168.0.71
inet6 fe80::a00:27ff:fe0d:9dd9 prefixlen 64 scopeid
0x20<link>
ether 08:00:27:0d:9d:d9 txqueuelen 1000 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 28 bytes 3941 (3.8 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 0 (Local Loopback)
RX packets 16 bytes 1708 (1.6 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 16 bytes 1708 (1.6 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
Observe que enp0s3 (eth0) no tiene ninguna dirección IP asociada
porque está deshabilitado.
Con
esto en mente y el DNS ya configurado, las direcciones SCAN han sido
resueltas para las tres direcciones IP.
#
nslookup rac-scan
Server: 192.168.0.1
Address: 192.168.0.91
Name: rac-scan.racdomain
Address: 192.168.0.92
Name: racs-can.racdomain
Address: 192.168.0.93
Name: rac-scan.racdomain
Address: 192.168.56.107
Cambiar la línea:
soft
nproc 4096
por:
-
nproc 16384
En
el archivo "/etc/security/limits.d/20-nproc.conf"
Editar
el archivo "/etc/selinux/config" de la siguiente
manera:
SELINUX=permissive
Si
el cortafuegos de Linux está activado, se tendrá que desactivar o
configurar. El siguiente es un ejemplo de desactivar el firewall.
#
systemctl stop firewalld
#
systemctl disable firewalld
Muchas
veces será necesario ejecutar estos commandos:
#
systemctl stop ntpd
Shutting
down ntpd: [ OK ]
#
systemctl disable ntpd
#
mv /etc/ntp.conf /etc/ntp.conf.orig
#
rm /var/run/ntpd.pid
Si
RAC permanecerá permanentemente conectado a la red principal y
quiere usar NTP, deberá agregar la opción “-x” a la siguiente
línea del archivo "/etc/sysconfig/ntpd":
OPTIONS="-x
-u ntp:ntp -p /var/run/ntpd.pid"
Luego,
reinicia NTP:
#
systemctl enable ntpd
#
systemctl restart ntpd
Crear
los directorios en los cuales Oracle será instalado y proporcionarle
los permisos adecuados:
mkdir
-p /u01/app/12.1.0.2/grid
mkdir
-p /u01/app/oracle/product/12.1.0.2/db_1
chown
-R oracle:oinstall /u01
chmod
-R 775 /u01/
Ahora,
inicia sesión como el usuario “Oracle”. Encuentra el archivo
"/home/oracle/.bash_profile" y modificalo:
#
Oracle Settings
export
TMP=/tmp
export
TMPDIR=$TMP
export
ORACLE_HOSTNAME=ol7-121-rac1.localdomain
export
ORACLE_UNQNAME=CDBRAC
export
ORACLE_BASE=/u01/app/oracle
export
GRID_HOME=/u01/app/12.1.0.2/grid
export
DB_HOME=$ORACLE_BASE/product/12.1.0.2/db_1
export
ORACLE_HOME=$DB_HOME
export
ORACLE_SID=cdbrac1
export
ORACLE_TERM=xterm
export
BASE_PATH=/usr/sbin:$PATH
export
PATH=$ORACLE_HOME/bin:$BASE_PATH
export
LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export
CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
alias
grid_env='. /home/oracle/grid_env'
alias
db_env='. /home/oracle/db_env'
También
deberá crear el archivo "/home/oracle/grid_env" con el
siguiente contenido:
export
ORACLE_SID=+ASM1
export
ORACLE_HOME=$GRID_HOME
export
PATH=$ORACLE_HOME/bin:$BASE_PATH
export
LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export
CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
y
el archivo "/home/oracle/db_env", de esta manera:
export
ORACLE_SID=cdbrac1
export
ORACLE_HOME=$DB_HOME
export
PATH=$ORACLE_HOME/bin:$BASE_PATH
export
LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export
CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
Se
recomienda salir y entrar a la sesión Oracle nuevamente. Una vez
"/home/oracle/.bash_profile" ha corridor por primera vez
será usted capaz de cambiar de entornos como sigue:
$
grid_env
$
echo $ORACLE_HOME
/u01/app/12.1.0.2/grid
$
db_env
$
echo $ORACLE_HOME
/u01/app/oracle/product/12.1.0.2/db_1
$
A
este punto lo mejor será reiniciar el sistema (requiere privilegios
de super usuario):
#
shutdown -r now
Entramos
de nuevo a la sesión Oracle, abrimos una consola y verificamos que
el usuario este de esta manera:
#
id oracle
uid=54321(oracle),
gid=54321(oinstall), groups=54321(oinstall), 54322(dba)
Si
el usuario no contara con el UID correcto podemos cambiar con el
comando:
#
usermod -u 54321 oracle
Si
un grupo no contara con el GID correcto, por ejemplo oinstall, lo
cambiaremos con el comando:
#
groupmod -g 54321 oinstall
Pero
si lo que necesitamos es agregar un grupo, en este caso dba, al
usuario deberemos ejecutar:
#
usermod -G dba oracle
Como
recomendación adicional, se recomienda cambiar el ultimo octeto de
la MAC debido a que si se usa una conexión USB generalmente poseen
la misma direccion MAC.
Instalación
de FREENAS y configurar iSCSI
Ahora
nos disponemos a preparar la parte de almacenamiento que utilizaremos
en el laboratorio de VMware vSphere que comenzamos en el post
Laboratorio VMware vSphere 5.5 en VMware Workstation. En primer lugar
veremos como instalar FREENAS y también veremos como configurarlo
para que nos ofrezca almacenamiento compartido mediante iSCSI.
Para
instalar FREENAS lo primero que tendremos que hacer es descargarnos
la iso desde la web oficial del proyecto:
Una
vez descargada la iso arrancamos nuestra máquina con la iso cargada
y seleccionamos la primera opción:
Seleccionamos
el disco donde realizaremos la instalación del sistema:
Y seleccionamos yes para proceder a la instalación:
Seleccionamos OK para reiniciar:
Una vez tenemos FREENAS correctamente instalado, lo primero que vamos a hacer es configurar una ip estática. Para ello escribimos 1 y damos aceptar:
Despues nos irá haciendo una serie de preguntas:
- Seleccionar interfaz: 1 (en el ejemplo)
- resetear la configuración de red: n
- Configurar interfaz por DHCP: n
- Configurar IPv4: y
- IPv4 ADDRESS: IP que asignemos (en el ejemplo 192.168.1.70)
- IPv4 NETMASK: Mascara que asignemos(en el ejemplo 255.255.255.0)
- Configurar IPv6: n
Ahora podemos acceder desde un navegador, introduciendo la IP de nuestro servidor FREENAS, http://192.168.0.70 en el ejemplo:
Configurar iSCSI en FREENAS:
Ahora nos toca configurar en FREENAS el almacenamiento compartido por iSCSI que utilizaremos para nuestra instalacion.
Creamos un iniciador:
Services → ISCSI → Initiators → Add Initiator
Creamos un portal:
Services → ISCSI → Portals → Add Portal
Creamos la tarjeta:
Services → ISCSI → Targets → Add Target
Creamos un dispositivo extent:
Services → ISCSI → Extents → Add Extent
Asociamos la tarjeta al dispositivo:
Services → iSCSI → Targets/Extents
Y activamos el servicio iSCSI:
Services → Control Services
Continuamos con la definición
de las reglas para UDEV.
Modificamos el siguiente archivo "/etc/scsi_id.config"
para configurar los dispositivos SCSI. Lo creamos si es que aun no
existe.
# nano /etc/scsi_id.config
options=-g
Acá un ejemplo:
# /usr/lib/udev/scsi_id -g -u -d /dev/sdb
1ATA_VBOX_HARDDISK_VB40696d3c-4b65a1e9
# /usr/lib/udev/scsi_id -g -u -d /dev/sdc
1ATA_VBOX_HARDDISK_VB131c87f1-9a5b7135
# /usr/lib/udev/scsi_id -g -u -d /dev/sdd
1ATA_VBOX_HARDDISK_VB3d0db51a-8fe749fa
# /usr/lib/udev/scsi_id -g -u -d /dev/sde
1ATA_VBOX_HARDDISK_VB93d904b0-66a29d8f
#
Usaremos esos valores, editamos el archivo
"/etc/udev/rules.d/99-oracle-asmdevices.rules" agregando
las siguientes lineas. Todos los parametros para una misma entrada
deberan estar en la misma linea. El usuario deberá ser “oracle”,
el grupo varia según la configuración que se ha determinado para
cada uno de ellos, en nuestro caso será “oinstall”, puede
también ser “dba”. Esto dependerá de como se haya configurado
el ASM.
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB40696d3c-4b65a1e9", SYMLINK+="oracleasm/asm-disk1", OWNER="oracle", GROUP="oinstall", MODE="0660"
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB131c87f1-9a5b7135", SYMLINK+="oracleasm/asm-disk2", OWNER="oracle", GROUP="oinstall", MODE="0660"
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB3d0db51a-8fe749fa", SYMLINK+="oracleasm/asm-disk3", OWNER="oracle", GROUP="oinstall", MODE="0660"
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB93d904b0-66a29d8f", SYMLINK+="oracleasm/asm-disk4", OWNER="oracle", GROUP="oinstall", MODE="0660"
Cargamos las tablas de particiones actualizadas.
# /sbin/partprobe /dev/sdb1
# /sbin/partprobe /dev/sdc1
# /sbin/partprobe /dev/sdd1
# /sbin/partprobe /dev/sde1
Test the rules are working as expected.
# /sbin/udevadm test /block/sdb/sdb1
Recargamos las reglas UDEV.
# /sbin/udevadm control --reload-rules
Los disco deberían ser visibles ahora y tener sus usuarios
correctamente definidos por usar los siguientes comandos. Si alguno
de ellos no aparece es que la configuración no es correcta,
verifique los pasos anteriores antes de continuar.
# ls -al /dev/oracleasm/*
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk1 -> ../sdb1
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk2 -> ../sdc1
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk3 -> ../sdd1
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk4 -> ../sde1
#
Instalando la Infraestructura GRID
Es muy recomendable que si en cualquier punto de la instalacion
desde aquí en adelante, se eliminen los archivos temporales de todas
las maquinas donde se este realizando la instalacion. Eso incluye
tambien la eliminacion de los archivos generados en la carpeta
“.shell” que sera creada dentro de la carpeta de inicio.
# rm -fR /home/oracle/.shell
#rm -fR /tmp/*
Asegurese que los siguientes paquetes esten instalados en su
maquina y para esto debera ser usuario "root". Asumimos que
los archivos fueron descargados en la carpeta “/media/sf_12.1.0.2”
# cd /media/sf_12.1.0.2/grid/rpm
# rpm -Uvh cvuqdisk*
Inicia sesion en la maquina "rac1" como usuario "oracle"
e inicia el instalador de Oracle.
$ cd /media/sf_12.1.0.2/grid
$ ./runInstaller
El programa tardara algun tiempo en iniciar, eso es normal.
Selecciona la opcion "Install and Configure Oracle Grid
Infrastructure for a Cluster" o “Instalar y Configura la
Infraestructura Oracle Grid para un Cluster”, luego presiona el
boton “Siguiente”.
Selecciona
la configuracion “Configurar Cluster Estandart” y presiona
“Siguiente”.
Selecciona
“Instalacion Tipica” y presiona “Siguiente”.
En
la parte “Configuracion especifica del Cluster” introduce el
nombre correcto para SCAN, para este ejemplo sera rac-scan.
El
hostname Publico sera:rac2.racdomain
El
host privado sera: rac2-priv.racdomain
Luego
presiona “Agregar”
Presiona
“Conectividad SSH” e introduce la contrasena del usuario
Oracle,presiona “Setup” y luego “Probar” (Test), una vez todo
este completo presionamos siguiente.
En
este momento la conectividad puede fallar por diferentes razones, a
veces solo es necesario volver a probar la conectividad y eso es
todo. Es recomendado hacerlo pero antes debera eliminar los archivos
que se crearon en la carpeta “.ssh” en todas las maquinas que se
han agregado. Para ello vea el proceso descrito anteriormente.
Ahora
revise que las redes publica y privada hayan sido configuradas de
manera adecuada.
Escribe
"/u01/app/12.1.0.2/grid" como lugar para el software y
"Oracle Automatic Storage Manager" como el tipo de
almacenamiento para el registro de cluster (cluster registry storage
type). Introduce la contrasena para ASM y selecciona OINSTALL como
grupo OSASM, luego presiona “Siguiente”.
Escribe
nombre de disco como DATA1, y selecciona redundancia como “External”
selecciona agregar discos “Todos los discos” y selecciona todos
los que esten en “/dev/oracleasm/”, luego presiona “Siguiente”.
Acepte
el directorio de Inventario por defecto.
Deshabilita
correr script de root automaticamente. Y presiona “Siguiente”.
Ahora
solo queda esperar a que el instalador compruebe todos requisitos. Si
hay algun error, presiona “Fix and Check Again” una vez los
posible errores hayan sido solventados selecciona “Ignore All” y
presiona “Siguiente”.
NOTA:
Lo mejor es ignorar ciertas advertencias como “Memoria Fisica” y
“Revision para Dispositivos ASM”, otro tipo de advertencias o
errores sera mejor repararlos antes de continuar.
Espere
mientras la instalacion tome lugar.
Luego,
corre los scripts de configuracion para cada nodo.
La
salida de "orainstRoot.sh" deberia ser parecida a esta:
# /u01/app/oraInventory/orainstRoot.sh
Changing permissions of /u01/app/oraInventory.
Adding read,write permissions for group.
Removing read,write,execute permissions for world.
Changing groupname of /u01/app/oraInventory to oinstall.
The execution of the script is complete.
#
El
instalador debe completar la ejecucion de todos los scripts
Luego
solo presiona “Cerrar” (Close)
Ya
que la infraestructura ha sido satisfactoriamente instalada, podemos
revisar el estatus:
$ grid_env
$ crsctl stat res -t
--------------------------------------------------------------------------------
Name Target State Server State details
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
ONLINE ONLINE rac1 STABLE
ONLINE ONLINE rac2 STABLE
ora.LISTENER.lsnr
ONLINE ONLINE rac1 STABLE
ONLINE ONLINE rac2 STABLE
ora.asm
ONLINE ONLINE rac1 Started,STABLE
ONLINE ONLINE rac2 Started,STABLE
ora.net1.network
ONLINE ONLINE rac1 STABLE
ONLINE ONLINE rac2 STABLE
ora.ons
ONLINE ONLINE rac1 STABLE
ONLINE ONLINE rac2 STABLE
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE rac2 STABLE
ora.LISTENER_SCAN2.lsnr
1 ONLINE ONLINE rac1 STABLE
ora.LISTENER_SCAN3.lsnr
1 ONLINE ONLINE rac1 STABLE
ora.MGMTLSNR
1 ONLINE ONLINE rac1 169.254.255.49 192.1
68.1.101,STABLE
ora.cvu
1 ONLINE ONLINE rac1 STABLE
ora.mgmtdb
1 ONLINE ONLINE rac1 Open,STABLE
ora.oc4j
1 ONLINE ONLINE rac1 STABLE
ora.rac1.vip
1 ONLINE ONLINE rac1 STABLE
ora.rac2.vip
1 ONLINE ONLINE rac2 STABLE
ora.scan1.vip
1 ONLINE ONLINE rac2 STABLE
ora.scan2.vip
1 ONLINE ONLINE rac1 STABLE
ora.scan3.vip
1 ONLINE ONLINE rac1 STABLE
Leer nota completa...