miércoles, 22 de junio de 2016

MySQL Cluster

UNIVERSIDAD DE EL SALVADOR
FACULTAD MULTIDISCIPLINARIA DE OCCIDENTE 
DEPARTAMENTO DE INGENIERIA Y ARQUITECTURA

Cátedra:
Bases de Datos

Catedrático:
Ing. Alexander Calderón Peraza

Tema:
MySQL Cluster

Integrantes
Yanci Karina Nerio
Alexander Enrique Gonzalez
Carlos Eduardo Carcamo
Luis Eduardo Ramírez Ruiz




Introducción:
MySQL clúster es una tecnología que permite hacer clustering de bases de datos en memoria en un ambiente de no compartición. La arquitectura de no compartición permite que el sistema gestor de base de datos (SGBD) funcione utilizando hardware no muy costoso y con requerimientos mínimos tanto de software como de hardware. Cuando hablamos de clúster (raíz) se aplica a los conjuntos o conglomerados de ordenadores unidos entre sí normalmente por una red de alta velocidad y que se comportan como si fuesen una única computadora, la tecnología de clústeres ha evolucionado en apoyo de actividades que van desde aplicaciones de supercómputo y software para aplicaciones críticas, servidores web y comercio electrónico, hasta bases de datos de alto rendimiento, entre otros usos. Como todo sistema de clustering, está diseñado para no tener un sólo punto de falla, sino que cada componente tiene su propia porción de disco y memoria para trabajar. Bajo este esquema no se recomienda el uso de mecanismos de almacenamiento compartido como carpetas compartidas por red, sistemas de archivos de red, etc. 
En su implementación más sencilla, un clúster MySQL integra un servidor MySQL estándar y un motor de almacenamiento en memoria llamado NDB clúster, funcionando en un conjunto de una o más computadoras. Cada una de estas computadoras ejecutando uno o más procesos, que pueden consistir en procesos de MySQL server, nodos de almacenamiento de datos, servidor administrador del clúster, o programas especializados para acceder a los datos.


Las tablas de la base de datos se almacenan utilizando el motor NDB en los nodos de almacenamiento. La manera de acceder a los datos almacenados en el clúster es a través de cualquiera de los nodos MySQL. Los nodos de datos funcionan utilizando un esquema de espejado, permitiendo soportar sin impacto la caída de nodos individuales de datos dentro de cluster. La única consecuencia que tendría un suceso como la caída de un nodo de datos, es que un pequeño conjunto de transacciones relacionados al nodo caído serán abortadas. Estas transacciones deben cumplir con el esquema transaccional, tal y como si estuvieran trabajando directamente con un servidor no clusterizado de MySQL.

Guía de creación de un Clúster MySql

A continuación se configurara un clúster Mysql sobre un sistema operativo Basado en Debian 8 que puede ser Ubuntu, Linux mint o cualquier otro sistema compatible con debian, la estructura del clúster que se desarrolará es de 4 computadoras. Las computadoras se denominan con las letras de la A a la D y el rango de IPV4 desde 192.168.1.101 to 192.168.1.104.

La función de cada computadora.
  • A: Nodo Management (Management Nodes)
  • B & C: Nodos de datos (Data Nodes)
  • C: Nodo Sql (Sql Node) 
Nota: Muchos de los comandos que se ejecutan en la terminal deben de ser ejecutados con permisos de súper usuario.

Descargar MySql Cluster:
El MySql Cluster puede ser descargado del siguiente vínculo http://dev.mysql.com/downloads/cluster/, La versión que utilizaremos es la 7.4.11.


Instalación del Management Node
Instalación de ndb_mgmd y ndb_mgm: Procedemos con la instalación de ndb_mgmd y ndb_mgm, luego de haber efectuado la descarga del archivo mysql-cluster-gpl-7.4.11-linuxglibc2.5-x86_64.tar.gz

Paso 1: lo extraemos, para eso nos posicionamos en el directorio de descarga y ejecutamos en la terminal: 

# tar -zxvf mysql-cluster-gpl-7.4.11-linux-glibc2.5-x86_64.tar.gz 


al extraerlo nos movemos dentro del directorio que resultante 

# cd mysql-cluster-gpl-7.4.11-linux-libc2.5-x86_64 

Luego copiamos los archivos ndb_mgm y ndb_mgmd 

# cp bin/ndb_mgm* /usr/local/bin

Paso 2: Otorgar permisos de ejecución a los archivos ndb_mgm y ndb_mgmd 

# cd /usr/local/bin 
# chmod +x ndb_mgm*

Configuración de Management Node
Para iniciar la configuración del management node procedemos a crear un archivo de configuración. 

# mkdir /var/lib/mysql-cluster
# cd /var/lib/mysql-cluster && nano config.ini

El contenido del archivo config.ini debe de contener lo siguiente:


Instalación de el Data Node

Instalar ndbd y ndbmtd 

Paso 1: 
Luego para poder instalar ndbd y ndbmtd, nos ubicamos en el directorio de descarga del archivo, y luego extraemos ndbd y ndbmtd. los movemos a /usr/local/bin 

# tar -zxvf mysql-cluster-gpl-7.3.7-linux-glibc2.5-x86_64.tar.gz 
# cd mysql-cluster-gpl-7.3.7-linux-glibc2.5-x86_64 
# cp bin/ndbd /usr/local/bin 

Paso 2: Hacer ejecutables a ndbd y ndbmtd. 

# cd /usr/local/bin 
# chmod +x ndb* 

Nota: El directorio de datos de cada Data node se ubica en /usr/local/mysql/data Este directorio es esencial sobretodo si se piensa configurar el Management Node, si no existe debe crearse. 

Configuración del Data Node

my.cnf es un archivo necesario para cada Nodo de datos, se ubica en /etc

# nano /etc/my.cnf 

El contenido de este archivo debe de verse de la siguiente manera:



Instalación de Nodo SQL

Instalar mysql server 

Paso 1: Revisar los archivos /etc/passwd y /etc/group para verificar si ya existe un grupo mysql y usuario mysql en el sistema. Si no existe crear un grupo de usuarios mysql y luego agregar el usuario mysql a dicho grupo.

# groupadd mysql 
# useradd -g mysql mysql

Paso 2: Descomprimir el archivo, y copiarlo al directorio /usr/local luego crear un enlace simbólico al directorio mysql.

# tar -zxvf mysql-cluster-gpl-7.3.7-linux-glibc2.5-x86_64.tar.gz 
# cp mysql-cluster* /usr/local/mysql-cluster-gpl-7.3.7-linuxglibc2.5-x86_64.tar.gz 
# ln -s /usr/local/ mysql-cluster-gpl-7.3.7-linux-glibc2.5- x86_64 /usr/local/mysql 

Paso 3: Cambiar la ubicación del directorio mysql y ejecutar el script para crear el sistema de base de datos.

# cd /usr/local/mysql 
# scripts/mysql_install_db --user=mysql 

Paso 4: Dar los permisos necesarios para el servidor MySQL y los directorios.

# chown -R root . 
# chown -R mysql data 
# chgrp -R mysql . 

Paso 5: Copiar el script de arranque de MySQL al directorio apropiado, para iniciar el servicio cuando el sistema operativo se arranque. 

# cp support-files/mysql.server /etc/init.d 
# chmod +x /etc/init.d/mysql.server
# update-rc.d mysql.server defaults

Configuración del nodo Sql

Para configurar el nodo sql, solamente tenemos que seguir los mismos pasos de configuración del nodo de datos(Data node). 

Iniciar Cluster Mysql

Una vez se haya configurado apropiadamente, el inicio de un proceso debería ser fácil de ejecutar. Notese que el nodo manejador (Management Node) debe iniciarse primero, seguido de los nodos de datos (Data nodes), y finalmente los nodos sql (Sql nodes.) Para el 

Management node: 

# /usr/local/bin/ndb_mgmd -f /var/lib/mysql-cluster/config.ini 

Para cada Data node: 

# /usr/local/bin/ndbd 

Para cada Sql node: 

# /etc/init.d/mysql.server start 

Y eso es todo, una vez terminamos el proceso podemos usar ndb_mgm management client para ver si el cluster está corriendo correctamente y si todo va bien, deberíamos ver algo como eso:

shell> /usr/local/bin/ndb_mgm -- NDB Cluster -- Management Client -- ndb_mgm> SHOW Connected to Management Server at: localhost:1186 Cluster Configuration --------------------- [ndbd(NDB)] 2 node(s) id=2 @192.168.0.30 (Version: 5.5.41-ndb-7.2.19, Nodegroup: 0, *) id=3 @192.168.0.40 (Version: 5.5.41-ndb-7.2.19, Nodegroup: 0) [ndb_mgmd(MGM)] 1 node(s) id=1 @192.168.0.10 (Version: 5.5.41-ndb-7.2.19) [mysqld(API)] 1 node(s) id=4 @192.168.0.20 (Version: 5.5.41-ndb-7.2.19)


Leer nota completa...

REPLICACION CON MYSQL

 UNIVERSIDAD DE EL SALVADOR
FACULTAD MULTIDISCIPLINARIA DE OCCIDENTE
DEPARTAMENTO DE INGENIERIA Y ARQUITECTURA


 Cátedra:
Bases de Datos


 Catedrático:
Ing. Alexander Calderón Peraza




 GUIA MYSQL
REPLICACION

 Catedrático:
Ing. Alexander Calderón Peraza



 Integrantes:
Correo electrónico:
García, Rosa Margarita
rose07fas@yahoo.es
Valdivieso Rodríguez, Iris Yamileth
irisvaldivieso1@gmail.com
Vásquez Ramírez, Ivonne Sugeybi
Sugeybi88@gmail.com

Introducción
En la actualidad para toda empresa sea esta grande, micro o pequeña empresa la información se ha vuelto uno de los principales activos, hoy en día las empresas no pueden tener éxito sin información de calidad acerca de sus operaciones internas y de su ambiente externo, razón por la cual las organizaciones y sus administradores tienen que practicar la administración de recursos de datos donde se aplica las tecnologías de la información en donde se toma en cuenta lo que es la administración de bases de datos ya que por medio de estas se conoce toda la información que la organización posee de que manera esta almacenada, estructurada, sus tablas, campos y el medio de replicación utilizado.
Para este caso se presenta una guia con los pasos que se han tomado en cuenta para llevar a cabo para la replicación de bases de datos en mysql. El proceso de replicación de bases de datos consiste en replicar las consultas de actualización en una base de datos maestra (máster) sobre una o mas bases de datos esclavas (Slave) de manera que se tenga una copia de la misma durante un tiempo determinado.
Objetivos
Objetivo General:
Brindar a los compañeros los pasos que sean necesarios para llevar a cabo la replicación de bases de datos usando como gestor de bases de datos MySQL.
Objetivos Específicos:
 Recopilar la información necesaria y determinar los requerimientos para una replicación de bases de datos con MySQL.
 Identificar cuáles son los pasos de la configuración que se realizara en cada una de las diferentes maquinas que han de ser ocupadas para dicha replicación de nuestra base de datos.
 Realizar pruebas pertinentes para comprobar la funcionabilidad de la replicación en ambos servidores uno maestro (máster) y el otro esclavo (slave) para este caso.

MYSQL REPLICACIÓN
El proceso de replicación de una base de datos consiste en replicar las consultas (tanto DML como DDL) en una bases de datos maestra (máster) sobre una o varias bases de datos esclavas (Slave) de manera que se pueda tener una copia de estas a lo largo del tiempo.
MySQL soporta replicación unidireccional asíncrona, es decir las consultas de actualización ejecutadas en el maestro son replicadas en los servidores esclavos. Esta replicación se realiza de forma transparente. Además es instantánea si los servidores esclavos están levantados y en estado de replicación. Las modificaciones de datos siempre se deben realizar en el maestro.
El servidor maestro escribe actualizaciones en el log binario y mantiene un índice en de los ficheros para rastrear la rotaciones de log. Estos log sirven como registros de actualizaciones para enviar a los servidores esclavos. Cuando un esclavo se conecta al maestro, informa al maestro de la posición hasta que el esclavo ha leído los logs en la última actualización satisfactoria. El esclavo recibe cualquier actualización que haya realizado, y se bloquea para que el máster le envié nuevas actualizaciones.
En la presente guía se maneja en un escenario en donde la replicación se realiza desde cero, en donde maestro y esclavo no estaban configurados y no se tenía una base de datos para realizar previamente la replicación.
Utilidad de la replicación de bases de datos
Copia de seguridad: En condiciones normales, una base de datos replicada es válida como copia de seguridad. Además se puede realizar una copia de seguridad usando un servidor esclavo para no interferir al servidor maestro.
Mejorar la escalabilidad: Se pueden configurar las aplicaciones para balancear las consultas de lectura (SELECT) entre los servidores replicados.
Alta disponibilidad: En aplicaciones y en entornos en donde sólo se requieren lectura, podríamos configurar nuestras aplicaciones para balancear las consultas


de lectura (SELECT) entre los servidores replicados de manera si uno de cae se continúe prestando el servicio.

Procedimiento para llevar a cabo la replicación en MySQL
Suponiendo que los usuarios de esta guía no han hecho uso de MySQL como gestor de bases de datos y que por lo tanto no han creado una base de datos en este. Después de haber instalado la versión de MySQL a utilizar en este caso MySQL 5.5, comenzaremos con la creación de nuestra base de datos utilizando la consola del gestor y asi seguidamente de los demás pasos hasta terminar con la comprobación de la replicación.
Pasos para la creación de la base de datos:
 Ingresamos a la consola de MySql y escribimos el nombre de la base de datos:

mysql> create database tarea2016;
 Luego haremos uso de la base de la base de datos de la siguiente forma:

mysql> use tarea2016;

 Revisamos si hay tablas creadas:

mysql> show tables;
Si no hay tablas procedemos a la creación de tablas producto, detalleventa y venta con sus respectivas llaves primarias:
mysql> create table producto<
->codigoproducto varchar(20),
->nombre varchar (100),
->precio double(8,2),
->primary key (codigoproducto)
->);
mysql> create table venta(
->Codigoventa int,
->fecha datetime,
->total double(8,2),
->primary key(codigoventa)
-> ):
mysql> create table detalleventa (
->codigoproducto varchar(20),
->codigoventa int,
->cantidad int,
->primary key(codigoproducto, codigoventa)
-> );
Para revisar el contenido de cada tabla hacemos lo siguiente:
mysql> describe detalleventa;
Par insertar datos en cada una de las tablas producto y venta:
mysql>insert into producto values(‘1’,’pcEscritorio’,’350’);
mysql>insert into venta values(‘1000’,’15-01-20’,’1050’);
Relacionamos las tablas producto-detalleventa y venta-detalleventa con las siguientes líneas de comandos:
mysql>alter table detalleventa add foreign key (codigoproducto) references
->producto(codigoproducto);
mysql>alter table detalleventa add foreign key (códigoventa) references
->venta(Codigoventa);
Pasamos a la inserción de datos en las tablas detalleventa y luego consultamos de la manera siguiente:
mysql>insert into detalleventa values(‘1’,’1000’,’3’);
Luego revisamos la relación entre la tabla producto-detalleventa de la siguiente forma:
mysql>select product.nombre, producto.precio, detalleventa.cantidad
->from producto inner join detalleventa
->on producto.codigoproducto=detalleventa.codigoproducto
->where producto.codigoproducto=’1’;
Revisamos la relación entre las tablas venta-detalleventa al igual al paso anterior:
mysql>select venta.codigoventa, venta.fecha, venta.total, ->detalleventa.codigoproducto, detalleventa.cantidad
->from venta inner join detalleventa
->on venta.codigoventa=detalleventa.codigoventa
->where venta.codigoventa=’1000’;
REPLICACION
Configurando servidor maestro y servidor esclavo:
1-Desactivamos firewall de Windows ambos
2-Ingresamos al archivo my.ini dentro de la carpeta de nuestro mysql y nos aparecerá la siguiente ventana en donddonde server-id debe de ser igual a 1 para el servidor maestro (máster):

Y guardamos los cambios sino nos permite guardar regresamos al archivo my.ini y damos click derecho sobre este y nos ubicamos en propiedades, luego damos click en seguridad y agregamos permisos al archivo.
Para comenzar configuración del esclavo dentro del maestro haremos lo siguiente:
Abrimos la consola de Windows para configurar la ip
C:\user\nombredemaquina> ipconfig
Nos muestra la ip de nuestra maquina ahora probamos hacer ping con la ip de la maquina que será esclavo
C:\user\nombredemaquina> ping <escribimos dirección de red maquina esclavo>
Si nuestra maquina se conecta en perfectas condiciones nos mostrara que ningún archivo se ha perdido y que estamos recibiendo y enviando paquetes
Entramos a configurar nuestra maquina maestra para el esclavo
C:\user\nombredemaquina> cd..\.. 
C:\
Ingresamos a la ubicación de nuestro archivo mysql
C:\Program Files\MySQL\MySQL Server 5.5\bin
C:\Program Files\MySQL\MySQL Server 5.5\bin>mysql –u root -p
Ingresamos contraseña que colocamos en la instalación de mysql
Enter password: ****
mysql>:_
Derechos a nuestro esclavo
mysql> grant replication slave on *.* to ‘nombre de esclavo’@’ip del esclavo’ identified by ‘contraseña’;
mysql>: show databases;
mostrara todas las bases de datos en nuestro caso la base de datos se llama tarea2016.

mysql>: use tarea2016;
Bloqueamos las tablas de esta base de datos

mysql>: flush tables with read lock;
Reiniciamos servicios de mysql
1. Nos vamos a panel de control
2. Herramientas administrativas
3. Servicios
4. Y nos ubicamos en carpeta MySQL
5. Damos click en reiniciar

Las líneas de comandos para ver el log binario y posición del servidor maestro (master), las anotamos para poder ocuparlas en el servidor esclavo (slave):
mysql>: show master status;

mysql>: exit
Bye
C:\Program Files\MySQL\MySQL Server 5.5\bin> mysql –u root –p
Enter password: ****
Reiniciamos servicios de mysql
6. Nos vamos a panel de control
7. Herramientas administrativas
8. Servicios
9. Y nos ubicamos en carpeta MySQL
10. Damos click en reiniciar

Hacemos un respaldo de la base de datos para luego llevarla al servidor esclavo.

C:\Program Files\MySQL\MySQL Server 5.5\bin>mysqldump –u root –p tarea2016 > respaldo.sql
Enter password: ****
C:\Program Files\MySQL\MySQL Server 5.5\bin>mysql –u root –p
Enter password: ****
Desbloqueamos Tablas:

mysql>: unlock tables;
Nota: terminamos configuración del maestro y nos vamos a configurar nuestro esclavo
CONFIGURACION DE ESCLAVO
1-Desactivamos firewall de Windows ambos
2-Configuramos el servidor esclavo (slave) en el archivo my.ini dentro de la carpeta de nuestro mysql, en este caso server-id lo dejamos igual a 2 ya que estamos en servidor esclavo:
n:none;text-autospace:none'>Las líneas de comandos para ver el log binario y posición del servidor maestro (master), las anotamos para poder ocuparlas en el servidor esclavo (slave):

mysql>: show master status;

Reiniciamos servicios de mysql
1. Nos vamos a panel de control
2. Herramientas administrativas
3. Servicios
4. Y nos ubicamos en carpeta MySQL
5. Damos click en reiniciar

Para comenzar configuración del esclavo dentro del maestro haremos lo siguiente:

Abrimos la consola de Windowspara configurar la ip
C:\user\nombredemaquina> ipconfig
Nos muestra la ip de nuestra maquina ahora probamos hacer ping con la ip de la maquina que será maestro
C:\user\nombredemaquina> ping <ip maestro>
Si nuestra maquina se conecta en perfectas condiciones nos mostrara que ningún archivo se ha perdido y que estamos recibiendo y enviando paquetes 
Entramos a configurar nuestro esclavo

C:\user\nombredemaquina> cd ..\..
C:\
C:\Program Files\MySQL\MySQL Server 5.5\bin
C:\Program Files\MySQL\MySQL Server 5.5\bin>mysql –u root -p
Enter password: ****
mysql>:_
creamos la base de datos con el mismo nombre que está en maestro

mysql> create database tarea2016;
mysql> use tarea2016;
mysql> exit
Bye
copiamos el backup de la base de datos creada en el maestro en los archivos bin de mysql y la pegamos en los archivos de la unidad C:\

Reemplazamos la base de datos (tarea2016) por el backup que se copio del servidor maestro
C:\Program Files\MySQL\MySQL Server 5.5\bin>mysql –u root –p tarea2016 <C:\respaldo.sql
Enter password: ****
Reiniciamos servicios de mysql
1. Nos vamos a panel de control
2. Herramientas administrativas
3. Servicios
4. Y nos ubicamos en carpeta MySQL
5. Damos click en reiniciar

C:\Program Files\MySQL\MySQL Server 5.5\bin>mysql –u root -p
Enter password: ****

Paramos esclavo

mysql> stop slave;
Asignando IP del master, nombre del usuario, contraseña y posición que recibio el servidor maestro:

mysql> change master to master _host=’ip_master’;
Para siguiente línea ubicarnos en donde le dimos privilegios a nuestro esclavo y colocar la información respectiva ej.


mysql> change master to master _user=’nombre esclavo’;
mysql> change master to master _password=’contraseña’;
Para siguiente línea ubicarnos en donde mostramos el estado de nuestro máster colocar la información respectiva ej.
 

mysql> change master to master _log_file=’log binario.00001’;
mysql> change master to master _log_pos=posicion;
iniciamos el esclavo

mysql> start slave;
para ver el estatus del estado

mysql> show slave status



Si Seconds_Behind_Master es igual a un valor Null significa que nuestra replicación no posee errores.
Hacemos pruebas y si ingresamos datos en nuestra tabla maestro y verificamos si hace los cambios en nuestra tabla esclavo si hay replicación.

                                  Creación de Ec2 en Amazon
Creamos cuenta Amazon
Ubicamos en aws.amazon.com y damos crear cuenta como nuevo usuario



Ya ingresados en nuestra cuenta nos ubicamos en EC2
Damos click




Damos click en lauch instance


Creamos nuestra maquina virtual de preferencia las que tienen free tier eligible ya que están están de forma gratuita en Amazon.









Nuestra instancia ya lista para ser utilizada


Como crear una Ip Estatica en Amazon
https://youtu.be/kJptJLNTDHQ

Como crear una Imagen de una Instancia (AMI) en Amazon
https://youtu.be/quFm1SBp8tA

Como crear una Instancia en Amazon
https://youtu.be/i39p1QbpCQk

Como se crea un Snapshot en Amazon
https://youtu.be/ZyL9VNa7X4Y



Leer nota completa...

Replicacion SQL SERVER



Leer nota completa...

martes, 21 de junio de 2016

ORACLE DATABASE RAC 12C


UNIVERSIDAD DE EL SALVADOR
FACULTAD MULTIDISCIPLINARIA DE OCCIDENTE
DEPARTAMENTO DE INGENIERIA Y ARQUITECTURA


ORACLE DATABASE 12C: 

RAC 12C


GUIA DE INSTALACIÓN







José Eduardo Agreda Rivas
José Wilfredo Argueta
Daniel Eduardo Hurtado Herrera
Erick Omar Madrid Molina
Krisna Iveth Realegeño Cornejo
Guillermo Aldolfo Delsas Murcia


¿QUÉ ES RAC 12c?
RAC (Real Application Clusters) nació y emergió en el mercado como producto en la versión de BD (base de datos) Oracle 9i, representando un producto estable y de altas funcionalidades para el área de Alta Disponibilidad. En versión “Oracle 10g”, RAC represento una de las soluciones clave para la filosofía “Grid Computing” ofreciendo consigo una escalabilidad horizontal. En liberaciones 11g & 11gR2 obtuvo mejoras de alta relevancia y en versión 12c trae consigo mejoras en sus componentes, arquitecturas basadas en “Cloud Computing”.
Las mejoras y nuevas características de RAC12c están clasificadas en 4 grandes aéreas:
  • Continuidad de Negocio & Alta Disponibilidad
  • Flexibilidad & Agilidad
  • Despliegue estandarizado & “Patching”
  • Integración y administración en “Data Centers”




PASOS PRELIMINARES
Antes de comenzar esta instalación, hay unas cuantas cosas que deben ser consideradas:
  • El sistema resultante incluye al sistema operativo anfitrión (HOST), dos sistemas operativos invitados, dos instancias de Oracle Grid Infrastructure (clúster + ASM) y dos instancias de la Base de Datos, todo en un solo servidor. Como se puede imaginar, esto requiere una cantidad significativa de espacio en disco, la CPU y la memoria.
  • Al finalizar las máquinas necesitarán cada uno al menos de 3G RAM, 4G preferentemente. No asuma que usted será capaz de ejecutar esto en una PC pequeña o portátil. Usted no lo hará.
  • La guía proporciona una instalación básica para conseguir el funcionamiento de RAC. No hay redundancia en la instalación de infraestructura de cuadrícula o la instalación ASM. Para agregarla, basta con crear el doble de la cantidad de discos compartidos y seleccionar la opción de redundancia "normal" cuando se ofrece. Por supuesto, esto tomará más espacio en disco.
  • El nombre único de acceso de cliente (SCAN) se debe definir en el DNS o GNS y de todos contra todos entre una de las 3 direcciones, que están en la misma sub-red que las direcciones IP públicas y virtuales. Antes de la versión 11.2.0.2 que se podría definir como una única dirección IP en el archivo "/etc / hosts", lo que está mal y hará que la verificación de clúster falle, pero permitirá que complete la instalación sin la presencia de un DNS. Esto no parece funcionar para 11.2.0.2 adelante.
  • La configuración pueden limitarse a 2GB de intercambio (SWAP), lo que provoca un fallo de comprobación de requisitos previos, pero no impide el funcionamiento de la instalación. Si se quiere evitar esto, definir 3 GB de swap o más.
  • En esta guía se utilizan las versiones de 64 bits de Oracle Linux 7 y Oracle 12c Release 1.
  • El sistema operativo debera tener instalado Virtualbox o un software para virtualizar.

SOFTWARE A DESCARGAR:
 
Instalación Básica del Sistema Operativo


Se llevará a cabo la instalación de Oracle Linux 7 como si se tratara de un servidor básico. Más específicamente, debe ser una instalación de servidor con un mínimo de 4G de swap, cortafuegos deshabilitado, SELinux permisivo y los siguientes grupos de paquetes instalados:
  • Servidor con interfaz gráfica de usuario. (Server with GUI)
  • Utilidades de motorización del hardware. (Hardware Monitoring Utilities)
  • Rendimiento para grandes sistemas. (Large Systems Performance)
  • Cliente para sistema de archivos en red. (Network file system client)
  • Herramientas de rendimiento. (Performance Tools)
  • Las bibliotecas de compatibilidad. (Compatibility Libraries)
  • Herramientas de desarrollo. (Development Tools)
Además que la siguiente información debe establecerse durante la instalación:
  • Crear un usuario Oracle (oracle)
  • nombre de host: rac1.racdomain
  • enp0s3 (eth0): DHCP (Conectar Automáticamente)
  • enp0s8 (eth1): IP=192.168.1.11, Subred=255.255.255.0, Gateway=192.168.0.71, DNS=192.168.0.100, Search=racdomain (Conectar Automáticamente)
  • enp0s9 (eth2): IP=192.168.1.101, Subred=255.255.255.0, Gateway=<blank>, DNS=<blank>, Search=<blank> (Conectar Automáticamente)
Usted es libre de cambiar las direcciones IP para adaptarse a su red, pero recuerde que debe ser coherente con esos ajustes en todo el resto de la guía. Del mismo modo, esta guía se refiere a los adaptadores de red como enp0s3, enp0s8 y enp0s9, en versiones anteriores de Linux habrían sido eth0, eth1 y eth2 respectivamente.
PREREQUISITOS PARA INSTALAR ORACLE
Los siguientes comandos deberán ser ingresados en línea de comandos y necesitarán los privilegios del usuario root. Instalación automática:
# yum –y install oracle-rdbms-server-12cR1-preinstall
# yum –y install ntp
# yum –y update

A este punto, no es necesario pero, se recomienda reiniciar.

En el dado caso que alguno de los paquetes anteriores no funcionara correctamente o prefiera usted conducir una instalación no automatizada.
Agrega las siguientes líneas al archivo "/etc/sysctl.conf" (Necesitará privilegios de root):

fs.file-max = 6815744
kernel.sem = 250 32000 100 128
kernel.shmmni = 4096
kernel.shmall = 1073741824
kernel.shmmax = 4398046511104
net.core.rmem_default = 262144
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 1048576
fs.aio-max-nr = 1048576
net.ipv4.ip_local_port_range = 9000 65500

Luego ejecuta el siguiente comando para cambiar los parámetros del kernel:

# /sbin/sysctl -p

Agrega las siguientes líneas al archivo "/etc/security/limits.conf":

oracle soft nofile 1024
oracle hard nofile 65536
oracle soft nproc 2047
oracle hard nproc 16384
oracle soft stack 10240
oracle hard stack 32768

Además de la instalación básica del sistema operativo, los siguientes paquetes se deben instalar (privilegios de root serán necesarios). Esto incluye las versiones de 64 bits y 32 bits de algunos paquetes.
yum install binutils -y
yum install compat-libstdc++-33 -y
yum install compat-libstdc++-33.i686 -y
yum install gcc -y
yum install gcc-c++ -y
yum install glibc -y
yum install glibc.i686 -y
yum install glibc-devel -y
yum install glibc-devel.i686 -y
yum install ksh -y
yum install libgcc -y
yum install libgcc.i686 -y
yum install libstdc++ -y
yum install libstdc++.i686 -y
yum install libstdc++-devel -y
yum install libstdc++-devel.i686 -y
yum install libaio -y
yum install libaio.i686 -y
yum install libaio-devel -y
yum install libaio-devel.i686 -y
yum install libXext -y
yum install libXext.i686 -y
yum install libXtst -y
yum install libXtst.i686 -y
yum install libX11 -y
yum install libX11.i686 -y
yum install libXau -y
yum install libXau.i686 -y
yum install libxcb -y
yum install libxcb.i686 -y
yum install libXi -y
yum install libXi.i686 -y
yum install make -y
yum install sysstat -y
yum install unixODBC -y
yum install unixODBC-devel -y
yum install zlib-devel -y
yum install zlib-devel.i686 –y


Sin olvidar que debes crear los siguientes grupos y usuarios:
groupadd -g 54321 oinstall
groupadd -g 54322 dba
groupadd -g 54323 oper
groupadd -g 54324 backupdba
groupadd -g 54325 dgdba
groupadd -g 54326 kmdba
groupadd -g 54327 asmdba
groupadd -g 54328 asmoper
groupadd -g 54329 asmadmin
useradd -u 54321 -g oinstall -G dba,oper oracle

Y cambiar la contraseña del usuario Oracle por “oracle”:
passwd oracle

Modificar el archivo "/etc/hosts":
127.0.0.1 rac1 rac1.racdomain localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
# Public
192.168.1.11 rac1.racdomain rac1
192.168.1.12 rac2.racdomain rac2
# Private
192.168.0.71 rac1-priv.racdomain rac1-priv
192.168.0.72 rac2-priv.racdomain rac2-priv
# Virtual
192.168.0.81 rac1-vip.racdomain rac1-vip
192.168.0.82 rac2-vip.racdomain rac2-vip
# SCAN
#192.168.0.91 rac-scan.racdomain rac-scan
#192.168.0.92 rac-scan.racdomain rac-scan
#192.168.0.93 rac-scan.racdomain rac-scan

No se olvide que al crear las redes debe existir una Publica (rac1 y rac2, para este ejemplo), una red privada (rac1-priv, rac2-priv), la red virtual que será creada por el instalador (rac1-vip, rac2-vip) y SCAN (rac-scan). Habrá que asegurarse que le archivo "/etc/resolv.conf" incluya una entrada NAMESERVER que apunte al nombre de servidor correcto. También verificar que si existen las entradas “domain” y “search” una de ellas deberá ir comentada.
#domain racdomain
search racdomain
nameserver 192.168.0.70

Los cambios en el archivo "resolv.conf" serán reemplazados por el administrador de la red, debido a la presencia de la interfaz NAT. Por esta razón, esta interfaz deberá estar desactivada en el inicio. Se puede activar de forma manual si necesita acceder a Internet. Para ello, editar el archivo "/etc/sysconfig/network-scripts/ifcfg-enp0s3" archivo (eth0), haciendo el siguiente cambio. Esto se llevará a efecto después del siguiente reinicio.
ONBOOT=no

No es necesario reiniciar, solamente ejecutar el siguiente comando:
# ifdown enp0s3
# #ifdown eth0

En este punto, la red para el primer nodo debe ser algo como lo siguiente:
# ifconfig -a
enp0s3: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
ether 08:00:27:eb:72:86 txqueuelen 1000 (Ethernet)
RX packets 10 bytes 1716 (1.6 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 55 bytes 8308 (8.1 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

enp0s8: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.11 netmask 255.255.255.0 broadcast 192.168.0.71
inet6 fe80::a00:27ff:fe84:31f5 prefixlen 64 scopeid 0x20<link>
ether 08:00:27:84:31:f5 txqueuelen 1000 (Ethernet)
RX packets 342 bytes 33597 (32.8 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 302 bytes 43228 (42.2 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

enp0s9: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.11 netmask 255.255.255.0 broadcast 192.168.0.71
inet6 fe80::a00:27ff:fe0d:9dd9 prefixlen 64 scopeid 0x20<link>
ether 08:00:27:0d:9d:d9 txqueuelen 1000 (Ethernet)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 28 bytes 3941 (3.8 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 0 (Local Loopback)
RX packets 16 bytes 1708 (1.6 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 16 bytes 1708 (1.6 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

Observe que enp0s3 (eth0) no tiene ninguna dirección IP asociada porque está deshabilitado.
Con esto en mente y el DNS ya configurado, las direcciones SCAN han sido resueltas para las tres direcciones IP.
# nslookup rac-scan
Server: 192.168.0.1
Address: 192.168.0.91
Name: rac-scan.racdomain
Address: 192.168.0.92
Name: racs-can.racdomain
Address: 192.168.0.93
Name: rac-scan.racdomain
Address: 192.168.56.107

Cambiar la línea:
soft nproc 4096
por:
- nproc 16384

En el archivo "/etc/security/limits.d/20-nproc.conf"

Editar el archivo "/etc/selinux/config" de la siguiente manera:
SELINUX=permissive

Si el cortafuegos de Linux está activado, se tendrá que desactivar o configurar. El siguiente es un ejemplo de desactivar el firewall.

# systemctl stop firewalld
# systemctl disable firewalld

Muchas veces será necesario ejecutar estos commandos:
# systemctl stop ntpd
Shutting down ntpd: [ OK ]
# systemctl disable ntpd
# mv /etc/ntp.conf /etc/ntp.conf.orig
# rm /var/run/ntpd.pid

Si RAC permanecerá permanentemente conectado a la red principal y quiere usar NTP, deberá agregar la opción “-x” a la siguiente línea del archivo "/etc/sysconfig/ntpd":
OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid"

Luego, reinicia NTP:
# systemctl enable ntpd
# systemctl restart ntpd

Crear los directorios en los cuales Oracle será instalado y proporcionarle los permisos adecuados:
mkdir -p /u01/app/12.1.0.2/grid
mkdir -p /u01/app/oracle/product/12.1.0.2/db_1
chown -R oracle:oinstall /u01
chmod -R 775 /u01/

Ahora, inicia sesión como el usuario “Oracle”. Encuentra el archivo "/home/oracle/.bash_profile" y modificalo:
# Oracle Settings
export TMP=/tmp
export TMPDIR=$TMP

export ORACLE_HOSTNAME=ol7-121-rac1.localdomain
export ORACLE_UNQNAME=CDBRAC
export ORACLE_BASE=/u01/app/oracle
export GRID_HOME=/u01/app/12.1.0.2/grid
export DB_HOME=$ORACLE_BASE/product/12.1.0.2/db_1
export ORACLE_HOME=$DB_HOME
export ORACLE_SID=cdbrac1
export ORACLE_TERM=xterm
export BASE_PATH=/usr/sbin:$PATH
export PATH=$ORACLE_HOME/bin:$BASE_PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib

alias grid_env='. /home/oracle/grid_env'
alias db_env='. /home/oracle/db_env'

También deberá crear el archivo "/home/oracle/grid_env" con el siguiente contenido:
export ORACLE_SID=+ASM1
export ORACLE_HOME=$GRID_HOME
export PATH=$ORACLE_HOME/bin:$BASE_PATH

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib

y el archivo "/home/oracle/db_env", de esta manera:
export ORACLE_SID=cdbrac1
export ORACLE_HOME=$DB_HOME
export PATH=$ORACLE_HOME/bin:$BASE_PATH

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib

Se recomienda salir y entrar a la sesión Oracle nuevamente. Una vez "/home/oracle/.bash_profile" ha corridor por primera vez será usted capaz de cambiar de entornos como sigue:
$ grid_env
$ echo $ORACLE_HOME
/u01/app/12.1.0.2/grid
$ db_env
$ echo $ORACLE_HOME
/u01/app/oracle/product/12.1.0.2/db_1
$

A este punto lo mejor será reiniciar el sistema (requiere privilegios de super usuario):
# shutdown -r now


Entramos de nuevo a la sesión Oracle, abrimos una consola y verificamos que el usuario este de esta manera:

# id oracle
uid=54321(oracle), gid=54321(oinstall), groups=54321(oinstall), 54322(dba)


Si el usuario no contara con el UID correcto podemos cambiar con el comando:
# usermod -u 54321 oracle

Si un grupo no contara con el GID correcto, por ejemplo oinstall, lo cambiaremos con el comando:
# groupmod -g 54321 oinstall

Pero si lo que necesitamos es agregar un grupo, en este caso dba, al usuario deberemos ejecutar:
# usermod -G dba oracle

Como recomendación adicional, se recomienda cambiar el ultimo octeto de la MAC debido a que si se usa una conexión USB generalmente poseen la misma direccion MAC.


Instalación de FREENAS y configurar iSCSI

Ahora nos disponemos a preparar la parte de almacenamiento que utilizaremos en el laboratorio de VMware vSphere que comenzamos en el post Laboratorio VMware vSphere 5.5 en VMware Workstation. En primer lugar veremos como instalar FREENAS y también veremos como configurarlo para que nos ofrezca almacenamiento compartido mediante iSCSI.

Para instalar FREENAS lo primero que tendremos que hacer es descargarnos la iso desde la web oficial del proyecto:

Una vez descargada la iso arrancamos nuestra máquina con la iso cargada y seleccionamos la primera opción:
  

Seleccionamos el disco donde realizaremos la instalación del sistema:






 Y seleccionamos yes para proceder a la instalación:

    


Seleccionamos OK para reiniciar: 





Una vez tenemos FREENAS correctamente instalado, lo primero que vamos a hacer es configurar una ip estática. Para ello escribimos 1 y damos aceptar:


Despues nos irá haciendo una serie de preguntas:
  • Seleccionar interfaz: 1 (en el ejemplo)
  • resetear la configuración de red: n
  • Configurar interfaz por DHCP: n
  • Configurar IPv4: y
  • IPv4 ADDRESS: IP que asignemos (en el ejemplo 192.168.1.70)
  • IPv4 NETMASK: Mascara que asignemos(en el ejemplo 255.255.255.0)
  • Configurar IPv6: n



Ahora podemos acceder desde un navegador, introduciendo la IP de nuestro servidor FREENAS, http://192.168.0.70 en el ejemplo:



Configurar iSCSI en FREENAS:

Ahora nos toca configurar en FREENAS el almacenamiento compartido por iSCSI que utilizaremos para nuestra instalacion.
Creamos un iniciador:
Services → ISCSI → Initiators → Add Initiator


Creamos un portal:
Services → ISCSI → Portals → Add Portal



Creamos la tarjeta:
Services → ISCSI → Targets → Add Target


Creamos un dispositivo extent:
Services → ISCSI → Extents → Add Extent


Asociamos la tarjeta al dispositivo:
Services → iSCSI → Targets/Extents


Y activamos el servicio iSCSI:
Services → Control Services



 
Continuamos con la definición de las reglas para UDEV.
Modificamos el siguiente archivo "/etc/scsi_id.config" para configurar los dispositivos SCSI. Lo creamos si es que aun no existe.
# nano /etc/scsi_id.config
options=-g
Acá un ejemplo:
# /usr/lib/udev/scsi_id -g -u -d /dev/sdb
1ATA_VBOX_HARDDISK_VB40696d3c-4b65a1e9
# /usr/lib/udev/scsi_id -g -u -d /dev/sdc
1ATA_VBOX_HARDDISK_VB131c87f1-9a5b7135
# /usr/lib/udev/scsi_id -g -u -d /dev/sdd
1ATA_VBOX_HARDDISK_VB3d0db51a-8fe749fa
# /usr/lib/udev/scsi_id -g -u -d /dev/sde
1ATA_VBOX_HARDDISK_VB93d904b0-66a29d8f
#
Usaremos esos valores, editamos el archivo "/etc/udev/rules.d/99-oracle-asmdevices.rules" agregando las siguientes lineas. Todos los parametros para una misma entrada deberan estar en la misma linea. El usuario deberá ser “oracle”, el grupo varia según la configuración que se ha determinado para cada uno de ellos, en nuestro caso será “oinstall”, puede también ser “dba”. Esto dependerá de como se haya configurado el ASM.
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB40696d3c-4b65a1e9", SYMLINK+="oracleasm/asm-disk1", OWNER="oracle", GROUP="oinstall", MODE="0660"
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB131c87f1-9a5b7135", SYMLINK+="oracleasm/asm-disk2", OWNER="oracle", GROUP="oinstall", MODE="0660"
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB3d0db51a-8fe749fa", SYMLINK+="oracleasm/asm-disk3", OWNER="oracle", GROUP="oinstall", MODE="0660"
KERNEL=="sd?1", SUBSYSTEM=="block", PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$parent", RESULT=="1ATA_VBOX_HARDDISK_VB93d904b0-66a29d8f", SYMLINK+="oracleasm/asm-disk4", OWNER="oracle", GROUP="oinstall", MODE="0660"






Cargamos las tablas de particiones actualizadas.
# /sbin/partprobe /dev/sdb1
# /sbin/partprobe /dev/sdc1
# /sbin/partprobe /dev/sdd1
# /sbin/partprobe /dev/sde1
Test the rules are working as expected.
# /sbin/udevadm test /block/sdb/sdb1
Recargamos las reglas UDEV.
# /sbin/udevadm control --reload-rules
Los disco deberían ser visibles ahora y tener sus usuarios correctamente definidos por usar los siguientes comandos. Si alguno de ellos no aparece es que la configuración no es correcta, verifique los pasos anteriores antes de continuar.
# ls -al /dev/oracleasm/*
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk1 -> ../sdb1
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk2 -> ../sdc1
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk3 -> ../sdd1
lrwxrwxrwx. 1 root root 7 Sep 17 16:10 /dev/oracleasm/asm-disk4 -> ../sde1
#


Instalando la Infraestructura GRID




Es muy recomendable que si en cualquier punto de la instalacion desde aquí en adelante, se eliminen los archivos temporales de todas las maquinas donde se este realizando la instalacion. Eso incluye tambien la eliminacion de los archivos generados en la carpeta “.shell” que sera creada dentro de la carpeta de inicio.
# rm -fR /home/oracle/.shell
#rm -fR /tmp/*
Asegurese que los siguientes paquetes esten instalados en su maquina y para esto debera ser usuario "root". Asumimos que los archivos fueron descargados en la carpeta “/media/sf_12.1.0.2”
# cd /media/sf_12.1.0.2/grid/rpm
# rpm -Uvh cvuqdisk*
Inicia sesion en la maquina "rac1" como usuario "oracle" e inicia el instalador de Oracle.
$ cd /media/sf_12.1.0.2/grid
$ ./runInstaller
El programa tardara algun tiempo en iniciar, eso es normal. Selecciona la opcion "Install and Configure Oracle Grid Infrastructure for a Cluster" o “Instalar y Configura la Infraestructura Oracle Grid para un Cluster”, luego presiona el boton “Siguiente”.



Selecciona la configuracion “Configurar Cluster Estandart” y presiona “Siguiente”.
 
Selecciona “Instalacion Tipica” y presiona “Siguiente”.

En la parte “Configuracion especifica del Cluster” introduce el nombre correcto para SCAN, para este ejemplo sera rac-scan.
El hostname Publico sera:rac2.racdomain
El host privado sera: rac2-priv.racdomain
Luego presiona “Agregar”
Presiona “Conectividad SSH” e introduce la contrasena del usuario Oracle,presiona “Setup” y luego “Probar” (Test), una vez todo este completo presionamos siguiente.
En este momento la conectividad puede fallar por diferentes razones, a veces solo es necesario volver a probar la conectividad y eso es todo. Es recomendado hacerlo pero antes debera eliminar los archivos que se crearon en la carpeta “.ssh” en todas las maquinas que se han agregado. Para ello vea el proceso descrito anteriormente.
 


Ahora revise que las redes publica y privada hayan sido configuradas de manera adecuada.
Escribe "/u01/app/12.1.0.2/grid" como lugar para el software y "Oracle Automatic Storage Manager" como el tipo de almacenamiento para el registro de cluster (cluster registry storage type). Introduce la contrasena para ASM y selecciona OINSTALL como grupo OSASM, luego presiona “Siguiente”.




 
Escribe nombre de disco como DATA1, y selecciona redundancia como “External” selecciona agregar discos “Todos los discos” y selecciona todos los que esten en “/dev/oracleasm/”, luego presiona “Siguiente”.
 


Acepte el directorio de Inventario por defecto.
Deshabilita correr script de root automaticamente. Y presiona “Siguiente”.

Ahora solo queda esperar a que el instalador compruebe todos requisitos. Si hay algun error, presiona “Fix and Check Again” una vez los posible errores hayan sido solventados selecciona “Ignore All” y presiona “Siguiente”.
NOTA: Lo mejor es ignorar ciertas advertencias como “Memoria Fisica” y “Revision para Dispositivos ASM”, otro tipo de advertencias o errores sera mejor repararlos antes de continuar.
Espere mientras la instalacion tome lugar.
 
Luego, corre los scripts de configuracion para cada nodo.

 
La salida de "orainstRoot.sh" deberia ser parecida a esta:
# /u01/app/oraInventory/orainstRoot.sh
Changing permissions of /u01/app/oraInventory.
Adding read,write permissions for group.
Removing read,write,execute permissions for world.

Changing groupname of /u01/app/oraInventory to oinstall.
The execution of the script is complete.
#
El instalador debe completar la ejecucion de todos los scripts


 
Luego solo presiona “Cerrar” (Close)

Ya que la infraestructura ha sido satisfactoriamente instalada, podemos revisar el estatus:

$ grid_env
$ crsctl stat res -t
--------------------------------------------------------------------------------
Name           Target  State        Server                   State details       
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
               ONLINE  ONLINE       rac1	               STABLE
               ONLINE  ONLINE       rac2            	 STABLE
ora.LISTENER.lsnr
               ONLINE  ONLINE       rac1	                STABLE
               ONLINE  ONLINE       rac2                            STABLE
ora.asm
               ONLINE  ONLINE       rac1 	                Started,STABLE
               ONLINE  ONLINE       rac2	                Started,STABLE
ora.net1.network
               ONLINE  ONLINE       rac1		  STABLE
               ONLINE  ONLINE       rac2	                STABLE
ora.ons
               ONLINE  ONLINE       rac1	                STABLE
               ONLINE  ONLINE       rac2	                STABLE
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
      1        ONLINE  ONLINE       rac2	                 STABLE
ora.LISTENER_SCAN2.lsnr
      1        ONLINE  ONLINE       rac1	                 STABLE
ora.LISTENER_SCAN3.lsnr
      1        ONLINE  ONLINE       rac1		   STABLE
ora.MGMTLSNR
      1        ONLINE  ONLINE       rac1	                 169.254.255.49 192.1
                                                             68.1.101,STABLE
ora.cvu
      1        ONLINE  ONLINE       rac1	                 STABLE
ora.mgmtdb
      1        ONLINE  ONLINE       rac1	                 Open,STABLE
ora.oc4j
      1        ONLINE  ONLINE       rac1	                 STABLE
ora.rac1.vip
      1        ONLINE  ONLINE       rac1	                 STABLE
ora.rac2.vip
      1        ONLINE  ONLINE       rac2	                 STABLE
ora.scan1.vip
      1        ONLINE  ONLINE       rac2	                 STABLE
ora.scan2.vip
      1        ONLINE  ONLINE       rac1	                 STABLE
ora.scan3.vip
      1        ONLINE  ONLINE       rac1	                 STABLE

 






Leer nota completa...