配置Oracle RAC时修改/etc/hosts文件的注意事项

首先,我们的问题是:在部署Oracle RAC的时候为什么需要修改/etc/hosts文件? 或者具体的说,我们在Linux平台部署Oracle RAC时为什么需要将/etc/hosts文件里的环路地址修改为
        127.0.0.1               localhost
格式? 当然,不同操作系统平台需要修改的hosts文件名称和位置,依赖于操作系统本身。如:Windows下需要修改的是C:\Windows\System32\drivers\etc\hosts文件。

接下来,要想搞清楚这个问题不难,了解一些网络相关的基础知识即可。
我们知道,在一个网络环境中,我们可以通过IP地址去精确访问某个网络设备[如主机、pc、打印机],也可以通过这个设备名来访问该设备。
通过IP地址去定位某个设备时,如果网络未遭受诸如ARP攻击的话,则通常都不会出现问题。关于ARP问题不是本篇重点,不再赘述。
而要想通过主机名去访问时,就需要有某种转换规则可以正确的将主机名称与IP地址成功映射。
这种转换规则通常可以有3种途径:
1 hosts配置文件;
2 NIS[Network Information System|Service],网络信息服务,或者称之为”网络黄页”;
3 DNS[Domain Name System],域名系统。

在没有配置NIS、DNS的网络环境下,/etc/hosts文件则成为我们通过主机名来访问该主机的唯一选择了。
这个配置文件里记录着网络中每一台主机名与其对应的IP地址,而且如果出现某个主机名对应多个IP的话,则只有第一条记录生效,可以用于正确的解析主机名,在解析过程中,后面出现的记录将被忽略。该文件的配置格式如下:
        IP Address    hostname    aliases

看个例子,如果保留默认情况下的环路地址:

[root@node1 ~]# hostname 
node1.oracleonlinux.cn
[root@node1 ~]# cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1       node1.oracleonlinux.cn  node1 localhost.localdomain localhost localhost
::1             localhost6.localdomain6 localhost6

# public
172.16.0.33     node1.oracleonlinux.cn       node1
172.16.0.34     node2.oracleonlinux.cn       node2

# private
192.168.94.11   node1-priv.oracleonlinux.cn  node1-priv
192.168.94.12   node2-priv.oracleonlinux.cn  node2-priv

# virtual
172.16.0.35     node1-vip.oracleonlinux.cn   node1-vip
172.16.0.36     node2-vip.oracleonlinux.cn   node2-vip

# scan-ip
172.16.0.223            scan-cluster.oracleonlinux.cn
[root@node1 ~]# ping node1
PING node1.oracleonlinux.cn (127.0.0.1) 56(84) bytes of data.
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=1 ttl=64 time=0.028 ms
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=2 ttl=64 time=0.043 ms
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=3 ttl=64 time=0.041 ms
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=4 ttl=64 time=0.039 ms

--- node1.oracleonlinux.cn ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3001ms
rtt min/avg/max/mdev = 0.028/0.037/0.043/0.009 ms
[root@node1 ~]# ping node1.oracleonlinux.cn
PING node1.oracleonlinux.cn (127.0.0.1) 56(84) bytes of data.
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=1 ttl=64 time=0.031 ms
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=2 ttl=64 time=0.042 ms
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=3 ttl=64 time=0.044 ms
64 bytes from node1.oracleonlinux.cn (127.0.0.1): icmp_seq=4 ttl=64 time=0.043 ms

--- node1.oracleonlinux.cn ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 2999ms
rtt min/avg/max/mdev = 0.031/0.040/0.044/0.005 ms
[root@node1 ~]#

我们修改默认环路地址后:

[root@node1 ~]# cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1       localhost
::1             localhost6.localdomain6 localhost6

# public
172.16.0.33     node1.oracleonlinux.cn       node1
172.16.0.34     node2.oracleonlinux.cn       node2

# private
192.168.94.11   node1-priv.oracleonlinux.cn  node1-priv
192.168.94.12   node2-priv.oracleonlinux.cn  node2-priv

# virtual
172.16.0.35     node1-vip.oracleonlinux.cn   node1-vip
172.16.0.36     node2-vip.oracleonlinux.cn   node2-vip

# scan-ip
172.16.0.223            scan-cluster.oracleonlinux.cn
[root@node1 ~]# ping node1
PING node1.oracleonlinux.cn (172.16.0.33) 56(84) bytes of data.
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=1 ttl=64 time=0.026 ms
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=2 ttl=64 time=0.040 ms
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=3 ttl=64 time=0.050 ms
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=4 ttl=64 time=0.034 ms

--- node1.oracleonlinux.cn ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3000ms
rtt min/avg/max/mdev = 0.026/0.037/0.050/0.010 ms
[root@node1 ~]# ping node1.oracleonlinux.cn
PING node1.oracleonlinux.cn (172.16.0.33) 56(84) bytes of data.
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=1 ttl=64 time=0.038 ms
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=2 ttl=64 time=0.044 ms
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=3 ttl=64 time=0.047 ms
64 bytes from node1.oracleonlinux.cn (172.16.0.33): icmp_seq=4 ttl=64 time=0.041 ms

--- node1.oracleonlinux.cn ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3001ms
rtt min/avg/max/mdev = 0.038/0.042/0.047/0.007 ms
[root@node1 ~]#

最后,看完之后,你有答案了吗?现在你知道了部署Oracle RAC时为什么需要将/etc/hosts文件里的环路地址修改为

           127.0.0.1  localhost

格式吗?

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(附录)

21 脚本附录

1preuser_dir.sh

[root@node1 shell]# cat 1preuser_dir.sh 

#!/bin/bash

#Purpose:Create two groups named ‘oinstall’ and ‘dba’, plus a user named ‘oracle’.Also setting the Environment

#variable for oracle user.

#Usage:Log on as the superuser(‘root’),and then execute the command:#./1preuser.sh

#Author:Asher Huang

 

echo “Now create two groups named ‘oinstall’ and ‘dba’, plus a user named ‘oracle’.Also setting the Environment”

 

groupadd oinstall 

groupadd dba

 

echo “Now create the necessary directory for oracle user and change the authention to oracle user…”

useradd -d /home/oracle -g oinstall -G dba  -c “Oracle software owner”  oracle

echo “oracle” | passwd –stdin oracle

echo ‘export PS1=”`/bin/hostname -s`-> “‘>>/home/oracle/.bash_profile

echo “export EDITOR=vi” >> /home/oracle/.bash_profile

echo “export ORACLE_SID=devdb1”  >> /home/oracle/.bash_profile

echo “export ORACLE_BASE=/u01/app/oracle” >> /home/oracle/.bash_profile

echo ‘export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1’ >> /home/oracle/.bash_profile

echo ‘export ORA_CRS_HOME=$ORACLE_BASE/product/10.2.0/crs_1’ >> /home/oracle/.bash_profile

echo ‘export LD_LIBRARY_PATH=$ORACLE_HOME/lib’ >> /home/oracle/.bash_profile

echo ‘export PATH=$ORACLE_HOME/bin:$ORA_CRS_HOME/bin:/bin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/X11R6/bin’>> /home/oracle/.bash_profile

echo “umask 022”>>/home/oracle/.bash_profile 

echo “export NLS_LANG=american_america.AL32UTF8” >> /home/oracle/.bash_profile

echo “export LANG=en_US” >> /home/oracle/.bash_profile

 

echo “The two groups named ‘oinstall’ and ‘dba’ plus the oracle user has been created.”

echo “The Environment variable for oracle user also has been setted sussessfully.”

[root@node1 shell]# 

2predir.sh

[root@node1 shell]# cat 2predir.sh 

#!/bin/bash

#Purpose:Create the necessary directory for oracle user and change the authention to oracle user.

#Usage:Log on as the superuser(‘root’),and then execute the command:#./2predir.sh

#Author:Asher Huang

 

echo “Now create the necessary directory for oracle user and change the authention to oracle user…”

mkdir -p /u01/app/oracle

chown -R oracle:oinstall /u01

echo “The necessary directory for oracle user and change the authention to oracle user has been finished”

 

[root@node1 shell]# 

3prelimits.sh

[root@node1 shell]# cat 3prelimits.sh 

#!/bin/bash

#Purpose:Change the /etc/security/limits.conf.

#Usage:Log on as the superuser(‘root’),and then execute the command:#./3prelimits.sh

#Author:Asher Huang

 

 

echo “Now modify the /etc/security/limits.conf,but backup it named /etc/security/limits.conf.bak before”

cp /etc/security/limits.conf /etc/security/limits.conf.bak

echo “oracle soft nproc 2047” >>/etc/security/limits.conf

echo “oracle hard nproc 16384” >>/etc/security/limits.conf

echo “oracle soft nofile 1024” >>/etc/security/limits.conf

echo “oracle hard nofile 65536” >>/etc/security/limits.conf

echo “Modifing the /etc/security/limits.conf has been succeed.”

 

[root@node1 shell]# 

4prelogin.sh

[root@node1 shell]# cat 4prelogin.sh 

#!/bin/bash

#Purpose:Modify the /etc/pam.d/login.

#Usage:Log on as the superuser(‘root’),and then execute the command:#./4prelimits.sh

#Author:Asher Huang

 

echo “Now modify the /etc/pam.d/login,but with a backup named /etc/pam.d/login.bak”

cp /etc/pam.d/login /etc/pam.d/login.bak

echo “session required /lib/security/pam_limits.so” >>/etc/pam.d/login

echo “session required pam_limits.so” >>/etc/pam.d/login

echo “Modifing the /etc/pam.d/login has been succeed.”

 

[root@node1 shell]# 

5preprofile.sh

[root@node1 shell]# cat 5preprofile.sh 

#!/bin/bash

#Purpose:Modify the /etc/profile.

#Usage:Log on as the superuser(‘root’),and then execute the command:#./5preprofile.sh

#Author:Asher Huang

 

echo “Now modify the  /etc/profile,but with a backup named  /etc/profile.bak”

cp /etc/profile /etc/profile.bak

echo ‘if [ $USER = “oracle” ]; then’ >>  /etc/profile

echo ‘if [ $SHELL = “/bin/ksh” ]; then’ >> /etc/profile

echo ‘ulimit -p 16384’ >> /etc/profile

echo ‘ulimit -n 65536’ >> /etc/profile

echo ‘else’ >> /etc/profile

echo ‘ulimit -u 16384 -n 65536’ >> /etc/profile

echo ‘fi’ >> /etc/profile

echo ‘fi’ >> /etc/profile

echo “Modifing the /etc/profile has been succeed.”

 

[root@node1 shell]# 

6presysctl.sh

[root@node1 shell]# cat 6presysctl.sh 

#!/bin/bash

#Purpose:Modify the /etc/sysctl.conf.

#Usage:Log on as the superuser(‘root’),and then execute the command:#./6presysctl.sh

#Author:Asher Huang

 

echo “Now modify the /etc/sysctl.conf,but with a backup named /etc/sysctl.bak”

cp /etc/sysctl.conf /etc/sysctl.conf.bak

echo “fs.file-max = 65536” >> /etc/sysctl.conf

echo “kernel.sem = 250 32000 100 128” >> /etc/sysctl.conf

echo “kernel.shmall = 2097152” >> /etc/sysctl.conf

echo “kernel.shmmni = 4096” >> /etc/sysctl.conf

echo “kernel.shmmax = 2147483648” >> /etc/sysctl.conf

echo “net.core.rmem_default=1048576” >> /etc/sysctl.conf

echo “net.core.rmem_max=1048576” >> /etc/sysctl.conf

echo “net.core.wmem_default=262144” >> /etc/sysctl.conf

echo “net.core.wmem_max=262144” >> /etc/sysctl.conf

echo “net.ipv4.ip_local_port_range = 1024 65000” >> /etc/sysctl.conf

echo “Modifing the /etc/sysctl.conf has been succeed.”

echo “Now make the changes take effect…..”

sysctl -p

[root@node1 shell]# 

 

 

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(8-完)

20 创建ASM磁盘组及RAC数据库

oracle用户在图形界面下,调用dbca命令来执行:

 

Next:

 

Next:

 

Next:

指定SYS用户口令:oracle

PFILE{ORACLE_BASE}/admin/+ASM/pfile/init.ora

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

这里可能提示找不到磁盘:在搜索路径中给出事先创建出来的ASM磁盘的绝对路径:

[root@node1 ~]# ll /dev/oracleasm/disks/

total 0

brw-rw—- 1 oracle oinstall 8, 49 Dec 21 23:02 ASMDISK1

brw-rw—- 1 oracle oinstall 8, 65 Dec 21 23:02 ASMDISK2

[root@node1 ~]# 

 

 

Next:

键入磁盘组名data,外部冗余策略,选择第一块磁盘。

Next:

 

Next:

 

Next:

单击Create new 继续创建第2块磁盘:

 

Next:

 

Next:

 

Next:

至此,ASM磁盘组创建完毕。可以从SQL*PLUS里查看相关信息:

[root@node1 ~]# su – oracle

node1-> hostname 

node1.oracleonlinux.cn

node1-> . oraenv

ORACLE_SID = [devdb1] ? +ASM1

node1-> sqlplus / as sysdba

 

SQL*Plus: Release 10.2.0.5.0 – Production on Sun Dec 22 10:38:04 2013

 

Copyright (c) 1982, 2010, Oracle.  All Rights Reserved.

 

 

Connected to:

Oracle Database 10g Enterprise Edition Release 10.2.0.5.0 – 64bit Production

With the Partitioning, Real Application Clusters, OLAP, Data Mining

and Real Application Testing options

 

SQL> col name for a10

SQL> select name,state,total_mb,free_mb from v$asm_disk;  

 

 

NAME       STATE                      TOTAL_MB    FREE_MB

———- ———————— ———- ———-

FRA_0000   NORMAL                         3067       2974

DATA_0000  NORMAL                         3067       2974

 

SQL> select name,state,total_mb,free_mb from v$asm_diskgroup;

 

NAME       STATE                               TOTAL_MB    FREE_MB

———- ——————————— ———- ———-

DATA       MOUNTED                                 3067       2974

FRA        MOUNTED                                 3067       2974

 

SQL> 

 

单击Finish!选择继续执行其它操作。

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

 

Next:


Next:

 

 

Next:


Next:

 

Next:


Next:

 

Next:

 

Next:

 

至此,我们完成对RAC数据库的创建!

 

至此,我们一步一步完成在OEL5.5 X86_64机器上安装Oracle 10gR2 RAC数据库,并将数据库升级至10.2.0.5.0版本!!!!!

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(7)

19 创建监听

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

Next:

 

至此,RAC监听配置完成!

Node1:

node1-> lsnrctl status

 

LSNRCTL for Linux: Version 10.2.0.5.0 – Production on 22-DEC-2013 10:09:49

 

Copyright (c) 1991, 2010, Oracle.  All rights reserved.

 

Connecting to (ADDRESS=(PROTOCOL=tcp)(HOST=)(PORT=1521))

STATUS of the LISTENER

————————

Alias                     LISTENER_NODE1

Version                   TNSLSNR for Linux: Version 10.2.0.5.0 – Production

Start Date                22-DEC-2013 10:08:55

Uptime                    0 days 0 hr. 0 min. 53 sec

Trace Level               off

Security                  ON: Local OS Authentication

SNMP                      OFF

Listener Parameter File   /u01/app/oracle/product/10.2.0/db_1/network/admin/listener.ora

Listener Log File         /u01/app/oracle/product/10.2.0/db_1/network/log/listener_node1.log

Listening Endpoints Summary…

  (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=172.16.0.35)(PORT=1521)))

  (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=172.16.0.33)(PORT=1521)))

Services Summary…

Service “PLSExtProc” has 1 instance(s).

  Instance “PLSExtProc”, status UNKNOWN, has 1 handler(s) for this service…

The command completed successfully

node1-> 

 

Node2:

node2-> lsnrctl status

 

LSNRCTL for Linux: Version 10.2.0.5.0 – Production on 22-DEC-2013 10:11:06

 

Copyright (c) 1991, 2010, Oracle.  All rights reserved.

 

Connecting to (ADDRESS=(PROTOCOL=tcp)(HOST=)(PORT=1521))

STATUS of the LISTENER

————————

Alias                     LISTENER_NODE2

Version                   TNSLSNR for Linux: Version 10.2.0.5.0 – Production

Start Date                22-DEC-2013 10:08:56

Uptime                    0 days 0 hr. 2 min. 9 sec

Trace Level               off

Security                  ON: Local OS Authentication

SNMP                      OFF

Listener Parameter File   /u01/app/oracle/product/10.2.0/db_1/network/admin/listener.ora

Listener Log File         /u01/app/oracle/product/10.2.0/db_1/network/log/listener_node2.log

Listening Endpoints Summary…

  (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=172.16.0.36)(PORT=1521)))

  (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=172.16.0.34)(PORT=1521)))

Services Summary…

Service “PLSExtProc” has 1 instance(s).

  Instance “PLSExtProc”, status UNKNOWN, has 1 handler(s) for this service…

The command completed successfully

node2-> 

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(6)

18 升级oracle软件


Next;

Next,注意选择对应的oracle软件,而不再是clusterware.

 

Next:

 

Next:

 

Next:根据提示再次将ip_local_port_range=1024 – 65000.

修改为 ip_local_port_range=9000 – 65500; 

 

Next:

 

Next:

 

Next:

 

Next:

根据提示执行:/u01/app/oracle/product/10.2.0/db_1/root.sh

节点1

 

[root@node1 ~]# /u01/app/oracle/product/10.2.0/db_1/root.sh

Running Oracle 10g root.sh script…

 

The following environment variables are set as:

    ORACLE_OWNER= oracle

    ORACLE_HOME=  /u01/app/oracle/product/10.2.0/db_1

 

Enter the full pathname of the local bin directory: [/usr/local/bin]: 

The file “dbhome” already exists in /usr/local/bin.  Overwrite it? (y/n) 

[n]: 

The file “oraenv” already exists in /usr/local/bin.  Overwrite it? (y/n) 

[n]: 

The file “coraenv” already exists in /usr/local/bin.  Overwrite it? (y/n) 

[n]: 

 

Entries will be added to the /etc/oratab file as needed by

Database Configuration Assistant when a database is created

Finished running generic part of root.sh script.

Now product-specific root actions will be performed.

 

[root@node1 ~]# 

 

节点2

 

[root@node2 ~]# /u01/app/oracle/product/10.2.0/db_1/root.sh

Running Oracle 10g root.sh script…

 

The following environment variables are set as:

    ORACLE_OWNER= oracle

    ORACLE_HOME=  /u01/app/oracle/product/10.2.0/db_1

 

Enter the full pathname of the local bin directory: [/usr/local/bin]: 

The file “dbhome” already exists in /usr/local/bin.  Overwrite it? (y/n) 

[n]: 

The file “oraenv” already exists in /usr/local/bin.  Overwrite it? (y/n) 

[n]: 

The file “coraenv” already exists in /usr/local/bin.  Overwrite it? (y/n) 

[n]: 

 

Entries will be added to the /etc/oratab file as needed by

Database Configuration Assistant when a database is created

Finished running generic part of root.sh script.

Now product-specific root actions will be performed.

 

[root@node2 ~]# 

Next:

 

Next:

至此,已经完成对RAC双节点的Oracle软件的升级!!!

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(5)

17 安装oracle软件

Oracle用户登录图形界面,执行安装介质中的10201_databse_inux-x86-64来进行。

 

Next

 

Next

 

Next:这里需要注意指定oracle软件的家目录,即/u01/app/oracle/product/10.2.0/db_1

 

Next:选中所有节点

 

Next

 

根据提示,重新将双节点的 ip_local_port_range=9000 – 65500.

修改为ip_local_port_range=1024 – 65000

Next

 

Next:选中只安装软件;

 

Next

 

 

Next

 

Next

 

 

Next

根据提示,分别以root用户在双节点上执行:/u01/app/oracle/product/10.2.0/db_1/root.sh

Node1

[root@node1 ~]# /u01/app/oracle/product/10.2.0/db_1/root.sh

Running Oracle10 root.sh script…

 

The following environment variables are set as:

    ORACLE_OWNER= oracle

    ORACLE_HOME=  /u01/app/oracle/product/10.2.0/db_1

 

Enter the full pathname of the local bin directory: [/usr/local/bin]: 

   Copying dbhome to /usr/local/bin …

   Copying oraenv to /usr/local/bin …

   Copying coraenv to /usr/local/bin …

 

 

Creating /etc/oratab file…

Entries will be added to the /etc/oratab file as needed by

Database Configuration Assistant when a database is created

Finished running generic part of root.sh script.

Now product-specific root actions will be performed.

 

[root@node1 ~]# 

 

Node2

[root@node2 ~]# /u01/app/oracle/product/10.2.0/db_1/root.sh

Running Oracle10 root.sh script…

 

The following environment variables are set as:

    ORACLE_OWNER= oracle

    ORACLE_HOME=  /u01/app/oracle/product/10.2.0/db_1

 

Enter the full pathname of the local bin directory: [/usr/local/bin]: 

   Copying dbhome to /usr/local/bin …

   Copying oraenv to /usr/local/bin …

   Copying coraenv to /usr/local/bin …

 

 

Creating /etc/oratab file…

Entries will be added to the /etc/oratab file as needed by

Database Configuration Assistant when a database is created

Finished running generic part of root.sh script.

Now product-specific root actions will be performed.

 

[root@node2 ~]# 

Next

 

完成,在双节点上安装Oracle数据库软件!

node1-> hostname 

node1.oracleonlinux.cn

node1-> env|grep ORA

ORA_CRS_HOME=/u01/app/oracle/product/10.2.0/crs_1

ORACLE_SID=devdb1

ORACLE_BASE=/u01/app/oracle

ORACLE_HOME=/u01/app/oracle/product/10.2.0/db_1

node1-> sqlplus / as sysdba

 

SQL*Plus: Release 10.2.0.1.0 – Production on Sat Dec 21 23:38:16 2013

 

Copyright (c) 1982, 2005, Oracle.  All rights reserved.

 

Connected to an idle instance.

 

SQL> !       

node1-> ssh node2

node2-> env|grep ORA

ORA_CRS_HOME=/u01/app/oracle/product/10.2.0/crs_1

ORACLE_SID=devdb2

ORACLE_BASE=/u01/app/oracle

ORACLE_HOME=/u01/app/oracle/product/10.2.0/db_1

node2-> sqlplus / as sysdba

 

SQL*Plus: Release 10.2.0.1.0 – Production on Sat Dec 21 23:38:50 2013

 

Copyright (c) 1982, 2005, Oracle.  All rights reserved.

 

Connected to an idle instance.

 

SQL> 

 

 

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(4)

16 升级clusterware软件

升级之前,查看CRS版本:

Node1

[root@node1 ~]# su – oracle

node1-> hostname 

node1.oracleonlinux.cn

node1-> crs_stat -t

Name           Type           Target    State     Host        

————————————————————

ora.node1.gsd  application    ONLINE    ONLINE    node1       

ora.node1.ons  application    ONLINE    ONLINE    node1       

ora.node1.vip  application    ONLINE    ONLINE    node1       

ora.node2.gsd  application    ONLINE    ONLINE    node2       

ora.node2.ons  application    ONLINE    ONLINE    node2       

ora.node2.vip  application    ONLINE    ONLINE    node2       

node1-> crsctl query crs softwareversion

CRS software version on node [node1] is [10.2.0.1.0]

node1-> 

node1-> crsctl query crs activeversion

CRS active version on the cluster is [10.2.0.1.0]

node1-> 

Node2

 

执行升级:

执行安装介质中的p8202632_10205_Linux-x86-64来给集群件打patch

Oracle用户在图形界面调用/mnt/p8202632_10205_Linux-x86-64/Disk1/runInstaller 来执行:

 

进入升级操作:

 

Next

注意选择正确的cluster_name,以及clusterware软件的home

 

Next

 

Next

 

预检查未通过,根据提示,以root用户在双节点上将/etc/sysctl.conf配置文件中的

fs.file-max = 65536修改为fs.file-max = 101365

net.ipv4.ip_local_port_range=1024 – 65000.修改为net.ipv4.ip_local_port_range=9000 – 65500

并执行sysctl -p 来使之生效。

 

 

然后,单击Retry,确保预检查通过:

 

Next

 

 Install,开始安装:

 

 

Note:

Because the software consists of local identical copies distributed across each of the nodes in the cluster, it is possible to patch your CRS installation in a rolling manner, one node at a time.

 

To complete the installation of this patchset, you must perform the following tasks on each node:

 

1.Log in as the root user.

2.As the root user, perform the following tasks:

 

a.Shutdown the CRS daemons by issuing the following command:

/u01/app/oracle/product/10.2.0/crs_1/bin/crsctl stop crs

b.Run the shell script located at:

/u01/app/oracle/product/10.2.0/crs_1/install/root102.sh

This script will automatically start the CRS daemons on the

patched node upon completion.

 

3.After completing this procedure, proceed to the next node and repeat.

根据上述提示,以滚动方式来对CRS升级,即先升级其中的一个节点,然后再升级其它的节点。

Node1:

root用户执行/u01/app/oracle/product/10.2.0/crs_1/bin/crsctl stop crs

[root@node1 ~]# /u01/app/oracle/product/10.2.0/crs_1/bin/crsctl stop crs

Stopping resources.

Successfully stopped CRS resources 

Stopping CSSD.

Shutting down CSS daemon.

Shutdown request successfully issued.

[root@node1 ~]# 

root用户执行/u01/app/oracle/product/10.2.0/crs_1/install/root102.sh

[root@node1 ~]# /u01/app/oracle/product/10.2.0/crs_1/install/root102.sh

Creating pre-patch directory for saving pre-patch clusterware files

Completed patching clusterware files to /u01/app/oracle/product/10.2.0/crs_1

Relinking some shared libraries.

Relinking of patched files is complete.

WARNING: directory ‘/u01/app/oracle/product/10.2.0’ is not owned by root

WARNING: directory ‘/u01/app/oracle/product’ is not owned by root

WARNING: directory ‘/u01/app/oracle’ is not owned by root

WARNING: directory ‘/u01/app’ is not owned by root

WARNING: directory ‘/u01’ is not owned by root

Preparing to recopy patched init and RC scripts.

Recopying init and RC scripts.

Startup will be queued to init within 30 seconds.

Starting up the CRS daemons.

Waiting for the patched CRS daemons to start.

  This may take a while on some systems.

.

10205 patch successfully applied.

clscfg: EXISTING configuration version 3 detected.

clscfg: version 3 is 10G Release 2.

Successfully deleted 1 values from OCR.

Successfully deleted 1 keys from OCR.

Successfully accumulated necessary OCR keys.

Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.

node <nodenumber>: <nodename> <private interconnect name> <hostname>

node 1: node1 node1-priv node1

Creating OCR keys for user ‘root’, privgrp ‘root’..

Operation successful.

clscfg -upgrade completed successfully

Creating ‘/u01/app/oracle/product/10.2.0/crs_1/install/paramfile.crs’ with data used for CRS configuration

Setting CRS configuration values in /u01/app/oracle/product/10.2.0/crs_1/install/paramfile.crs

[root@node1 ~]# 

同理,在节点2上执行上述操作!

升级后,双节点上的CRS都从10.2.0.1.0升级到10.2.0.5.0

 

 

 

至此,我们已经在双节点上将CRS版本已经升级至10.2.0.5.0!!!

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(3)

15 安装clusterware软件

Note

由于oracle 10g早在10年前,即2003年就发布了,而Redhat Enterprise Linux 5的发布日期要晚于oracle 10g发布,所以,默认情况下Oracle 10g 不支持在Redhat Enterprise Linux 5及以上版本上安装。所以,解决方案:

可以通过修改/etc/redhat-release 文件;

在安装的过程中,执行runInstaller 加上–ignoreSysPreReqs选项;

这里采取第一种方法。

修改前:

[root@node1 /]# cat /etc/redhat-release 

Red Hat Enterprise Linux Server release 5.5 (Tikanga)

[root@node1 /]#

修改后:

[root@node1 /]# cat /etc/redhat-release 

Red Hat Enterprise Linux Server release 4 (Tikanga)

[root@node1 /]#

 

将安装介质挂载到光驱上,然后挂载光盘到/mnt

[root@node1 /]# mount /dev/cdrom /mnt/

mount: block device /dev/cdrom is write-protected, mounting read-only

[root@node1 /]# 

Oracle用户登录图形界面:

 

根据提示,以root用户在双节点上执行rootpre.sh脚本:

[root@node1 rootpre]# pwd

/mnt/10201_clusterware_linux_x86_64/rootpre

[root@node1 rootpre]# sh rootpre.sh 

No OraCM running 

[root@node1 rootpre]# 

继续安装:

 

提示错误,缺少libXp软件包,root用户到OS安装光盘中重新安装缺少的软件包:

[root@node1 media]# rpm -ivh libXp-1.0.0-8.1.el5.i386.rpm 

warning: libXp-1.0.0-8.1.el5.i386.rpm: Header V3 DSA signature: NOKEY, key ID 1e5e0159

Preparing…                ########################################### [100%]

   1:libXp                  ########################################### [100%]

[root@node1 media]# rpm -ivh libXp-1.0.0-8.1.el5.x86_64.rpm 

warning: libXp-1.0.0-8.1.el5.x86_64.rpm: Header V3 DSA signature: NOKEY, key ID 1e5e0159

Preparing…                ########################################### [100%]

   1:libXp                  ########################################### [100%]

[root@node1 media]# 

Note

node2节点上也要安装缺失的软件包!

重新执行:

node1-> sh /mnt/10201_clusterware_linux_x86_64/runInstaller 

来安装:

 

Next

 

Next

 

注意path指向ORA_CRS_HOME=/u01/app/oracle/product/10.2.0/crs_1,以及指定cluster_name=crs.  Next:

 

添加节点信息:

 

修改eth0网卡作为publicNext

 

指定OCR为外部冗余策略,并选择存放路径为/dev/raw/raw1Next

 

指定Voting disk为外部冗余策略,并选择存放路径为/dev/raw/raw2Next

 

Install开始安装:

 

Next

 

Next

 

根据提示执行以root用户分别在2个节点上执行/u01/app/oracle/oraInventory/orainstRoot.sh 

/u01/app/oracle/product/10.2.0/crs_1/root.sh脚本:

Node1:

[root@node1 ~]# /u01/app/oracle/oraInventory/orainstRoot.sh

Changing permissions of /u01/app/oracle/oraInventory to 770.

Changing groupname of /u01/app/oracle/oraInventory to oinstall.

The execution of the script is complete

[root@node1 ~]# /u01/app/oracle/product/10.2.0/crs_1/root.sh

WARNING: directory ‘/u01/app/oracle/product/10.2.0’ is not owned by root

WARNING: directory ‘/u01/app/oracle/product’ is not owned by root

WARNING: directory ‘/u01/app/oracle’ is not owned by root

WARNING: directory ‘/u01/app’ is not owned by root

WARNING: directory ‘/u01’ is not owned by root

Checking to see if Oracle CRS stack is already configured

/etc/oracle does not exist. Creating it now.

 

Setting the permissions on OCR backup directory

Setting up NS directories

Oracle Cluster Registry configuration upgraded successfully

WARNING: directory ‘/u01/app/oracle/product/10.2.0’ is not owned by root

WARNING: directory ‘/u01/app/oracle/product’ is not owned by root

WARNING: directory ‘/u01/app/oracle’ is not owned by root

WARNING: directory ‘/u01/app’ is not owned by root

WARNING: directory ‘/u01’ is not owned by root

Successfully accumulated necessary OCR keys.

Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.

node <nodenumber>: <nodename> <private interconnect name> <hostname>

node 1: node1 node1-priv node1

node 2: node2 node2-priv node2

Creating OCR keys for user ‘root’, privgrp ‘root’..

Operation successful.

Now formatting voting device: /dev/raw/raw2

Format of 1 voting devices complete.

Startup will be queued to init within 90 seconds.

Adding daemons to inittab

Expecting the CRS daemons to be up within 600 seconds.

CSS is active on these nodes.

        node1

CSS is inactive on these nodes.

        node2

Local node checking complete.

Run root.sh on remaining nodes to start CRS daemons.

[root@node1 ~]# 

Node2:

[root@node2 ~]# /u01/app/oracle/oraInventory/orainstRoot.sh

Changing permissions of /u01/app/oracle/oraInventory to 770.

Changing groupname of /u01/app/oracle/oraInventory to oinstall.

The execution of the script is complete

[root@node2 ~]#

 

[root@node2 ~]# /u01/app/oracle/product/10.2.0/crs_1/root.sh

WARNING: directory ‘/u01/app/oracle/product/10.2.0’ is not owned by root

WARNING: directory ‘/u01/app/oracle/product’ is not owned by root

WARNING: directory ‘/u01/app/oracle’ is not owned by root

WARNING: directory ‘/u01/app’ is not owned by root

WARNING: directory ‘/u01’ is not owned by root

Checking to see if Oracle CRS stack is already configured

/etc/oracle does not exist. Creating it now.

 

Setting the permissions on OCR backup directory

Setting up NS directories

Oracle Cluster Registry configuration upgraded successfully

WARNING: directory ‘/u01/app/oracle/product/10.2.0’ is not owned by root

WARNING: directory ‘/u01/app/oracle/product’ is not owned by root

WARNING: directory ‘/u01/app/oracle’ is not owned by root

WARNING: directory ‘/u01/app’ is not owned by root

WARNING: directory ‘/u01’ is not owned by root

clscfg: EXISTING configuration version 3 detected.

clscfg: version 3 is 10G Release 2.

Successfully accumulated necessary OCR keys.

Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.

node <nodenumber>: <nodename> <private interconnect name> <hostname>

node 1: node1 node1-priv node1

node 2: node2 node2-priv node2

clscfg: Arguments check out successfully.

 

NO KEYS WERE WRITTEN. Supply -force parameter to override.

-force is destructive and will destroy any previous cluster

configuration.

Oracle Cluster Registry for cluster has already been initialized

Startup will be queued to init within 90 seconds.

Adding daemons to inittab

Expecting the CRS daemons to be up within 600 seconds.

CSS is active on these nodes.

        node1

        node2

CSS is active on all nodes.

Waiting for the Oracle CRSD and EVMD to start

Oracle CRS stack installed and running under init(1M)

Running vipca(silent) for configuring nodeapps

/u01/app/oracle/product/10.2.0/crs_1/jdk/jre//bin/java: error while loading shared libraries: libpthread.so.0: cannot open shared object file: No such file or directory

[root@node2 ~]# 

 

 

Note

解决上述错误,/u01/app/oracle/product/10.2.0/crs_1/jdk/jre//bin/java: error while loading shared libraries: libpthread.so.0: cannot open shared object file: No such file or directory

其实,这是1bug

在每个节点上,修改$ORA_CRS_HOME/bin目录下的srvctlvipca文件,

vipca文件ARGUMENTS=””165行之前和srvctl文件的export LD_ASSUME_KERNEL 174行之后增加 unset LD_ASSUME_KERNEL 语句;

修改后的$ORA_CRS_HOME/bin/vipca文件:

160       fi

161       export LD_LIBRARY_PATH

162       ;;

163 esac

164 

165 unset LD_ASSUME_KERNEL

166 ARGUMENTS=””

167 NUMBER_OF_ARGUMENTS=$#

修改后的$ORA_CRS_HOME/bin/srvctl文件:

172 #Remove this workaround when the bug 3937317 is fixed

173 LD_ASSUME_KERNEL=2.4.19

174 export LD_ASSUME_KERNEL

175 unset LD_ASSUME_KERNEL

176 

177 # Run ops control utility

178 $JRE $JRE_OPTIONS -classpath $CLASSPATH $TRACE oracle.ops.opsctl.OPSCTLDriver “$@”

179 exit $?

 

在任意一个节点上,用root用户,手动运行vipca,配置完正确的prvipvip 信息之后,crs就可以安装完成。

 

Next

 

填写对应的VIP别名:node1-vip.oracleonlinux.cnnode2-vip.oracleonlinux.cn

 

Next

 

Next

 

然后,继续进行集群软件的安装:

此时单击,Retry:

 

最后,

 

完成clusterware软件的安装!!!

如下

node1-> crs_stat -t

Name           Type           Target    State     Host        

————————————————————

ora.node1.gsd  application    ONLINE    ONLINE    node1       

ora.node1.ons  application    ONLINE    ONLINE    node1       

ora.node1.vip  application    ONLINE    ONLINE    node1       

ora.node2.gsd  application    ONLINE    ONLINE    node2       

ora.node2.ons  application    ONLINE    ONLINE    node2       

ora.node2.vip  application    ONLINE    ONLINE    node2       

node1-> 

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(2)

11 配置共享磁盘

给双节点配置6块共享磁盘。

Note

其中第1块大小为130M,用于存放Oracle 10g R2 RACOCR

其中第2块大小为130M,用于存放Oracle 10g R2 RACVoting Disk

其中第3块大小为3G,用于配置DATA磁盘组,存放数据库。

其中第4块大小为3G,用于配置FRA磁盘组,作为数据库的闪回恢复区,存放归档日志、RMAN备份等。

其中第5块大小为1G,用于将来升级到11gR2 RAC时,给Grid Infrastructure使用。

具体的配置过程,在本文档中就不再一一赘述,但是视频里会给出操作过程。具体可以通过

下述2中方式查看:

查看本人之前的系列视频之《黄伟老师Oracle RAC+DG系列视频+售后安心技术支持服务》第4RAC双节点格式化共享存储,配置ASM磁盘,配置ASM

2 或查看本人系列文章之一步一步在Linux上安装Oracle 11gR2 RAC (3)2.13 配置共享磁盘

12 在共享磁盘上创建分区

这里在每个磁盘上分别创建1个分区,且把磁盘所有空间都用于这1个主分区。

Note:

对共享磁盘分区时,只需要以root用户在任意节点上创建即可,不需要在每个节点上执行!

分区后的信息如下:

Node1:

[root@node1 ~]# fdisk -l

 

Disk /dev/sda: 42.9 GB, 42949672960 bytes

255 heads, 63 sectors/track, 5221 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sda1   *           1        4711    37841076   83  Linux

/dev/sda2            4712        5221     4096575   82  Linux swap / Solaris

 

Disk /dev/sdb: 134 MB, 134217728 bytes

64 heads, 32 sectors/track, 128 cylinders

Units = cylinders of 2048 * 512 = 1048576 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdb1               1         128      131056   83  Linux

 

Disk /dev/sdc: 134 MB, 134217728 bytes

64 heads, 32 sectors/track, 128 cylinders

Units = cylinders of 2048 * 512 = 1048576 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdc1               1         128      131056   83  Linux

 

Disk /dev/sdd: 3221 MB, 3221225472 bytes

255 heads, 63 sectors/track, 391 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdd1               1         391     3140676   83  Linux

 

Disk /dev/sde: 3221 MB, 3221225472 bytes

255 heads, 63 sectors/track, 391 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sde1               1         391     3140676   83  Linux

 

Disk /dev/sdf: 1073 MB, 1073741824 bytes

255 heads, 63 sectors/track, 130 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdf1               1         130     1044193+  83  Linux

[root@node1 ~]# 

Node 2

[root@node2 ~]# fdisk -l

 

Disk /dev/sda: 42.9 GB, 42949672960 bytes

255 heads, 63 sectors/track, 5221 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sda1   *           1        4463    35849016   83  Linux

/dev/sda2            4464        5221     6088635   82  Linux swap / Solaris

 

Disk /dev/sdb: 134 MB, 134217728 bytes

64 heads, 32 sectors/track, 128 cylinders

Units = cylinders of 2048 * 512 = 1048576 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdb1               1         128      131056   83  Linux

 

Disk /dev/sdc: 134 MB, 134217728 bytes

64 heads, 32 sectors/track, 128 cylinders

Units = cylinders of 2048 * 512 = 1048576 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdc1               1         128      131056   83  Linux

 

Disk /dev/sdd: 3221 MB, 3221225472 bytes

255 heads, 63 sectors/track, 391 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdd1               1         391     3140676   83  Linux

 

Disk /dev/sde: 3221 MB, 3221225472 bytes

255 heads, 63 sectors/track, 391 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sde1               1         391     3140676   83  Linux

 

Disk /dev/sdf: 1073 MB, 1073741824 bytes

255 heads, 63 sectors/track, 130 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

 

   Device Boot      Start         End      Blocks   Id  System

/dev/sdf1               1         130     1044193+  83  Linux

[root@node2 ~]# 

节点2上的磁盘分区信息除/dev/sda可能不同之外,其它共享磁盘分区信息应该完全同节点1

13 配置裸设备以存放OCRVoting Disk

由于在Oracle 10g版本里,OCRVoting Disk还不支持存放在ASM磁盘里,所以,这里

需要将/dev/sdb1/dev/sdc1这两个硬盘分区作为裸设备来分别存放OCRVoting Disk

我们将使用udev来管理/dev/sdb1/dev/sdc12个设备:

编辑/etc/udev/rules.d/60-raw.rules 文件:

在其中加入下述内容:

ACTION==”add”, KERNEL==”/dev/sdb1″, RUN+=”/bin/raw /dev/raw/raw1 %N”

ACTION==”add”, ENV{MAJOR}==”8″, ENV{MINOR}==”17″, RUN+=”/bin/raw /dev/raw/raw1 %M %m”

 

ACTION==”add”, KERNEL==”/dev/sdc1″, RUN+=”/bin/raw /dev/raw/raw2 %N”

ACTION==”add”, ENV{MAJOR}==”8″, ENV{MINOR}==”33″, RUN+=”/bin/raw /dev/raw/raw2 %M %m”

 

KERNEL ==”raw[1-2]”, OWNER =”oracle”, GROUP =”oinstall”, MODE =”640″

 

编辑后:

[root@node1 rules.d]# pwd

/etc/udev/rules.d

[root@node1 rules.d]# ll

total 152

-rw-r–r– 1 root root   515 Jul  3  2009 05-udev-early.rules

-rw-r–r– 1 root root   900 Mar 31  2010 40-multipath.rules

-rw-r–r– 1 root root 15647 Jul  3  2009 50-udev.rules

-rw-r–r– 1 root root   471 Jul  3  2009 51-hotplug.rules

-rw-r–r– 1 root root   143 Jul  4  2009 60-net.rules

-rw-r–r– 1 root root  1088 Jun  6  2007 60-pcmcia.rules

-rw-r–r– 1 root root   628 Dec 19 21:23 60-raw.rules

-rw-r–r– 1 root root  9014 Apr  1  2010 60-wacom.rules

-rw-r–r– 1 root root   129 Apr  1  2010 61-uinput-stddev.rules

-rw-r–r– 1 root root   214 Apr  1  2010 61-uinput-wacom.rules

-rw-r–r– 1 root root  1823 Nov  5  2008 85-pcscd_ccid.rules

-rw-r–r– 1 root root   114 Nov  5  2008 90-alsa.rules

-rw-r–r– 1 root root    61 Jul  3  2009 90-dm.rules

-rw-r–r– 1 root root    82 Apr  1  2010 90-hal.rules

-rw-r–r– 1 root root   107 Jul  3  2009 95-pam-console.rules

-rw-r–r– 1 root root   292 Apr  1  2010 98-kexec.rules

-rw-r–r– 1 root root  2319 Jul 15  2008 bluetooth.rules

[root@node1 rules.d]# cat 60-raw.rules 

# Enter raw device bindings here.

#

# An example would be:

#   ACTION==”add”, KERNEL==”sda”, RUN+=”/bin/raw /dev/raw/raw1 %N”

# to bind /dev/raw/raw1 to /dev/sda, or

#   ACTION==”add”, ENV{MAJOR}==”8″, ENV{MINOR}==”1″, RUN+=”/bin/raw /dev/raw/raw2 %M %m”

# to bind /dev/raw/raw2 to the device with major 8, minor 1.

 

ACTION==”add”, KERNEL==”/dev/sdb1″, RUN+=”/bin/raw /dev/raw/raw1 %N”

ACTION==”add”, ENV{MAJOR}==”8″, ENV{MINOR}==”17″, RUN+=”/bin/raw /dev/raw/raw1 %M %m”

 

ACTION==”add”, KERNEL==”/dev/sdc1″, RUN+=”/bin/raw /dev/raw/raw2 %N”

ACTION==”add”, ENV{MAJOR}==”8″, ENV{MINOR}==”33″, RUN+=”/bin/raw /dev/raw/raw2 %M %m”

 

KERNEL ==”raw[1-2]”, OWNER =”oracle”, GROUP =”oinstall”, MODE =”640″

[root@node1 rules.d]# 

关于使用udev来管理Linux下的设备文件,具体可以查看链接:

http://www.ibm.com/developerworks/cn/linux/l-cn-udev/

该部分内容,不是本课程内容,不做过多阐述。

其中的ENV{MAJOR}ENV{MINOR}可以通过下述命令确定:

[root@node1 rules.d]# ll /dev/sd*

brw-r—– 1 root disk 8,  0 Dec 19 16:33 /dev/sda

brw-r—– 1 root disk 8,  1 Dec 19 16:34 /dev/sda1

brw-r—– 1 root disk 8,  2 Dec 19 16:33 /dev/sda2

brw-r—– 1 root disk 8, 16 Dec 19 16:33 /dev/sdb

brw-r—– 1 root disk 8, 17 Dec 19 21:20 /dev/sdb1

brw-r—– 1 root disk 8, 32 Dec 19 16:33 /dev/sdc

brw-r—– 1 root disk 8, 33 Dec 19 21:20 /dev/sdc1

brw-r—– 1 root disk 8, 48 Dec 19 16:33 /dev/sdd

brw-r—– 1 root disk 8, 49 Dec 19 21:20 /dev/sdd1

brw-r—– 1 root disk 8, 64 Dec 19 16:33 /dev/sde

brw-r—– 1 root disk 8, 65 Dec 19 21:20 /dev/sde1

brw-r—– 1 root disk 8, 80 Dec 19 16:33 /dev/sdf

brw-r—– 1 root disk 8, 81 Dec 19 21:20 /dev/sdf1

[root@node1 rules.d]# 

然后,启动udev:

[root@node1 rules.d]# /sbin/udevcontrol reload_rules

[root@node1 rules.d]# /sbin/start_udev 

Starting udev: [  OK  ]

[root@node1 rules.d]# 

 

之后,可以看到/dev/raw下的裸设备文件:

[root@node1 rules.d]# ll /dev/raw/*

crw-r—– 1 oracle oinstall 162, 1 Dec 19 21:31 /dev/raw/raw1

crw-r—– 1 oracle oinstall 162, 2 Dec 19 21:31 /dev/raw/raw2

[root@node1 rules.d]# 

 

Note

上述操作需要在双节点执行!且确保在双节点均可以看到裸设备文件,以及oracle用户具有对裸设备的权限!

 

14 安装asm软件包、创建ASM磁盘

选择与OS内核对应的软件包:

[root@node1 asm]# uname -rm

2.6.18-194.el5 x86_64

[root@node1 asm]# ll

total 244

-rw-r–r– 1 root root 137486 Dec 19 13:50 oracleasm-2.6.18-194.el5-2.0.5-1.el5.x86_64.rpm

-rw-r–r– 1 root root  13929 Dec 19 13:50 oracleasmlib-2.0.4-1.el5.i386.rpm

-rw-r–r– 1 root root  85687 Dec 19 13:50 oracleasm-support-2.1.7-1.el5.i386.rpm

[root@node1 asm]#

安装:

[root@node1 asm]# rpm -ivh oracleasm-support-2.1.7-1.el5.i386.rpm 

warning: oracleasm-support-2.1.7-1.el5.i386.rpm: Header V3 DSA signature: NOKEY, key ID 1e5e0159

Preparing…                ########################################### [100%]

   1:oracleasm-support      ########################################### [100%]

[root@node1 asm]# rpm -ivh oracleasm-2.6.18-194.el5-2.0.5-1.el5.x86_64.rpm 

warning: oracleasm-2.6.18-194.el5-2.0.5-1.el5.x86_64.rpm: Header V3 DSA signature: NOKEY, key ID 1e5e0159

Preparing…                ########################################### [100%]

   1:oracleasm-2.6.18-194.el########################################### [100%]

[root@node1 asm]# rpm -ivh oracleasmlib-2.0.4-1.el5.i386.rpm 

warning: oracleasmlib-2.0.4-1.el5.i386.rpm: Header V3 DSA signature: NOKEY, key ID 1e5e0159

Preparing…                ########################################### [100%]

   1:oracleasmlib           ########################################### [100%]

[root@node1 asm]#

Note

注意安装顺序,先安装oracleasm-support-2.1.7-1.el5.i386.rpm ,然后oracleasm-2.6.18-194.el5-2.0.5-1.el5.x86_64.rpm ,最后oracleasmlib-2.0.4-1.el5.i386.rpm

2 ASM软件包一定要选择与OS内核对应的软件包。

配置ASM驱动:

[root@node1 asm]# /etc/init.d/oracleasm configure

Configuring the Oracle ASM library driver.

 

This will configure the on-boot properties of the Oracle ASM library

driver.  The following questions will determine whether the driver is

loaded on boot and what permissions it will have.  The current values

will be shown in brackets (‘[]’).  Hitting <ENTER> without typing an

answer will keep that current value.  Ctrl-C will abort.

 

Default user to own the driver interface []: oracle

Default group to own the driver interface []: oinstall

Start Oracle ASM library driver on boot (y/n) [n]: y

Scan for Oracle ASM disks on boot (y/n) [y]: y

Writing Oracle ASM library driver configuration: done

Initializing the Oracle ASMLib driver: [  OK  ]

Scanning the system for Oracle ASMLib disks: [  OK  ]

[root@node1 asm]# /etc/init.d/oracleasm status

Checking if ASM is loaded: yes

Checking if /dev/oracleasm is mounted: yes

[root@node1 asm]# 

Note

上述操作需要在双节点上完成!

在配置oracleasm时,要选择正确的用户、用户组,这里是oracleoinstall组。

创建ASM磁盘:

这里选择将/dev/sdd1/dev/sdf1分别创建为ASMDISK1ASMDISK2

[root@node1 asm]# /etc/init.d/oracleasm createdisk ASMDISK1 /dev/sdd1

Marking disk “ASMDISK1” as an ASM disk: [  OK  ]

[root@node1 asm]# /etc/init.d/oracleasm createdisk ASMDISK2 /dev/sde1

Marking disk “ASMDISK2” as an ASM disk: [  OK  ]

[root@node1 asm]# /etc/init.d/oracleasm listdisks

ASMDISK1

ASMDISK2

[root@node1 asm]# 

创建ASM磁盘操作,只需在任意节点上执行即可。然后,再另一节点上执行scandisks:

[root@node2 asm]# /etc/init.d/oracleasm scandisks

Scanning the system for Oracle ASMLib disks: [  OK  ]

[root@node2 asm]# /etc/init.d/oracleasm listdisks

ASMDISK1

ASMDISK2

[root@node2 asm]# 

一步一步在OEL5.5 64位Linux上安装Oracle 10gR2 RAC(1)

概述:

    继本人上一个系列的Oracle 11gR2 RAC+DG项目实战教程发布已一年有余,在此期间,那个系列的教程得到众多网友的喜爱与好评,更是在互联网上畅销不衰。为此,众多网友也一直希望本人推出Oracle 10gR2 RAC的系列教程,恰逢前不久,深圳某客户需要将一套Oracle 10gR2双节点RAC生产数据库升级至Oracle 11gR2 RAC,所以便有了本系列实战的教程。

为更贴切还原生产过程中的实际操作,本系列教程一个分两大部分:

第一部分从零开始一步一步搭建一套在OEL 5.5 X86_64位环境下的双节点10gR2 RAC数据库,并将数据库升级至10.2.0.5.0版本。

第二部分,一步一步将10gR2 RAC升级至Oracle 11gR2 RAC,数据库版本选择11g最新的11.2.0.4.0版本。

 

第一部分主要步骤:

一、准备软件;

二、配置虚拟机;

三、配置/etc/hosts文件;

四、建用户、改口令、修改用户配置文件;

五、建路径、改权限

六、修改/etc/security/limits.conf,配置oraclegrid用户的shell限制

七、修改/etc/pam.d/login配置文件

八、修改/etc/profile文件

九、修改内核配置文件

十、 配置oracle用户SSH对等性

十一、 配置共享磁盘

十二、 在共享磁盘上创建分区

十三、 配置裸设备以存放OCRVoting Disk

十四、 安装asm软件包、创建ASM磁盘

十五、 安装clusterware软件

十六、 升级clusterware软件

十七、 安装oracle软件

十八、 升级oracle软件

十九、 创建RAC监听

二十、 创建ASM磁盘组、RAC数据库

准备软件:

软件名称

官方下载

百度网盘

360网盘

OEL 5.5 X86_64

https://edelivery.oracle.com/linux

http://pan.baidu.com/share/link?shareid=513608932&uk=3409299182

http://yunpan.cn/QDHwHk63tepJU

VMware Server

http://www.vmware.com/download/server/

http://pan.baidu.com/share/link?shareid=765358990&uk=3409299182

http://yunpan.cn/QDHwcLuECp2Lp

10201_clusterware_linux_x86_64

N/A 

http://pan.baidu.com/share/link?shareid=1472026032&uk=3409299182

http://yunpan.cn/QDBQw49Thgjdz

10201_database_linux_x86_64

N/A

http://pan.baidu.com/share/link?shareid=1472026032&uk=3409299182

http://yunpan.cn/QDBQw49Thgjdz

p8202632_10205_Linux-x86-64

N/A

http://pan.baidu.com/share/link?shareid=1472026032&uk=3409299182

http://yunpan.cn/QDBQw49Thgjdz

p13390677_112040_Linux-x86-64_3of7  [Grid软件] 

N/A

http://pan.baidu.com/share/link?shareid=1479956116&uk=3409299182

http://yunpan.cn/QDBQaw93MzR8z

p13390677_112040_Linux-x86-64_1of7

p13390677_112040_Linux-x86-64_2of7  [Oracle软件] 

N/A

http://pan.baidu.com/share/link?shareid=1479956116&uk=3409299182

http://yunpan.cn/QDBQaw93MzR8z

Oracle ASM软件包

N/A

http://pan.baidu.com/s/1mgK6aYO

 请稍后

2 配置虚拟机,安装OEL 5.5 X86_64Linux操作系统

    这里,我们需要在VMware ESXi Version 4.0的虚拟主机上创建两台虚拟机,其中每台机器至少需要配置双网卡,一块网卡作为Public,另一块作为Private,建议IP地址均选择手动配置,而不是DHCP动态分配,且要求指定的IP在网络里是唯一的。主机名也分别要求指定为唯一,避免冲突。主机名、IP地址在前期规划要慎重,一经指定,最好不要轻易改变,避免一些不必要的麻烦。这里列出两台机器前期规划的主机名、IP地址信息:

Hostname

Hostname alias

Type   

IP Address

Interface

node1.oracleonlinux.cn

node1

Public IP

172.16.0.33

eth0

node1-vip.oracleonlinux.cn

node1-vip

Virtual IP

172.16.0.35

eth0:1

node1-priv.oracleonlinux.cn

node1-priv

Private IP

192.168.94.11

eth1

node2.oracleonlinux.cn

node2

Public IP

172.16.0.34

eth0

node2-priv.oracleonlinux.cn

node2-vip

Virtual IP

172.16.0.36

eth0:1

node2-priv.oracleonlinux.cn

node2-priv

Private IP

192.168.94.12

eth1

scan-cluster.oracleonlinux.cn

scan-cluster

SCAN IP

172.16.0.223

eth0

                              (Figure 1.1网络配置信息表)

Note

上述中配置的SCAN IP是为后期我们将10gR2 RAC 升级到11gR2 RAC预留的。

     其中,每台机器至少需要配置3IP地址,在安装操作系统的过程中,我们需要配置公网IP和私有IP即可,虚拟IP在安装集群件时自动配置。Public IPVirtual IPSCAN IP必须配置在同一网段。SCAN IPOracle 11g新推出的,在配置11g RAC时需要指定。我们的SCAN IP通过配置DNS服务器来实现。

配置/etc/hosts文件

参照上述1.1网络配置信息表来配置/etc/hosts文件。在双节点上均需执行。

节点1

[root@node1 ~]# hostname 

node1.oracleonlinux.cn

[root@node1 ~]# cat /etc/hosts

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1               localhost

::1             localhost6.localdomain6 localhost6

 

 

# public

172.16.0.33     node1.oracleonlinux.cn       node1

172.16.0.34     node2.oracleonlinux.cn       node2

 

# private

192.168.94.11   node1-priv.oracleonlinux.cn  node1-priv

192.168.94.12   node2-priv.oracleonlinux.cn  node2-priv

 

 

# virtual

172.16.0.35     node1-vip.oracleonlinux.cn   node1-vip

172.16.0.36     node2-vip.oracleonlinux.cn   node2-vip

 

# scan-ip

172.16.0.223            scan-cluster.oracleonlinux.cn        scan-cluster

[root@node1 ~]# 

节点2

[root@node2 ~]# cat /etc/hosts

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1               localhost

::1             localhost6.localdomain6 localhost6

 

 

 

# public

172.16.0.33     node1.oracleonlinux.cn       node1

172.16.0.34     node2.oracleonlinux.cn       node2

 

# private

192.168.94.11   node1-priv.oracleonlinux.cn  node1-priv

192.168.94.12   node2-priv.oracleonlinux.cn  node2-priv

 

 

# virtual

172.16.0.35     node1-vip.oracleonlinux.cn   node1-vip

172.16.0.36     node2-vip.oracleonlinux.cn   node2-vip

 

# scan-ip

172.16.0.223            scan-cluster.oracleonlinux.cn        scan-cluster

[root@node2 ~]# 

建用户、改口令、修改用户配置文件;

root用户执行事先配置的脚本1preuser_dir.sh,脚本具体内容请见附件1在双节点上均需执行。

[root@node1 shell]# pwd

/root/media/shell

[root@node1 shell]# ll

total 24

-rw-r–r– 1 root root 1625 Dec 19 14:10 1preuser_dir.sh

-rw-r–r– 1 root root  477 Dec 19 14:11 2predir.sh

-rw-r–r– 1 root root  631 Dec 19 14:11 3prelimits.sh

-rw-r–r– 1 root root  465 Dec 19 14:11 4prelogin.sh

-rw-r–r– 1 root root  632 Dec 19 14:12 5preprofile.sh

-rw-r–r– 1 root root  931 Dec 19 14:12 6presysctl.sh

[root@node1 shell]# 

[root@node1 shell]# sh 1preuser_dir.sh 

Now create two groups named ‘oinstall’ and ‘dba’, plus a user named ‘oracle’.Also setting the Environment

Now create the necessary directory for oracle user and change the authention to oracle user…

Changing password for user oracle.

passwd: all authentication tokens updated successfully.

The two groups named ‘oinstall’ and ‘dba’ plus the oracle user has been created.

The Environment variable for oracle user also has been setted sussessfully.

[root@node1 shell]# 

Note

节点2上执行该脚本时,需要将脚本中的ORACLE_SID改为devdb2,或者根据实际情况修改为自己的SID

建路径、改权限

root用户执行事先配置的脚本2predir.sh,脚本具体内容请见附件1root用户在双节点上均需执行。

执行命令:sh 2predir.sh

脚本执行具体过程及输出,不再赘述。

修改/etc/security/limits.conf,配置oraclegrid用户的shell限制

root用户执行事先配置的脚本3prelimits.sh,脚本具体内容请见附件1root用户在双节点上均需执行。

执行命令:sh 3prelimits.sh

脚本执行具体过程及输出,不再赘述。

修改/etc/pam.d/login配置文件

root用户执行事先配置的脚本4prelogin.sh,脚本具体内容请见附件1root用户在双节点上均需执行。

执行命令:sh 4prelogin.sh

脚本执行具体过程及输出,不再赘述。

修改/etc/profile文件

root用户执行事先配置的脚本5preprofile.sh,脚本具体内容请见附件1root用户在双节点上均需执行。

执行命令:sh 5preprofile.sh

脚本执行具体过程及输出,不再赘述。

修改内核配置文件

root用户执行事先配置的脚本6presysctl.sh,脚本具体内容请见附件1root用户在双节点上均需执行。

执行命令:sh 6presysctl.sh

脚本执行具体过程及输出,不再赘述。

10 配置oracle用户SSH对等性

Node1:

[root@node1 ~]# su – oracle

node1-> hostname 

node1.oracleonlinux.cn

node1-> mkdir ~/.ssh

node1-> chmod 700 ~/.ssh

node1-> ls -al

total 44

drwx—— 4 oracle oinstall 4096 Dec 19 14:28 .

drwxr-xr-x 3 root   root     4096 Dec 19 14:18 ..

-rw——- 1 oracle oinstall   18 Dec 19 14:28 .bash_history

-rw-r–r– 1 oracle oinstall   33 Dec 19 14:18 .bash_logout

-rw-r–r– 1 oracle oinstall  544 Dec 19 14:18 .bash_profile

-rw-r–r– 1 oracle oinstall  124 Dec 19 14:18 .bashrc

-rw-r–r– 1 oracle oinstall  515 Dec 19 14:18 .emacs

drwxr-xr-x 4 oracle oinstall 4096 Dec 19 14:18 .mozilla

drwx—— 2 oracle oinstall 4096 Dec 19 14:28 .ssh

-rw-r–r– 1 oracle oinstall  658 Dec 19 14:18 .zshrc

node1-> ssh-keygen -t rsa

Generating public/private rsa key pair.

Enter file in which to save the key (/home/oracle/.ssh/id_rsa): 

Enter passphrase (empty for no passphrase): 

Enter same passphrase again: 

Your identification has been saved in /home/oracle/.ssh/id_rsa.

Your public key has been saved in /home/oracle/.ssh/id_rsa.pub.

The key fingerprint is:

fe:9a:d5:0a:c6:68:4e:c9:b2:af:7f:ad:a0:f9:07:c9 oracle@node1.oracleonlinux.cn

node1-> ssh-keygen -t dsa 

Generating public/private dsa key pair.

Enter file in which to save the key (/home/oracle/.ssh/id_dsa): 

Enter passphrase (empty for no passphrase): 

Enter same passphrase again: 

Your identification has been saved in /home/oracle/.ssh/id_dsa.

Your public key has been saved in /home/oracle/.ssh/id_dsa.pub.

The key fingerprint is:

4a:e4:b0:a5:d6:74:18:0b:39:c3:0f:cc:59:b2:23:18 oracle@node1.oracleonlinux.cn

node1-> 

Node2

[root@node2 ~]# su – oracle

node2-> hostname 

node2.oracleonlinux.cn

node2-> mkdir ~/.ssh

node2-> chmod 700 ~/.ssh

node2-> ls -al

total 72

drwx—— 4 oracle oinstall 4096 Dec 19 14:30 .

drwxr-xr-x 3 root   root     4096 Dec 19 14:26 ..

-rw-r–r– 1 oracle oinstall   33 Dec 19 14:26 .bash_logout

-rw-r–r– 1 oracle oinstall  544 Dec 19 14:26 .bash_profile

-rw-r–r– 1 oracle oinstall  124 Dec 19 14:26 .bashrc

-rw-r–r– 1 oracle oinstall  515 Dec 19 14:26 .emacs

drwxr-xr-x 4 oracle oinstall 4096 Dec 19 14:26 .mozilla

drwx—— 2 oracle oinstall 4096 Dec 19 14:30 .ssh

-rw-r–r– 1 oracle oinstall  658 Dec 19 14:26 .zshrc

node2-> ssh-keygen -t rsa

Generating public/private rsa key pair.

Enter file in which to save the key (/home/oracle/.ssh/id_rsa): 

Enter passphrase (empty for no passphrase): 

Enter same passphrase again: 

Your identification has been saved in /home/oracle/.ssh/id_rsa.

Your public key has been saved in /home/oracle/.ssh/id_rsa.pub.

The key fingerprint is:

40:21:4a:ef:c7:3d:1e:48:fa:5e:45:ce:57:60:df:6c oracle@node2.oracleonlinux.cn

node2-> ssh-keygen -t dsa

Generating public/private dsa key pair.

Enter file in which to save the key (/home/oracle/.ssh/id_dsa): 

Enter passphrase (empty for no passphrase): 

Enter same passphrase again: 

Your identification has been saved in /home/oracle/.ssh/id_dsa.

Your public key has been saved in /home/oracle/.ssh/id_dsa.pub.

The key fingerprint is:

50:4d:9c:dd:d0:92:ac:e6:d0:d1:e8:1d:1a:cb:b2:08 oracle@node2.oracleonlinux.cn

node2-> 

重新回到节点1

node1-> hostname 

node1.oracleonlinux.cn

node1-> cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

node1-> cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys

node1-> ssh node2 cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

The authenticity of host ‘node2 (172.16.0.34)’ can’t be established.

RSA key fingerprint is 42:bc:46:40:87:81:b7:23:d1:6b:0a:b3:1c:04:cd:ed.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added ‘node2,172.16.0.34’ (RSA) to the list of known hosts.

oracle@node2’s password: 

node1-> ssh node2 cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys 

oracle@node2’s password: 

node1-> scp ~/.ssh/authorized_keys node2:~/.ssh/authorized_keys 

oracle@node2’s password: 

authorized_keys                                                    100% 2060     2.0KB/s   00:00    

node1-> 

验证oracle用户的SSH对等性:

node1-> ssh node1 date

Thu Dec 19 16:39:31 CST 2013

node1-> ssh node2 date

Thu Dec 19 16:39:35 CST 2013

node1-> ssh node1-priv date

Thu Dec 19 16:39:45 CST 2013

node1-> ssh node2-priv date

Thu Dec 19 16:39:49 CST 2013

node1-> ssh node1.oracleonlinux.cn date

Thu Dec 19 16:40:16 CST 2013

node1-> ssh node2.oracleonlinux.cn date

Thu Dec 19 16:40:20 CST 2013

node1-> ssh node1-priv.oracleonlinux.cn date

Thu Dec 19 16:40:30 CST 2013

node1-> ssh node2-priv.oracleonlinux.cn date

Thu Dec 19 16:40:35 CST 2013

node1-> 

Note

2个节点上以oracle用户可以顺利执行上述命令,而不再提示需要oracle用户的密码,则说明配置成功!