配置和使用OCFS2集群文件系统
与配置集群系统一样,OCFS2文件系统也需要在每个节点都进行相同的配置,以下每个操作步骤都需要在两个节点上执行。
1.构建OCFS2配置文件
OCFS2安装完毕后,需要创建/etc/ocfs2/cluster.conf文件,这个文件是OCFS2的主配置文件。创建cluster.conf文件有两种方法:一种方法是通过图型界面进行配置;另一种是直接手动编辑此文件,按照格式添加需要的信息即可。
这里介绍图像界面配置cluster.conf的方法。
①以root用户登录,在图形界面下打开一个终端执行。
[root@localhost -]# cofs2console
如图19.1所示,在该配置界面中,由于此时没有OCFS2文件系统,因此列表中是空的。
②选择菜单栏中的“cilster”→“configure”→“add”命令,添加一个节点配置信息,如图19.2所示。
③添加完成后,单击“OK”按钮,继续添加第2个节点。
④节点添加完毕后,单击“Apply”按钮,将节点配置信息写入cluster.conf文件中。单击“Close”按钮关闭。
⑤此时查看/etc/ocf2/cluster.conf文件,将看到下面的内容:

这个是最终得到的cluster.conf的文件内容。如果在不能使用图形界面配置的情况,可以直接根据这个人文件的格式修改相应的信息,手工编辑出一个cluster.conf文件来。
文件创建完成后,将此文件传到另一个节点的相同位置即可,一定要保证两个节点中cluster.conf文件内容的完全一致性。
2.配置OCFS2服务
OCFS2安装完成后,会在/etc/init.d目录下产生一个O2CB的可执行文件。O2CB是OCFS2的驱动服务程序,用于管理和配置OCFS2服务,直接输入“service o2cb”即可获得O2CB的帮助信息:
[root@localhost ~]# service o2cb
Usage:/etc/init.d/o2cb
{start|stop|restart|force-reload|enable|disable|configure|load|unload|online|offline|force-offline|status}
查看OCFS2文件系统的状态:
[root@LOCALHOST ~]# /ect/init.d/o2cb status
Module "configfs":Not loaded
Filesystem "configfs":Not mounted
Module "ocfs2_nodemanager":Not loaded
Module "ocfs2_dlm":Not loaded
Module "ocfs2_dlmfs":Not loaded
Filesystem "ocfs2_dlmfs":Not mounted
由于我们还没有启动集群服务,因此OCFS2的各个模块都处于未加载状态。加载OCFS2系统服务:
[root@localhost ~]# /etc/init.d/o2cb load
Loading module "configfs": OK
Mounting configfs filesystem at /config:OK
Loading module "ocfs2_nodemanager":OK
Loading module "ocfs_dlm":OK
Loading module "ocfs_dlmfs":OK
Mounting ocfs2_dlmfs filesystem at /dlm:OK
接着使OCFS2处于联机状态:
[root@localhost ~]# /etc/init.d/o2cb online ocfs2
Starting O2CB cluster ocfs2:OK
以上命令将我们创建的集群OCFS2处于联机状态。
此时再次查看O2CB服务状态:

此时可以看到,OCFS2所有的服务和模块都已经加载。
如果要卸载OCFS2模块,可执行如下命令:
[root@localhost ~]# /etc/init.d/o2cb online ocfs2
Stopping O2CB cluster ocfs2:OK
以上命令将使OCFS2处于脱机状态。
如果要卸载所有的OCFS2模块,可执行如下命令:
[root@localhost ~]# /etc/init.d/o2cb online unload
Unmounting ocfs2_dlmfs filesystem:OK
Unloading module "ocfs2_dlmfs":OK
Unmounting configfs filesystem:OK
Unloading module "configfs":OK
3.配置O2CB在系统启动时自动启动
配置OC2B驱动程序的引导属性,以便在每次系统启动时自动启动O2CB服务。此操作需要在集群的所有节点上执行。


通过O2CB的configure选项,可以对OCFS2的各个配置属性进行修改。以上操作设置了开机自动加载O2CB驱动,同时对节点间的心跳间隔、保持时间和连接延时等都遵循了默认设置。童虎可以根据自己的需要自行休息。
设置完毕,O2CB会自动加载所有模块,如下所示:

至此,OCFS2的服务管理已经基本配置完毕,接下来进行分区和格式化文件系统操作。
4.格式化OCFS2文件系统
使用fidisk命令即可对划分的共享磁盘进行分区,方法与单一的日志文件系统分区完全相同。在进行分区格式化时,与其他文件系统也完全一样,OCFS2集群文件系统也需要首先进行磁盘格式化,然后进行挂载。将磁盘格式化为OCFS2文件系统,执行如下操作:


其中:
-b选项指定OCFS2文件系统的数据块大小为4K.
-C即为cluster-size,可选值为4K、8K、16K、32K、64K、128K、256K、512K和1M。
-n选项指定OCFS2文件系统可以挂载的节点数目,有效数字范围从1到255.
-L选项用于指定一个挂载卷标。以后可以用卷标名设备文件标识进行设备的挂载或卸载。
/dev/sda7表示需要格式的磁盘分区。
格式化磁盘分区只在一个节点执行即可,其他节点只需要进行挂载操作,无需再次执行格式化。为了保证每个节点都能正确的识别已经格式化的分区,在一个节点格式化完毕后,建议所有节点执行一次重新启动,然后进行磁盘挂载操作。
5.挂载OCFS2文件系统
磁盘分区格式化完毕后,接下来可以进行挂载操作了。挂载完成后,建议将OCFS2文件系统分区放入/etc/fstab中,以便系统在启动时自动执行挂载操作。
手动执行挂载操作如下:
[root@localhost ~]#mount -t ocfs2 -o datavolume,nointr -l "webdatafile"/webdata
其中:
_netdev:该挂载选项表示将在网络启动后挂载该分区,在关闭网络前卸载该分区,
datavolime:此选项是Oracle数据库用户必须使用挂载选项,如果OCFS2文件系统不是用于Oracle数据库,那么可以不用此选项。
到这来位置,我们已经可以使用OCFS2集群文件系统了,在一个节点的OCFS2文件系统分区下创建一个大文件,同时在另一个节点查看此分区,应该马上可以看到创建的文件。
推荐阅读:安装Oracle OCFS2集群文件系统