<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    隨筆 - 67  文章 - 79  trackbacks - 0
    <2009年7月>
    2829301234
    567891011
    12131415161718
    19202122232425
    2627282930311
    2345678

    常用鏈接

    留言簿(1)

    隨筆檔案

    文章檔案

    相冊

    搜索

    •  

    最新評論

    閱讀排行榜

    評論排行榜

    使用CentOS 5.3 系統搭建兩點集群和防火墻

    Author: zarra <zarraxx@gmail.com>
    Version: 0.1
    Revision: &LastChangedRevision&

    1   說明

    為了防病毒和網絡安全的要求,需要將各放射科工作站同PACS服務器的連接方式:由原來的直接連接改為通過防火墻的連接。為了保證系統的穩定性和安全性,決定采用雙Linux服務器來架設一集群系統,來達到高可用性要求。

    2   CentOS 5.3下的集群搭建

    2.1   CentOS的安裝

    最新的CentOS 5.3版本已經可以自動加載Dell R200的Raid卡驅動,所以不需要Dell提供的引導盤也可以直接安裝。安裝過程很簡單,依照提示進行即可。

    2.2   Dell R200服務器IPMI設備的設置

    CentOS是RedHat的社區編譯版,所以也就采用了RedHat ES 中的集群套件:RHCS。在RHCS架構中,Fence設備十分重要,關系到故障恢復和數據一致性。在這里,我們使用服務器上主板提供的IPMI設備來實現Fence的功能。

    IPMI是一種遠程查詢和控制服務器基本狀態的協議,目前的主流服務器產品基本都提供了這種協議的實現。在Linux中可以使用OpenIPMI軟件包來設置和使用IPMI。

    2.2.1   IPMI的配置:

    啟動IPMI服務:

    [zarra@node1 ~]$ sudo service ipmi start
    Starting ipmi drivers: [確定]

    設置IPMI接口網絡地址、掩碼、默認網關:

    [zarra@node1 ~]$sudo ipmitool lan set 1 ipsrc static
    [zarra@node1 ~]$sudo ipmitool lan set 1 ipaddr 10.0.0.10
    [zarra@node1 ~]$sudo ipmitool lan set 1 netmask 255.255.255.0
    [zarra@node1 ~]$sudo ipmitool lan set 1 arp respond on
    [zarra@node1 ~]$sudo ipmitool lan set 1 arp gernerate on
    [zarra@node1 ~]$sudo ipmitool lan set 1 arp interval 5

    設置IPMI用戶和口令:

    [zarra@node1 ~]$sudo ipmitool lan set 1 user
    [zarra@node1 ~]$sudo ipmitool lan set 1 access on
    [zarra@node1 ~]$sudo ipmitool user list
    ID Name Callin Link Auth IPMI Msg Channel Priv Limit
    2 root true true true ADMINISTRATOR
    [zarra@node1 ~]$sudo ipmitool user set password 2
    Password for user 2: Enter your password
    Password for user 2: Enter your password

    2.2.2   檢查IPMI設置

    設置好IPMI地址和用戶后,可以使用命令來檢查服務器的基本狀態,例如:

    [zarra@node1 ~]$sudo ipmitool -H 10.0.0.1 -I lan -U root -P password power status

    IPMI的設置基本就是如上過程,兩臺服務其的IPMI 具體參數如下:

    [zarra@node1 ~]$ sudo ipmitool lan print 1
    Set in Progress : Set Complete
    Auth Type Support : NONE MD2 MD5 PASSWORD
    Auth Type Enable : Callback : MD2 MD5
    : User : MD2 MD5
    : Operator : MD2 MD5
    : Admin : MD2 MD5
    : OEM : MD2 MD5
    IP Address Source : Static Address
    IP Address : 10.0.0.10
    Subnet Mask : 255.255.255.0
    MAC Address : 00:22:19:d6:05:38
    SNMP Community String : public
    IP Header : TTL=0x40 Flags=0x40 Precedence=0x00 TOS=0x10
    Default Gateway IP : 10.10.71.240
    Default Gateway MAC : 00:00:00:00:00:00
    Backup Gateway IP : 0.0.0.0
    Backup Gateway MAC : 00:00:00:00:00:00
    802.1q VLAN ID : Disabled
    802.1q VLAN Priority : 0
    Cipher Suite Priv Max : Not Available
    [zarra@node2 ~]$ sudo ipmitool lan print 1
    Set in Progress : Set Complete
    Auth Type Support : NONE MD2 MD5 PASSWORD
    Auth Type Enable : Callback : MD2 MD5
    : User : MD2 MD5
    : Operator : MD2 MD5
    : Admin : MD2 MD5
    : OEM : MD2 MD5
    IP Address Source : Static Address
    IP Address : 10.0.0.11
    Subnet Mask : 255.255.255.0
    MAC Address : 00:22:19:d5:f4:61
    SNMP Community String : public
    IP Header : TTL=0x40 Flags=0x40 Precedence=0x00 TOS=0x10
    Default Gateway IP : 10.10.71.240
    Default Gateway MAC : 00:00:00:00:00:00
    Backup Gateway IP : 0.0.0.0
    Backup Gateway MAC : 00:00:00:00:00:00
    802.1q VLAN ID : Disabled
    802.1q VLAN Priority : 0
    Cipher Suite Priv Max : Not Available

    2.3   各節點網絡地址的設置

    修改兩節點服務器上的 /etc/hosts 文件,內容如下:

    [zarra@node1 ~]$ cat /etc/hosts
    # Do not remove the following line, or various programs
    # that require network functionality will fail.
    127.0.0.1 localhost.localdomain localhost
    10.0.0.1 node1.test.com node1
    10.0.0.2 node2.test.com node2
    10.10.71.42 cluster.test.com cluster

    節點一服務器上的網絡設置:

    [zarra@node1 ~]$ cat /etc/sysconfig/network
    NETWORKING=yes
    NETWORKING_IPV6=no
    HOSTNAME=localhost.localdomain
    GATEWAY=10.10.71.240
    [zarra@node1 ~]$ cat /etc/sysconfig/network-scripts/ifcfg-eth0
    # Broadcom Corporation NetXtreme BCM5721 Gigabit Ethernet PCI Express
    DEVICE=eth0
    BOOTPROTO=static
    HWADDR=00:22:19:D6:05:36
    ONBOOT=yes
    NETMASK=255.255.255.0
    IPADDR=10.0.0.1
    TYPE=Ethernet
    USERCTL=no
    IPV6INIT=no
    [zarra@node1 ~]$ cat /etc/sysconfig/network-scripts/ifcfg-eth1
    # Broadcom Corporation NetXtreme BCM5721 Gigabit Ethernet PCI Express
    DEVICE=eth1
    BOOTPROTO=static
    HWADDR=00:22:19:D6:05:37
    ONBOOT=yes
    IPADDR=10.10.71.40
    NETMASK=255.255.255.0
    TYPE=Ethernet

    節點二服務器上的網絡設置:

    [zarra@node2 ~]$ cat /etc/sysconfig/network
    NETWORKING=yes
    NETWORKING_IPV6=no
    HOSTNAME=localhost.localdomain
    GATEWAY=10.10.71.240
    [zarra@node2 ~]$ cat /etc/sysconfig/network-scripts/ifcfg-eth0
    # Broadcom Corporation NetXtreme BCM5721 Gigabit Ethernet PCI Express
    DEVICE=eth0
    BOOTPROTO=none
    HWADDR=00:22:19:D5:F4:5F
    ONBOOT=yes
    IPADDR=10.0.0.2
    NETMASK=255.255.255.0
    TYPE=Ethernet
    USERCTL=no
    IPV6INIT=no
    [zarra@node2 ~]$ cat /etc/sysconfig/network-scripts/ifcfg-eth1
    # Broadcom Corporation NetXtreme BCM5721 Gigabit Ethernet PCI Express
    DEVICE=eth1
    BOOTPROTO=static
    HWADDR=00:22:19:D5:F4:60
    IPADDR=10.10.71.41
    NETMASK=255.255.255.0
    ONBOOT=yes
    TYPE=Ethernet

    2.4   集群套件的安裝和設置

    2.4.1   安裝RHCS集群套件:

    2.4.1.1   節點服務器上的安裝

    如果在系統安裝是選擇了Clustering支持,那么就會自動安裝RHCS集群套件。如果想手動安裝,可以執行如下命令:

    [zarra@node1 ~]$ sudo yum groupinstall clustering

    安裝完成后,檢查 ricci 服務狀態,應該如下所示:

    [zarra@node1 ~]$ chkconfig ricci --list
    ricci 0:關閉 1:關閉 2:啟用 3:啟用 4:啟用 5:啟用 6:關閉

    如果沒有設為啟動,執行如下命令:

    [zarra@node1 ~]$ sudo chkconfig ricci on

    然后啟動 ricci 服務:

    [zarra@node1 ~]$ sudo service ricci start

    在node2 上執行同樣的操作,以完成集群套件的安裝。

    2.4.1.2   Conga服務器的安裝

    在 RedHat ES 5.0 系統中提供了Conga這一Web界面的集群設置工具,方便了集群設置。Conga工具最好是安裝在集群外的一臺服務器上。在準備安裝Conga的服務器上執行:

    [zarra@localhost ~]$ sudo yum install luci

    安裝完成后設置Luci的admin用戶口令,執行命令:

    [zarra@localhost ~]$ sudo luci_admin init

    然后依據提示設置口令。完成后即可開啟luci服務:

    [zarra@localhost ~]$ sudo chkconfig luci on
    [zarra@localhost ~]$ sudo service luci start
    Starting luci: [確定]
    Point your web browser to https://node1.test.com:8084 to access luci

    依據提示登陸 https://node1.test.com:8084 進行集群設置。

    2.4.2   RHCS集群的設置:

    打開Web瀏覽器登陸Conga服務器,如圖所示:

    images/image1.png

    進入“Cluster”標簽,點擊 “Create a New Cluster” 按鈕,進行建立集群操作,如圖所示:

    images/image2.png

    點擊 “Add a Failover Domain”按鈕,建立實效域,如圖

    images/image3.png

    點擊 “Add a Resource” 按鈕,建立兩個IP地址資源,完成后Resource頁面如圖所示:

    images/image4.png

    點擊 “Add a Service”按鈕,建立iptables服務,完成后應如圖所示:

    images/image5.png

    依次配置各節點服務器的Fence設備,完成后如圖所示:

    Node1

    images/image6.png

    Node2

    images/image7.png

    設置完成后 cluster.conf 應該如下所示:

    [zarra@node1 ~]$ sudo cat /etc/cluster/cluster.conf
    <?xml version="1.0"?>
    <cluster alias="cluster_test" config_version="17" name="cluster_test">
    <fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/>
    <clusternodes>
    <clusternode name="node1.test.com" nodeid="1" votes="1">
    <fence>
    <method name="1">
    <device name="node1_ipmi"/>
    </method>
    </fence>
    </clusternode>
    <clusternode name="node2.test.com" nodeid="2" votes="1">
    <fence>
    <method name="1">
    <device name="node2_ipmi"/>
    </method>
    </fence>
    </clusternode>
    </clusternodes>
    <cman expected_votes="1" two_node="1"/>
    <fencedevices>
    <fencedevice agent="fence_ipmilan" ipaddr="10.0.0.11" login="root" name="node2_ipmi" passwd="adaptor"/>
    <fencedevice agent="fence_ipmilan" ipaddr="10.0.0.10" login="root" name="node1_ipmi" passwd="adaptor"/>
    </fencedevices>
    <rm>
    <failoverdomains>
    <failoverdomain name="firewall" nofailback="0" ordered="1" restricted="1">
    <failoverdomainnode name="node1.test.com" priority="1"/>
    <failoverdomainnode name="node2.test.com" priority="10"/>
    </failoverdomain>
    </failoverdomains>
    <resources>
    <ip address="10.10.71.42" monitor_link="1"/>
    <ip address="10.0.0.4" monitor_link="1"/>
    </resources>
    <service autostart="1" domain="firewall" exclusive="0" name="iptables" recovery="relocate">
    <ip ref="10.10.71.42"/>
    <ip ref="10.0.0.4"/>
    </service>
    </rm>
    </cluster>

    3   集群系統中可切換故障及不可切換故障的說明和分析

    搭建集群的目的是為了獲得高可用(HA)系統,也就是說在此系統上需要遵守以下兩個原則:

    • 集群的故障率要小于原來的單機環境
    • 在集群環境中發生的故障所產生破壞性,不能超過原來的單機環境
    posted on 2009-07-03 11:05 zarra 閱讀(1344) 評論(1)  編輯  收藏

    FeedBack:
    # re: [未完成]使用CentOS 5.3 系統搭建兩點集群和防火墻[未登錄] 2009-07-04 18:34 apple
    這么短的時間竟然研究出這么多東西~~厲害的~~  回復  更多評論
      

    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 日本亚洲免费无线码| 日本激情猛烈在线看免费观看| 日韩精品成人无码专区免费| 亚洲AV无码一区二区三区牛牛| 亚洲成年人啊啊aa在线观看| 一个人免费视频在线观看www| 亚洲国产午夜电影在线入口| 四虎永久精品免费观看| 久久永久免费人妻精品下载| 亚洲国产精品成人午夜在线观看| 中文字幕人成人乱码亚洲电影 | 亚洲国产精品一区第二页| 永久免费视频网站在线观看| 久久精品国产亚洲AV| 亚洲成人在线电影| 国产又大又粗又硬又长免费 | 国色精品va在线观看免费视频 | 国产成人青青热久免费精品| 久久青草免费91观看| 豆国产96在线|亚洲| 亚洲精品福利网泷泽萝拉| 国产成人精品久久亚洲高清不卡 | 真人做A免费观看| 91视频免费网站| 在线观看亚洲免费| 亚洲国产成人在线视频| 国精无码欧精品亚洲一区| 国产99视频精品免费视频7| 一二三四影视在线看片免费 | 国产小视频在线观看免费| 最近中文字幕免费2019| 久久久久久噜噜精品免费直播| 亚洲乱妇老熟女爽到高潮的片| 亚洲AV无码1区2区久久| 亚洲五月午夜免费在线视频| 成人国产mv免费视频| 99久久免费精品国产72精品九九| 99视频在线精品免费| 国产一区二区免费视频| 中文字幕不卡免费视频| sss日本免费完整版在线观看|