【 tulaoshi.com - Linux 】
参见:http://portal.suse.com/sdb/en/2004/10/dcon_bonding_sles8.html
保持服务器的高可用性接的高可用性是企业级IT 环境的重要因素。其中最重要的一点是服务器网络连环境的重要因素。其中最重要的一点是服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。 我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MACAddress)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在个模式下,bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。说了半天理论,其实配置很简单:绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片SUSE LINUX Enterprise Server 9下的配置步骤1. 编辑虚拟网络接口配置文件,指定网卡IP [sles9:/etc/sysconfig/network]# cp /etc/sysconfig/network/ifcfg.template ifcfg-bond0 [sles9:/etc/sysconfig/network]# vi /etc/sysconfig/network/ifcfg-bond02. #vi ifcfg-bond0 #将STARTMODE设置为'onboot' STARTMODE='onboot' #将BOOTPROTO设置为'static' BOOTPROTO='static' #设置IPADDR IPADDR=172.31.0.13 #设置子网掩码 NETMASK=255.255.252.0 #设置广播地址 BROADCAST=172.31.3.255 这里要主意,不要在单个网卡的配置文件中指定IP地址设定信息如:地址、子网掩码或网卡ID。将上述信息指定到虚拟(bonding)配置文件ifcfg-bond?中即可。 将IPADDR,NETMASK,BROADCAST的设置从网卡配置文件 /etc/sysconfig/network/ifcfg-eth-id-xx:xx:xx:xx:xx:xx 中删除掉,其中 xx:xx:xx:xx:xx:xx 是要配置bonding 的网卡的 MAC 地址。3. 编辑/etc/modprobe.conf文件,加入如下内容,系统在加载bonding模块时,使用文件里指定的参数: alias bond0 bonding options bond0 miimon=100 mode=1 #options bond0 arp_interval=100 arp_ip_target=xxx.xxx.xxx.xxx mode=1 说明:miimon是用来进行链路监测的。比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。bonding可以通过两种机制进行链路监控,miimon需要驱动支持,arp_interval/arp_ip_target不需要驱动支持,arp_interval指定arp检查的时间间隔,arp_ip_target是要反向查询arp的ip地址列表,最多16个,以逗号分隔,例如:arp_interval=100 arp_ip_target=192.168.100.5,192.168.100.6,表示每100毫秒作一次arp检查,如果192.168.100.5和192.168.100.6的arp检查的结果都失败了,则链路状态为断开,bonding的active interface作出切换。 mode=0表示load balancing(round-robin)为负载均衡方式,两块网卡都工作。mode=1表示fault-tolerance(active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用4 # vi /etc/rc.d/boot.local加入下面几行# probe ethernet card kernel module first/sbin/modprobe e1000# probe bonding kernel module/sbin/modprobe bonding miimon=100 mode=1#/sbin/modprobe bonding arp_inerval=100 arp_ip_target=192.168.100.5,192.168.100.6这里我们假设用户只有两块Intel e1000 网卡,首先加载网卡的驱动e1000,如果是其他的网卡使用不同的驱动,然后加载bonding驱动。实际上在这个阶段需要作的操作是首先按照网卡的逻辑顺序加载网卡驱动,然后在所有网卡的驱动都按所需的顺序成功加载之后再用合适的参数加载bonding驱动。例如:在逻辑上的 eth0 eth1 为 Intel e1000,eth2 eth3 为 BCM5700,这种情况下/etc/rc.d/boot.local :# probe first, second ethernet card kernel module/sbin/modprobe e1000# probe third, fourth ethernet card kernel module/sbin/modprobe bcm5700# probe bonding kernel module/sbin/modprobe bonding miimon=100 mode=1#/sbin/modprobe bonding arp_interval=100 arp_ip_target=192.168.100.