说明:
Linux双网卡绑定,实现网卡冗余或负载均衡。网上资料多是讲ifcfg-eth*,ifcfg-bond0怎么怎么配置,但参照网上的,配置完成后不是无法ping通ip,就是无法ping通域名。原来配置时,需要添加默认路由route add -net 0.0.0.0 netmask 0.0.0.0 gw 192.168.0.1,ifcfg-bond0也需要添加dns。大家抄来抄去又不认真做,真是太无语了。
环境:vmware(安装centos 6.0)添加网卡,得到双网卡
实现:
1. 修改/etc/sysconfig/network-scripts/ifcfg-eth0 配置文档,修改后的内容如下:
DEVICE=eth0 ONBOOT=yes BOOTPROTO=none TYPE=Ethernet MASTER=bond0 //BOOTPROTO=none,启动时不使用任何协议; ONBOOT=yes,系统启动时自动启用该设备
2. 修改/etc/sysconfig/network-scripts/ifcfg-eth1 配置文档,修改后的内容如下:
DEVICE=eth1 ONBOOT=yes BOOTPROTO=none TYPE=Ethernet MASTER=bond0
3 创建一个绑定网络口的 配置文档/etc/sysconfig/network-scripts/ifcfg-bond0,内容如下:
DEVICE=bond0 //虚拟网卡名称 BOOTPROTO=static IPADDR=192.168.0.40 //IP地址 NETMASK=255.255.255.0 //子网掩码 GATEWAY=192.168.0.1 //网关 BORADCAST=192.168.0.255 //广播地址 ONBOOT=yes TYPE=Ethernet DNS1=218.85.157.99 //福建电信DNS,要记得加,不然会无法解析域名 DNS2=218.85.157.99
4. 编辑 /etc/modprobe.d/dist.conf (centos的,其它系统估计需要修改/etc/modprobe.conf),在最后添加
alias bond0 bonding options bond0 miimon=100 mode=0 //miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式。 //常用的为0,1两种:mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作;mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. //bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用
5. 编辑/etc/rc.d/rc.local添加ifenslave(不加,连ping都无法ping通),默认路由(不然你会发现只能ping通内网,无法ping通外网)
ifenslave bond0 eth0 eth1 route add -net 0.0.0.0 netmask 0.0.0.0 gw 192.168.0.1
通过查看bond0的工作状态查询能详细的掌握bonding的工作状态
[root@linux-a ~]# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006) Bonding Mode: load balancing (round-robin) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 2 Permanent HW addr: 00:0c:29:8b:f4:98 Slave Interface: eth1 MII Status: up Link Failure Count: 2 Permanent HW addr: 00:0c:29:8b:f4:a2
附录:
网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能,我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中 早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。 bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。