<code id='lbhpo'><strong id='lbhpo'></strong></code>
<i id='lbhpo'></i>

<dl id='lbhpo'></dl>
<ins id='lbhpo'></ins>

      1. <acronym id='lbhpo'><em id='lbhpo'></em><td id='lbhpo'><div id='lbhpo'></div></td></acronym><address id='lbhpo'><big id='lbhpo'><big id='lbhpo'></big><legend id='lbhpo'></legend></big></address>
        <span id='lbhpo'></span>
      2. <i id='lbhpo'><div id='lbhpo'><ins id='lbhpo'></ins></div></i>
        <fieldset id='lbhpo'></fieldset>
      3. <tr id='lbhpo'><strong id='lbhpo'></strong><small id='lbhpo'></small><button id='lbhpo'></button><li id='lbhpo'><noscript id='lbhpo'><big id='lbhpo'></big><dt id='lbhpo'></dt></noscript></li></tr><ol id='lbhpo'><table id='lbhpo'><blockquote id='lbhpo'><tbody id='lbhpo'></tbody></blockquote></table></ol><u id='lbhpo'></u><kbd id='lbhpo'><kbd id='lbhpo'></kbd></kbd>
        1. Linux系统绑定多网卡的7种bond模式介绍

          • 时间:
          • 浏览:40
          • 来源:124软件资讯网

              网卡绑定mode共有七种(0~6) bond0、bond1、bond2、bond3、bond4、bond5、bond6

              常用的有三种

              mode=0:平衡负载模式  ,有自动备援  ,但需要”Switch”支援及设定  。

              mode=1:自动备援模式  ,其中一条线若断线 ,其他线路将会自动备援  。

              mode=6:平衡负载模式 ,有自动备援  ,不必”Switch”支援及设定  。

              需要说明的是若是想做成mode 0的负载平衡,仅仅设置这里options bond0 miimon=100 mode=0是不够的,与网卡相连的交流机必须做特殊设置(这两个端口应该接纳聚合方式)  ,由于做bonding的这两块网卡是使用统一个MAC地址.从原理剖析一下(bond运行在mode 0下):

              mode 0下bond所绑定的网卡的IP都被修改成相同的mac地址  ,若是这些网卡都被接在统一个交流机  ,那么交流机的arp内外这个mac地址对应的端口就有多 个  ,那么交流机接受到发往这个mac地址的包应该往哪个端口转发呢?正常情形下mac地址是全球唯一的 ,一个mac地址对应多个端口一定使交流机疑惑了  。以是 mode0下的bond若是毗连到交流机 ,交流机这几个端口应该接纳聚合方式(cisco称为 ethernetchannel  ,foundry称为portgroup)  ,由于交流机做了聚合后  ,聚合下的几个端口也被捆绑成一个mac地址.我们的解 决措施是 ,两个网卡接入差别的交流机即可 。

              mode6模式下无需设置交流机  ,由于做bonding的这两块网卡是使用差别的MAC地址  。

              七种bond模式说明:

              第一种模式:mod=0  ,即:(balance-rr) Round-robin policy(平衡抡循环计谋)

              特点:传输数据包顺序是依次传输(即:第1个包走eth0  ,下一个包就走eth1….一直循环下去 ,直到最后一个传输完毕)  ,此模式提供负载平衡和容错能力;可是我们知道若是一个毗连或者会话的数据包从差别的接口发出的话  ,中途再经由差别的链路  ,在客户端很有可能会泛起数据包无序到达的问题  ,而无序到达的数据包需要重新要求被发送 ,这样网络的吞吐量就会下降

              第二种模式:mod=1  ,即: (active-backup) Active-backup policy(主-备份计谋)

              特点:只有一个装备处于运动状态 ,当一个宕掉另一个马上由备份转换为主装备  。mac地址是外部可见得 ,从外面看来  ,bond的MAC地址是唯一的  ,以制止switch(交流机)发生杂乱  。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络毗连的可用性  ,可是它的资源使用率较低  ,只有一个接口处于事情状态 ,在有 N 个网络接口的情形下 ,资源使用率为1/N

              第三种模式:mod=2 ,即:(balance-xor) XOR policy(平衡计谋)

              特点:基于指定的传输HASH计谋传输数据包  。缺省的计谋是:(源MAC地址 XOR 目的MAC地址) % slave数目  。其他的传输计谋可以通过xmit_hash_policy选项指定  ,此模式提供负载平衡和容错能力

              第四种模式:mod=3  ,即:broadcast(广播计谋)

              特点:在每个slave接口上传输每个数据包 ,此模式提供了容错能力

              第五种模式:mod=4  ,即:(802.3ad) IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad 动态链接聚合)

              特点:建立一个聚合组  ,它们共享同样的速率和双工设定  。凭据802.3ad规范将多个slave事情在统一个激活的聚合体下  。

              外出流量的slave选举是基于传输hash计谋  ,该计谋可以通过xmit_hash_policy选项从缺省的XOR计谋改变到其他计谋  。需要注重的 是 ,并不是所有的传输计谋都是802.3ad顺应的  ,尤其思量到在802.3ad尺度43.2.4章节提及的包乱序问题  。差别的实现可能会有差别的顺应 性  。

              须要条件:

              条件1:ethtool支持获取每个slave的速率和双工设定

              条件2:switch(交流机)支持IEEE 802.3ad Dynamic link aggregation

              条件3:大多数switch(交流机)需要经由特定设置才气支持802.3ad模式

              第六种模式:mod=5  ,即:(balance-tlb) Adaptive transmit load balancing(适配器传输负载平衡)

              特点:不需要任何特殊的switch(交流机)支持的通道bonding  。在每个slave上凭据当前的负载(凭据速率盘算)分配外出流量 。若是正在接受数据的slave出故障了  ,另一个slave接受失败的slave的MAC地址  。

              该模式的须要条件:ethtool支持获取每个slave的速率

              第七种模式:mod=6 ,即:(balance-alb) Adaptive load balancing(适配器顺应性负载平衡)

              特点:该模式包罗了balance-tlb模式 ,同时加上针对IPV4流量的吸收负载平衡(receive load balance, rlb)  ,而且不需要任何switch(交流机)的支持  。吸收负载平衡是通过ARP协商实现的  。bonding驱动截获本机发送的ARP应答  ,并把源硬件地址改写为bond中某个slave的唯一硬件地址  ,从而使得差别的对端使用差别的硬件地址举行通讯 。

              来自服务器端的吸收流量也会被平衡  。当本机发送ARP请求时  ,bonding驱动把对端的IP信息从ARP包中复制并生存下来 。当ARP应答从对端到达 时 ,bonding驱动把它的硬件地址提取出来  ,并提倡一个ARP应答给bond中的某个slave  。使用ARP协商举行负载平衡的一个问题是:每次广播 ARP请求时都市使用bond的硬件地址  ,因此对端学习到这个硬件地址后  ,吸收流量将会所有流向当前的slave  。这个问题可以通过给所有的对端发送更新 (ARP应答)来解决  ,应答中包罗他们唯一无二的硬件地址 ,从而导致流量重新漫衍  。当新的slave加入到bond中时 ,或者某个未激活的slave重新 激活时 ,吸收流量也要重新漫衍  。吸收的负载被顺序地漫衍(round robin)在bond中最高速的slave上

              当某个链路被重新接上 ,或者一个新的slave加入到bond中  ,吸收流量在所有当前激活的slave中所有重新分配  ,通过使用指定的MAC地址给每个 client提倡ARP应答  。下面先容的updelay参数必须被设置为某个大于即是switch(交流机)转发延时的值 ,从而保证发往对端的ARP应答 不会被switch(交流机)阻截  。

              须要条件:

              条件1:ethtool支持获取每个slave的速率;

              条件2:底层驱动支持设置某个装备的硬件地址 ,从而使得总是有个slave(curr_active_slave)使用bond的硬件地址 ,同时保证每个bond 中的slave都有一个唯一的硬件地址  。若是curr_active_slave出故障  ,它的硬件地址将会被新选出来的 curr_active_slave接受

              实在mod=6与mod=0的区别:mod=6  ,先把eth0流量占满 ,再占eth1  ,….ethX;而mod=0的话  ,会发现2个口的流量都很稳固  ,基本一样的带宽  。而mod=6 ,会发现第一个口流量很高  ,第2个口只占了小部门流量

              Linux网口绑定

              通过网口绑定(bond)手艺,可以很容易实现网口冗余  ,负载平衡  ,从而到达高可用高可靠的目的  。条件约定:

              2个物理网口划分是:eth0,eth1

              绑定后的虚拟口是:bond0

              服务器IP是:192.168.0.100

              第一步  ,设置设定文件:

              代码如下:

              /etc/sysconfig/network-scripts/ifcfg-bond0

              DEVICE=bond0

              BOOTPROTO=none

              ONBOOT=yes

              IPADDR=192.168.0.100

              NETMASK=255.255.255.0

              NETWORK=192.168.0.0

              BROADCAST=192.168.0.255

              #BROADCAST广播地址

              /etc/sysconfig/network-scripts/ifcfg-eth0

              DEVICE=eth0

              BOOTPROTO=none

              MASTER=bond0

              SLAVE=yes

              /etc/sysconfig/network-scripts/ifcfg-eth1

              DEVICE=eth1

              BOOTPROTO=none

              MASTER=bond0

              SLAVE=yes

              第二步  ,修改modprobe相关设定文件  ,并加载bonding模块:

              1.在这里 ,我们直接建立一个加载bonding的专属设定文件/etc/modprobe.d/bonding.conf

              代码如下:

              [root@test ~]# vi /etc/modprobe.d/bonding.conf

              #追加

              alias bond0 bonding

              options bonding mode=0 miimon=200

              2.加载模块(重启系统后就不用手动再加载了)

              代码如下:

              [root@test ~]# modprobe bonding

              3.确认模块是否加载乐成:

              代码如下:

              [root@test ~]# lsmod | grep bonding

              bonding 100065 0

              第三步 ,重启一下网络 ,然后确认一下状态:

              代码如下:

              [root@test ~]# /etc/init.d/network restart

              [root@test ~]# cat /proc/net/bonding/bond0

              Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)

              Bonding Mode: fault-tolerance (active-backup)

              Primary Slave: None

              Currently Active Slave: eth0

              ……

              [root@test ~]# ifconfig | grep HWaddr

              bond0 Link encap:Ethernet HWaddr 00:16:36:1B:BB:74

              eth0 Link encap:Ethernet HWaddr 00:16:36:1B:BB:74

              eth1 Link encap:Ethernet HWaddr 00:16:36:1B:BB:74

              从上面简直认信息中  ,我们可以看到3个主要信息:

              1.现在的bonding模式是active-backup

              2.现在Active状态的网口是eth0

              3.bond0,eth1的物理地址和处于active状态下的eth0的物理地址相同  ,这样是为了制止上位交流机发生杂乱 。

              恣意拔掉一根网线  ,然后再会见你的服务器  ,看网络是否照旧通的  。

              第四步  ,系统启动自动绑定、增添默认网关:

              代码如下:

              [root@test ~]# vi /etc/rc.d/rc.local

              #追加

              ifenslave bond0 eth0 eth1

              route add default gw 192.168.0.1

              #如可上网就不用增添路由 ,0.1地址按情况修改.

              留心:前面只是2个网口绑定成一个bond0的情形 ,若是我们要设置多个bond口 ,好比物理网口eth0和eth1组成bond0  ,eth2和eth3组成bond1 ,

              那么网口设置文件的设置要领和上面第1步讲的要领相同  ,只是/etc/modprobe.d/bonding.conf的设定就不能像下面这样简朴的叠加了:

              代码如下:

              alias bond0 bonding

              options bonding mode=1 miimon=200

              alias bond1 bonding

              options bonding mode=1 miimon=200

              准确的设置要领有2种:

              第一种,你可以看到 ,这种方式的话  ,多个bond口的模式就只能设成相同的了:

              代码如下:

              alias bond0 bonding

              alias bond1 bonding

              options bonding max_bonds=2 miimon=200 mode=1

              第二种  ,这种方式  ,差别的bond口的mode可以设成纷歧样:

              代码如下:

              alias bond0 bonding

              options bond0 miimon=100 mode=1

              install bond1 /sbin/modprobe bonding -o bond1 miimon=200 mode=0

              仔细看看上面这2种设置要领 ,现在若是是要设置3个 ,4个  ,甚至更多的bond口  ,你应该也会了吧!

              后记:简朴的先容一下上面在加载bonding模块的时间  ,options里的一些参数的寄义:

              miimon 监视网络链接的频度  ,单元是毫秒  ,我们设置的是200毫秒  。

              max_bonds 设置的bond口个数

              mode bond模式  ,主要有以下几种  ,在一样平常的现实应用中 ,0和1用的比力多  ,

              若是你要深入相识这些模式各自的特点就需要靠读者你自己去查资料并做实践了  。