双网卡bond

查看:
cat /boot/config-<tab>|grep -i bonding
有CONFIG_BONDING=m 表示支持
有些网卡也可能不支持bonding。
使用ethtool -i eth0查看网卡使用什么驱动
 
错误:bringing up interface bond0: error:connection activation failed: the connection is not for this device
 
1. Remove Network Manager from startup Services.
#chkconfig NetworkManager off
 
2. Add Default Net Manager
#chkconfig network on
 
3.Stop NetworkManager first
#service NetworkManager stop
 
4.and then start Default Manager
#service network start
5./etc/init.d/network restart
 
配置:
[root@ceshi network-scripts]# more ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
[root@ceshi network-scripts]# more ifcfg-eth1
DEVICE=eth1
ONBOOT=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
[root@ceshi network-scripts]# more ifcfg-bond0
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
TYPE=Ethernet
BROADCAST=192.168.1.255
IPADDR=192.168.1.53
GATEWAY=192.168.1.1
NETMASK=255.255.255.0
NETWORK=192.168.1.0
DNS1=8.8.8.8
USERCTL=no
创建/etc/modprobe.conf 配置文件,并添加
[root@ceshi network-scripts]# more /etc/modprobe.conf
alias bond0 bonding
options bond0 miimon=100 mode=1
注解:
(1)、miimon 是链路监测的时间间隔单位是毫秒,miimon=100的意思就是,每100毫秒检测网卡和交换机之间是否连通, 如不通则使用另外的链路。 
(2)、mode=0 表示负载均衡方式,两块网卡都工作,需要交换机作支持。 
          mode=1 表示冗余方式,网卡只有一个工作,一个出问题启用另外的。 
          mode=6 表示负载均衡方式,两块网卡都工作,不需要交换机作支持。
 
然后重启网卡 <>_<>
 
查看网卡
[root@ceshi network-scripts]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond0 state UP qlen 1000
link/ether 00:25:90:69:2a:f0 brd ff:ff:ff:ff:ff:ff
3: eth1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond0 state UP qlen 1000
link/ether 00:25:90:69:2a:f0 brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP
link/ether 00:25:90:69:2a:f0 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.53/24 brd 192.168.1.255 scope global bond0
inet6 fe80::225:90ff:fe69:2af0/64 scope link
valid_lft forever preferred_lft forever
You have new mail in /var/spool/mail/root
 
查看bond0的工作状态
[root@ceshi network-scripts]# more /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
 
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
 
Slave Interface: eth0
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 4
Permanent HW addr: 00:25:90:69:2a:f0
Slave queue ID: 0
 
Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: 00:25:90:69:2a:f1
Slave queue ID: 0
 
 

推荐这些文章:

VirtualBox Ubuntu20.04 使用双网卡实现 ssh连接 和 外网访问

一、前言
1.1 配置双网卡的目的

虚拟机可以访问外网
虚拟机和虚拟机之间可以互相访问

二、配置
2.1 virtualBox主机网卡设置

管理 -> 主机网络管理器

2.2 虚拟机开启两个网卡

设置 -> 网络

2.3 查看网络状态
rockfane@ubuntu:~$ ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd ...

centos下多网卡做bond脚本

多网卡或者单网卡形式下的网卡bonding
#! /bin/sh
#获取当前网卡数
ethnum=`lspci | grep Ethernet | wc -l`
echo $ethnum
#如果网卡数小于等于1则什么都不做
if [ $ethnum -le 1 ]
then
echo "do nothing!"
fi
#如果网卡数大于等于2则
if [ $ethnum -ge 2 ]
then

#------- 添加一个bond0的网卡
echo "DEVICE=bond0" > /etc/sysconfig/net...

suse 12 双网卡bonding模式

 

文章目录

工欲善其事,必先配静态ip
网卡bonding

 

eth0eth1

192.168.70.52
192.168.70.55

工欲善其事,必先配静态ip

重要的事情说三遍 修改配置之前,先备份配置文件 修改配置之前,先备份配置文件 修改配置之前,先备份配置文件

两块网卡的配置方式是一样的,注意修改IPADDR的地址,别一样的,冲突了

配置静态ip

sed -i '/^BOOTPROTO=/s/dhcp/static/' /etc/sysconfig/network/ifcfg-eth0
sed -i "...

centos7 双网卡同网段双网关配置

需求:

#1、服务器为双网卡;
#2、网卡1为互联网
172.16.137.99/24/254
#3、网卡2为旅游专网
172.16.137.97/24/1
#4、互联网路由器为172.16.137.254
#5、旅游网需访问网关 172.16.134.1、135.1、136.1 。。。
#6、实现服务器被互联网访问,也能被旅游网访问;

1、配置网卡
网卡1

[root@localhost ~]# cat /etc/sysconfig/network-scripts/ifcfg-eno1
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY...

如何解决双网卡bond0绑定模式物理成员口的mac地址和bonding接口mac地址不一致

 
拓扑如上,在测试的过程中发现,ping这个bond接口的ip,总是丢一半的报文。在交换机端抓包发现与服务器相连的两个端口都有报文转发出去(实际上这个时候应该可以看到有一个端口没有回包),但是在服务器端使用tcpdump功能监控两个端口的流量时,只有一个端口会收到监控到icmp请求报文,另一个端口tcpdump不到任何报文。很明显报文有转到服务器端为什么没有送到上层直接在链路层就丢了呢?排查了大半天发现ifconfig下看到有一个加入bond的物理端口mac和bond接口的mac不一致:
[root@localhost ~]# ifconfig
bond0 Link encap:...

Linux 下双网卡通过绑定(bond)实现主备模式

摘要
工作中需要配置服务器双网卡实现主备切换,这里采用 mode 1 既主备模式,这里只介绍主备模式操作,其他操作需要时再补充。
实验环境说明
使用 vmware 创建的虚拟机,操作系统版本及双网卡信息如下图

 
 
操作命令
添加网卡 bond2 并指定对应双网卡

nmcli con add type bond con-name bond2 ifname bond2 mode 1
nmcli connection add type ethernet slave-type bond ifname ens33 master bond2
nmcli connection ...

OVS上配置bond(转自:https://www.jianshu.com/p/f6ddcb5afe73)

#创建两对veth口
ip link add vetha type veth peer name vethb
ip link add vethx type veth peer name vethy
ip link set dev vetha up
ip link set dev vethb up
ip link set dev vethx up
ip link set dev vethy up

#创建两个bridge
ovs-vsctl add-br br1
ovs-vsctl add-br br2

#在两个bridge上,分别创建bond口,其slave口为两对veth口的一端
ov...

Linux服务器做bond网卡绑定步骤

网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术。
服务器装完Centos系统后有四块网卡
需求是:用这四个网卡分别做成bond0和bond1网卡绑定
以通过命令确定内核是否支持 bonding:
[root@node2 ~]# cat /boot/config-2.6.32-573.el6.x86_64 |grep -i bonding
先做bond0内网网卡:
第一块网卡配置:
 
第二块网卡配置:
 
bond0的配置文件信息:
 
再做bond1外网网卡:
第三块网卡配置:
 
...

文章标题:双网卡bond
文章链接:https://www.dianjilingqu.com/4582.html
本文章来源于网络,版权归原作者所有,如果本站文章侵犯了您的权益,请联系我们删除,联系邮箱:saisai#email.cn,感谢支持理解。
THE END
< <上一篇
下一篇>>