OpenVZ Forum


Home » International » Russian » Сеть между VE
Сеть между VE [message #7301] Tue, 10 October 2006 15:04 Go to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
Здравствуйте!

Требуется создать несколько VE, которые видели бы друг друга (HN <-> VE не обязательно). Делаю так:

[root@m1 ~]# vzctl create 101 --ostemplate altlinux-20060928 --config vps.basic
Creating VE private area: /var/lib/vz/private/101
Performing postcreate actions
VE private area was created
[root@m1 ~]# vzctl create 102 --ostemplate altlinux-20060928 --config vps.basic
Creating VE private area: /var/lib/vz/private/102
Performing postcreate actions
VE private area was created

[root@m1 ~]# vzctl set 101 --ipadd 192.168.47.1 --save
Saved parameters for VE 101
[root@m1 ~]# vzctl set 102 --ipadd 192.168.47.2 --save
Saved parameters for VE 102

[root@m1 ~]# vzctl start 101
Starting VE ...
VE is mounted
Adding IP address(es): 192.168.47.1
Setting CPU units: 1000
VE start in progress...
[root@m1 ~]# vzctl start 102
Starting VE ...
VE is mounted
Adding IP address(es): 192.168.47.2
Setting CPU units: 1000
VE start in progress...

[root@m1 ~]# vzctl exec 101 ping 192.168.47.2
... тут просто висим ...
[root@m1 ~]# vzctl exec 102 ping 192.168.47.1
connect: Network is unreachable


Смотрю, что же там внутри настроено:

root@m1 ~]# vzctl exec 101 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue
    link/void
    inet 127.0.0.1/32 scope host venet0
    inet 192.168.47.1/32 scope global venet0:1
[root@m1 ~]# vzctl exec 102 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue
    link/void
    inet 127.0.0.1/32 scope host venet0
    inet 192.168.47.2/32 scope global venet0:1
[root@m1 ~]# vzctl exec 101 ip route
192.0.2.0/24 dev venet0  scope host
default via 192.0.2.1 dev venet0
[root@m1 ~]# vzctl exec 102 ip route
192.0.2.0/24 dev venet0  scope host
default via 192.0.2.1 dev venet0


Непорядок, от 192.168.47.2/32 действительно толку мало, а 127.0.0.1/32 вообще не нужен. Пытаюсь сделать так:

[root@m1 ~]# vzctl set 101 --ipadd 192.168.47.1/24 --save
Bad parameter for --ipadd: 192.168.47.1/24


Что делаю неправильно?
Re: Сеть между VE [message #7302 is a reply to message #7301] Tue, 10 October 2006 15:20 Go to previous messageGo to next message
dim is currently offline  dim
Messages: 344
Registered: August 2005
Senior Member
sysctl -w net.ipv4.ip_forward=1 ?


http://static.openvz.org/openvz_userbar_en.gif
Re: Сеть между VE [message #7303 is a reply to message #7302] Tue, 10 October 2006 16:27 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
dim wrote on Tue, 10 October 2006 11:20

sysctl -w net.ipv4.ip_forward=1 ?



Где? В HN? В VE? И, главное, зачем? Мне не нужен форвардинг, мне нужен аналог хаба, в который включено несколько компьютеров и каждый видит каждого ...
Re: Сеть между VE [message #7306 is a reply to message #7301] Tue, 10 October 2006 17:40 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
А сейчас получается вот что:

[root@m1 ~]# vzctl create 104 --ostemplate altlinux-3.0 --config vps.basic
Creating VE private area: /var/lib/vz/private/104
Performing postcreate actions
VE private area was created
[root@m1 ~]# vzctl create 105 --ostemplate altlinux-3.0 --config vps.basic
Creating VE private area: /var/lib/vz/private/105
Performing postcreate actions
VE private area was created
[root@m1 ~]# vzctl set 104 --ipadd 192.168.47.4 --save
Saved parameters for VE 104
[root@m1 ~]# vzctl set 105 --ipadd 192.168.47.5 --save
Saved parameters for VE 105
[root@m1 ~]# vzctl start 104
Starting VE ...
VE is mounted
Adding IP address(es): 192.168.47.4
Setting CPU units: 1000
VE start in progress...
[root@m1 ~]# vzctl start 105
Starting VE ...
VE is mounted
Adding IP address(es): 192.168.47.5
Setting CPU units: 1000
VE start in progress...
[root@m1 ~]# vzctl exec 104 ping 192.168.47.5
PING 192.168.47.5 (192.168.47.5) 56(84) bytes of data.
 From 192.168.200.1: icmp_seq=1 Redirect Host(New nexthop: 192.168.47.5)
64 bytes from 192.168.47.5: icmp_seq=1 ttl=64 time=0.293 ms
 From 192.168.200.1: icmp_seq=2 Redirect Host(New nexthop: 192.168.47.5)
64 bytes from 192.168.47.5: icmp_seq=2 ttl=64 time=0.238 ms
 From 192.168.200.1: icmp_seq=3 Redirect Host(New nexthop: 192.168.47.5)
64 bytes from 192.168.47.5: icmp_seq=3 ttl=64 time=0.213 ms

[root@m1 ~]# vzctl exec 105 ping 192.168.47.4
PING 192.168.47.4 (192.168.47.4) 56(84) bytes of data.
 From 192.168.200.1: icmp_seq=1 Redirect Host(New nexthop: 192.168.47.4)
64 bytes from 192.168.47.4: icmp_seq=1 ttl=64 time=0.306 ms
 From 192.168.200.1: icmp_seq=2 Redirect Host(New nexthop: 192.168.47.4)
64 bytes from 192.168.47.4: icmp_seq=2 ttl=64 time=0.238 ms


Но причем тут From 192.168.200.1: icmp_seq=2 Redirect Host(New nexthop:
192.168.47.4)? Да, это один из адресов HN, ну и что?

[root@m1 ~]# ip address
2: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
4: eth0: <BROADCAST,MULTICAST,UP> mtu 1500 qdisc pfifo_fast qlen 1000
    link/ether 00:0c:29:e0:24:34 brd ff:ff:ff:ff:ff:ff
    inet 192.168.46.201/24 brd 192.168.46.255 scope global eth0
    inet6 fe80::20c:29ff:fee0:2434/64 scope link 
       valid_lft forever preferred_lft forever
8: eth2: <BROADCAST,MULTICAST,UP> mtu 1500 qdisc pfifo_fast qlen 1000
    link/ether 00:0c:29:e0:24:48 brd ff:ff:ff:ff:ff:ff
    inet 192.168.200.1/24 brd 192.168.200.255 scope global eth2
    inet6 fe80::20c:29ff:fee0:2448/64 scope link 
       valid_lft forever preferred_lft forever
10: sit0: <NOARP> mtu 1480 qdisc noop 
    link/sit 0.0.0.0 brd 0.0.0.0
13: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue 
    link/void 
6: eth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop qlen 1000
    link/ether 00:0c:29:e0:24:3e brd ff:ff:ff:ff:ff:ff

[root@m1 ~]# vzctl exec 104 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
     link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1/8 scope host lo
     inet6 ::1/128 scope host
        valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue
     link/void
     inet 127.0.0.1/32 scope host venet0
     inet 192.168.47.4/32 scope global venet0:1
[root@m1 ~]# vzctl exec 104 ip route
192.0.2.0/24 dev venet0  scope host
default via 192.0.2.1 dev venet0

[root@m1 ~]# vzctl exec 105 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue
     link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
     inet 127.0.0.1/8 scope host lo
     inet6 ::1/128 scope host
        valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue
     link/void
     inet 127.0.0.1/32 scope host venet0
     inet 192.168.47.5/32 scope global venet0:1
[root@m1 ~]# vzctl exec 105 ip route
192.0.2.0/24 dev venet0  scope host
default via 192.0.2.1 dev venet0


Никак нельзя, чтобы VE видели друг друга напрямую?
Re: Сеть между VE [message #7311 is a reply to message #7306] Wed, 11 October 2006 04:33 Go to previous messageGo to next message
dev is currently offline  dev
Messages: 1693
Registered: September 2005
Location: Moscow
Senior Member

если пользоваться venet networking'ом, то без HN нельзя, т.к. она выступает в роли маршрутизатора (на IP уровне).
на производительности это практически никак не сказывается, т.к. данные лишний раз в памяти не копируются.

Если все же совсем хочется без VE0, то можно попробовать создать пару соединенных между собой veth устройств и закинуть оба конца в разные VE. при это траффик будет идти мимо VE0, сразу из VEx в VEy. Будет ли это быстрее - не уверен, т.к. добавляется MAC уровень.
Если хочется поэксперементировать, то могу дать патч, который позволяет создавать пару veth.


http://static.openvz.org/userbars/openvz-developer.png
Re: Сеть между VE [message #7324 is a reply to message #7301] Wed, 11 October 2006 06:54 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
Да нет, пара соединений не устроит, хотелось именно аналога хаба и нескольких включенных в него компьютеров ...

Ну ладно, пусть работает так ...
Re: Сеть между VE [message #7332 is a reply to message #7324] Wed, 11 October 2006 08:41 Go to previous messageGo to next message
Andrey Mirkin is currently offline  Andrey Mirkin
Messages: 193
Registered: May 2006
Senior Member
Если вы создадите пару veth соединений (по одному для каждого VPS), то концы veth находящиеся в VE0 можно объединить при помощи bridga'a. Этот bridge и будет выглядеть как хаб. В него можно будет добавлять новый veth.

Andrey Mirkin
http://static.openvz.org/userbars/openvz-developer.png
Re: Сеть между VE [message #7345 is a reply to message #7332] Wed, 11 October 2006 14:11 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
Andrey Mirkin wrote on Wed, 11 October 2006 04:41

Если вы создадите пару veth соединений (по одному для каждого VPS), то концы veth находящиеся в VE0 можно объединить при помощи bridga'a. Этот bridge и будет выглядеть как хаб. В него можно будет добавлять новый veth.


Пытаюсь:

[root@m1 ~]# vzctl create 101 --ostemplate altlinux-sisyphus --config vps.basic
Creating VE private area: /var/lib/vz/private/101
Performing postcreate actions
VE private area was created
[root@m1 ~]# vzctl create 102 --ostemplate altlinux-sisyphus --config vps.basic
Creating VE private area: /var/lib/vz/private/102
Performing postcreate actions
VE private area was created

[root@m1 ~]# vzctl set 101 --veth_add veth1,00:12:34:56:78:9A,eth0,00:12:34:56:78:9B --save
Saved parameters for VE 101
[root@m1 ~]# vzctl set 102 --veth_add veth2,00:12:34:56:78:9C,eth0,00:12:34:56:78:9D --save
Saved parameters for VE 102
	
[root@m1 ~]# ip link set veth1 up
[root@m1 ~]# ip link set veth2 up

[root@m1 ~]# brctl addbr br0
[root@m1 ~]# brctl addif br0 veth1
[root@m1 ~]# brctl addif br0 veth2
[root@m1 ~]# brctl show           
bridge name     bridge id               STP enabled     interfaces
br0             8000.00123456789a       no              veth1
                                                        veth2

[root@m1 ~]# vzctl start 101
Starting VE ...
VE is mounted
Setting CPU units: 1000
Processing veth devices
VE start in progress...
[root@m1 ~]# vzctl start 102
Starting VE ...
VE is mounted
Setting CPU units: 1000
Processing veth devices
VE start in progress...

[root@m1 ~]# vzctl exec 101 ip address add 192.168.199.1/24 dev eth0
[root@m1 ~]# vzctl exec 102 ip address add 192.168.199.2/24 dev eth0
[root@m1 ~]# vzctl exec 101 ip link set eth0 up          
[root@m1 ~]# vzctl exec 102 ip link set eth0 up
[root@m1 ~]# vzctl exec 101 ping 192.168.199.2
... никого ...
[root@m1 ~]# vzctl exec 102 ping 192.168.199.1
... тоже никого ...

[root@m1 ~]# vzctl exec 101 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue 
    link/void 
    inet 127.0.0.1/32 scope host venet0
5: eth0: <BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue 
    link/ether 00:12:34:56:78:9b brd ff:ff:ff:ff:ff:ff
    inet 192.168.199.1/24 scope global eth0
    inet6 fe80::212:34ff:fe56:789b/64 scope link 
       valid_lft forever preferred_lft forever
[root@m1 ~]# vzctl exec 101 ip route  
192.168.199.0/24 dev eth0  proto kernel  scope link  src 192.168.199.1 
192.0.2.0/24 dev venet0  scope host 
default via 192.0.2.1 dev venet0 
[root@m1 ~]# vzctl exec 102 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue 
    link/void 
    inet 127.0.0.1/32 scope host venet0
5: eth0: <BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue 
    link/ether 00:12:34:56:78:9d brd ff:ff:ff:ff:ff:ff
    inet 192.168.199.2/24 scope global eth0
    inet6 fe80::212:34ff:fe56:789d/64 scope link 
       valid_lft forever preferred_lft forever
[root@m1 ~]# vzctl exec 102 ip route  
192.168.199.0/24 dev eth0  proto kernel  scope link  src 192.168.199.2 
192.0.2.0/24 dev venet0  scope host 
default via 192.0.2.1 dev venet0 


Что неправильно?
Re: Сеть между VE [message #7346 is a reply to message #7345] Wed, 11 October 2006 14:17 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
[quote]
[root@m1 ~]# brctl addbr br0
[root@m1 ~]# brctl addif br0 veth1
[root@m1 ~]# brctl addif br0 veth2
[/qoute]

Тут не хватает

[root@m1 ~]# ip link set br0 up
Re: Сеть между VE [message #7347 is a reply to message #7345] Wed, 11 October 2006 14:26 Go to previous messageGo to next message
Andrey Mirkin is currently offline  Andrey Mirkin
Messages: 193
Registered: May 2006
Senior Member
enpx wrote on Wed, 11 October 2006 10:11


Пытаюсь:

[root@m1 ~]# vzctl create 101 --ostemplate altlinux-sisyphus --config vps.basic
Creating VE private area: /var/lib/vz/private/101
Performing postcreate actions
VE private area was created
[root@m1 ~]# vzctl create 102 --ostemplate altlinux-sisyphus --config vps.basic
Creating VE private area: /var/lib/vz/private/102
Performing postcreate actions
VE private area was created

[root@m1 ~]# vzctl set 101 --veth_add veth1,00:12:34:56:78:9A,eth0,00:12:34:56:78:9B --save
Saved parameters for VE 101
[root@m1 ~]# vzctl set 102 --veth_add veth2,00:12:34:56:78:9C,eth0,00:12:34:56:78:9D --save
Saved parameters for VE 102

[root@m1 ~]# ip link set veth1 up
[root@m1 ~]# ip link set veth2 up

[root@m1 ~]# brctl addbr br0
[root@m1 ~]# brctl addif br0 veth1
[root@m1 ~]# brctl addif br0 veth2
[root@m1 ~]# brctl show           
bridge name     bridge id               STP enabled     interfaces
br0             8000.00123456789a       no              veth1
                                                        veth2


Судя по всему в данный момент впски уже запущены. Тогда зачем вы их стартуете еще раз???
Quote:

[root@m1 ~]# vzctl start 101
Starting VE ...
VE is mounted
Setting CPU units: 1000
Processing veth devices
VE start in progress...
[root@m1 ~]# vzctl start 102
Starting VE ...
VE is mounted
Setting CPU units: 1000
Processing veth devices
VE start in progress...

[root@m1 ~]# vzctl exec 101 ip address add 192.168.199.1/24 dev eth0
[root@m1 ~]# vzctl exec 102 ip address add 192.168.199.2/24 dev eth0
[root@m1 ~]# vzctl exec 101 ip link set eth0 up          
[root@m1 ~]# vzctl exec 102 ip link set eth0 up
[root@m1 ~]# vzctl exec 101 ping 192.168.199.2
... никого ...
[root@m1 ~]# vzctl exec 102 ping 192.168.199.1
... тоже никого ...

[root@m1 ~]# vzctl exec 101 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue 
    link/void 
    inet 127.0.0.1/32 scope host venet0
5: eth0: <BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue 
    link/ether 00:12:34:56:78:9b brd ff:ff:ff:ff:ff:ff
    inet 192.168.199.1/24 scope global eth0
    inet6 fe80::212:34ff:fe56:789b/64 scope link 
       valid_lft forever preferred_lft forever
[root@m1 ~]# vzctl exec 101 ip route  
192.168.199.0/24 dev eth0  proto kernel  scope link  src 192.168.199.1 
192.0.2.0/24 dev venet0  scope host 
default via 192.0.2.1 dev venet0 
[root@m1 ~]# vzctl exec 102 ip address
1: lo: <LOOPBACK,UP> mtu 16436 qdisc noqueue 
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP> mtu 1500 qdisc noqueue 
    link/void 
    inet 127.0.0.1/32 scope host venet0
5: eth0: <BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue 
    link/ether 00:12:34:56:78:9d brd ff:ff:ff:ff:ff:ff
    inet 192.168.199.2/24 scope global eth0
    inet6 fe80::212:34ff:fe56:789d/64 scope link 
       valid_lft forever preferred_lft forever
[root@m1 ~]# vzctl exec 102 ip route  
192.168.199.0/24 dev eth0  proto kernel  scope link  src 192.168.199.2 
192.0.2.0/24 dev venet0  scope host 
default via 192.0.2.1 dev venet0 


Что неправильно?

При остановке впса veth-устройства удаляются, поэтому после нового старта надо заново кофигурить.
Попробуйте использовать последнюю версию vzctl, в ней появился скрипт vznetcfg, который вызывается при старте впса и упрощает конфигурирование bridge'ей.


Andrey Mirkin
http://static.openvz.org/userbars/openvz-developer.png

[Updated on: Wed, 11 October 2006 14:29]

Report message to a moderator

Re: Сеть между VE [message #7348 is a reply to message #7347] Wed, 11 October 2006 16:25 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
Quote:


Судя по всему в данный момент впски уже запущены. Тогда зачем вы их стартуете еще раз???



как это запущены? я их только что создал. впрочем, неважно, дело было именно в ip link set br0 up

Quote:


При остановке впса veth-устройства удаляются, поэтому после нового старта надо заново кофигурить.
Попробуйте использовать последнюю версию vzctl, в ней появился скрипт vznetcfg, который вызывается при старте впса и упрощает конфигурирование bridge'ей.



нужна именно 3.0.12? в 3.0.11 vznetcfg еще нет?
Re: Сеть между VE [message #7374 is a reply to message #7348] Thu, 12 October 2006 09:35 Go to previous messageGo to next message
Andrey Mirkin is currently offline  Andrey Mirkin
Messages: 193
Registered: May 2006
Senior Member
enpx wrote on Wed, 11 October 2006 12:25

Quote:


Судя по всему в данный момент впски уже запущены. Тогда зачем вы их стартуете еще раз???



как это запущены? я их только что создал. впрочем, неважно, дело было именно в ip link set br0 up


veth интерфейсы (сами интерфейсы, а не нстройки) могут быть добавлены только при запущенном VPS. Добавлять в bridge можно только существующие устройства.
Т.к. при выполнении команды
brctl addif br0 veth1
ошибки не было, то значит veth1 интерфейс был создан, следовательно и VPS была запущена.
Quote:


Quote:


При остановке впса veth-устройства удаляются, поэтому после нового старта надо заново кофигурить.
Попробуйте использовать последнюю версию vzctl, в ней появился скрипт vznetcfg, который вызывается при старте впса и упрощает конфигурирование bridge'ей.



нужна именно 3.0.12? в 3.0.11 vznetcfg еще нет?


в 3.0.11 vznetcfg еще нет, этот скрипт появился в 3.0.12


Andrey Mirkin
http://static.openvz.org/userbars/openvz-developer.png
Re: Сеть между VE [message #7760 is a reply to message #7347] Tue, 24 October 2006 14:12 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
Andrey Mirkin wrote on Wed, 11 October 2006 10:26


При остановке впса veth-устройства удаляются, поэтому после нового старта надо заново кофигурить.
Попробуйте использовать последнюю версию vzctl, в ней появился скрипт vznetcfg, который вызывается при старте впса и упрощает конфигурирование bridge'ей.


И как правильно использовать vznetcfg? Куда вставлять его вызов и с какими параметрами вызывать? Или править его? Он ссылается на файл /etc/vz/vznet.conf, что должно быть в этом файле?
Re: Сеть между VE [message #7762 is a reply to message #7760] Tue, 24 October 2006 15:10 Go to previous messageGo to next message
Andrey Mirkin is currently offline  Andrey Mirkin
Messages: 193
Registered: May 2006
Senior Member
Этот скрипт запускается при добавлении veth интерфейса. Он выполняется в VE0. Сейчас этот скрипт только поднимает veth интерфейс из VE0:
/sbin/ifconfig ${dev} up


Можете добавить еще какие-то дополнительные действия.

В следующей версии функциональность этого скрипта будет расширена, но пока вы сами можете поэкспериментировать.


Andrey Mirkin
http://static.openvz.org/userbars/openvz-developer.png
Re: Сеть между VE [message #7771 is a reply to message #7762] Wed, 25 October 2006 07:40 Go to previous messageGo to next message
enpx is currently offline  enpx
Messages: 50
Registered: October 2006
Member
И все-таки, зачем конфиг? Вписать в него свои shell-функции, и дергать их их vznetcfg? Все равно тогда без его правки не обойтись.
Re: Сеть между VE [message #7774 is a reply to message #7771] Wed, 25 October 2006 07:50 Go to previous message
Andrey Mirkin is currently offline  Andrey Mirkin
Messages: 193
Registered: May 2006
Senior Member
Сейчас конфиг не используется, в дальнейшем мы планируем его использовать для хранения конфигураций bridges, vlans.

Andrey Mirkin
http://static.openvz.org/userbars/openvz-developer.png
Previous Topic: VE default route
Next Topic: Набор VE : один router/firewall и все остальные за ним
Goto Forum:
  


Current Time: Mon Jul 15 12:46:08 GMT 2024

Total time taken to generate the page: 0.02423 seconds