Samba in VE [message #33726] |
Tue, 04 November 2008 11:17 |
knyaz2020
Messages: 4 Registered: November 2008 Location: Ukraine
|
Junior Member |
|
|
Здравствуйте,
Реален ли сабж, а именно чтобы после установки, настройки и запуска samba в контейнере ее ресурсы были видны в сетевом окружении? Уже и незнаю что делать. Толковой документации нигде не могу найти
Делал по инструкции http://forum.openvz.org/index.php?t=msg&th=951&start =0&
поднял нужные интерфейсы, бридж.. вообщем добился что пакеты бегают как в VE так и наружу, но в сетевом окружении так и невидно ничего
Вот на HN мой ifconfig:
eth0 Link encap:Ethernet HWaddr 00:50:BF:16:0A:9A
inet addr:192.168.1.2 Bcast:192.168.1.255 Mask:255.255.255.0
inet6 addr: fe80::250:bfff:fe16:a9a/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:70351 errors:0 dropped:0 overruns:0 frame:0
TX packets:67427 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:25839280 (24.6 MiB) TX bytes:26009782 (24.8 MiB)
Interrupt:11 Base address:0xc000
eth0.0 Link encap:Ethernet HWaddr 00:50:BF:16:0A:9A
inet6 addr: fe80::250:bfff:fe16:a9a/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:23 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:0 (0.0 b) TX bytes:1274 (1.2 KiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
(для уменьшения кода удалил для этого ифейса строки, также есть ppp0 интерфейс, его также опустил так как не представляет интерес)
venet0 Link encap:UNSPEC HWaddr 00-00-00-00-00-00-00-00-00-00-00-00-00-00-00-00
UP BROADCAST POINTOPOINT RUNNING NOARP MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
veth120.0 Link encap:Ethernet HWaddr 00:18:51:D7:AB:F5
inet6 addr: fe80::218:51ff:fed7:abf5/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:23 errors:0 dropped:0 overruns:0 frame:0
TX packets:12 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:796 (796.0 b) TX bytes:768 (768.0 b)
vzbr0 Link encap:Ethernet HWaddr 00:18:51:D7:AB:F5
inet6 addr: fe80::218:51ff:fed7:abf5/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:6 errors:0 dropped:0 overruns:0 frame:0
TX packets:12 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:295 (295.0 b) TX bytes:984 (984.0 b)
Вот brctl show:
bridge name bridge id STP enabled interfaces
vzbr0 8000.001851d7abf5 no veth120.0
eth0.0
# ip r
195.zzz.yyy.xxx dev ppp0 proto kernel scope link src xxx.yyy.zzz.ddd
192.168.1.12 dev vzbr0 scope link
192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.2
default dev ppp0 scope link
Смущает то что покеты то ходят, но для eth0.0 RX packets: всегда 0, может в этом собака зарыта? или так нужно?
В /etc/vz/conf/120.conf:
NETIF="ifname=eth1,mac=00:18:51:E6:CA:EB,host_ifname=veth120.0,host_mac=00:18:51:D7:AB:F5"
На VE ifcongig:
eth1 Link encap:Ethernet HWaddr 00:18:51:E6:CA:EB
inet addr:192.168.1.12 Bcast:192.168.1.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:5 errors:0 dropped:0 overruns:0 frame:0
TX packets:15 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:308 (308.0 b) TX bytes:420 (420.0 b)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:9 errors:0 dropped:0 overruns:0 frame:0
TX packets:9 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:946 (946.0 b) TX bytes:946 (946.0 b)
venet0 Link encap:UNSPEC HWaddr 00-00-00-00-00-00-00-00-00-00-00-00-00-00-00-00
UP BROADCAST POINTOPOINT RUNNING NOARP MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
# ip r
192.168.1.0/24 dev eth1 proto kernel scope link src 192.168.1.12
default dev eth1 scope link
Да, в вышеданой ссылке добавление VLAN-интерфейса было нужно сделать следующей командой:
vconfig add IF VLANID, т.э. как я понял так:
# vconfig add IF 0
но так он не создается, и пишет:
ERROR: trying to add VLAN #0 to IF -:IF:- error: Invalid argument
Создал такой командой:
# vconfig add eth0 0
Может что не так сделал? Подскажите пожалуйста что не так, ато уже незнаю где копать
|
|
|
|
|
|
|
|
Re: Samba in VE [message #35121 is a reply to message #33726] |
Tue, 03 March 2009 10:47 |
POMAH007
Messages: 39 Registered: May 2007 Location: Kemerovo, Russia
|
Member |
|
|
Ну не дождался я ни от кого нормального решения по броадкасту (курение вики не помогло - видимо, неизличим). Сделал в юникасте - работает.
Проблема с доверительными отношениями между доменами в 3.0.34 (нужно на шару прописать доступ как юзерам из основного домена, так и из одного из доверенных). Вернее, в их отсутствии.
Поставил 3.3.1. Порадовала скорость работы и нормальная работа с доверенными доменами. Но, недолго. Начались зависания. И тут я заметил, что входящие соединения (в смысле, пытаешься открыть соединение) в VE висят (напр., ssh)! Уже открытые работают нормально. Загрузки проца нет, память еще есть, user_beancounter подозрений не вызывает - fail по нулям. Чисто случайно перегрузил winbindd и соединения тут же открылись. И опять зависания.
Делал как для venet, так и для veth. Симптоматика та же. Поменял самбу на 3.2.8. То же самое.
Есть идеи, почему это происходит? Мне на ум приходит только выделить для VE отдельные сетевые карты. Но это не подходит в качестве постоянного решения по нескольким причинам.
З.Ы.: Конфигурацию VE делал из vzsplit -n1.
Везде, на HN и VE стоит SLES10 с последними обновлениями:
Linux sirius-b 2.6.16.60_027stab028.4-0.23-ovz #1 SMP Thu May 15 14:38:31 KMD 2008 i686 i686 i386 GNU/Linux
[Updated on: Tue, 03 March 2009 12:17] Report message to a moderator
|
|
|
Re: Samba in VE [message #35145 is a reply to message #35121] |
Thu, 05 March 2009 04:33 |
POMAH007
Messages: 39 Registered: May 2007 Location: Kemerovo, Russia
|
Member |
|
|
Дело не в интерфейсе. Выяснил совершенно случайно, попробовав запустить man в VE - висит. Почему только man?
Кусок из конфигурации VE:
# UBC parameters (in form of barrier:limit)
KMEMSIZE="158554521:174409973"
TCPSNDBUF="20083507:52851507"
TCPRCVBUF="20083507:52851507"
OTHERSOCKBUF="10041753:42809753"
DGRAMRCVBUF="10041753:10041753"
OOMGUARPAGES="116128:2147483647"
PRIVVMPAGES="116128:127740"
LOCKEDPAGES="2147483647:2147483647"
SHMPAGES="11612:11612"
NUMPROC="32000:32000"
PHYSPAGES="0:2147483647"
VMGUARPAGES="0:2147483647"
NUMTCPSOCK="8000:8000"
NUMFLOCK="1000:2147483647"
NUMPTY="2147483647:2147483647"
NUMSIGINFO="1024:1024"
NUMOTHERSOCK="8000:8000"
DCACHESIZE="2147483647:2147483647"
NUMFILE="2147483647:2147483647"
AVNUMPROC="1935:1935"
NUMIPTENT="200:200"
# Disk quota parameters (in form of softlimit:hardlimit)
DISKSPACE="253900000:253940000"
DISKINODES="400000:440000"
QUOTATIME="0"
# CPU fair sheduler parameter
CPUUNITS="23000"
/proc/user_beancounters:
Version: 2.5
uid resource held maxheld barrier limit failcnt
104: kmemsize 3482797 3969144 158554521 174409973 0
lockedpages 0 0 2147483647 2147483647 0
privvmpages 27133 31071 116128 127740 0
shmpages 7 679 11612 11612 0
dummy 0 0 0 0 0
numproc 59 66 32000 32000 0
physpages 13600 16098 0 2147483647 0
vmguarpages 0 0 0 2147483647 0
oomguarpages 13600 16098 116128 2147483647 0
numtcpsock 28 29 8000 8000 0
numflock 23 27 1000 2147483647 0
numpty 2 3 2147483647 2147483647 0
numsiginfo 0 16 1024 1024 0
tcpsndbuf 259488 250560 20083507 52851507 0
tcprcvbuf 1228416 1179264 20083507 52851507 0
othersockbuf 196416 215296 10041753 42809753 0
dgramrcvbuf 0 9584 10041753 10041753 0
numothersock 132 142 8000 8000 0
dcachesize 0 0 2147483647 2147483647 0
numfile 1497 1696 2147483647 2147483647 0
dummy 0 0 0 0 0
dummy 0 0 0 0 0
dummy 0 0 0 0 0
numiptent 10 10 200 200 0
0: kmemsize 3730564 4669358 2147483647 2147483647 0
lockedpages 16247 16247 2147483647 2147483647 0
privvmpages 14611 22766 2147483647 2147483647 0
shmpages 1325 1981 2147483647 2147483647 0
dummy 0 0 2147483647 2147483647 0
numproc 80 99 2147483647 2147483647 0
physpages 11043 11893 2147483647 2147483647 0
vmguarpages 0 0 2147483647 2147483647 0
oomguarpages 11043 11893 2147483647 2147483647 0
numtcpsock 11 12 2147483647 2147483647 0
numflock 2 4 2147483647 2147483647 0
numpty 3 4 2147483647 2147483647 0
numsiginfo 0 3 2147483647 2147483647 0
tcpsndbuf 245520 245520 2147483647 2147483647 0
tcprcvbuf 180224 180224 2147483647 2147483647 0
othersockbuf 93048 99640 2147483647 2147483647 0
dgramrcvbuf 0 17120 2147483647 2147483647 0
numothersock 72 76 2147483647 2147483647 0
dcachesize 0 0 2147483647 2147483647 0
numfile 1728 2014 2147483647 2147483647 0
dummy 0 0 2147483647 2147483647 0
dummy 0 0 2147483647 2147483647 0
dummy 0 0 2147483647 2147483647 0
numiptent 10 10 2147483647 2147483647 0
free на HN:
total used free shared buffers cached
Mem: 774192 211420 562772 0 29808 76272
-/+ buffers/cache: 105340 668852
Swap: 1060272 0 1060272
free в VE:
total used free shared buffers cached
Mem: 464512 109964 354548 0 0 0
-/+ buffers/cache: 109964 354548
Swap: 0 0 0
Дисковые квоты отключил.
Ау-у!!! Народ???
[Updated on: Thu, 05 March 2009 04:35] Report message to a moderator
|
|
|
|
Re: Samba in VE [message #35166 is a reply to message #35164] |
Fri, 06 March 2009 14:59 |
POMAH007
Messages: 39 Registered: May 2007 Location: Kemerovo, Russia
|
Member |
|
|
Теперь тольк 10-го
Подвисает все, хоть сколько-нибудь большое (что я подразумеваю под большим - сам не пойму пока). Вот пока то, что на практике: man; сервис xinetd не перегружается: ну ssh входящее соединения, хотя сам сервис sshd нормально перегружается.
Попробую. Параллельно с этим попробую версию ядра поменять (если удастся что-то скомпилять от OpenSUSE).
Причем, виновник, на 90% - winbindd. Что он может делать такого? Ресурсы какие-то пожирает? Но почему тогда в статистике не видно?
[Updated on: Sun, 08 March 2009 06:36] Report message to a moderator
|
|
|
|