А возможно ли сделать след. на OpenVZ [message #6149] |
Sun, 10 September 2006 10:27 |
HappyAlex
Messages: 27 Registered: September 2006
|
Junior Member |
|
|
очень интересный продукт, хочу погонять его
и так ..
пока мы маленькая Хостинг компания, но хотим предоставлять VDS нашим клиентам
интесуют вопросы
каждый клиент получает я так понимаю свой кусок места свои рессурсы
каждый пользователь может запустить свой апач ?! свой неймед !? свой маскуль ?! или все то что он хочет ?!
ресурсы не пересекаются с другими процессами других VDS ?
вот еще какой вопрос
Я рассматриваю систему от RH GFS
будет ли работать OPenVZ c GFS ?
Возможно ли организовать след.
скажем на Сервере я поднимаю 3 VDS
мне нужно след. при отказе одной с VDS в работу включался след. VDS или любой из 2 оставшися .. т.е брал на себя роль умершего VDS можно это сделать или нет ?
[Updated on: Sun, 10 September 2006 10:29] Report message to a moderator
|
|
|
Re: А возможно ли сделать след. на OpenVZ [message #6151 is a reply to message #6149] |
Sun, 10 September 2006 16:38 |
Vasily Tarasov
Messages: 1345 Registered: January 2006
|
Senior Member |
|
|
Quote: | каждый пользователь может запустить свой апач ?! свой неймед !? свой маскуль ?! или все то что он хочет ?!
|
Если вы выдаёте VE per client, т.е. каждому клиенту свой VE с рутовым доступом - то клиент, как root имеет полный контроль над VE: может ставить, запускать всё, что хочет, не выходя при этом из VEшных лимитов.
Quote: | ресурсы не пересекаются с другими процессами других VDS?
|
Извините, не очень понимаю что вы имеете в виду? Поясните на примере, пожалуйстаю.
Quote: | Возможно ли организовать след.
скажем на Сервере я поднимаю 3 VDS
мне нужно след. при отказе одной с VDS в работу включался след. VDS или любой из 2 оставшися .. т.е брал на себя роль умершего VDS можно это сделать или нет ?
|
Главное понять, что является "отказом VE", т.е. по какому признаку это определять. Пример: вы с некоторым промежутком времени делает http запросы на apache server, запущенный в VE. Если запросы перестают обрабатываться - скрипт либо перезапускает этот VE, либо запускает второй, с теми же настройками...
Что касается RH GFS... В принципе, проблем быть не должно, с двумя оговорками.
1) Ядрёный модуль от gfs вам придётся билдить самим как модуль к OpenVZ ядру. А так как OpenVZ ядро изменённое - могут возникнуть некоторые проблемы. Например, сообщается: http://forum.openvz.org/index.php?t=tree&th=909&mid= 4931&&rev=&reveal=
Но я думаю эта проблема решается достаточно быстро.
2) OpenVZ disk quota не будет работать на GFS.
|
|
|
|
|
|
|
|
|
Re: А возможно ли сделать след. на OpenVZ [message #6196 is a reply to message #6194] |
Mon, 11 September 2006 18:37 |
Rommer
Messages: 25 Registered: January 2006 Location: Belarus
|
Junior Member |
|
|
Согласно вашим предположениям насчёт квот на NFS:
http://forum.openvz.org/index.php?t=msg&goto=5101#msg_51 01
GFS должна работать, т. к. квоты в ней считает клиент, а не сервер, поскольку сервер предтавляет из себя машину, которая просто предоставляет block device по сети (NBD, GNBD, iSCSI). Файловая система уже монтируется с любого блочного устройства локально на нодах кластера:
Allows a cluster of computers to simultaneously use a block
device that is shared between them (with FC, iSCSI, NBD, etc...).
GFS reads and writes to the block device like a local filesystem,
but also uses a lock module to allow the computers coordinate
their I/O so filesystem consistency is maintained. One of the
nifty features of GFS is perfect consistency -- changes made to
the filesystem on one machine show up immediately on all other
machines in the cluster.
Я думаю, что заставить VPS'ы работать на GFS вполне реально, поскольку я не вижу никаких технических и теоретических
препятствий для этого. В результате должно получиться что-то вроде этого:
http://wiki.openvz.org/HA_cluster_with_DRBD_and_Heartbeat
только не надо будет, чтобы машины простаивали, ожидая, пока свалится active-сервер, и с возможность практически моментального
мигрирования VPS'ов между нодами.
|
|
|
|
Re: А возможно ли сделать след. на OpenVZ [message #6238 is a reply to message #6149] |
Tue, 12 September 2006 13:14 |
Rommer
Messages: 25 Registered: January 2006 Location: Belarus
|
Junior Member |
|
|
ok. вот мои наработки:
http://dl.activeby.net/rpms/gfs-ovz/
Я использовал 2.6.9-023stab016.2-enterprise, но в нём нужно включить POSIX_ACL, иначе gfs не подгрузится. Я сделал это так:
1. Нужно скачать и установить:
http://download.openvz.org/kernel/rhel4/023stab016.2/ovzkern el-2.6.9-023stab016.2.src.rpm
2. /usr/src/redhat/SPEC/kernel-ovz.spec нужно заменить на этот:
http://dl.activeby.net/rpms/gfs-ovz/ovzkernel/kernel-ovz.spe c
3. Вот этот патч
http://dl.activeby.net/rpms/gfs-ovz/ovzkernel/enterprise-pos ix-acl.patch
нужно положить в /usr/src/redhat/SOURCES
4. Ну и пересобрать enterprise ядро:
# cd /usr/src/redhat/SPEC
# rpmbuild --target=i686 -bb kernel-ovz.spec
Теперь как я ставлю gfs:
Во первых тестирую всё локально, т. е. block device использую локальный (в моём случае /dev/hdc1)
1. Нужно пересобрать все rpm-ки из
http://dl.activeby.net/rpms/gfs-ovz/
Я делал это на centos-4.2.
Получившееся ранее ovzkernel-2.6.9-023stab016.2.i686.rpm с включенным POSIX_ACL должно быть установлено.
Патч к GFS находится в
http://dl.activeby.net/rpms/gfs-ovz/GFS-kernel-2.6.9_023stab 016.2-58.3.centos4.src.rpm
В остальных я ничего не менял, либо менял только spec-файл чтобы собралось под 2.6.9-023stab016.2-enterprise
2. Всё, что собралось нужно поставить (кроме *-debuginfo-*)
3. Далее так ({hostname} - это имя сервера, должно резолвится не в 127.0.0.1):
# gfs_mkfs -t cluster:st01 -p lock_dlm -j 2 /dev/hdc1
...
# ccs_tool create cluster
# ccs_tool addfence manual fence_manual
# ccs_tool addnode -v 1 -f manual {hostname}
# reboot (в новое ядро 2.6.9-023stab016.2-enterprise)
...
4. После ребута:
# mkdir /vz
# mount -t gfs /dev/hdc1 /vz
5. Теперь стандартная установка vzctl, vzctl-lib, vzquota, и т. д. и т. п.
Ошибки начинают вылазить не сразу - где-то через минуты 2 после старта VPS'а. Квоты не считаются никак.
[Updated on: Tue, 12 September 2006 13:42] Report message to a moderator
|
|
|
|
|
|
|