April 10th, 2020

Cat-light

За что я не люблю CentOS

Прежде всего — за безголовое управление кривой инсталлятор. Смотри скриншот справа ради получения лулзов. А если серьезно, то:


  • в "полновесном" ISO-шнике нет опции удаленной SSH-установки в текстовом режиме (как в Debian-е режим "remote console");

  • в режиме "minimal install" он не ставит ну совсем вообще ничего, даже tar-а;

  • почему-то нельзя сделать swap-раздел перед root-разделом (и это от версии к версии так, wtf?).

Это только по инсталлятору. По софту.

То, что он там зело тухлый, промолчу, спишем на дизайн и "стабильность". Но! Нужно постоянно подключать тонны каких-то сторонних или условно-сторонних репозиториев. Какие-то там "EPEL", "CONTRIB" и прочие. tar лежит в одном репозитории, pv и 7z — в другом. Postgres ставится из третьего места, расширения для него — из четвертого. Блин, что за бред? Не, в Debian-е тоже есть подобные приколы, связанные в основном с его замороченностью на бесплатности и GNU-танутости. Только там один раз прописал в sources.list заклинание "main contrib non-free" ещё на этапе инсталляции и забыл. А тут вечно какой-то головняк.

Collapse )
Cat-light

OpenVSwitch: границы применимости

В одном из проектов, в которых я сейчас участвую, архитектор почему-то люто топит за применение OpenVSwitch. У меня возникает вопрос следующего характера.

Вот мы вводим в систему новую сущность. Одновременно она становится ещё одно точкой отказа, звеном, которое нужно настраивать / траблшутить / мониторить / обслуживать, и т.п. Требуется тратить дополнительное время на развертывание / изучение / хождение по потенциальным граблям и так далее. Какие такие преимущества принесёт этот самый OpenVSwitch в нашем конкретном случае?

Ну то есть я понимаю, когда у тебя несколько сотен хост-машин и пара тысяч VLAN-ов, то да. Разруливать такое хозяйство Linux-овыми Bridg-ами становится уже немного хлопотно. Но когда у тебя десяток физических серваков и дюжина VLAN-ов? Стоит ли овчинка выделки?

Кто что может сказать по этому поводу? Есть у кого-нибудь реальный опыт использования? Меня интересуют прежде всего границы применимости / оправданности выбора данного решения.

Cat-light

Про электричество для сервера

Что-то меня внезапно торкнуло посчитать что дороже: держать средненагруженный одноюнитовый сервер в офисе или в датацентре, если учитывать только электричество. Вот как я рассуждаю.

Исходные данные.

Мой сферический сервер в вакууме под средней нагрузкой потребляет примерно 150 Вт электрической мощности. Предположим, что кондиционер на отвод тепла от него затрачивает такую же мощность (потом как-нибудь заморочусь, измеряю).

Для юридического лица в Нерезиновске один киловатт-час стоит... да фиг знает сколько. Положим, 5 рублей со всеми налогами (если у кого есть данные поточнее, поделитесь пожалуйста). Аренда шкафа (без интернета) в средненормальном датацентре в той же Нерезиновой стоит в районе 60 килорублей в месяц со всеми налогами. В цену входит 22 Ампера максимального потребляемого тока (около 5 кВт). В шкафу можно разместить до 40 серверов (два юнита под свитчи типа).

Если шкаф в ЦОД-е мы забиваем серверами полностью (а иначе нет смысла его арендовать), то один сервер обойдется в условные 60 000 / 40 = 1500 деревянных в месяц.

Если посчитаем ценник за электричество в офисе, получится (150 + 150) / 1000 * 24 * 30 * 5 = 1080 деревянных в месяц.

Странно, но вроде как в офисе при таких вводных внезапно дешевле. Я имею в виду, если шкаф в датацентре забит до отказа. Если же мы всё равно не знаем чего бы ещё туда (в шкаф) запихнуть, то имеет смысл, конечно, монтировать именно туда. Ибо в ЦОДе прайс фиксированный и не зависит от реального потребления.

А вы что думаете по этому поводу? Нет ли в моих рассуждениях какой-нибудь логической ошибки? Я сейчас рассматривую исключительно денежную составляющую. Всякие там параметры типа надежности, бесперебойности работы, удобства обслуживания, стабильности каналов связи и т.п. во внимание не принимаю.