четверг, 20 октября 2011 г.

VLAN'ы в линуксе - нюанс

Столкнулся с ситуацией - поднял неск. вланов на серваке, все на одном физическом интерфейсе. Внутри вланов все интерфейсы видно, а снаружи видно только один - в котором дефолт. Смотрю tcpdump - трафик в другие вланы приходит и дропается, попыток ответить нет. Оказалось, что виноват rp_filter - reverse path filtering. Вырубаем сисктлом и не забываем прописать в sysctl.conf:
sysctl -w net.ipv4.conf.all.rp_filter=0
sysctl -w net.ipv4.conf.default.rp_filter=0
sysctl -w net.ipv4.conf.eth0.rp_filter=0
....

и так далее по всем интерфейсам
Потестил на разных дистрах - в шестом дебиане по дефоту отключено, в центосе и бубубунте включено.

Второй Альфа легионер

В этот раз сверху regal blue нанёс очень сильно разведёный snot green, стараясь "собрать" цвет по краям доспехов. Но слой слишком тонкий оказался. На третьем десантнике слой сделал чуть более насыщенным - получше смотрится. Но третий ещё не готов, зато вот второй:



Первый и второй:


среда, 12 октября 2011 г.

Амазон и трансляции

Сегодня, вернее уже вчера вечером некая контора разыгрывала в одном московском клубе скидки на квартиры. Так получилось, что мне пришлось срочно поднимать резервную площадку для трансляции розыгрыша церемонии вручения купонов.
Делать решили на амазоне, используя адобовские образы с флешем (тут рассказывал про это). Настроил один ориджин, на который ребята, занимающиеся трансляцией, пустили поток из клуба, перед ним 3 эджа. Все 4 инстанса - x.large. Балансером тут выступал по сути офсайт, плеер раздавался клиентам с ссылкой на один из эджей. Коллега, который плеер на сайт прикручивал, сделал ротацию и убоал мою карусель в резерв.
В какой-то момент пришлось ресчехлять.
Итого нагрузка в пике составила в сумме 5,5 тыс. одновременных трансляций, за ~3 часа отдали полтора терабайта. Из-за небольшой ошибки, часть клиентов на ориджин попали, но так, как он мог вынести нагрузку на уровне с эджами - оставили, просто убрали его из ротации.
Причём занятно - поначалу трансляция с амазона была довольно тормозная, пока коннекты единичные были, но после их резкого роста все тормоза прекратились )

Вот график отдачи:


Странноват, конечно..
В общем, aws - вполне годится для трансляций в прямом эфире, где допустим лаг в 5-8 секунд.
И, да, всё удовольствие вышло примерно в 300$.

воскресенье, 9 октября 2011 г.

пятница, 7 октября 2011 г.

Несколько айпишников в одном влане в бубунте

В общем, стал делать по анаогии с обичними интерфесами, сделал в /etc/network/interfaces интерфейс
eth0.111:0 - не подымается.
Заработал в варианте:


auto eth0.111
iface eth0.111 inet static
        address xxx.xxx.xxx.98
        netmask 255.255.255.224
        vlan_raw_device eth0

auto eth0.111:1
iface eth0.111:1 inet static
        address xxx.xxx.xxx.99
        netmask 255.255.255.224
        vlan_raw_device eth0

четверг, 6 октября 2011 г.

Yota дешевеет

Yota скоро будет за 500р. в месяц давать инет со скоростью 300 Кбит.
Для резервного инета сойдёт. Заодно решил проверить - будет ли мой старый модем работать. Работает, в кабинете стоит тариф Лайт до сентября 2012.

вторник, 4 октября 2011 г.

Приехали Опустошители

Собственно, вот они:


 Срезал:

Блин, надо бы штурмовиков доделать, но хочется и этих хотя бы собрать и подготовить под покраску ) Ещё на очереди командный взвод.

centos vs adaptec 6xxx

Дело-то, вообще говоря, дрянь.. Вот возможное решение, но надо тыкать флешки - нам не подходит:
http://www.webhostingtalk.com/showthread.php?t=1068797

понедельник, 3 октября 2011 г.

NFS и квоты

Понадобилось заквотировать товарища, который NFS юзает.
Не стал с мудрить с нфс квотами, сделал так:
1. завёл юзера и группу для него.
2. выставил ему квоты.
3. заменил в /etc/exports опции на  /backup/colo/userfoo   xxx.xxx.xxx.xxx(rw,all_squash,anonuid=528,anongid=504)
Где 528 и 504 - это созданные юзер и группа.
4. выставил овнером хозяйства товарища нового юзера/группу
5. ну и нфс рестартанул
Таким образом, кем бы товарищ не писал в эту нфс, всё туда будет падать с правами локальным овнером 528:504 и будет квотироваться.