Как стать автором
Обновить
35
0

Профессиональный зануда

Отправить сообщение

то такие свитчи также невозможно установить/демонтировать в таких стойках.

Можно :) и даже без перерыва сервиса. Но нужны рукастые дсим-инженеры

Ну это не настолько фееричный баг, как в своё время был у циски (где защитный колпачок, воткнутый в определённый порт, зажиал кнопку сброса коммутатора).

У нас огромное количество арист в хозяйстве и почти все они стоят в 600мм стойках (и хорошо если 1200, а не 1070 или 1000). Могу сказать что да, ситуация неприятная, но жить можно

Ставить свичи в верхние юниты не самая лучшая идея, потому что нужно будет потом ещё с кейблингом возиться и иметь патчи разных размеров, чтобы это всё нормально разместить. Обычно всё-таки свичи ставятся в середину стойки

600мм стойки это стандарт практически везде. Очень мало где вам дадут 800мм поставить в принципе. Иногда дают, но за плюс % к стоимости стойки.

В целом да, больно. Да, приходится снимать PDU чтобы вытащить свич - поэтому в инфровых стойках стараемся ставить горизонтальные PDU

при выпадении любых двух дисков R10 выживет, но в режиме degraded (как и R6). При этом шанс "добить" массив при ребилде R6 выше, т.к. пересчитывать придётся больше данных.

Сборка в R0 (двух R1, что и даёт искомый R10) нужна для нивелирования пенальти R1 на запись

Настроить RAID-контроллер того же делла сможет джун по мануалу, и это будет работать с любой ОС.

Правильно приготовить и потом админть ZFS - это уже для квалифицированных специалистов, а если в качестве ОС не линукс, например? У коллег из ruVDS, емнип, бОльшая часть гипервизоров на винде, если не вся

т.к. RAID10 - это RAID0 и двух R1, то на 8 дисках вылететь могут любые два (по одному из каждого R1 или два в одном R1)

4xRAID1 дороговато с т.з. пенальти на запись (хотя если у вас поверх этого какая-то фс или другой способ рандомной записи на каждый чанк, то в целом пойдёт).

Насчёт чёрных билетиков - на восьми дисках как раз RAID10 вылет любых двух переживёт (у вас будет один degraded raid1 и один "здоровый" в RAID0). но при этом при ребилде у вас будет пересчитываться не весь объём целиком (как в RAID6), а лишь половина.

Но не обязательно собирать именно 10. Вы можете собрать 4 отдельных R1 массива в R0 (силами ОС, или если контроллер позволит), либо два R0 в R1 (вот тогда может не повезти, да)

Меня прям удивляет экономия на спичках^W дисках. Если брать нормальные, ent-grade диски, они умирают крайне редко. Даже под VDS (мы тоже хостер, и таки тоже имеем опыт).

Но RAID5?! Это же максимум домашний NAS, когда данные в принципе жалко, но на четыре диска и RAID10 жалко деняк.

Да даже тут на хабре писали (очень давно!), почему RAID5 нельзя использовать в проде (хоть с hot spare, хоть без...) С тех пор всё стало сильно лучше - диски подешевели (даже флеш), и RAID10 уже не стоит, как крыло от боинга (а если в сервере 8+ дисков, то и "убиваться" они будут медленнее, чем 2-4 бОльшего объёма.

Смотря сколько дисков вам нужно собрать в RAID. Судя по спекам он выдаёт не более 16 GT/s, что соответствует PCIe Gen4 x1. Тогда как нормальный энтерпрайзный NVMe подключается по U.2 на скорости до 32GT/s (на диск). И это топовый контроллер.

Вот коммутаторы, они продаются без проблем, но они бывают в двух видах поставки: OEM и коммерческой, условно. Вторая отличается тем, что там внутри салазки для монтажа в стойку. Купить салазки можно только с коммутатором, отдельно они не продаются.

А что за коммутаторы, если не секрет? Но вообще продолбать крепёж в стойку (или заказать с "ушами" вместо нормальных рельс - это классика.

Кто-то забронировал для своих, для других, перепродал другим. Запутанные истории, и даже сами менеджеры эти истории распутать не могут. Главное, кто-то платит, стоек нет, но кто-то платит.

Это называется "платный резерв". Не очень приятно, но других вариантов сейчас в коммерческом коло нет, если ты хочешь быть уверен, что получишь стойку тогда, когда тебе нужно. В остальном - да, всё так. Стоек в Москве практически нет, свободные мощности выкупаются очень быстро.

Я очень за вас рад =) но с точки зрения найма это ад, нет. если вы можете себе позволить прособеседовать 200 чел, чтобы взять двоих - прекрасно. Но не все так могут

Во-первых, серверы бывают разные, в т.ч. и не очень мощные.

Во-вторых, можно использовать PSU-кабели одинаковой длины во всей стойке

Как коллега по опасному бизнесу, я и согласен, и нет.

Налоговая уже давно очень активно намекает, что пора бы слезать с УСН всем, кроме микробизнесов, и начинать платить НДС. И первые звоночки были, емнип, ещё даже до пандемии, когда начали снижать лимиты для попадающих под УСН компаний. Время на перестройку было, но это ж надо бухглатера искать, процессы переделывать... Все тянули до последнего, конечно же.

Далее те же провайдеры, сидящие на УСН, воют на профильных конференциях в духе "людей нет, работать некому, все ушли на СВО или хотят триста тыщ". Ну да. "Они умнеют, милорд (с)". Т.е. внезапно люди даже в регионах начинают требовать нормальную зарплату, либо уходят к конкурентам (безработица-то околонулевая), а в телекоме и раньше-то платили по низу рынка, а сейчас вообще стало швах.

Про гомогенность инфраструктуры, её плюсы и минусы, обсуждения идут давно. На своём опыте (выросшем из мелкого интернет-провайдера в начале карьеры) я придерживаюсь мнения, что поставщиков нужно минимум два. Два вендора сетевого, два вендора серверной платформы. И никакой привязки к вендорским NMS и прочим свистоперделкам, если инфраструктура это основа вашего бизнеса. Потому что если вы плотно сидите на одном вендоре, и вендор это знает - то во-первых он будет выкручивать вам руки, а во-вторых - вы резко снижаете для себя поле для манёвра в экстремальных ситуациях.

Но это ваш путь :) Уверен, вы знаете, что делать и у ruvds всё будет хорошо. Просто не нужно свои проблемы экстраполировать на всю отрасль. Да, железо выросло в цене - отчасти из-за вендоров, отчасти из-за логистики. Да, ужас. Но не ужас-ужас! (с)

Мы много нанимаем - и админов, и сетевиков, и архитекторов. Но про такую воронку мне странно слышать от хостинга - где большинство задач типовые.

Я подозреваю, что вы ищете мастеров-шива-восьмируких, которые и в ремонт, и в сети, и линупсы с виндой. И всё это за условные триста тыщ. Подход имеет право на жизнь, но имеет свои недостатки - например, хрена с два такого спеца на рынке найдёшь.

Наш подход - это узкая специализация. Сетевики занимаются сетью, HDWR - ремонтами, админы - админят. А у хостинга вообще своя продуктовая команда, в т.ч. оперирование. У него тоже есть свои минусы, конечно. Но по крайней мере вакансии закрываются без гигантских воронок и самое большое за пару месяцев активного поиска. Хотя именно по админам да, всё достаточно печально последнее время - толковые ушли в девопсы или тимлиды, а те что есть на рынке - в большинстве случаев обнять и плакать

Ну это же у вас написано, что для идеальной PDU нужно "количество розеток с19 не менее 6". По мне так идеальная PDU - это 48хC13 и без C19 вообще ;) Ну ладно, парочку можно оставить, если вдруг захочется поставить какую-нибудь блейд-корзину. Но C13 всё равно должно быть минимум 40

банка это от слова bank - группа розеток на PDU, объединённая общим автоматом.

А зачем нужно столько C19 розеток? неужели часто нужно ставить блейд-корзины/схд?

Я не про кругозор, а именно про "разбираться на уровне заказчика" в одной-двух областях, и иметь тот самый кругозор во всём остальном (насколько позволяет ситуация в компании). Обычно это админ/архитектор который начал заниматься закупками, если мы говорим про ИТ. Вы статью прочитайте, я там более подробно расписал ;)

Так-то оно всё конечно да.
Но если компания айтишная, и закупщик занимается не только флешками и ноутбуками, то кажется, что "обычного" закупщика надолго не хватит. И придётся переползать во что-то более айтишное

1
23 ...

Информация

В рейтинге
4 907-й
Откуда
Санкт-Петербург, Санкт-Петербург и область, Россия
Дата рождения
Зарегистрирован
Активность