еще проблема с которой можно столкнуться в ДЦ
на стойку выделяется какое-то кол-во энергии
т.е. стойки или ДЦ старых форматов когда серверы наверно не потребляли много электроэнергии
в итоге вот стойка на 48u
но тогда получается если даже 45 серверов по 450 ватт воткнуть это уже 20квт получается
но только при 45 шт по 1u — цена коло становится «приемлемая»
если же занимать целую стойку но на 20 серверов или 10 — то цена коло уже не приемлема. но иногда энергии выдают только суммарно на 20 серваков получается.
опять же, чем дачный ДЦ выигрывает в этом плане
у него тоже есть какой-то предел электричества
но ему похуй сколько юнитов, потому что место безлимитное там. и поэтому не нужно обязательно уплотняться каким-то образом.
думаю в ближайшие годы ДЦ тоже будут транформироваться
от банальных минимальных 5квт до 10-15квт
буквально УЖЕ СЕЙЧАС должен быть минималка 12квт хотя бы. а модный ДЦ должен иметь до 20-30квт запаса на стойку, если он хочет называться модным и современным.
тот самый ЦИКЛ есть даже в ДЦ
т.е. стойки или ДЦ старых форматов когда серверы наверно не потребляли много электроэнергии
в итоге вот стойка на 48u
но тогда получается если даже 45 серверов по 450 ватт воткнуть это уже 20квт получается
но только при 45 шт по 1u — цена коло становится «приемлемая»
если же занимать целую стойку но на 20 серверов или 10 — то цена коло уже не приемлема. но иногда энергии выдают только суммарно на 20 серваков получается.
опять же, чем дачный ДЦ выигрывает в этом плане
у него тоже есть какой-то предел электричества
но ему похуй сколько юнитов, потому что место безлимитное там. и поэтому не нужно обязательно уплотняться каким-то образом.
думаю в ближайшие годы ДЦ тоже будут транформироваться
от банальных минимальных 5квт до 10-15квт
буквально УЖЕ СЕЙЧАС должен быть минималка 12квт хотя бы. а модный ДЦ должен иметь до 20-30квт запаса на стойку, если он хочет называться модным и современным.
тот самый ЦИКЛ есть даже в ДЦ
9 комментариев
т.е. ты хочешь сказать что дело в проектировании самого здания
поэтому изменив провода — проблему не решить и нужно перестраивать именно здание или строить новое вовсе
так?
Многие годы, пока на стойку было не более 5-10кВа в среднем по больнице, всех устраивал подход воздушного охлаждения и отведения тепла. Сейчас же, поскольку современное железо, а так же железо с видеокартами под ИИ, становятся всё более и более мощными (горячими), старый подход по охлаждению и отведению тепла перестаёт быть эффективным. Ты говоришь — «модный ДЦ должен иметь до 20-30квт запаса на стойку». Я тебе и отвечаю — ты забываешь про тепло, которое нужно как-то отвести, а так же как-то охладить такие «горячие» стойки. Подвести более толстый кабель с бОльшим запасом по силе тока к стойке — не самая сложная задача. Сложнее всего — организовать отвод тепла и охлаждение 10+ кВт стоек в маш.зале в одном ряду с другими стойками.
Потому что в горячем коридоре, даже у 7кВт стойки, температура в близи 40 серверов будет в среднем на уровне 45 градусов, при постоянно поступающих 23-25 градусах холода (зависит от честности ЦОДа) из холодного коридора. Это уже не мало, и, например, на стойках с 10-12кВт, задняя часть серверов постоянно будет перегрета и это вполне может чаще приводить к выходу из строя серверов, особенно актуально для платформ, у которых стоят PCIe видеокарты или те же NVME накопители через PCIe переходники, ещё и учитывая тот факт что видеокарты и накопители и так греются сильно под нагрузкой и их температуры могут быть тоже на уровне 65-80 градусов в среднем.
Именно поэтому сейчас всё чаще идут разговоры про жидкостное охлаждение стоек, но тоже с разным подходом, когда у тебя условно сразу вся стойка с «плавающими» серверами в ней, в неком диэлектрике или же стойка с водоблоком, который встроен непосредственно в стойку. Серверные платформы с СЖО появляются постепенно на рынке за последние годы. В ЦОДах такие стойки тоже уже появляются, даже в РФ. Например в московском датапро у какой-то клиентской стойки лично видел такой тип охлаждения, когда у стойки система жидкостного охлаждения вмонтирована прям вертикально рядом с ПДУ, имея специальные фитинги подключения СЖО, в которые подключаются трубками серверные платформы. У самих серверных платформ в задней части выходят обычно по 2-4 трубки для включения в эту систему СЖО. Если найду сейчас похожие фотки в гугло-картинках, прикреплю их, чтобы понятнее было о чём речь.
В итоге пройдёт какое-то количество лет, чтобы сменилось ещё пару поколений железа и ЦОДы начнут постепенно строить из гибридных (воздух+сжо), под уже современные серверы с жидкостным охлаждением и тут то твои запросы по 20-30кВт на стойку как раз начнут покрываться.
специально прошелся по ДЦ и посмотрел
ixcellerate.ru/data-centers/moscow-south-campus/
MOS1 — до 10
MOS2 — до 12
MOS3 — до 15
MOS4 — до 15
MOS5 — до 20
очень странно почему selectel который строил в тоже самое время — не сделал так же а только 5 квт, неужели у них не было спроса? или просто они забыли исправить эту информацию на сайте?
тот же GreenBushDC до 20 квт
у 3data которые контейнеры тоже самое есть постройки с 15 квт
даже в региональных ДЦ
например в Барнауле есть ДЦ с 15 квт
или в новосибе недавно отстроили abc-dc.ru
2,5 МВт, 2500/198 = 12 квт на стойку
в принципе вот взять datapro
что у них написано?
До 2023 г планируется запуск нового дата-центра на 2400 стойко-мест с мощностью потребления порядка 12 МВт.
12000/2400 = 5 квт
тут архитектор лох видимо не думает о будущем
а что написано у селектела на новом Юрловском?
Общая подведенная мощность дата-центра составит 20 МВт, средняя мощность на стойку — 8 кВт.
Новый дата-центр Selectel уровня Tier IV, как заявляет провайдер, будет обладать самым большим в России машинным залом площадью 4,5 тыс. кв. метров на 2 тыс. стоек с возможностью расширения.
20000/2000 = 10 квт по идее вытянет, но видимо они с запасом, поэтому написали 8 квт
нужно прямо делать новый блог про ДЦ hosting.show/tag/dc.industries/
все не было настроения
нужно собраться с силами и начать наполнять и упорядочивать
потому что будущее за цодами именно, как вектором развития рынка хостинга
потому что в противном случае люди будут просто на дачах делать, где дачу нада рассматривать как помещение под 4 стойки на 120 квт допустим, там проблем с охлаждением нет. 4 стойки по 45 серверов — за глаза на «дачную оптику». а потом просто открываешь еще одну дачу и тд тд
и кстати не все оказывается пишут
кто-то вообще даже не пишет
уже с 2025 года клиент будет хотеть 15 квт на всякий случай, как сейчас хочет мощный процессор на всякий случай или 10г сетевуху на всякий случай
5 квт если где-то увидишь надпись будешь считать что это столетний ДЦ, как столетний Хеон
думаю уже скоро такое мнение тоже станет массовым
а и мощность на стойку
а так же наличие интернет провайдеров, есть еще дата-центры которые продвигают только одного магистрала с которым у них контракт что тоже какая-то глупость, с таким подходом массовых продаж не будет
там будет сразу охуенное электричество
а еще лучше если там сразу запустится услуга «покупки сервера» типо 200к закидываешь и тебе собирают сервак в твою стойку и 15 лет нахуй пока не сгорит
поживем увидим