• avatar jackb
  • 0
рег ру за все деньги требует
  • avatar alice2k
  • 0
про наличность пожалуй соглашусь да

но мое мнение что нужно «делать красиво и модно» — будет неизменчиво в любом случае. у того же reg.ru я никогда ничего не куплю, потому что они не соответствуют моим понятиям современности и «идти в ногу со временем».
  • avatar jackb
  • 0
так cash реально как-то не очень. был бы .billing, было бы круто
  • avatar alice2k
  • 0
доменные зоны не должны пустовать

зачем тогда придумали «смысловые» зоны?

типо .car
.bible
тд

все должно быть по смыслу разложено

только вот общество как раз не хочет делать красиво. именно дрочерство на красоту интернет брендинга.
  • avatar rm_
  • 1
cash вообще не о том, для зарубежных людей кэш — это именно наличные бумажные, а не просто деньги.

Но тут сама идея не очень, неужели ты серьёзно думаешь что лучше если оплачивать услуги какого-нибудь hetzner.de вместо что там у них, panel.hetzner.de какого, открывался бы hetzner.money? Ну камон. Никто так не делает и выглядит странно.
  • avatar rm_
  • 0
billing.providername.tld, всё остальное выглядит как нелепое школотронство и доменодрочерство ради самих доменов.
Обычно тебе цод продаёт colocation 1 юнит с какой-то фикс.мощностью, к примеру 350W или 500W на одну розетку от одной фазы. Когда у тебя будут принимать сервер на установку в стойку ЦОДа на колокейшн, в первую очередь проверят мощность БП по наклейкам на сервере и если она сильно выше того, что ты оплачиваешь по прайсу за 1 юнит, предупредят о последствиях в будущем (либо это уже будет написано в договоре — соглашении на обслуживание).

Если у тебя в сервере стоят 2 БП по 1+ KW каждый и сервер под нагрузкой в проде будет превышать мощность, которую тебе продали в 1 юнит, попросят оплатить всё что свыше или выключат электропитание к серверу. Ну и ЦОД, заранее зная, что у сервера БП с большой мощностью, вероятнее всего сразу поставит твой сервер у себя в такую стойку, где будет реально занято буквально несколько юнитов, а остальные юниты закрыты заглушкой. Потому что у стойки есть определенный запас по мощности.

Поэтому да, если поставишь, условно, 10 серверов в стойку на каком-нибудь 2 х Xeon Gold или на 2 x AMD EPYC, как раз и получится что у тебя 10 серверов в стойке под нагрузкой будут те же 7-10 кВт потреблять в среднем и больше ты серверов уже если и поставишь, то только под страх срабатывания защиты от нагрузки в PDU или распределительном щите, рискуя оставить все серверы в стойке без электропитания.
Юнит 1600 ватт сильно же будет отличаться от 400 ватт, и если ты такой жирный сервер воткнёшь то ДЦ другие части стойки особо не продаст.
Или тогда 4 юнита брать придётся?

Сейчас чтобы один юнит сожрал всё электричество достаточно засунуть в сервер два 128 ядерных эпика и забить под завязку оперативкой.
Всё очень просто и от этого напрямую зависит конечная стоимость и управление:
— аренда маш.зала или отдельного ряда в маш.зале
— аренда стойко-места (мест), куда тебе ЦОД подвёл уже заранее электричество, охлаждение, а ты уже покупаешь и ставишь свои стойки, а платишь либо фикс за 5/7/10кВт или по счётчику (сколько электричества потребил столько и оплатил в месяц), а все остальные затраты (железо, интернет, монтаж и настройка железа в стойку) на тебе, как на клиенте, потому что у тебя собственная стойка со своим железом
— аренда стойки 42 или 48, в которую цод тебе уже поставит свои PDU на каждую фазу, за отдельную плату может быть даже коммутатор какой-то предложат
— юниты в стойке (считай colocation)

В зависимости от того, что подходит клиенту, такую схему взаимодействия с цодом и выбирает клиент.
А юниты — это речь как раз про последний пункт, когда тебе цод под ключ продаёт 1, 2, 3, 4 юнита в стойке, куда ты приехал и воткнул свои серверы. Выдаст даже какую-нибудь /29 или /28 подсеть на эти серверы с 5-15 IP адресами. Ну или за отдельную плату может быть даст тебе какую-нибудь /24 в аренду, если у цода они есть в наличии.
  • avatar jackb
  • 0
> старые линейки которые могли бы еще 5 лет отработать принудительно закрывают
держать дц старого оборудования бессмысленно, ибо большинству надо что-то мощнее, нежели атом или еще что-то, поэтому они закрывают этот дц. ведь дешевле выгнать пользователей старья и размещать там новое оборудование, нежели строить новое помещение. может овх вообще с продажи этого старья уходит в ноль, а то и минус
> зачем ты спрашиваешь нас о лишнем действии и растягиваешь время? потому что ты хочешь себе бонус денежный за кол-во тикетов да?
скорее всего, что это просто предосторожность. чтобы всякие дураки потом не писали «вы мои файлы потеряли» или что-то еще.
но менять диск два дня это мощно, хетзнер поменял бы за полчаса
  • avatar alice2k
  • 0
короче я понял одно
нужно прямо делать новый блог про ДЦ hosting.show/tag/dc.industries/
все не было настроения
нужно собраться с силами и начать наполнять и упорядочивать
потому что будущее за цодами именно, как вектором развития рынка хостинга
  • avatar alice2k
  • 0
да в принципе уже и сейчас много где есть
специально прошелся по ДЦ и посмотрел
ixcellerate.ru/data-centers/moscow-south-campus/


MOS1 — до 10
MOS2 — до 12
MOS3 — до 15
MOS4 — до 15
MOS5 — до 20

очень странно почему selectel который строил в тоже самое время — не сделал так же а только 5 квт, неужели у них не было спроса? или просто они забыли исправить эту информацию на сайте?

тот же GreenBushDC до 20 квт
у 3data которые контейнеры тоже самое есть постройки с 15 квт

даже в региональных ДЦ
например в Барнауле есть ДЦ с 15 квт
или в новосибе недавно отстроили abc-dc.ru
2,5 МВт, 2500/198 = 12 квт на стойку

в принципе вот взять datapro
что у них написано?
До 2023 г планируется запуск нового дата-центра на 2400 стойко-мест с мощностью потребления порядка 12 МВт.
12000/2400 = 5 квт
тут архитектор лох видимо не думает о будущем

а что написано у селектела на новом Юрловском?
Общая подведенная мощность дата-центра составит 20 МВт, средняя мощность на стойку — 8 кВт.
Новый дата-центр Selectel уровня Tier IV, как заявляет провайдер, будет обладать самым большим в России машинным залом площадью 4,5 тыс. кв. метров на 2 тыс. стоек с возможностью расширения.
20000/2000 = 10 квт по идее вытянет, но видимо они с запасом, поэтому написали 8 квт
  • avatar shussa
  • 0
как я сюда попал
Даже не просто в проектировании, а в самом подходе к построению ЦОДов.

Многие годы, пока на стойку было не более 5-10кВа в среднем по больнице, всех устраивал подход воздушного охлаждения и отведения тепла. Сейчас же, поскольку современное железо, а так же железо с видеокартами под ИИ, становятся всё более и более мощными (горячими), старый подход по охлаждению и отведению тепла перестаёт быть эффективным. Ты говоришь — «модный ДЦ должен иметь до 20-30квт запаса на стойку». Я тебе и отвечаю — ты забываешь про тепло, которое нужно как-то отвести, а так же как-то охладить такие «горячие» стойки. Подвести более толстый кабель с бОльшим запасом по силе тока к стойке — не самая сложная задача. Сложнее всего — организовать отвод тепла и охлаждение 10+ кВт стоек в маш.зале в одном ряду с другими стойками.
Потому что в горячем коридоре, даже у 7кВт стойки, температура в близи 40 серверов будет в среднем на уровне 45 градусов, при постоянно поступающих 23-25 градусах холода (зависит от честности ЦОДа) из холодного коридора. Это уже не мало, и, например, на стойках с 10-12кВт, задняя часть серверов постоянно будет перегрета и это вполне может чаще приводить к выходу из строя серверов, особенно актуально для платформ, у которых стоят PCIe видеокарты или те же NVME накопители через PCIe переходники, ещё и учитывая тот факт что видеокарты и накопители и так греются сильно под нагрузкой и их температуры могут быть тоже на уровне 65-80 градусов в среднем.

Именно поэтому сейчас всё чаще идут разговоры про жидкостное охлаждение стоек, но тоже с разным подходом, когда у тебя условно сразу вся стойка с «плавающими» серверами в ней, в неком диэлектрике или же стойка с водоблоком, который встроен непосредственно в стойку. Серверные платформы с СЖО появляются постепенно на рынке за последние годы. В ЦОДах такие стойки тоже уже появляются, даже в РФ. Например в московском датапро у какой-то клиентской стойки лично видел такой тип охлаждения, когда у стойки система жидкостного охлаждения вмонтирована прям вертикально рядом с ПДУ, имея специальные фитинги подключения СЖО, в которые подключаются трубками серверные платформы. У самих серверных платформ в задней части выходят обычно по 2-4 трубки для включения в эту систему СЖО. Если найду сейчас похожие фотки в гугло-картинках, прикреплю их, чтобы понятнее было о чём речь.

В итоге пройдёт какое-то количество лет, чтобы сменилось ещё пару поколений железа и ЦОДы начнут постепенно строить из гибридных (воздух+сжо), под уже современные серверы с жидкостным охлаждением и тут то твои запросы по 20-30кВт на стойку как раз начнут покрываться.





  • avatar alice2k
  • 0
надеюсь в 2025 году в ЦОД Юрловский от Селектел — новый который по кол-ву стоек как ДатаПро
там будет сразу охуенное электричество
а еще лучше если там сразу запустится услуга «покупки сервера» типо 200к закидываешь и тебе собирают сервак в твою стойку и 15 лет нахуй пока не сгорит

поживем увидим
  • avatar alice2k
  • 0
в каталог цодов тоже нужно добавлять будет пару пунктов, не только город или район мегаполиса
а и мощность на стойку
а так же наличие интернет провайдеров, есть еще дата-центры которые продвигают только одного магистрала с которым у них контракт что тоже какая-то глупость, с таким подходом массовых продаж не будет
  • avatar alice2k
  • 0
даже у лидеров кстати 5квт



и кстати не все оказывается пишут
кто-то вообще даже не пишет

уже с 2025 года клиент будет хотеть 15 квт на всякий случай, как сейчас хочет мощный процессор на всякий случай или 10г сетевуху на всякий случай
5 квт если где-то увидишь надпись будешь считать что это столетний ДЦ, как столетний Хеон
думаю уже скоро такое мнение тоже станет массовым
  • avatar alice2k
  • 0
ну значит скоро начнут строиться новые ДЦ которые будут от 15 до 30, а если под ИИ какое-ниб то и до 50 или выше даже
потому что в противном случае люди будут просто на дачах делать, где дачу нада рассматривать как помещение под 4 стойки на 120 квт допустим, там проблем с охлаждением нет. 4 стойки по 45 серверов — за глаза на «дачную оптику». а потом просто открываешь еще одну дачу и тд тд
  • avatar alice2k
  • 0
не совсем улавливаю мысль
т.е. ты хочешь сказать что дело в проектировании самого здания
поэтому изменив провода — проблему не решить и нужно перестраивать именно здание или строить новое вовсе
так?
Про тепло и охлаждение забываешь. Дать больше энергии в стойку не сложная задача для цода, проложив тебе трассу от распределительного щита в стойку кабелем с более толстым сечением проводника.