+34.90
Рейтинг

Vitaliy

еще одно открытие прошлых лет

вот я писал про цикл, что когда-то давно с «говно» вдс перевозил людей на дешевый дедик, который был как небо и земля
потом прошло 10 лет и те самые дедики тоже стали «говно» дедиками и теперь перевожу людей на вдс на мощных топ процах 7950x

НО кое что я забыл
и осознал
просто 10 лет назад везде были HDD диски, не только процессоры старые, а еще и диски были не SSD даже
поэтому дедик на ssd диске с хорошим процессором за «такую же цену», где еще и озу было не 4-8 а сразу 16 озу с запасом типо, ведь никто же дедик с меньшим озу продавать физически не может, поэтому пихали плашки и получалось 16-32

именно поэтому они тормозили
именно поэтому дедики и были лучше

возможно многим тогда казалось что «новые хостеры» типо имеют безграничные финансы раз покупают ТОП железо и SSD
но нет блять, просто годы прошли, в магазинах стало «по умолчанию» продаваться современное оборудование. и все новички которые делали «за туже цену» — они просто шли в магаз и покупали ТО ЧТО ВАЛЯЛОСЬ на витрине. они не пытались демпинговать или не пытались сделать лучше чем у старичков. они просто пытались создать бизнес из того, что было доступно под рукой в тот момент.

так вот, что еще можно сказать про цикл? цикл это отсеивание слабаков. тех хостеров которые не готовы повторно повторять создание с нуля бизнеса. вот устарело у них все и все — они не хотят снова всю свою прибыль отдавать и вкладывать в покупку нового железа, а потом снова ждать какое-то кол-во лет пока все окупится. и такие слабаки как раз продаются и закрываются.

вот многие говорят про естественные монополии, когда нецелесообразно делать одно и тоже
или многие говорят что любой «новый» рынок в конечном счете становится развитым и зрелым.

но почему-то хостинг так и не стал монополией — все равно дохуища дата-центров и хостеров

почему же?
а мне кажется потому что как раз цикл устаревания заставляет сам рынок постоянно трансформироваться
нету такого рынка среди дата-центров который бы созрел и все больше не менялся
постоянно с каждым циклом созревает снова «новый» рынок, потом опять «новый внутри старого» тд тд

поэтому хостинг это такой бизнес который никогда не может прийти к какому-то логическому завершению, как электросеть или отопление

в хостинге не существует такого проекта, который бы потреблял одинаковое потребление — поэтому в нем нет так называемой зрелости. казалось бы вот было 50 хостеров шареда под сайты, прошел цикл, осталось 5 которые решили остаться на рынке и продолжать. но а куда им продолжать? если внутри шаред рынка родился рынок вдс. а потом родился рынок облаков. а потом рынок нейросетей. но по факту это все то, что должно сидеть на рынке хостинга. но почему-то происходит постоянно перерождение. и поэтому старичкам приходится так же перерождаться и опять соревноваться. в каждый цикл открывается ниша для новичков, которые могут стартовать «на новом» просто с нуля. но ведь так не должно быть, нужно стремиться же к монополии.

cortel.cloud - попался интересный кейс

абсолютно скрытая деревня листа
дало мне то, чего я 100% не ожидал от региональной компании (искал новосиб цоды так туда и попал)
короче сначала я подумал — блять очередной блог копипасты всякой воды и общих терминов без смысла, ну как часто бывает когда накручивают массу в блоге на сайте, тупо хуйню несут из заваулированных фраз и красивых предложений

НО как только я начал читать каждый топик
и копировать себе в блог
hosting.kitchen/cortel-cloud/novosti-2019-2023.html

я начал понимать — что автор того блога, не ебанный копирайтер или хабро писатель/переводчик, а действительно понимает о чем пишет
пусть он пишет красивым юридическим языком, а не как я простым народным
но он точно работал с госами и точно знает как им продавать

так что их блог оказался очень даже полезный для кругозора
и советую всем почитать

а так же, они не просто так используют модный домен .cloud
сначала я думал они просто «ну для моды»
но нет, они тоже шарят что это «стандарт»
нашел в их сети accessin.cloud и другие ТЕХНИЧЕСКИЕ домены — тот кто это регал, явно не нубас и любит свою работу — он любит делать красиво

так что из офисных сотрудников распильщиков денег директоров
компания вдруг превратилась в очень даже грамотную компанию в моих глазах — после их встречи по одежке — после встречи с их сайтом

мне это сразу напомнило, как я недавно восхищался другим конкретным четким пацанским блогом (а не как везде у всех вода ебанная)
hosting.show/news/ebat-vot-eto-blog-davno-takogo-ne-videl.html

продолжаем продавать то, что раньше не продавали, фашист Мартин Хетзнер спонсирует конкурентов - ублюдок зацени какой спрос был в Июне на твоего германского конкурента

твой Германский конкурент не прочь заработать денюжек, в то время как ты отказываешься
сколько дедиков идет не в твой карман








Строим туннели Hetzner

я как-то писал запрос на работу
hosting.show/rabota-alice2k/podrobnaya-nastroyka-proksirovaniya-setey-na-hetzner-plyus-nastroyka-v-vmmanager---faq-s-kartinkami.html

так вот, чел какой-то откликулся
и я ему заплатил

сам я этим пользоваться не буду, потому что не люблю суррогаты
если я покупаю в хетзнер то и хочу продавать услугу от хетзнер, если купил в овх то и хочу продать овх, иначе теряется сам смысл продажи конкретного товара из прайс листа
но как и обещал — выкладываю в паблик, чтобы любой мог сделать так же



Сама статья
1. Настройка на сервере роутере. (Тут должны быть непосредственно прикреплены подсети и AlmaLinux (На момент тестов – 8.9))

1.1 Включаем ip forward в файле “/etc/sysctl.conf”
Для этого выполняем команду:
nano /etc/sysctl.conf

Добавляем в файл значение “net.ipv4.ip_forward=1”
Сохраняем файл, выполняем команду:
sysctl -p

ВАЖНО! Если пропустите хоть один шаг, в дальнейшем туннель может рассыпаться.

1.2 Устанавливаем пакеты “net-tools, iptables, iproute2” (Вместо iproute2 может быть iproute) (Здесь он нам нужен для iptunnel и роутов)
Для этого выполняем команду:
apt install net-tools iptables iproute2


1.3 Поднимаем сам GRE, MTU не трогаем, оно для нас полностью подходит.
Для этого выполняем команды:
sudo modprobe ip_gre
lsmod | grep gre

СВЕРЯЕМСЯ! Вывод после выполнения команд должен быть такой:
ip_gre                          0
gre                               1 ip_gre

Снова необходимо выполнить команды, которые поднимут GRE туннель:
iptunnel add gre1 mode gre local <strong>ROUTER_IP</strong> remote <strong>NODE_IP</strong> ttl 255
ip addr add 192.168.5.1/30 dev gre1
ip link set gre1 up

ВНИМАНИЕ! Здесь необходимо заменить “ROUTER_IP” на IPv4 адрес вашего сервера-роутера, а NODE_IP на IPv4 адрес вашей ноды куда необходимо перенести подсеть.
Выполняем следующую команду:
ip a

СВЕРЯЕМСЯ! Вывод после выполнения команды должен содержать данную информацию:
gre1@NONE: <POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1476 qdisc noqueue state UNKNOWN group default qlen 1
        link/gre SERVER_IP peer NODE_IP
        inet 192.168.5.1/30 scope global gre1
              valid_lft forever preferred_lft forever

1.4 Добавляем роут подсети и работаем с firewall ОС:
Выполняем следующую команду:
ip route add x.x.x.x/y via 192.168.5.2 dev gre1

ВНИМАНИЕ! Здесь необходимо заменить “x.x.x.x/y” на вашу подсеть, вовсе не обязательно иметь или переносить /24, это может быть любая от /30? например – 1.1.1.168/29.
1.5 Отключаем нахуй все firewall в нашем AlmaLinux, выполняя следующую команду:
systemctl disable --now firewalld

Теперь проверяем через команду ip a, чтобы подсеть x.x.x.x/y не осталась на каком-либо сетевом интерфейсе сервера-роутера. Если IP-Адреса или подсеть осталась на каком-либо интерфейсе удаляем их через команду:
ip a del x.x.x.x/y dev INTERFACE

ВНИМАНИЕ! Здесь необходимо заменить “x.x.x.x/y” на вашу подсеть, например 1.1.1.168/29, а “INTERFACE” на имя сетевого интерфейса, где находятся данные IP-Адреса, например ens3.

КОНЕЦ НАСТРОЙКИ РОУТЕРА + ВАЖНОЕ! Изменения пропадают с рестартом сервера-роутера! Поэтому надо сохранить их либо в etc/network/interfaces, либо в условный rc.local (Не очень рекомендую). Сохранить необходимо данные с пунктов 1.3 и 1.4, остальное делается разово и не требует повторений.
2. Настройка на ноде или узле, кому как привычнее. (Необходима ОС AlmaLinux (На момент тестов – 8.9))
2.1 Включаем ip forward в файле “/etc/sysctl.conf”
Для этого выполняем команду:
nano /etc/sysctl.conf
Добавляем в файл значение “net.ipv4.ip_forward=1”
Сохраняем файл, выполняем команду:
sysctl -p

ВАЖНО! Если пропустите хоть один шаг, в дальнейшем туннель может рассыпаться.

2.2 Устанавливаем пакеты “net-tools, iptables, iproute2” (Вместо iproute2 может быть iproute) (Здесь он нам нужен для iptunnel и роутов)
Для этого выполняем команду:
apt install net-tools iptables iproute2


2.3 Поднимаем сам GRE, MTU не трогаем, оно для нас полностью подходит.
Для этого выполняем команды:
sudo modprobe ip_gre
lsmod | grep gre

СВЕРЯЕМСЯ! Вывод после выполнения команд должен быть такой:
ip_gre                          0
gre                               1 ip_gre

Снова необходимо выполнить команды, которые поднимут GRE туннель:
iptunnel add gre1 mode gre local NODE_IP remote ROUTER_IP ttl 255
ip addr add 192.168.5.2/30 dev gre1
ip link set gre1 up

ВНИМАНИЕ! Здесь необходимо заменить “ROUTER_IP” на IPv4 адрес вашего сервера-роутера, а NODE_IP на IPv4 адрес вашей ноды куда необходимо перенести подсеть.

2.4 Добавляем роуты и айпишники на узел и сам узел в VMmanager 6:
Для этого выполняем команду:
echo 100 vm >> /etc/iproute2/rt_tables

Отлично, теперь добавляем узел/ноду в VMmanager 6 с типом сети – Маршрутизация и айпи адресами из подсети +1 (ЭТО ВАЖНО)
Пример: если у нас подсеть 1.1.1.168/29, тогда в VMmanager 6 мы добавляем адресное пространство 1.1.1.169-1.1.1.175.
После добавления узла переходим в ssh и выполняем команды:
ip rule add from x.x.x.x/y table vm
ip route add 0.0.0.0/0 via 192.168.5.1 dev gre1 table vm
ip route add x.x.x.x/y dev vmbr0 table vm
ip addr add x.x.x.x/y dev vmbr0

ВНИМАНИЕ! Здесь необходимо заменить “x.x.x.x/y” на вашу подсеть, например – 1.1.1.168/29.

2.5 Добавляем разрешение для форвардов, выполняя следующие команды:
iptables -A FORWARD -i gre1 -o vmbr0 -j ACCEPT
iptables -A FORWARD -i vmbr0 -o gre1 -j ACCEPT


КОНЕЦ НАСТРОЙКИ НОДЫ/УЗЛА + ВАЖНОЕ! Изменения пропадают с рестартом сервера! Поэтому надо сохранить их либо в etc/network/interfaces, либо в условный rc.local (Не очень рекомендую). Сохранить необходимо данные с пунктов 2.3, 2.4 и 2.5, остальное делается разово и не требует повторений. ВАЖНО Х2: выполнять “echo 100 vm >> /etc/iproute2/rt_tables” из пункта 2.4 повторно не надо.


Читать дальше →

вот еще косяк billmanager нового всратого дизайна



у каких-то хостеров ОНО ДАЖЕ НЕ ВЛЕЗЛО
тупо не влезло
и судя по всему никто ни сотрудники ни сам хостер ни разработчики биллинга — решить эту проблему не могут

а ведь это мешает чтению клиента прайс листа

//
отчасти тут конечно и хостер туповат или сотрудник который наполнял биллинг, зачем писать ДАТА-ЦЕНТР слово ебанутый чтоли? как будто итак не понятно?

оказывается у Ростелекома уже есть бренд - dcnetwork.ru

вот я спрашивал и думал будет ли ребрендинг
hosting.show/alice2k-hosting/kakoe-nazvanie-vyberet-rostelekom-v-etom-godu-na-zamenu-tele2-rostelekom-kak-by-uzhe-imeet-svoe-oblako.html

но оказалось что у них уже есть сайт


только все как обычно печально
даже установить Billmanager не в состоянии сотрудники видимо

предлагают клиенту заполнить форму )

когда массовый клиет хочет сам оценить ваш ебучий прайс лист
или вовсе заказать удаленно сборку сервера вашими сотрудниками и купить его в «нужный geo ДЦ»

hosting.show/alice2k-hosting/dopolnil-vcherashnyuyu-mysl.html
hosting.show/alice2k-hosting/sobstvenno-prodolzhaya-topik-mozhno-voobsche-rozhdat-novyy-servis.html