0.00
4 читателя, 2288 топиков

600 ТБ за 1 мес - проверили анализ, нашли "клонов" одного чела который потратил 100к уже чтобы убить пару дисков за 8000р


Percentage Used:                    7%
Data Units Read:                    15,873,385 [8.12 TB]
Data Units Written:                 652,372,912 [334 TB]
Host Read Commands:                 479,992,583
Host Write Commands:                21,656,590,620
Controller Busy Time:               11,252
Power Cycles:                       10
Power On Hours:                     356

15 дней диску — 300 ТБ
месяц отработки — 600 ТБ
на 700 ТБ сдыхает диск? hosting.kitchen/yacolo-com/proshel-god-s-momenta-kak-my-dali-vtoroe-dyhanie-dc-cherez-7950x.html#comment3595

странное дело
он тратит суммарно 100к
чтобы убивать диски? которые стоят 8000р?
не верится мне

даже если ему чудом удастся закупиться виртуалками со всех узлов
то ему нада как минимум на 300000р накупить
и в итоге он убьет 20 узлов 20*8000 = 160000р
все равно в минусе будет

наверно тут дело в чем-то другом
трудно сказать, т.к. за 10 лет не разу такие IOPSы не видели
а 500 ТБ записи обычно накапливается за 5 лет на ОВХ нодах

что-же за приложение такое может быть в 60000 IOPS?

или это создается для того чтобы проверить нас на слабо?
или это чтобы «соседи» страдали? так никто не страдает всем похуй

третья идея заработка за жизнь - которую я протестировал своим временем и кошельком, и слил для всей страны

первая идея была делать сайты на wordpress (2009) — тогда еще мне объявили войну веб-студии
вторая идея были точки продаж и реселлинг (2016) — за прошедшие 7 лет было создано более 20 успешных прибыльных точек, а в целом более 100-200 хостингов, многие из которых конечно же «школьники разочаровались». в целом суммарно почти пол миллиарда оборота в год насобиралось — столько я помог людям заработать, дал им идею.

и вот третья — делать ДЦ на 20 стоек


интересно, будет популярна?
или все же люди у нас в стране не желают вкладываться?
т.к. на модели «перепродавать» — вкладываться не нужно вовсе. поэтому ее очень легко запустить.

все остальные десятки идей — не довелось протестировать, а очень бы хотелось например проверить ПО, как средство зачистки рынка, и фразу «от москвы до владивостока»



сколько нужно для старта?


что за круговорот?
hosting.show/qa/vozmozhno-oba-podhoda-odinakovo-vernye.html
hosting.show/qa/opyat-vopros-o-virtualkah-lyudi-veryat-chto-eto-pribylnoe-delo-no-ved-nikto-ne-dokazal-na-rynke-ni-statey-ni-otchetom-ni-grafikami-dohodov.html
hosting.show/tag/%D0%B2%D0%B8%D1%80%D1%82%D1%83%D0%B0%D0%BB%D0%BA%D0%B8/
hosting.show/tag/%D1%81%D0%BE%D0%B7%D0%B4%D0%B0%D0%BD%D0%B8%D0%B5%20%D1%85%D0%BE%D1%81%D1%82%D0%B8%D0%BD%D0%B3%D0%B0/

если кто-то захочет открыть такое
пишите [email protected]
лучше всего если это частный дом и рядом в поле самострой будет чтобы можно за 2 минуты сходить перезагрузить сервак
дачные участки подойдут, если рядом есть откуда протянуть электричество и оптику, например если там производство где-ниб рядом или какая-то компания куда уже все заведено
прямо охуенно будет если у вас склад/гараж рядом с geo-ix точкой будет, вы сможете такие темы там развивать
будет охуенно если в каждом рф городе найдется такой человек желающий заработать
можно будет применить туда другую старую идею с «провайдерскими IP домашними» по стране

В интерфейсе BILLmanager 5 появилась возможность очищать корзину одной кнопкой

В интерфейсе BILLmanager 5 появилась возможность очищать корзину одной кнопкой — раньше для этого приходилось удалять каждую услугу отдельно.

Короче когда удаляешь платежи неоплаченные — все что должно было быть по этим платежам — летело в корзину.
Допустим ты так очистил мусорные платежи за пару месяцев — и потом 20 минут тыкаешь удаляешь из корзины )

По правильному — хостер, должен был в платежных методах установить настройку «удалять неоплаченные платежи спустя 3 дня» допустим.
Но в ISPsystem так не делали и не настроили почему-то.

Поэтому я почти больше чем 5 лет — вручную очищал платежи.
Ведь я же не пиздабол чтобы делать скриншот потом оборота вместе с «неоплаченным мусором».
Я делал скриншоты только честные.

Но в тоже время, что-то пошло не по плану



Поэтому можно сделать двоякие выводы.
Вот кстати когда-то в 2013-2015 годах когда пользовался Технодом ДЦ — там постоянно были работы по питанию.
А к примеру в ОВХ — 10 лет без работ можно жить.
В чем разница?
В том же ihc.ru(держал там для друга услугу) тоже сроду не было за 10 лет не одной работы по питанию.

как думаете, домены .money .cash могут подходить под биллинги ?

допустим создается какой-то хостинг
и хочет для биллинга купить домен

обычно там какой-то рандом всегда делается
.onl
.online
.tech
.host
.hosting
.app
.cloud
или что-то подобное

но ведь биллинг это деньги
а значит, по логике вещей
.cash
.money
вполне могут подходить, не так ли?

думаю актуально добавлять в мире хостинга еще профессию - тестировщик приложений для серверов и облаков

из-за того что сейчас клиентами становятся алгоритмы
hosting.show/alice2k-hosting/mozhno-li-schitat-chto-seychas-klientam-oblakov-vmesto-lyudey-stali-algoritmy-.html
то не каждый сервер работает с этой моделью
кто-то жалуется на отсутствие gpu, кто-то наоборот говорит что докер не работает, «не уверен, что смогу подружить CodeProjectAI в докере с видеокартой»©
кто-то говорит процессор не подходит, кто-то говорит только Интелы подходят, другие же наоборот говорят у нас только АМД работают с приложением.
третьи говорят что виртуалки не годятся нужна апаратная часть
кто-то ебет за частоту и разгор процессора, кто-то за одно поток, кто-то за много-поток

если РАНЬШЕ клиенты требовали либо мощности процессора/сервера, либо мощности в каналах ДЦ и связности сети ДЦ, либо изоляции/дублирования/локальной-сети, бекапов-слепков-блочности, гибкости облачной(тд)
и их можно было сегментировать таким образом

то сейчас кол-во сегментов возросло капитально
и набор услуг увеличился из 5 в 50, думаю где-то так

если когда-то давно условно можно было поделить на шаред вдс дедик облако, то сейчас «парк серверов» может быть пригоден только для 5% клиентов, а 95% клинтов облака/дедика хотят ДРУГОЙ парк серверов, не ПУ не юзабилити, а именно ЖЕЛЕЗНОЙ основы.

и как обычно, многие из них не разбираются сами — хостер должен сделать эту работу за них
помните я писал рождается новая профессия закупщик в облаках? (2016-2018 годы где-то тогда писал)
как 10 лет назад качественный реселлер подбирал дата-центры по описанным выше параметрам, то сейчас рождается новая профессия тестировщик аппаратной части дедика.

можно ли считать что сейчас клиентам облаков вместо людей стали алгоритмы ?

уже неоднократно писал, что компании перестали делать дедики, перестали делать услуги для людей
hosting.show/alice2k-hosting/ne-sluchilos-chuda-kak-bylo-ploho-ovh-tak-i-ostalos.html
т.е. продаются серверы которые продавались и 10 лет назад
они давно устарели, но никто не хочет их обновить на более свежее
плюс они даже их теперь еще и закрывают насильно hosting.show/alice2k-hosting/rabotalo-5-let-do-nas-rabotaet-5-let-u-nas-i-esche-5-let-by-prorabotalo-.html
убивают старую модель продаж ради новых облаков hosting.show/alice2k-hosting/vot-esche-horoshiy-primer-kak-dc-delayut-zagraditelnye-tarify.html

любая новость какую не открыть
только и знают что делают дорогие ML GPU AI сервисы
или облачные продукты типо таких hosting.kitchen/ovh/otkroy-buduschee-celnyy-iskusstvennyy-intellekt-i-strogaya-konfidencialnost.html

или вот такие обновляют
hosting.show/alice2k-hosting/mozhno-li-schitat-chto-sredniy-chek-klienta-seychas-300-evro-v-2023-2024-godah-s-prihodom.html

и собственно так происходит абсолютно по всему миру.
т.е. дата-центры создают сервисы для алгоритмов
если раньше ДЦ создавали облака для компаний, то сейчас напрямую «под какие-то сервисы», а сам сервис публичный и не закрытый, для закрытых технологий конкретной компании
т.е. массовым клиентом становятся алгоритмы, но и старый клиент тоже не умирает, он просто уходит в другие компании, он больше не массовый, но все равно — клиент





в том что облака деградировали для «обычного потребителя интернета» — виноваты сами хостеры которые стремились работать лишь с крупными заказчиками

**где-то ранее я уже писал на эту тему целый топик, но очень сложно искать мысли когда их дохуя**
просто скажу что там была эта же мысль, что сами компании которые когда-то делали низкокачественные ВДС — в тот момент когда начали строить высококачественные облака — тупо выгнали и прогнали свою старую аудиторию, которая потом осела на дешевых дедиках которые работают так же как работали вдс.

тоже самое сейчас происходит с сегментом «дешевого дедика» — компании его принудительно УБИВАЮТ, как когда-то раньше убивали ВДС

или все не так ?
может ли быть такое что РАЗРЫВ между старыми потребителями и новыми потребителями — стал слишком огромен
старые проекты им хватает и 4 ядра и они могут и 10 лет сидеть
любые современные проекты хотят сразу ML GPU AI и 90 ядер
а что посередине?
а вот тех кто посередине — НЕТУ
может ли быть такое?

в хостинге обычно все работает как часы, пока сторонний поставщик что-ниб не сделает

у меня же услуги — работают пока не сгорят

но вот беда, пришла жалоба
We have indications that there was an attack from your server.
Please take all necessary measures to avoid this in the future and to solve the issue.

We also request that you send a short response to us. This response should contain information about how this could have happened and what you intend to do about it.
In the event that the following steps are not completed successfully, your server can be blocked at any time after the 2023-09-18 12:01:05 +0200.

How to proceed:
— Solve the issue
— Test if the issue still exists by using the following link: abuse.hetzner.com/retries/?token=2ac956fc7fb62e2b458bf49d041ab83
— After successfully testing that the issue is resolved, send us a statement by using the following link: abuse.hetzner.com/statements/?token=2ac956fc7fb62e2b458bf49d041ab83

Important note:
When replying to us, please leave the abuse ID [AbuseID:D072E2:29] unchanged in the subject line. Manual replies will only be handled in the event of a lock down. Should you have any questions relating to this, please contact our support staff at [email protected].
Please note that we do not provide telephone support in our department.
If you have any questions, please send them to us by responding to this email.

Kind regards

Network department

Hetzner Online GmbH
Industriestr. 25
91710 Gunzenhausen / Germany
Tel: +49 9831 505-0
Fax: +49 9831 505-3
[email protected]
www.hetzner.com

Register Court: Registergericht Ansbach, HRB 6089
CEO: Martin Hetzner, Stephan Konvickova, Günther Müller

For the purposes of this communication, we may save some
of your personal data. For information on our data privacy
policy, please see: www.hetzner.com/datenschutzhinweis

> ##########################################################################
> # Netscan detected from host 148.251.26.208 #
> ##########################################################################
>
> time protocol src_ip src_port dest_ip dest_port
> — > Sun Sep 17 22:00:45 2023 TCP 148.251.26.208 32512 => 192.168.1.8 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 14230 => 192.168.1.124 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 47160 => 192.168.1.125 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 55070 => 192.168.1.126 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 52720 => 192.168.1.127 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 36342 => 192.168.1.128 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 40436 => 192.168.1.129 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 11804 => 192.168.1.132 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 18204 => 192.168.1.135 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 36572 => 192.168.1.136 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 44366 => 192.168.1.137 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 49118 => 192.168.1.139 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 63418 => 192.168.1.143 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 16946 => 192.168.1.147 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 28166 => 192.168.1.148 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 16862 => 192.168.1.150 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 64098 => 192.168.1.151 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 62926 => 192.168.1.153 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 26722 => 192.168.1.154 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 16570 => 192.168.1.156 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 19126 => 192.168.1.157 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 10168 => 192.168.1.159 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 50006 => 192.168.1.160 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 50120 => 192.168.1.161 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 64374 => 192.168.1.162 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 44214 => 192.168.1.163 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 39778 => 192.168.1.164 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 34204 => 192.168.1.165 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 13026 => 192.168.1.166 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 20770 => 192.168.1.167 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 30480 => 192.168.1.168 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 20308 => 192.168.1.169 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 16386 => 192.168.1.170 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 59316 => 192.168.1.171 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 19628 => 192.168.1.172 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 32978 => 192.168.1.173 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 18470 => 192.168.1.174 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 42728 => 192.168.1.175 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 60750 => 192.168.1.176 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 38514 => 192.168.1.177 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 56216 => 192.168.1.178 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 29190 => 192.168.1.179 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 29926 => 192.168.1.180 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 52740 => 192.168.1.181 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 13068 => 192.168.1.182 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 42930 => 192.168.1.183 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 47202 => 192.168.1.184 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 27494 => 192.168.1.185 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 33142 => 192.168.1.186 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 58380 => 192.168.1.187 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 56488 => 192.168.1.188 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 60424 => 192.168.1.189 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 26674 => 192.168.1.190 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 34004 => 192.168.1.191 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 16900 => 192.168.1.192 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 14948 => 192.168.1.193 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 58414 => 192.168.1.194 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 43708 => 192.168.1.195 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 26410 => 192.168.1.196 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 62562 => 192.168.1.197 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 37082 => 192.168.1.198 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 38040 => 192.168.1.199 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 19452 => 192.168.1.200 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 56192 => 192.168.1.201 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 25662 => 192.168.1.202 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 25046 => 192.168.1.203 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 47594 => 192.168.1.204 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 31164 => 192.168.1.205 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 64376 => 192.168.1.206 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 11992 => 192.168.1.207 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 51498 => 192.168.1.208 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 64320 => 192.168.1.209 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 32908 => 192.168.1.210 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 22086 => 192.168.1.211 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 11362 => 192.168.1.212 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 26712 => 192.168.1.213 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 22718 => 192.168.1.214 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 61358 => 192.168.1.215 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 54632 => 192.168.1.216 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 26648 => 192.168.1.217 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 50198 => 192.168.1.218 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 35382 => 192.168.1.220 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 60956 => 192.168.1.221 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 50492 => 192.168.1.222 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 52662 => 192.168.1.223 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 59088 => 192.168.1.224 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 37496 => 192.168.1.225 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 34100 => 192.168.1.226 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 59168 => 192.168.1.227 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 41468 => 192.168.1.229 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 47818 => 192.168.1.230 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 20154 => 192.168.1.231 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 17912 => 192.168.1.232 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 28940 => 192.168.1.233 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 59426 => 192.168.1.235 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 64652 => 192.168.1.236 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 59574 => 192.168.1.239 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 32848 => 192.168.1.240 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 54018 => 192.168.1.244 2121
> Sun Sep 17 22:00:48 2023 TCP 148.251.26.208 33296 => 192.168.1.254 2121

клиент ВМ
а что такого то? у меня впн был прокинут до моей сети…
я сканировал свою же сеть

клиент ВМ
включите виртуалку… у меня там прод бот стоит...

клиент ВМ
че сделать чтобы включить там сеть?

клиент ВМ
если быть точнывм это была работа приложения mixplorer с включенной проксей, там системный порт 2121, и я просто передавал свой файл на усторойства в файловой сети, потом когда не смог этор сделать выключил proxy

Я
мы не можем включить
нужно переписывать с дата-центром

сделаю тебе временно другой IP

Я
116.202.237.168
добавил такой

Я
ну в европе существует локальная сеть между серверами
и когда ты сканируешь 192 — то это отражается на их внутренней сети

и они не могут разблокировать, пока я или ты не устранишь проблему
и не напишешь отчет что именно ты делал чтобы устранить

можно сутками там переписываться

если еще раз забанят IP
следующий IP будет платный 500р установка
Клиент
ок изменю ns-ки

Клиент
можете его и оставить

Клиент
а что делать с dns? не резолвит на дефолтных

Я
abuse.hetzner.com/statements/?token=2ac956fc7fb62e2b458bf49d041ab83
вот сюда можешь написать

Клиент
Ссылка недоступна

Я
да похоже уже все
ну т.к. они забанили же

у тебя получилось перейти на новый IP?

или нужно добиваться восстановления старого

Я
Уважаемый клиент

Мы не сможем разблокировать ваш сервер, пока вы не устраните причину проблемы.

Ваш Сервер просканировал частные сети RFC1918. tools.ietf.org/html/rfc1918
Эти сети недоступны через внешний интерфейс.

Мы рекомендуем вам настроить локальный брандмауэр и заблокировать исходящий трафик на следующие префиксы.
-%< — tools.ietf.org/html/rfc1918
-%< — 10.0.0.0/8
172.16.0.0/12
192.168.0.0/16
-%< — Пожалуйста, заблокируйте этот диапазон RFC1918 на своем сервере.
Мы хотели бы избежать дальнейшего злоупотребления сетью с вашей стороны.
community.hetzner.com/tutorials/block-outgoing-traffic-to-private-networks

Вы можете использовать консоль KVM или опцию белого списка, чтобы получить доступ к вашему серверу. Для получения более подробной информации см.:

docs.hetzner.com/robot/dedicated-server/troubleshooting/guideline-in-case-of-server-locking/

-%< — Чтобы решить эту проблему, вы можете запросить использование KVM-консоли; это даст вам полный доступ к серверу. Если вы хотите заказать консоль KVM, откройте специальный запрос в службу поддержки через свою учетную запись на Robot и напишите быстрое сообщение с просьбой предоставить консоль KVM. Войдите в робот. Затем нажмите на значок пользователя в правом верхнем углу, а затем на «Поддержка». Затем выберите «Удаленная консоль LARA». Затем вы можете выбрать встречу, когда вы этого хотите и на какой срок.

Другой вариант — ввести IP-адрес вашего домашнего/офиса (если он статический) через Robot; вы сможете получить доступ к серверу через этот IP. Вы можете сделать это в Robot, перейдя в «Серверы» и нажав «Блокировка сервера». Там вы можете ввести свой домашний/офисный IP.
-%< — Mit freundlichen Grüßen / С уважением

Андреас Стефас

Хетцнер Онлайн ГмбХ
Промышленник. 25
91710 Гунценхаузен / Германия
Тел: +49 9831 505-0
Факс: +49 9831 505-3
www.hetzner.com

Я
как ты сам понимаешь KVM делать я не могу
т.к. это сервер с соседями — под виртуалки
если бы это был отдельный сервер только для тебя, то я мог бы заказать KVM и дать его тебе

Клиент
Харды сможешь перенести?

Я
можно попробовать
создать копию ВМ
и потом создать из копии новую

окей

Я
не сработало клонирование

нет, не получится

Я
vmmanager панель видимо тоже плохо работает если объем клона 2 ТБ

Я
что-то старая тоже не перезапускается (
похоже клонирование похерило и старую ВМ
ну пиздец

я создал тебе новую ВМ
но если старую уже не восстановить, то даже не знаю что сказать

только извиниться и сделать возврат



старая ВМ


что тут скажешь?
так бывает

Интересные баги ВМ-6

Несколько дней назад
Создавал ВМ — она выдалась моментально прямо челику. Но IP адрес был уже занят у другого клиента.
т.е. словил баг, что один и тот же IP выдался двум разным клиентам. второму клиенту просто несуществующую ВМ биллинг создал с IP адресом который уже занят старой ВМ.

Я не придал этому значения, ну баганулось подумал я.

Но вот сегодня опять челик пишет.
И опять ему пустая ВМ создается



Но в этот раз IP просто пустой валяется


Два раза — уже не случайность.

Странный баг ВМ-6 с утечкой озу

Смотрю что-то последнее время в январе — много тикетов, типо ВМ зависла
Ну короче если сервер на 64 озу делить по 8 озу — то кому-то явно не хватит и будет утечка озу.
Поэтому я методом тестов еще в 2017 — стал ставить людям не 8000, а 7500, не 16000, а 15000, не 32000, а 30000
и тогда все летало и проблем не было

но вот опять какая-то хуйня
никогда такого не было и вот опять
начал разбираться и заметил вот что

вот логи


ВМ создалась с 15000 озу


а потом челик переустановил ОС

и потом ровно через 1 минуту озу стало 16000


я не понял, как это так?
это переустановка через Billmanager кнопку видимо была?

опять после обновления декабрьского наверно это происходит