Рейтинг
0.00

Пульс

23 читателя, 754 топика

Продолжая топик про РФ облака

Пульс
2014 habrahabr.ru/post/228157/
2017 habrahabr.ru/post/334044/

Мое мнение о топике 2017 года.
hostsuki.pro/all/popalsya-topik-na-habre-pro-oblaka.html

НО давайте так же порассуждаем и про облака. Отбросим джинсу статьи в сторону.

Все знают, что я ярый скептик на тему облаков. Потому что они меня многократно подводили. Не одно сука облако не дало мне ни денежной экономии в долгосрочной перспективе, ни надежности. И даже проебали мои картинки с блогов. Никогда этого не прощу и никогда больше не куплю в той компании — это storage испортила их репутацию на десяток лет. Может когда мне будет лет 35 так — может быть я снова попробую. Я получил только минусы от работы с облаками, нежели плюсы.

Сколько не работаю с дедиками — все просто работает. Ну разве что раз в 3 года там сменить дедик например придется, чтобы диски новые были или чтобы было еще дешевле. Ведь у дедиков не принято снижать цены на активные заказы, старые заказы по старым ценам, а новые могут быть в 2 раза дешевле. Тупо. Спрашивается почему же не снизить стоимость для старых заказов, которые тем более диски уже столетние и так далее. И не заставлять людей тратить время на переносы? Не знаю. Видимо дата-центры рассуждают по другому. Я в своем ДЦ буду каждый год снижать цены, вместе с устареванием железа. И потом — пока не сгорит, все по честному.

Ну ладно, возвращаемся к облакам. Или виртуальным услугам.
Целый год и 178 тысяч рублей мы потратили на умение работать через панель VMmanager KVM.
И я сделал только один вывод — эта панель не пригодна для создания облака или реального бизнеса. Ну чтобы так, на поток поставить продажи и заниматься только продажами и расширением точек сайтов по миру. Чтобы было УДОБНО БЛЯТЬ ПРОДАВАТЬ и управлять услугами. Чтобы можно было просто взял, добавил мощностей, взял добавил сетей, взял добавил там тариф и пошел продавать по проектам. И я осознал даже как должна выглядеть эта панель в будущем.

И в мире я не нашел не одной другой — нормальной панели для создания облака.
Чтобы не было этих узлов всяких. Чтобы не приходилось сохранять по таблицам на каком сервере какие сети IP и какие там конфиги, сколько ядер, какие процы, сколько озу и главное сколько там места, чтобы не продать больше чем есть.

Панель должна соединять все ноды, разные ноды, разные мощности — соединять все в одну большую мощность. Которую уже бы делили на тарифы и продавали. Вот что такое облако. И кстати я хочу гейм-облако, потому что именно игры удобно делать на виртуалках, а не дедиках, т.к. это текучка и которой всегда может понадобиться расширение.

В моем понимании панель должна делать и слепки которые пилятся нормально в отдельные хранилища, а не пожирают места на ноде или лимите тарифа VDS. Которая должна уметь копировать виртуалки на горячем, прямо делать копию. Должно быть именно гибкое облако, чтобы я не упирался в ресурсы сервера. Чтобы можно было масштабировать. Из 8 озу сделать 80 сразу, а не выискивать потом где сколько озу свободно на каком узле и окажется что нигде, что проще купить челу дедик, потому что максимальный узел заканчивается на 64 озу и нод с 128 или 256 просто не делалось. Разве это облако? Это просто отдельные узлы! На панелях Vmmanager — нихуя не возможно масштабировать. Во первых нехватка места постоянная, нельзя все сервера собрать в кластер. Нельзя создать массив из 50 ТБ например. Нельзя соединить процессоры как-то в общую вычислительную мощность. У меня есть клиенты которые соединяют hetzner сотни серверов, но они все сами умеют и у них конечно же свои разработки. И конечно же панель должна уметь работать с крупными пулами айпишек, но увы когда ты покупаешь в аренду сервера с 16 штуками — невозможно заставить тот или иной IP работать на другом узле, его даже не передвинуть без потерь. А облако должно уметь. Так что короче — одни разочарования у меня от работы с VMmanager, это просто панель для частника поиграться в виртуальное. Или создавать дешевые VDS по фану.

И вот, эта недавняя статья с Хабра сейчас поможет нам.
Что они там пишут ?
  • VMware ESXi
  • vCloud
  • VMware vSphere 6U2
  • RedHat KVM
  • Microsoft Hyper-V
  • Hyper-V Failover Clustering
  • VMware vSphere 6.0
  • VMware ESXI 5.5
  • KVM OpenStack
  • QEMU/KVM
  • ESXi vCloud Director

Не одно облако кстати — не указало VMmanager панель.

Далее. Хранилища — то, что я хотел бы видеть в VMmanager. Но опять же, при методе аренды дедиков на стороне — это не выполнимо. Такое хранилище или облако можно сделать только в своем ДЦ.
  • EMC VNX5600, HP 3Par 7400
  • СХД SSD AllFlash, дублированные контроллеры. До 1 млн IOPS
  • IBM mid-range уровня (4 штуки, 2 на каждый ЦОД) и all-flash массивы Violin Memory
  • EMC VNX5600, HP 3par 7400
  • Huawei OceanStor 5300
  • Infortrend ESDS 3024B
  • NetApp V6240, V8040 с использованием flash кэширования и SSD дисков
  • EMC SCALEIO (с использованием нескольких СХД NettApp DS4246)
  • HP 3PAR StoreServ 7400 и NetApp FAS3250
  • NetAPP FAS8020
  • СХД на базе решения Dell, Hitachi, Huawei
  • HDS HUS VM/IBM Storwize v7000
  • СХД на базе платформ Supermicro, логически Openstack Ceph
  • NetApp FAS8040, FAS2552
  • NetApp V6240, V8040 с использованием flash кэширования и SSD дисков
  • EMC VNX, HP 3PAR
  • NetApp V6240 и FAS8040
  • VMware VSAN
  • HP MSA 2040 SAN, Huawei OceanStore 2600T и, самая мощная: Huawei OceanStore 5500 V3, которая выдаёт до 320 000 IOPS
  • HP 3PAR StoreServ 10400 IBM StorWize V7000 IBM XIV

Какие выводы можно сделать?
Пока никаких.
Но погуглив на все это — есть над чем подумать.
Поэтому этот топик тоже пригодится. Во всяком случае, чтобы потом не искать в закладках где-то. Хранить только на своих проектах Истории.

попался топик на хабре про облака

Пульс
С rss попался топик на хабре
habrahabr.ru/post/334044/

Про сравнение облачных услуг в РФ

И мне вдруг захотелось на его примере тоже сделать рассказ.
Этот топик — наглядно показывает разный уровень ниш.
  • Есть серьезные боевые проекты с хорошими доходами, которые умеют все сами и которым нужны лишь мощности. И чем дешевле качественная мощность, тем выгоднее в долгосрочной перспективе. Это сегмент Интернет проектов. Это не новички которые выстрелит или не выстрелит, а стабильный работающий доходный бизнес, который не закроется и который пробудет клиентом много лет, если ДЦ не подведет.
  • А есть сегмент компаний по договору только за безнал. И вот тот топик как раз про такие компании. Сам запрос который там описан. Вы только вчитайтесь в него. Это типичный офис РФ. Еще 1С приплели даже. Это не интернет проект. Это просто работа офиса какой-то компании.

Так же в топике — нету никакой конкретики. Что такое конкретика? Это боевые факты. Как та или иная компания, или дата-центр решает возникающие проблемы.

Смотрите отличие.
Чувак делал звонки! Чувак писал предварительные вопросы. Это уровень — офиса.
Любой клиент который имеет интернет проекты — не звонит. Вспомните когда вы вообще хоть раз звонили кому-то при заказе интернет услуг? Он может конечно что-то уточнить и ответ поддержки конечно важен, ведь зачастую поддержка имеет низший уровень доступа и не всегда даже в курсе того, что продает их компания, как например ОВХ, и поэтому крупные игроки не могут пробиться к ним напрямую и вынуждены закупать у знающих посредников, которые реально на фактах знают что за инфраструктуру продают.

Не один интернет проект не будет выспрашивать так, как описал чувак в топике.

Не один серьезный рабочий проект не будет переноситься бездумно куда-то на основе данных сравнения из той таблицы. Тот кто решит переехать — уже значит все проверил, уже знает на фактах что он ожидает от той или иной компании и дата-центра. Наверняка он уже пол года гонял там менее важные дочерние проекты. И только потом перенесет серьезный.

Тот, кто пытается заказать что-то для офиса, как автор статьи — по большей части наверно ищет SLA чтобы потом в судебном порядке запрашивать компенсации!

Но не один Интернет проект — не занимается такой хуйней как компенсации. Факты как раз говорят о том, что как только инфраструктура, аля дата-центр или облако — подводит, он просто уходит туда, кто не подводит. И никакие компенсации ему сроду не нужны, доверие уже подорвано.

Вот такое вот сравнение реальной жизни и реальных продаж. От вымышленных топиков теоретиков, которые как обычно пишутся на хабре.

И почему я решил написать эту заметку — все таки, данный пример — отлично подходит мне, для примера, который я буду рассказывать всем новичкам хостерам, показывать хороший шаблонный запрос «типичного офисного контракта по безналу».
Да, такая ниша есть.
Но эта ниша очень далека от понятия Интернет проект. Это мое мнение.

А кто есть среди читателей ?

Пульс
Если ли среди читателей моих, единственных в РФ ресурсах о хостинге :) — Азиаты?

Нужны люди умеющие писать на
  • Китайском
  • Японском
  • Индусском
  • Бразильском
  • Арабский было бы неплохо, но думаю это фантастика
  • Турецкий такая же фигня

Хотите стать точками продаж OVH? И получать % от продаж?
Я помогу.
От вас написание перевод текстов на сайт. И тикеты.
alice2k@abcdteam.work

А где эти корпоративные домены ? )

Пульс
Я помню новость от 2015 года, что Интернет должны были наполнить 500 новых доменных зон.

Но уже 2017 половина прошла, так и нету.
Даже нету ни .yandex, ни .google — по нормальному они так и не запустили ничего.

Неужели большинство из них сольется?

Как и Макдональдс.
Одна из крупнейших в мире сетей быстрого питания McDonald's пополнила длинный список компаний, отказавшихся от собственных доменов верхнего уровня.
Компания направила в ICANN заявление с просьбой ликвидировать их доменные зоны .mcdonalds и .mcd. Они будут удалены 2 ноября этого года. Также компания попросила не передавать доменную зону третьим лицам.
Обе доменные зоны ни разу не использовались с момента регистрации в 2013 году. В них было зарегистрировано всего два домена: nic.mcd и nic.mcdonalds, перенаправляющие на официальный сайт mcdonalds.com.
На покупку и поддержку доменных зон с учетом дополнительных расходов компания уже потратила несколько миллионов долларов, но так и не нашла им применения.

www.webnames.ru/news/makdonalds_otkazalsya_ot_sobstvennih_domennih_zon

Бенчи AMD Ryzen

Пульс
Пополнились Бенчи
hostsuki.pro/tag/BenchMark/
В прошлый раз пробовали Xeon E3 v6 который

В этот раз

ryzen-5
ryzen-7

Диски ставят если интересно
SAMSUNG MZ7LN512HMJP-00000 — Райзен 5
SSD Micron_1100_MTFDDAK512TBN — Райзен 7 и 6700

Еще вместо 6700 выпал 7700, хотя всего 2 сервера брали провести тесты как раз и решить что выгоднее в долгосрочном закупать, из чего я делаю вывод что там как OVH стали делать, покупают более выгодные процессоры/диски на будущее чтобы, хотя на сайтах тарифы могут быть старые.

В selectel все таки стали делать все правильно

Пульс
Во первых — перелинковку всех проектов.
Не знаю почему они пытались сделать их отдельными брендами? Ну tehnodom.com и vscale.io и даже потом пере-брендировались в chipcore.com

Ведь везде в контактах был указан Селектел.
Очень странно зачем они так позиционировали себя.

Зачем нужно разделение? Чтобы раскладывать клиентов по разным биллингам, по разным панелям и сегментам, по полочкам.
Чтобы накопленный объем информации который будет на 10-20-30-50 лет — изначально раскладывался по категориям. И можно разный уровень саппорта сразу садить в разные проекты, в разные полочки. Чтобы можно было выставлять приоритеты и вообще, как я уже писал «каждому хостеру свой характер». Какой хостер, какое общение там и отношение — такие клиенты и будут туда идти.

И если хостер хочет с годами, с десятилетиями наращивать все эти направления, чтобы не было МУСОРКИ и параши потом в 1 единственном проекте — нужно сразу по разным проектам раскидывать :)

И вот наконец-то, они стали так же делать.
selectel.ru/services/dedicated/


vscale.io/ru/pricing.html


chipcore.com


И сразу подписали. Как раз отличия полочек.


У вас — могут быть другие отличия.
У них вот такие :)

Короче, сайты они научились делать клевые, я писал.
Теперь и архитектура проектов делается с умом.
Похвала.

Толкаю Идею

Пульс
Постоянно, уже много лет идут демагогии, что в Интернете нету специалистов.
Что тем людям которые запиливают все в интернете — очень трудно запиливать, потому что все держится на честном слове, даже компании создаются удаленные кто-то оформляет и добавляет в интернет банки и так далее.

И тоже самое касается администаторов или программистов.
Поэтому лучшее решение — в принципе создавать такую систему/структуру/синдикат, которая не зависит от этих ячеек.

Очень частое явление.
Создает программист API панель, через пол года api обновляется, а программист уже ливнул. На его место приходит другой желающий, но разбираться в чужом говне он не хочет, делает с нуля. И так же потом через год API обновляется и он снова ливает. А клиенты вынуждены из одной панели переходить в другую, в третью, в десятую.
Поэтому — лучше вообще вручную толкать, самое оптимальное и не пудрить мозги людям.

Тоже самое касается и VDS-нод.
В очередной раз нашлись недо-специалисты, которые считают что умнее всех — но на самом деле кроме слов от них ничего не узнать. Просто говорят, что они могут. Но сделать сервис, настроить ноду или написать статью — им сыкотно или вломы. Что же это за специалист? Это просто показушник демагог значит.

И вот в процессе демагогии родилась идея.
Толкаю эту идею в мир хостеров.

Создайте сервис по резалке VDS.
Вот сейчас VMmanager например режет VDS-ки.
А вы можете создать опенсорс какой-то или просто собственную разработку. Отдельным проектом. Отдельным сервисом.
Суть такая.
  • Каждый хостер просто покупает где-то сервер с IP и добавляет его в этот сервис. Получает свою сгенерированную ссылку с letsencrypt сертификатом или даже может добавить свой домен/поддомен для этого сервера, т.е. уже добавленной ноды. И пилит через Ваш сервис vds-ки.
  • Если месячная стоимость такого сервиса, по подписке, будет как цена VMmanager — мне кажется полно хостеров воспользуются такими услугами специалистов виртуализации, которые тусуются по интернету.
  • Согласитесь поддерживать такой сервис гораздо проще, ведь он один. Чем поддерживать и обслуживать 500 нод различных настроек.

Хочу увидеть собственными глазами (с)

Пульс
Короче, недавно я осознал.
Что в 2014 году когда начался успех OVH — все железо было новое. Вся линейка SYS, все диски — все было новое.

И вот я записываю статистику по серверам и дискам уже 3 года. И перед моими глазами встает картина — как когда-ниб этому парку железа придет конец.

В 2017 году уже редко попадаются новые диски, только видимо «те которые пересобрали и заменили». В основном на новые покупки, ведь плату за установку отменили в 2016 году, когда была плата диски меняли, платы не стало — идут 2 2,5 3 летней давности.

И разумеется хоть они все и без ошибок. Например в hetzner могут поменять диск на диск с ошибками, который точно через 4 месяца тоже сдохнет. Но в OVH всегда без ошибок, там некие Хитачи в основном ставятся, которые я редко видел кстати, везде почему-то Сеагейты ставили.

Ну так вот, за 3 года — к примеру из партии в 1000 серверов только 5 штук могли быть какие-то бракованные. Абсолютно ничего не сгорало. И я даже начал считать, что в период моих покупок VDS, когда я еще был клиентом, который постоянно обучался и открывал что-то новое для себя, в тот период 2010-2013 года, когда мне хостеры постоянно лечили, то у них raid развалился, то еще что-то сгорело — я начал считать, что мне просто врали, как клиенту, а на самом деле это админы роняли ноды.

И вот, например пройдет еще пару лет. И диски же должны когда-то сгореть! В любом случае. Например просто почему-то мне кажется это срок в 5 лет. Даже покупая собственное новое железо(этот опыт у нас начался только с 2016 года) — мне кажется через 5 лет ему должен прийти пиздец, поэтому у меня такой девиз в правилах — «работает, пора не сгорит».

И вот я хочу увидеть своими собственными глазами — как парк новых серверов 2014 года начнет устаревать и массово гореть. ЖДУ ЭТОГО С НЕТЕРПЕНЬЕМ прямо :) Для моей истории и статистике. Случится ли такое? Или не случится?



И еще забыл написать.
Так же с 2016 года пошла статистика «VDS-нод» — будут ли диски сгорать быстрее, если это VDS-нода, а не просто клиент-сервер-одни-руки.

наконец-то официальные маркировки ДЦ OVH

Пульс
Я уже как пол года занимаюсь публикациями. И мечу все посты по своим меткам, чтобы через 10 лет потом находить за 5 минут, а не за 30 минут времени поиска :)

И вот наконец-то опубликовали карту названий.

2 дата-центра я не угадал — и пришлось переделывать метки в публикациях и ссылки.

А вот про Австралию и Сидней угадал — что ДЦ запиливаются на базе чужих компаний. Equinix и Telstra

Вообще — нормальные люди сначала придумывают названия, потом публикуют свои фоточки. А не наоборот :)) Но в OVH все так работает.

Итого, картина выглядит следующим образом теперь.

Было
  • PAR datacentre
  • SBG datacentre, EU Central [FR, Strasbourg]
  • RBX datacentre, EU West [FR, Lille]
  • GRA datacentre, EU West [FR, Lille]
  • BHS datacentre, CA East [QC, Montreal]
Добавилось
  • ERI datacentre, EU West [UK, London]
  • HIL datacentre, Hillsboro, US West [OR, Portland]
  • VIN datacentre, Vint Hill, Virginia, US East [VA, Washington]
  • WAW datacentre, OZA, EU Central [PL, Warsaw]
  • SYD datacentre, SY2(Equinix), AP Australia [NSW, Sydney]
  • SGP datacentre, SGCS2(Telstra), AP South-East [SG, Singapore]
  • LIM datacentre, Limburg, EU Central [DE, Frankfurt]

Будут в будущем
  • EU West [Nl, Amsterdam]
  • EU South [ES, Madrid]
  • EU South [IT, Milan]
  • US Central [TX, Dallas]
  • AP Australia [VIC, Melbourne]