Обработка предупреждений OVH с помощью Apache Flink

OVH в значительной степени полагается на метрики для эффективного мониторинга всего своего стека. Независимо от того, являются ли они низкоуровневыми или ориентированными на бизнес , они позволяют командам получить представление о том, как наши службы работают на повседневной основе. Необходимость хранить миллионы точек данных в секунду привела к необходимости создать специальную команду для создания продукта, способного справиться с этой нагрузкой: Metrics Data Platform .  Опираясь на Apache Hbase , Apache Kafka и Warp 10 , нам удалось создать полностью распределенную платформу, которая обрабатывает все наши показатели… и ваши!

После создания платформы для работы со всеми этими метриками нашей следующей задачей было создать одну из самых необходимых функций для метрик: оповещение.



Встречайте OMNI, наш уровень оповещения

OMNI наше кодовое название  полностью распределенной ,  как-код ,  предупреждая  систему , которую мы разработали на вершине Метрики. Он разделен на компоненты:
  • Часть управления , которая берет определения ваших предупреждений, определенных в репозитории Git, и представляет их как непрерывные запросы,
  • Исполнитель запросов, распределяющий ваши запросы по расписанию.

Исполнитель запроса помещает результаты запроса в Kafka, готовые к обработке! Теперь нам нужно выполнить все задачи, которые выполняет система оповещения:
  • Обработка дедупликации и группировки предупреждений, чтобы избежать усталости от предупреждений. 
  • Обработка шагов эскалации , подтверждения  или откладывания .
  • Уведомить конечного пользователя по разным каналам : SMS, почта, Push-уведомления и т. Д.


Чтобы справиться с этим, мы посмотрели на проекты с открытым исходным кодом, такие как Prometheus AlertManager,  LinkedIn Iris, и обнаружили скрытую правду:


Обработка предупреждений как потоков данных,
передача от оператора к другому.


Мы приняли это и решили использовать Apache Flink для создания Beacon . В следующем разделе мы собираемся описать архитектуру Beacon, а также то, как мы ее построили и эксплуатировали.
Если вам нужна дополнительная информация об Apache Flink, мы предлагаем прочитать вводную статью на официальном сайте: Что такое Apache Flink?
Архитектура маяка


По сути, Beacon читает события от Кафки . Все представлено в виде сообщения , от предупреждений до правил агрегирования, отложенных заказов и так далее. Трубопровод разделен на две ветви:

  • Тот, который выполняет агрегирование и запускает уведомления на основе правил клиента.
  • Тот, который обрабатывает шаги эскалации .

Тогда все объединяется , чтобы произвести  на  уведомление , что собирается быть вперед к нужному человеку. Уведомляющее сообщение помещается в Kafka, которое будет использоваться другим компонентом, называемым beacon-notifier.


Если вы новичок в потоковой архитектуре, я рекомендую прочитать модель программирования потока данных из официальной документации Flink.



Все объединяется в поток данных, разделяется (с ключом в Flink API) пользователями. Вот пример:

final DataStream<Tuple4<PlanIdentifier, Alert, Plan, Operation>> alertStream =

  // Partitioning Stream per AlertIdentifier
  cleanedAlertsStream.keyBy(0)
  // Applying a Map Operation which is setting since when an alert is triggered
  .map(new SetSinceOnSelector())
  .name("setting-since-on-selector").uid("setting-since-on-selector")

  // Partitioning again Stream per AlertIdentifier
  .keyBy(0)
  // Applying another Map Operation which is setting State and Trend
  .map(new SetStateAndTrend())
  .name("setting-state").uid("setting-state");



  • SetSinceOnSelector , который устанавливается с момента срабатывания предупреждения
  • SetStateAndTrend , который устанавливает состояние  (ПРОДОЛЖЕНИЕ, ВОССТАНОВЛЕНИЕ или ОК) и тренд (есть ли у нас более или менее метрики в ошибках).

Каждый из этого класса содержит менее 120 строк кода, потому что Flink справляется со всеми трудностями . Большая часть конвейера состоит только из классических преобразований, таких как Map, FlatMap, Reduce , включая их версии Rich и Keyed . У нас есть несколько функций процессов , которые очень удобны для разработки, например, таймера эскалации.


Интеграционные тесты

Поскольку количество классов росло, нам нужно было протестировать наш конвейер. Поскольку он подключен только к Kafka, мы обернули потребителя и производителя, чтобы создать то, что мы называем  сценарием:  серию интеграционных тестов, запускающих разные сценарии.

Запрашиваемое состояние

Убийственная особенность Apache Flink — это возможность запрашивать внутреннее состояниеоператора . Даже если это бета-функция, она позволяет нам узнать текущее состояние различных частей работы:
  • на каких этапах эскалации мы находимся
  • это он прилег или извед -ed
  • Какое оповещение продолжается
  • и так далее.



Благодаря этому мы легко разработали API для состояния запроса, который поддерживает наше представление предупреждений в Metrics Studio, наше кодовое имя для веб-интерфейса платформы данных метрик.
Развертывание Apache Flink

Мы развернули последнюю версию Flink ( 1.7.1 на момент написания) непосредственно на голых металлических серверах с выделенным кластером Zookeeper с использованием Ansible. Работа с Flink стала для нас действительно приятным сюрпризом, с понятной документацией и настройкой , а также впечатляющей устойчивостью . Мы можем перезагрузить весь кластер Flink, и задание перезапускается в его последнем сохраненном состоянии , как будто ничего не произошло.

Мы используем RockDB в качестве государственного сервера, поддерживаемого хранилищем OpenStack Swift,  предоставляемым OVH Public Cloud.

Для мониторинга мы полагаемся на Prometheus Exporter с Beamium, чтобы получить возможность наблюдать за состоянием здоровья рабочих.

Одним словом, мы любим Apache Flink!

Если вы привыкли работать с программным обеспечением, связанным с потоковой передачей, вы, возможно, поняли, что мы не использовали никаких ракетостроений или уловок. Возможно, мы полагаемся на базовые функции потоковой передачи, предлагаемые Apache Flink, но они позволили нам с легкостью решить многие проблемы бизнеса и масштабируемости.




Таким образом, мы настоятельно рекомендуем всем разработчикам взглянуть на Apache Flink. Я рекомендую вам пройти обучение Apache Flink , написанное Data Artisans. Более того, сообщество приложило немало усилий, чтобы легко развернуть Apache Flink в Kubernetes, поэтому вы можете легко попробовать Flink с помощью нашего управляемого Kubernetes!

Что дальше?

На следующей неделе мы вернемся к Kubernetes, поскольку мы расскажем, как мы работаем с ETCD в нашей службе OVH Managed Kubernetes .

Kubinception: использование Kubernetes для запуска Kubernetes

Столкнувшись с проблемой создания управляемого сервиса Kubernetes в OVH, полностью основанного на инструментах с открытым исходным кодом, нам пришлось принять несколько жестких проектных решений. Сегодня мы рассмотрим один из них…



Одним из наиболее структурных решений, которые мы сделали при создании сервиса OVH Managed Kubernetes, было развертывание кластеров наших клиентов над нашими собственными. Kubinception действительно…

В этом посте мы рассказываем о нашем опыте использования Kubernetes поверх Kubernetes с сотнями кластеров клиентов. Почему мы выбрали эту архитектуру? Какие основные ставки при таком дизайне? С какими проблемами мы столкнулись? Как мы справлялись с этими проблемами? И, что еще более важно, если бы нам пришлось принять решение сегодня, выбрали бы мы снова Кубинцепцию?

Как работает кластер Kubernetes?


Чтобы полностью понять, почему мы запускаем Kubernetes на Kubernetes, нам нужно хотя бы базовое понимание того, как работает кластер Kubernetes. Полное объяснение по этому вопросу находится вне контекста этого поста, но давайте сделаем краткий обзор:
Рабочий кластер Kubernetes состоит из:
  • Плоскость управления, что делает глобальные решения о кластере, а также обнаруживают и реагирует на кассетные события. Эта плоскость управления состоит из нескольких главных компонентов .
  • Набор узлов, рабочих экземпляров, содержащих службы, необходимые для запуска модулей, с некоторыми компонентами узла, работающими на каждом узле, поддерживающими запущенные модули и предоставляющими среду выполнения Kubernetes.




Основные компоненты
В этой категории компонентов у нас есть:

  • Сервер API: предоставляет API Kubernetes. Это точка входа в плоскость управления Kubernetes.
  • Планировщик: наблюдает за вновь созданными модулями и выбирает узел для их запуска, управляя распределением ресурсов.
  • Контроллер-менеджер: запускайте контроллеры, контуры управления, которые следят за состоянием кластера и перемещают его в желаемое состояние.
  • ETCD: согласованное и высокодоступное хранилище значений ключей, используемое в качестве резервного хранилища Kubernetes для всех данных кластера. Эта тема заслуживает отдельного поста в блоге, поэтому мы поговорим об этом в ближайшие недели.


Компоненты узла
В каждом узле у нас есть:
  • Kubelet: агент, который следит за тем, чтобы контейнеры, описанные в PodSpecs, работали и работали. Это связь между узлом и плоскостью управления.
  • Kube-proxy: сетевой прокси, работающий на каждом узле, позволяющий абстрагировать сервис Kubernetes, поддерживая сетевые правила и выполняя переадресацию соединений.


Наша цель: быстрое и безболезненное развертывание кластера


Как мы пришли от этой простой архитектуры Kubernetes к Kubernetes вместо Kubernetes? Ответ кроется в одной из наших основных целей при создании сервиса OVH Managed Kubernetes: иметь возможность развертывать кластеры самым простым и автоматизированным способом.

И мы хотели не только развертывать кластеры, мы хотели, чтобы развернутые кластеры были:

  • Эластичный
  • Изолированные
  • Оптимизированный по стоимости


Kubinception: запуск Kubernetes поверх Kubernetes


Идея состоит в том, чтобы использовать кластер Kubernetes, который мы называем административным кластером, для развертывания клиентских кластеров.
Как и каждый кластер Kubernetes, клиентские кластеры имеют набор узлов и плоскость управления, состоящую из нескольких главных компонентов (сервер API, планировщик…).
Что мы делаем, так это развертываем эти главные компоненты клиентского кластера в качестве модулей на узлах административного кластера.

Упрощенная архитектура Kubinception


Итак, теперь у нас есть компоненты без сохранения состояния плоскости управления клиентского кластера, работающие как модули на узлах административного кластера. Мы не говорили о ETCD, так как поговорим об этом в следующем посте, а пока скажем только, что это выделенный компонент, живущий вне Kubernetes.

А рабочие узлы клиентского кластера? Это обычные узлы Kubernetes: экземпляры общедоступного облака OVH, подключающиеся к серверу API клиентского кластера, работающему в модуле кластера администрирования.

Клиентский кластер с узлами и ETCD

Наша цель — управлять большим количеством кластеров, а не одним, так как же добавить еще один кластер клиентов? Как и следовало ожидать, мы развертываем новую плоскость управления клиентским кластером на узлах административного кластера.

Два клиентских кластера на Kubinception

С точки зрения административного кластера, мы просто развернули три новых модуля. Затем мы создаем несколько новых экземпляров узлов и подключаем ETCD, и кластер готов.

Если что-то может выйти из строя, оно сделает это

Теперь у нас есть архитектура, которая позволяет нам быстро развертывать новые кластеры, но если мы вернемся к нашей цели, быстрое развертывание было только половиной, мы хотели, чтобы кластер был устойчивым . Начнем с отказоустойчивости.
Узлы клиентского кластера уже устойчивы, так как они являются обычными узлами Kubernetes , а устойчивость ETCD будет подробно описана в отдельном сообщении в блоге, поэтому давайте посмотрим на устойчивость плоскости управления, поскольку это особая часть нашей архитектуры.
И в этом прелесть архитектуры Kubinception, мы развертываем плоскость управления клиентскими кластерами в виде простых стандартных модулей в нашем административном кластере. А это означает, что они столь же устойчивы, как и любой другой модуль Kubernetes: если один из основных компонентов клиентского кластера выйдет из строя, диспетчер-контроллер административного кластера обнаружит его, и модуль будет перепланирован и повторно развернут без каких-либо ручных действий в нашем сторона.

Какой лучший способ убедиться, что наши Kubernetes достаточно надежны ...

Основание нашего сервиса Managed Kubernetes на Kubernetes заставило нас наткнуться на аспекты Kubernetes, которые мы не видели раньше, чтобы узнать много нового об установке, развертывании и эксплуатации Kubernetes. И все эти знания и инструменты были напрямую применены к нашим кластерам клиентов, что сделало их опыт удобнее для всех.

А как насчет масштабирования

Вся система была разработана с нуля с идеей масштабирования. Kubernetes вместо архитектуры Kubernetes обеспечивает легкое горизонтальное масштабирование . Когда административный кластер начинает становиться слишком большим, мы можем просто создать новый и развернуть там следующие плоскости управления клиентами.

Что дальше?

Поскольку этот пост уже достаточно длинный, я оставляю объяснение на ETCD для следующего поста в серии, через две недели. На следующей неделе давайте сосредоточимся на другой теме, мы займемся Apache Flink и тем, как его использовать для обработки предупреждений в масштабе OVH…

Почему OVH Managed Kubernetes?

Использование Kubernetes — отличный опыт, работать с ним в производственной среде намного проще. А создание управляемой платформы Kubernetes еще хуже ...


В ноябре 2018 года мы выпустили бета-версию нашего сервиса Managed Kubernetes. Это был результат путешествия, которое привело нас от пользователей Kubernetes к созданию полностью управляемой службы Kubernetes, становлению сертифицированной платформой Kubernetes и многому изучению создания, эксплуатации и масштабирования Kubernetes ...



Поскольку бета-версия сейчас работает, а последние проблемы решаются для окончательной версии, мы потратим некоторое время, чтобы поделиться некоторыми уроками, которые мы извлекли, технологическим выбором, который мы приняли, и инструментами, которые мы создали в процессе…

В сегодняшнем посте мы представим наш управляемый Kubernetes и объясним, зачем мы его создали. В следующих постах мы более подробно рассмотрим некоторые аспекты архитектуры, такие как масштабирование ETCD или то, как мы запускаем клиентов мастеров Kubernetes внутри наших основных рабочих узлов Kubernetes…

И, конечно же, если вы хотите узнать больше о наших управляемых Kubernetes, если вы хотите увидеть сообщение по конкретному вопросу, не стесняйтесь оставлять комментарии!

Путешествие Kubernetes

Первый раз, когда вы играете с Minikube, это часто удивительно. Больше не нужно беспокоиться об управлении экземплярами, нет необходимости отслеживать, работают ли контейнеры, вы останавливаете экземпляр, и Kubernetes повторно создает контейнеры в другом экземпляре… Это своего рода волшебство!

Затем, как новый сторонник, вы говорите себе, что вам следует попытаться построить настоящий кластер и развернуть на нем несколько более крупных приложений. Вы создаете виртуальную kubeadmмашину, учитесь ею пользоваться и через некоторое время создали новый кластер Kubernetes для развертывания ваших приложений. Магия все еще существует, но вы начинаете чувствовать, что, как и в большинстве сказок, за магию приходится платить

Запускаете Kubernetes в производство?

И когда вы пытаетесь развернуть свой первый производственный кластер Kubernetes локально, на гипервизоре или платформе с нуля, вы обнаруживаете, что цена может быть немного завышенной…

Развертывание кластера Kubernetes — это только начало, чтобы его продукт был готов, вам также необходимо убедиться, что:

  • Процесс установки автоматизируется и повторяется.
  • Процесс обновления / отката безопасен
  • Процедура восстановления существует, задокументирована и протестирована
  • Производительность предсказуема и стабильна, особенно при использовании постоянных томов
  • Кластер работоспособен, с достаточным количеством трассировок, метрик и журналов для обнаружения и отладки сбоев и проблем.
  • Сервис безопасный и высокодоступный

Наш ответ на эту сложность эксплуатации


Что ж, если вы, хотя развертывание вашего нового кластера Kubernetes собирались дать вам всю эту идею NoOps, похоже, вы ошибались. Сохраняя магическую метафору, обучение овладению магией занимает много времени, и это сопряжено с риском…

Таким образом, как и многие мощные технологии, очевидная простота и универсальность Kubernetes со стороны разработчиков сочетается с высокой сложностью со стороны операций. Неудивительно, что большинство пользователей обращают внимание на управляемый Kubernetes, когда им нужно перейти от экспериментальной концепции к рабочей.

В OVH, как компания, ориентированная на пользователей, мы хотели ответить на этот спрос, создав наше управляемое решение Kubernetes, полностью основанное на открытом исходном коде, без привязки к поставщику, полностью совместимое с любым чистым решением Kubernetes. Наша цель состояла в том, чтобы предоставить нашим пользователям полностью управляемый кластер Kubernetes под ключ, готовый к использованию, без хлопот по установке или эксплуатации.


На плечах гигантов ...

Итак, мы хотели создать управляемое решение Kubernetes, но как это сделать? Первый шаг был прост: нам нужно было убедиться, что базовая инфраструктура надежна, поэтому мы решили основать ее на нашем собственном предложении Public Cloud на основе OpenStack.

Сертифицированный хостинг Kubernetes
Построение нашей платформы на основе зрелого, высокодоступного и основанного на стандартах продукта, такого как OVH Public Cloud, позволило нам сосредоточить наши усилия на решении реальной проблемы, с которой мы столкнулись: создании хорошо масштабируемой, простой в эксплуатации, сертифицированной CNCF управляемой службы Kubernetes.



Что дальше?
В следующих статьях серии мы собираемся погрузиться в архитектуру сервиса OVH Managed Kubernetes, подробно описав некоторые из наших технологических решений, объясняя, почему мы их выбрали и как заставили их работать.

Мы начнем с одного из наших самых смелых решений: запустить Kubernetes поверх Kubernetes или, как мы любим его называть, Kubinception.

OVH US 2020

RISE
[2020-USA] 2x E5-2660 [16c-32t] / 256 DDR3 ECC 1600 MHz / 2x240 SSD
[2020-USA] 2x E5-2660 [16c-32t] / 256 DDR3 ECC 1600 MHz / 2x240 SSD + 4x 2 ТБ HDD
[2020-USA] E3-1230v6 [4c/8t] (4,2 GHz) / 32 GB DDR4 ECC 2133 MHz / 2x 2TB SATA
[2020-USA] E3-1230v6 [4c/8t] (4,2 GHz) / 32 GB DDR4 ECC 2133 MHz / 2x 450 NVMe
[2020-USA] E3-1230v6 [4c/8t] (4,2 GHz) / 64 GB DDR4 ECC 2133 MHz / 2x 2TB SATA
[2020-USA] E3-1230v6 [4c/8t] (4,2 GHz) / 64 GB DDR4 ECC 2133 MHz / 2x 450 NVMe
[2020-USA] E5-1650v4 [6c/12t] (3,8 GHz) / 64 GB DDR4 ECC 2133 MHz / 2x 2TB soft raid1
[2020-USA] E5-1650v4 [6c/12t] (3,8 GHz) / 64 GB DDR4 ECC 2133 MHz / 2x 450 NVMe
[2020-USA] Ryzen 5 3600X [6c-12t] (4.4GHz) / 32GB DDR4 ECC 2666MHz / 2x 500 NVMe softraid1
[2020-USA] Ryzen 5 3600X [6c-12t] (4.4GHz) / 64GB DDR4 ECC 2666MHz / 2x 500 NVMe softraid1
[2020-USA] Ryzen 7 3800X [8c-16t] (4.5GHz) / 64GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
[2020-USA] Ryzen 7 3800X [8c-16t] (4.5GHz) / 128GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1

ADV
[2020-USA] E 2136 [6c-12t] (4.5 GHz) / 32 DDR4 ECC 2666MHz / 2x 500 NVMe softraid1
[2020-USA] E 2136 [6c-12t] (4.5 GHz) / 32 DDR4 ECC 2666MHz / 2x 4 ТБ SATA softraid1
[2020-USA] E 2136 [6c-12t] (4.5 GHz) / 64 DDR4 ECC 2666MHz / 2x 500 NVMe softraid1
[2020-USA] E 2136 [6c-12t] (4.5 GHz) / 64 DDR4 ECC 2666MHz / 2x 4 ТБ SATA softraid1
[2020-USA] Xeon-D 2141I [8c-16t] (3.0 GHz) / 32 DDR4 ECC 2133MHz / 2x 500 NVMe softraid1
[2020-USA] Xeon-D 2141I [8c-16t] (3.0 GHz) / 32 DDR4 ECC 2133MHz / 2x 4 ТБ SATA softraid1
[2020-USA] Xeon-D 2141I [8c-16t] (3.0 GHz) / 64 DDR4 ECC 2133MHz / 2x 500 NVMe softraid1
[2020-USA] Xeon-D 2141I [8c-16t] (3.0 GHz) / 64 DDR4 ECC 2133MHz / 2x 4 ТБ SATA softraid1
[2020-USA] Xeon-D 2141I [8c-16t] (3.0 GHz) / 128 DDR4 ECC 2133MHz / 2x 500 NVMe softraid1
[2020-USA] Xeon-D 2141I [8c-16t] (3.0 GHz) / 128 DDR4 ECC 2133MHz / 2x 4 ТБ SATA softraid1
[2020-USA] Xeon-D 1521 [4c-8t] (2.7 GHz) / 16 DDR4 ECC 2133MHz / 4x4TB HDD SATA + 1x500GB NVMe
[2020-USA] Xeon-D 1521 [4c-8t] (2.7 GHz) / 16 DDR4 ECC 2133MHz / 6x4TB HDD SATA + 1x500GB NVMe
[2020-USA] Xeon-D 1541 [8c-16t] (2.7 GHz) / 32 DDR4 ECC 2133MHz / 4x12TB HDD SATA + 2x240GB NVMe
[2020-USA] Xeon-D 1541 [8c-16t] (2.7 GHz) / 32 DDR4 ECC 2133MHz / 4x14TB HDD SATA + 2x240GB NVMe
[2020-USA] Xeon-D 1541 [8c-16t] (2.7 GHz) / 32 DDR4 ECC 2133MHz / 6x12TB HDD SATA + 1x500GB NVMe
[2020-USA] Epyc 7351P [16c-32t] (2.9 GHz) / 128 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
[2020-USA] Epyc 7351P [16c-32t] (2.9 GHz) / 128 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
[2020-USA] Epyc 7351P [16c-32t] (2.9 GHz) / 256 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
[2020-USA] Epyc 7351P [16c-32t] (2.9 GHz) / 256 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
[2020-USA] Epyc 7451 [24c-48t] (3.2 GHz) / 128 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
[2020-USA] Epyc 7451 [24c-48t] (3.2 GHz) / 128 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
[2020-USA] Epyc 7451 [24c-48t] (3.2 GHz) / 256 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
[2020-USA] Epyc 7451 [24c-48t] (3.2 GHz) / 256 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
Дополнения удорожание цены мес
  • 2x 1TB SSD NVMe Soft RAID
  • 2x 4TB HDD SATA + 2× 500GB SSD NVMe Soft RAID
  • 3x 1TB SSD NVMe Soft RAID
  • 3x 4TB HDD SATA Hard RAID
  • 2x 1920GB SSD NVMe Soft RAID
  • 4x 960GB SSD SATA Hard RAID

INF
[2020-USA] Xeon-E 2274G [4c-8t] (4.9GHz) / 32GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
[2020-USA] Xeon-E 2274G [4c-8t] (4.9GHz) / 32GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
[2020-USA] Xeon-E 2274G [4c-8t] (4.9GHz) / 64GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
[2020-USA] Xeon-E 2274G [4c-8t] (4.9GHz) / 64GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
[2020-USA] Xeon-E 2288G [8c-16t] (5GHz) / 32GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
[2020-USA] Xeon-E 2288G [8c-16t] (5GHz) / 32GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
[2020-USA] Xeon-E 2288G [8c-16t] (5GHz) / 64GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
[2020-USA] Xeon-E 2288G [8c-16t] (5GHz) / 64GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
[2020-USA] Xeon-E 2288G [8c-16t] (5GHz) / 128GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
[2020-USA] Xeon-E 2288G [8c-16t] (5GHz) / 128GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
[2020-USA] AMD Epyc 7371 [16c-32t] (3.8GHz) / 128GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
[2020-USA] AMD Epyc 7371 [16c-32t] (3.8GHz) / 128GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
[2020-USA] AMD Epyc 7371 [16c-32t] (3.8GHz) / 256GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
[2020-USA] AMD Epyc 7371 [16c-32t] (3.8GHz) / 256GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
[2020-USA] AMD Epyc 7371 [16c-32t] (3.8GHz) / 512GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
[2020-USA] AMD Epyc 7371 [16c-32t] (3.8GHz) / 512GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
[2020-USA] 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 96GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
[2020-USA] 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 96GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
[2020-USA] 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 192GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
[2020-USA] 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 192GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
[2020-USA] 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 384GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
[2020-USA] 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 384GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
Дополнения удорожание цены мес
  • 2× 960GB SSD NVMe + 2× 6TB HDD SATA Soft RAID
  • 2× 1920GB SSD NVMe Soft RAID
  • 3× 6TB HDD SATA Hard RAID
  • 3× 1920GB SSD NVMe Soft RAID
  • 4× 960GB SSD SATA Hard RAID
  • 3× 3840GB SSD NVMe Soft RAID
  • 2Gbps unmetered [Public network]
  • 3Gbps unmetered [Public network]
  • 4Gbps unmetered [Public network]

Писать тикет как обычно
bill.ovh/billmgr
asuka.onl/billmgr

OVH Infrastructure [2 Gbit] [2019]

Третья по счету новая линейка в 2019
Первая была OVH Advance Servers 2019 [тарифы]
Вторая была OVH Rise Servers 2019 [тарифы]


  • Xeon-E 2274G [4c-8t] (4.9GHz) / 32GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
  • Xeon-E 2274G [4c-8t] (4.9GHz) / 32GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
  • Xeon-E 2274G [4c-8t] (4.9GHz) / 64GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
  • Xeon-E 2274G [4c-8t] (4.9GHz) / 64GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
  • Xeon-E 2288G [8c-16t] (5GHz) / 32GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
  • Xeon-E 2288G [8c-16t] (5GHz) / 32GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
  • Xeon-E 2288G [8c-16t] (5GHz) / 64GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
  • Xeon-E 2288G [8c-16t] (5GHz) / 64GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
  • Xeon-E 2288G [8c-16t] (5GHz) / 128GB DDR4 ECC 2666MHz / 2x 960 NVMe softraid1
  • Xeon-E 2288G [8c-16t] (5GHz) / 128GB DDR4 ECC 2666MHz / 3x 4ТБ HDD softraid1
  • AMD Epyc 7371 [16c-32t] (3.8GHz) / 128GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
  • AMD Epyc 7371 [16c-32t] (3.8GHz) / 128GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
  • AMD Epyc 7371 [16c-32t] (3.8GHz) / 256GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
  • AMD Epyc 7371 [16c-32t] (3.8GHz) / 256GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
  • 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 96GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
  • 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 96GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
  • 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 192GB DDR4 ECC 2400MHz / 2x 960 NVMe softraid1
  • 2x Xeon Silver 4214 [24c-48t] (3.2GHz) / 192GB DDR4 ECC 2400MHz / 3x 4ТБ HDD softraid1
Писал топик про сравнение процессоров. Эта линейка удалась.

Возможен заказ в Дата-цетнрах, их Фото
  1. 1 гигабит полноценный (2 гигабита приват нетворк)
  2. можно докупать до 256 IP с месячной по цене 2 евро за штуку
  3. встроенное IPMI
  4. backup 500
  5. можно получить доступ до панели чтобы настроить Antiddos (как выглядят атаки)
  6. историю можно найти в разделе ruovh.ru/blog/rise/



А купить через РФ
Биллинг с 2014 года — скоро полностью переедет
Биллинг с 2016 года bill.ovh/billmgr


Читать дальше →

OVH Rise Servers 2019 [тарифы]

Вторая по счету новая линейка в 2019
Первая была OVH Advance Servers 2019 [тарифы]


  • E3-1270v6 [4c-8t] (4.2GHz) / 32 DDR4 ECC 2133MHz / 2x 450 NVMe softraid1
  • E3-1270v6 [4c-8t] (4.2GHz) / 32 DDR4 ECC 2133MHz / 2x 2 ТБ SATA softraid1
  • Xeon D-1540 [8c-16t] (2.6 GHz) / 64 DDR4 ECC 2133MHz / 2x 2 ТБ SATA softraid1
  • Xeon D-1540 [8c-16t] (2.6 GHz) / 64 DDR4 ECC 2133MHz / 2x 480 SSD softraid1
  • Xeon E5-1650v4 [6c-12t] (4GHz) / 128 DDR4 ECC 2133MHz / 2x 2 ТБ SATA softraid1
  • Xeon E5-1650v4 [6c-12t] (4GHz) / 128 DDR4 ECC 2133MHz / 2x 450 NVMe softraid1
  • 2x Xeon E5-2630v3 [16c-32t] (3.2GHz) / 128 DDR4 ECC 1866MHz / 2x 2 ТБ SATA softraid1
  • 2x Xeon E5-2630v3 [16c-32t] (3.2GHz) / 128 DDR4 ECC 1866MHz / 2x 480 SSD softraid1
  • 2x Xeon E5-2650v3 [20c-40t] (3GHz) / 256 DDR4 ECC 2133MHz / 2x 2 ТБ SATA softraid1
  • 2x Xeon E5-2650v3 [20c-40t] (3GHz) / 256 DDR4 ECC 2133MHz / 2x 480 SSD softraid1

Возможен заказ в Дата-цетнрах, их Фото
  1. 1 гигабит полноценный
  2. можно докупать до 256 IP с месячной по цене 2 евро за штуку
  3. встроенное IPMI
  4. backup 500
  5. можно получить доступ до панели чтобы настроить Antiddos (как выглядят атаки)
  6. историю можно найти в разделе ruovh.ru/blog/rise/

А купить через РФ
Биллинг с 2014 года — скоро полностью переедет
Биллинг с 2016 года bill.ovh/billmgr


Читать дальше →

OVH Advance Servers 2019 [тарифы]

Линейки Энтерпрайз и Хостинг были закрыты.
На их смену пришли Адвансе и Райз.

OVH Advance [500 Mbps] [2019]

  • Xeon-D 2123IT [4c-8t] (3 GHz) / 32 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
  • Xeon-D 2123IT [4c-8t] (3 GHz) / 32 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
  • Xeon-D 2123IT [4c-8t] (3 GHz) / 64 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
  • Xeon-D 2123IT [4c-8t] (3 GHz) / 64 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
  • E 2136 [6c-12t] (4.5 GHz) / 32 DDR4 ECC 2666MHz / 2x 500 NVMe softraid1
  • E 2136 [6c-12t] (4.5 GHz) / 32 DDR4 ECC 2666MHz / 2x 4 ТБ SATA softraid1
  • E 2136 [6c-12t] (4.5 GHz) / 64 DDR4 ECC 2666MHz / 2x 500 NVMe softraid1
  • E 2136 [6c-12t] (4.5 GHz) / 64 DDR4 ECC 2666MHz / 2x 4 ТБ SATA softraid1
  • Xeon-D 2141I [8c-16t] (3 GHz) / 32 DDR4 ECC 2133MHz / 2x 500 NVMe softraid1
  • Xeon-D 2141I [8c-16t] (3 GHz) / 32 DDR4 ECC 2133MHz / 2x 4 ТБ SATA softraid1
  • Xeon-D 2141I [8c-16t] (3 GHz) / 64 DDR4 ECC 2133MHz / 2x 500 NVMe softraid1
  • Xeon-D 2141I [8c-16t] (3 GHz) / 64 DDR4 ECC 2133MHz / 2x 4 ТБ SATA softraid1
  • Epyc 7351P [16c-32t] (2.9 GHz) / 128 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
  • Epyc 7351P [16c-32t] (2.9 GHz) / 128 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
  • Epyc 7351P [16c-32t] (2.9 GHz) / 256 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
  • Epyc 7351P [16c-32t] (2.9 GHz) / 256 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
  • 2x Xeon Gold 5118 [24c-48t] (3.2 GHz) / 96 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
  • 2x Xeon Gold 5118 [24c-48t] (3.2 GHz) / 96 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
  • 2x Xeon Gold 5118 [24c-48t] (3.2 GHz) / 192 DDR4 ECC 2400MHz / 2x 500 NVMe softraid1
  • 2x Xeon Gold 5118 [24c-48t] (3.2 GHz) / 192 DDR4 ECC 2400MHz / 2x 4 ТБ SATA softraid1
  • Xeon-D 1521 [4c-8t] (2,7 GHz) / 16 DDR4 ECC 2133MHz / 4x 4TB SATA + 1x 500 NVMe
  • Xeon-D 1521 [4c-8t] (2,7 GHz) / 16 DDR4 ECC 2133MHz / 4x 6TB SATA + 1x 500 NVMe
  • Xeon-D 1541 [8c-16t] (2,7 GHz) / 32 DDR4 ECC 2133MHz / 4x 12TB SATA + 2x 240 SSD
  • Xeon-D 1541 [8c-16t] (2,7 GHz) / 32 DDR4 ECC 2133MHz / 4x 14TB SATA + 2x 240 SSD

И дополнения.
В этот раз не стал дублировать серверы с этими дисками.
Будем просто заказывать сервер + тариф диск.
  • 1Gbps unmetered [Public network]
  • 2Gbps unmetered [Public network]
  • 3Gbps unmetered [Public network]
  • 1Gbps unmetered [Private network]
  • 3Gbps unmetered [Private network]
  • 2x 8TB SATA
  • 2x 1TB NVMe
  • 2x 500 NVMe + 2x 4TB SATA
  • 3x 1TB NVMe
  • 3x 960 SSD Hard RAID

Возможен заказ в Дата-цетнрах, их Фото
  1. 500 мегабит полноценные
  2. можно докупать до 256 IP с месячной по цене 2 евро за штуку
  3. встроенное IPMI
  4. backup 500
  5. можно получить доступ до панели чтобы настроить Antiddos (как выглядят атаки)
  6. историю можно найти в разделе ruovh.ru/blog/advance/

А купить через РФ
Биллинг с 2014 года — скоро полностью переедет
Биллинг с 2016 года bill.ovh/billmgr


Читать дальше →

Иногда сотрудники копируют тарифы не включая мозги

Частая проблема любых НОВЫХ тарифов от ОВХ
Сотрудник который их создает — забывает при копировании тарифа включить такие же настройки тарифа, как были и у оригинала.
Например случаи, что IP с разовой платой забывают включить
Или бесплатный бекап включить

Например акция тариф LE
www.ovh.ie/dedicated_servers/game/1907do05.xml
hostsuki.pro/all/waw-ovh-6700k.html
Там короче забыли включить GAME AntiDdos




Подобные проблемы говорят о том что работают в ОВХ люди, которые даже ассортимента собственного не знают :)
как повысить грамотность любого сотрудника

Бесплатный бекап вдруг становится платным бекапом

Когда вводили летом 2016 года тариф GAME-3
Была проблема с IP
Мы писали о ней.
ruovh.ru/blog/community/192.html
tickets.cafe/2017/06/26/problema-s-zakazom-ip-na-i7-6700k-game-3/
Целый месяц короче потратили пока доказали, что мы не уебки.

И вот в 2019 случайно заказал Канаду GAME-3
И оказалось, что там бекап тоже кривой. Багнутый.
Вместо бесплатного — платный.




Удалил бекап, а счет за сервер не изменился.
Имейте ввиду.
Вы можете испортить бекапом цену сервера.

Raid0

Обычно чтобы установить Raid0 нужно
/ — всегда в raid1
/home или /vm — можно уже в 0



Если покупать пометку «мега рейд»
То там без извращений