Термин «виртуализация» сегодня у всех на устах, и, раскрывая эту обширнейшую тему, корпоративные заказчики и ИТ-поставщики делают разные акценты. Свои приоритеты в сложившейся ситуации есть и у системных интеграторов.

Виртуализация по этапам

Интерес заказчиков к данным технологиям начинался с простых и понятных вещей — стремления уплотнить ЦОД и управлять всеми элементами ИT-инфраструктуры из одной консоли. Там, где раньше требовалось, скажем, двадцать стоек оборудования, стало возможным поставить только две. Одновременно уменьшается энергопотребление, повышается гибкость инфраструктуры, а приложения становятся более доступными, и при этом не нужно вкладывать средства в какие-то дополнительные решения. Чуть позже заказчики осознали, что технологии виртуализации кроме всего перечисленного помогают снизить зависимость конечного решения от вендоров, в первую очередь от поставщиков оборудования.

Следующим этапом постепенного проникновения виртуализации в мир корпоративных вычислений стало использование комплексных решений, с успехом применяемых по крайней мере в нескольких популярных сценариях автоматизации бизнеса. Весьма характерный пример тому — известная большинству из нас виртуализация рабочих мест (VDI). Мы в КРОК неоднократно использовали ее для решения различных задач наших заказчиков. Это и встречающаяся практически в каждой второй компании организация сервиса для пользователей, где важно не столько снизить цену, сколько стандартизировать услуги и удешевить 3D-графические станции проектировщиков, работающих с высоконагруженными графическими приложениям. Наибольшей эффективности технология VDI достигает, когда опирается на оба ключевых направления — виртуализацию вычислительных ресурсов и виртуализацию систем хранения данных.

В результате саму классификацию и соответствующие технологии заказчики стали воспринимать значительно рельефнее. Это способствовало тому, что перед участниками рынка раскрывались всё новые, ранее, быть может, не до конца осознанные её достоинства.

Одно из них — возможность «комплектации» ресурсов ЦОДа под определенную прикладную задачу, а также абстрагирование от «железа» конкретной вычислительной среды. Тут хорошим примером служит пока еще не очень популярное, но уже доказавшее свое право на жизнь направление, связанное с виртуализацией сетей. Речь идет о том, что каждому заказчику услуг ЦОДа может быть выделено определенное количество сетевых ресурсов (и с определённым их качеством) в виртуализированном виде. На пути трафика соответствующей виртуальной машины прозрачно встраиваются сервисы, позволяющие всем этим управлять и обеспечивать должную безопасность. Более того, если, например, прикладные сервисы заказчика переносятся на новую площадку, то все правила доступа, все протоколы сетевых коммуникаций между отдельными сервисами приложения в облаке, которые изначально были оптимизированы под прикладную задачу, автоматически остаются таковыми и в новой среде. Фактически в данном случае мы имеем дело с уже знакомым преимуществом независимости от оборудования конкретного производителя, только на более высоком уровне использования комплексных решений.

Следующее важное преимущество технологий, к реализации которого мы в настоящее время подходим, это гибкость использования ресурсов. Снова приведу пример, теперь уже из сферы виртуализации систем хранения. Если мы внедряем уже упомянутую технологию VDI и хотим при этом обеспечить комфортную работу всех пользователей даже при максимальном потреблении ресурсов, то по классическим представлениям мы должны приобрести весьма дорогую систему хранения данных.

Однако при доступности виртуализации у нас появляется возможность «начинять» недорогие x86-серверы устройствами хранения самой разнообразной архитектуры. Это могут быть и магнитные, и твердотельные накопители с широким спектром характеристик. И затем, уже благодаря неким программным решениям, объединяем всё это в логически единый комплекс. Получается архитектура, которую ныне принято называть scale-out или горизонтально масштабируемой. Она позволяет масштабировать ресурсы хранения, ориентируясь не на параметры конкретных аппаратных решений, а в соответствии с требуемой нагрузкой — как по числу операций чтения-записи в секунду, так и по пропускной способности, объему и, что немаловажно, по уровню доступности отдельного ресурса. Подобный проект мы недавно выполнили в одной государственной структуре, где виртуализация позволила при аналогичной функциональности снизить затраты на закупку систем хранения данных примерно наполовину.

Еще один этап освоения рассматриваемых технологий ждет нас уже в ближайшем будущем. Некая синергия «ключевой триады» направлений виртуализации (вычислительных ресурсов, систем хранения и сетей) должна стать основой для реализации так называемого программно-определяемого центра обработки данных (software defined datacenter — SDDC). Сам термин и перспективы технологии интенсивно обсуждаются в прессе.

Пока же основные направления виртуализации вычислений развиваются обособленно. Отчасти потому, что при единой идеологической основе технологии эти все-таки разные, да и у вендоров во многом различаются маркетинговые интересы. Несмотря на это сфера SDDC очень перспективна как для мирового, так и для отечественного рынков. Этому сильно способствуют и некоторые важные тенденции в области архитектуры и методов разработки современных прикладных систем. Но это уже совсем другая тема для следующего материала.

Глазами участников рынка

Пока мы вели речь лишь о технологиях, а теперь — организационный аспект. А именно — насколько готовы сегодня ко всему этому различные участники рынка.

Начнем с заказчиков. Многим из них, безусловно, придется по-новому взглянуть на структуру ИТ-отдела. Не секрет, что распространение виртуализации и программно-определяемых сервисов предоставляет широчайшие возможности по настройке различных параметров, в том числе и тех, которые раньше производились исключительно на аппаратном уровне и в контексте работы с оборудованием конкретного производителя. В данной ситуации по причине сокращения востребованности в компетенциях по конкретным решениям вендоров необходимость в специалистах количественно может существенно упасть. С другой стороны, заметно растут требования к ним. Тот или иной сотрудник может не быть глубоким профессионалом в области конкретных хранилищ данных. Но он должен достаточно хорошо понимать, как все эти системы в совокупности функционируют на площадке заказчика, как они используют сеть, как эта сеть построена и как в этой среде будут функционировать прикладные системы. Таким образом, из привычных нам системных администраторов специалисты должны превратиться в своего рода универсалов, обладающих широким спектром знаний в области используемых в ЦОДе заказчика технологий и имеющих навыки и в разработке ПО, и в автоматизации процессов.

Вендоры же, поставляющие преимущественно аппаратные решения, в эпоху растущего доминирования программных сервисов тоже могут выиграть или по крайней мере хорошо приспособиться к ситуации. Если flash-массивы как основа проприетарных решений являются системами весьма дорогостоящими, то возможность оснащать машины x86-архитектуры отдельными SSD-дисками в сочетании с недорогими носителями сегодня выглядит куда более предпочтительным вариантом. Поэтому в нынешних условиях помимо выпуска новых аппаратных решений вендоры все больше сосредотачиваются на программном обеспечении. Эта деятельность может выражаться в формировании и поддержке новых стандартов, в частности таких, как протокол OpenFlow, который призван унифицировать управление программно-определяемыми сетями. Кроме того, формируются и новые подходы, например Network Function Virtualization (NFV) или Software-defined wide area network (SD-WAN), направленные на перевод популярных аппаратных продуктов (NAT, межсетевые экраны, системы обнаружения вторжений, балансировщики нагрузки, VPN и пр.) в виртуальную среду в виде чисто программных решений. Значительное внимание уделяют поставщики и разработке программных интерфейсов (API).

Нам же как системному интегратору прежде всего необходимо правильно спроектировать и внедрить решение. С учетом того, что виртуализация и программно-определяемые сервисы сегодня дают куда большую вариативность решений, чем раньше, эта задача становится намного сложнее. И выполняя ее, надо хорошо представлять себе менталитет и цели заказчиков, а также те тенденции, которые формируются поставщиками и вообще появляются на рынке.