Эйфория по поводу облачных вычислений постепенно начала иссякать в тот момент, когда системообразующие участники облачного рынка (как поставщики, так и заказчики) впервые затронули тему масштабируемости вычислений. Эти проблемы ясно давали понять, что никакая виртуализация не делает вычислительное пространство абсолютно ровным и бесструктурным. Некие более или менее крупные «зерна» в виде элементов инфраструктуры на общем поле все же проглядывают. От их размера, а также от внутренних механизмов того или иного предприятия зависит, насколько мы сможем достраивать ресурсы ЦОДа оптимальным для этого предприятия способом. В то же самое время выяснилось, что для любого датацентра и любого облака данные возможности не безграничны.

Думается, что для российского рынка некой отправной точкой систематического подхода к вопросам масштабирования ИТ-систем стал кризис конца 2008-го — начала 2009 годов. До этого момента большинство ИТ-руководителей изначально ориентировались под закупки «железа» впрок и основной проблемой часто признавалось умение спрогнозировать рост бизнеса таким образом, чтобы не закупить лишнее оборудование — хотя бы на несколько десятков процентов или даже в несколько раз больше того, что требуется. Наверное, многие и сейчас помнят большое количество посткризисных публикаций и круглых столов, участники которых, вспоминая некогда пропагандировавшиеся ими подходы, принимались активно критиковать их.

В начале нового десятилетия нынешнего века ведущую роль в решении вопросов масштабирования инфраструктуры стали играть технологии виртуализации, что в общем пришлось очень кстати для пересматривающего свои позиции российского рынка. И заинтересованность к различным формам ее реализации не иссякла до сих пор.

Если говорить о конкретных тенденциях в сфере ИТ-архитектуры за прошедшие пять-шесть лет, то мы пережили взрывной интерес к таким технологиям, как интегрированные программно-аппаратные комплексы класса Appliances, виртуализация десктопов (Virtual Desktop Environment — VDI), Software Defined Network/Storage, Flash и смешанные (Disk/Flash) массивы хранения, а также некоторые другие. Более четко обрисовалось соперничество серверных архитектур, построенных по принципам scale-up и scale-out, которые представлены соответственно серверами класса mission critical и недорогими, но очень технологично объединяемыми друг с другом машинами x86-архитектуры.

Обо всем этом за указанный период в разных номерах писало и наше издание, и в основном как раз от этих концепций стали отталкиваться ведущие ИТ-поставщики при дальнейшем развитии своих серверных решений уже в новейшее время. Так, получившая сегодня широкое практическое воплощение идеология конвергентной инфраструктуры (converged infrastructure), в соответствии с которой в рамках решения одного вендора объединяются ключевые серверные элементы (прежде всего серверы, системы хранения и сетевое оборудование), явно была заимствована из концепции Appliances, появившейся чуть раньше. Идеи виртуализации в данном случае тоже приняли свою, характерную для конвергентных систем форму.

Недостатки же подобных решений проявлялись более рельефно, когда заказчик (как правило, уже много позже приобретения самих систем категории converged) осознавал, что бесконечных ресурсов не бывает и даже эти достаточно мощные интегрированные комплексы необходимо расширять. То самое элементарное «зерно» на поле всех решений датацентра оказывалось чересчур большим, так что приходилось покупать такое же — в виде еще одного полного набора converged infrastructure. И это не говоря об организационных и бюрократических проблемах, связанных с его поставкой.

Пришедшие впоследствии гиперконвергентные решенияиспользуют и некоторые другие идеи последних лет, о которых мы также говорили выше. Целая группа параллельно развивающихся программно-определяемых продуктов дала начало новой концепции Software Defined Data Center (SDDC), диктующей необходимость программной реализации буквально всех элементов и сервисов ЦОДа, которые при любом возможном сценарии использования его ресурсов должны работать скоординированно по заранее прописанным процедурам. Иными словами, каждый SDDC стремится использовать все имеющиеся возможности виртуализации, что предполагает охват данной технологией не только серверов и даже систем хранения. Она накрывает собой весь спектр сервисов, задействуемых в тех или иных практических ситуациях, будь то системы балансировки нагрузки, сетевые сервисы, дедупликация, репликации, Disaster Recovery и т. д.

С точки зрения потребительских характеристик от конвергентной архитектуры новая концепция берет идею формирования и использования единого пула ресурсов ЦОДа, решая данную задачу за счет специфических управляющих программ и виртуализации. Но при этом акцент делается не столько на простоте и надежности классического администрирования, сколько на прикладных задачах, запускаемых с помощью все той же виртуализации. Идею можно сформулировать и по-другому: во главу угла в случае использования гиперконвергенции ставятся виртуальные машины, связанные с обработкой корпоративной информации.

Как следствие пользователь должен получать новые возможности, в том числе и те, актуальность которых неоднократно обсуждалась в последние годы. Назовём некоторые из них:

  • наращивание мощностей датацентров куда более мелкими «порциями» и с учётом потребности в ресурсах конкретного типа;
  • если представляется оптимальным, то более широкое использование серверной архитектуры scale-out на основе массового применения недорогих серверов x86;
  • применение более богатых и гибких функций оптимизации ресурсов ЦОДа в случае разных политик их использования различными приложениями и пользователями, работающими с ними одновременно. Надо сказать, что эта проблема очень существенно обострилась в связи с широким практическим внедрением технологий VDI и Flash-массивов, о которых мы также говорили выше.

Одно из декларируемых преимуществ гипергонвергентных решений для бизнеса кроется и в том, что в этом случае имеется возможность существенно переориентировать персонал датацентра на новые задачи. Речь прежде всего идёт об отказе от услуг многочисленных профессионалов, умеющих администрировать лишь строго определенные аппаратные или программные решения, из которых состоит датацентр. Вместо этого приоритет должен отдаваться универсальным специалистам по гиперконвергентным решениям, способным сосредотачиваться на более высокоуровневых проблемах ИТ-поддержки бизнеса.

Наряду со всеми преимуществами гиперконвергенции остается по крайней мере один серьёзный вопрос, уж точно характерный для отечественного рынка. Претендуя на то, чтобы накрыть собой большую долю автоматизации среднего и крупного бизнеса, эта концепция по определению не может оставаться совсем простой. Вместе с тем надо отметить, что если конвергентные системы изначально продвигались давно и хорошо известными в России компаниями (HP, Dell, IBM, Cisco Systems, NetApp, Huawei…), то родоначальники направления гиперконвергентности — Simplivity и Nutanix — пока не присутствуют на нашем рынке и вовсе у нас не известны. Среди уже определившихся крупных идеологов гиперконвергенции (а это во многом все те же ключевые ИТ-вендоры есть поставщики как программных, так и аппаратных решений. Они интегрируют свои продукты, чтобы повысить их функциональность. В зарубежных публикациях уже активно обсуждается вопрос их «заточенности» под определенные шаблоны инфраструктур крупных заказчиков, а также под программные системы, являющиеся для них корпоративным стандартом. Представляется также, что в статьях, посвященных сравнению гиперконвергентных систем конкретных производителей, равно как и в дискуссионных материалах пока далеко не все технические и рыночные нюансы прозрачны для отечественных пользователей. Словом, дефицит знаний по теме «гиперконвергентная инфраструктура» пока ощущается более чем явно.