Неизбежным последствием кризиса становится снижение бюджетов, в том числе и на поддержку и развитие центров обработки данных. Но при этом задачи поддержки бизнеса также никто не отменял. И в этих условиях необходимо четко осознавать, на чем и как можно сократить затраты практически безболезненно, а где экономия может вылиться в существенные убытки. Именно это и стало предметом обсуждения на нашем круглом столе.

Участники круглого стола:
Виталий Хозяинов, независимый консультант
Виталий Тукмаков, консультант компании Hewlett Packard
Игорь Попов, заместитель директора издательства «Эксмо» по техническим вопросам
Роман Шапошников, главный инженер проекта «Ай-Теко»
Яков Шпунт, редактор Intelligent Enterprise
Ведущий 
Сергей Костяков, заместитель главного редактора Intelligent Enterprise

Intelligent Enterprise: Какие способы снижения затрат на поддержку и развитие ЦОД наиболее адекватны: замена дорогих систем (RISC, мейнфремы) более дешевыми, для которых на рынке больше специалистов; использование технологий виртуализации и консолидации; внедрение средств мониторинга и контроля работы ЦОД; опора на стандарты при построении и развитии ЦОД? Совместимо ли развитие со снижением затрат?

Яков Шпунт: Хотелось бы добавить к перечню способов снижения затрат использование всяческого рода решений автоматизации. Тем более что это позволяет обойтись меньшим количеством персонала, затраты на который чрезвычайно высоки. Еще один из способов, которые не перечислены, — просчет рисков и отказ от резервирования тех систем, чей отказ не критичен. Не случайно счет ЦОД, сертифицированных по TIER 4, идет на единицы. Соответствие TIER 3 тоже встречается не так часто, да и далеко не всем нужно соответствие этому уровню.

Виталий Тукмаков: Прежде чем сокращать затраты, надо разобраться в их структуре. По этому вопросу с заказчиками возникает масса сложностей. Многие не представляют себе, сколько у них серверов, систем хранения, сетевого оборудования, насколько эти активы загружены. И совсем мало кто может сказать, в какую сумму им обходится эксплуатация всех этих систем. Прежде чем экономить, надо разобраться с тем, с чем мы имеем дело, как с точки зрения инвентаризации активов, так и с точки зрения структуры ИТ-затрат, подвести так называемую базу (Baseline). И только после этого имеет смысл приступать к выделению наиболее затратных статей бюджета и способов их снижения или к повышению эффективности использования имеющихся ресурсов.

А из способов снижения затрат лично мне в первую очередь кажется актуальным использование технологий виртуализации серверов. Это позволяет уменьшить место, занимаемое оборудованием, снизить энергопотребление, повысить эффективность использования имеющихся вычислительных ресурсов. Хотя для условий России, где электроэнергия относительно дешева, возможная отдача от экономии электроэнергии тут не слишком велика. В данном случае потенциальная экономия на снижении требований к инженерной инфраструктуре ЦОД (занимаемое пространство, тепловыделение) может оказаться более выгодной. Следующий возможный шаг — консолидация приложений и баз данных. Это позволит еще больше уменьшить количество оборудования без ущерба для работы систем. Такое решение позволило существенно снизить затраты при объединении HP и Compaq. И уже дальше можно переходить к внедрению средств управления, изменению процессов управления, переобучению персонала. Именно переобучению, поскольку просто избавляться от персонала нерационально, ведь в его подготовку вложены немалые инвестиции.

Виталий Хозяинов: Но при этом платежи на подключение мощностей на сегодняшний день просто невменяемы. Так что вопрос энергоэф­фективности применительно к ЦОД все‑таки возникает. Тем более что если оборудование меньше тратит электроэнергии, то и тепла оно рассеивает меньше.

В отношении кондиционеров, скажем, есть решения, которые позволяют тратить меньше электроэнергии. Та же технология free cooling у нас популярна далеко не случайно, несмотря на более высокую цену. Я лично рассчитывал характеристики ЦОД на 1000 стойко-мест, с потребляемой мощностью в 8 МВт, и эти затраты окупались за год. И в любом ЦОД с более чем 100 стойками эти затраты также будут вполне оправданны.

А что касается замены RISC, то у меня есть опыт обратного перехода при реализации одного из проектов. Нагрузки были большие, спрос на сервисы рос. В результате прошла миграция с x86 сначала на Itanium, а затем на SPARC. Поэтому я бы не стал утверждать, что сам по себе отказ от дорогих платформ типа RISC или мейнфреймов является удачным путем снижения затрат на ЦОД. Хотя бы потому, что, по моему опыту, RISC‑системы сохраняют работоспособность при загрузке процессора в 100%, а x86 — нет.

Роман Шапошников: Есть и другие технологии охлаждения, более эффективные, чем free cooling. Например, сорбционные чиллеры. И если есть мощный источник тепла, это решение обладает очень высокой эффективностью. Хотя стоимость вопроса тоже, скажем так, немаленькая.

Я категорически не согласен с тем, что использование технологий автоматизации позволяет уменьшить количество персонала. Это средство уменьшения рисков за счет уменьшения времени реакции на нештатные ситуации. А поскольку большинство ЦОД не тянут даже на уровень TIER 2, то любой такой случай может просто остановить работу.

Еще хотелось бы обратить внимание на то, что при создании ЦОД серверное оборудование выбирают довольно тщательно. Подбору ПО уделяют внимания уже существенно меньше. А инженерное оборудование выбирают и вовсе по остаточному принципу. Причем это касается как финансовой, так и технической сути проблемы. Достаточно часто встречается ситуация, когда мощности инженерного оборудования существенно ниже, чем необходимо для установленного количества серверов. При традиционном сценарии использования серверов все работает, но как только пытаются использовать виртуализацию, мощности хватать перестает. Особенно это актуально при использовании систем высокой плотности, где мощность может достигать 50 кВт на стойку. А надо еще учитывать, что на помещениях тоже пытаются экономить, и ситуация в Москве — яркий тому пример.

Игорь Попов: Бывают проблемы и тогда, когда с электроэнергией все в порядке. У нас главной трудностью было то, что нам пришлось размещать свой ЦОД в помещении с низкими потолками. Мы сейчас размышляем над тем, что нам делать — повышать мощность оборудования в имеющейся серверной, используя оборудование высокой плотности, или строить новую. И пока от строительства новой мы отказались, так как это дороже.

Поделюсь еще результатами своих наблюдений. Сейчас многие коллеги начали пристально следить за тем, а что же именно они хранят в своих ЦОД. В результате все чаще приходится слышать о внедрении решений, реализующих концепцию ILM, когда в продуктивных системах оставляют только часто используемые данные, а остальные перемещаются на те или иные устройства резервного копирования — на более старые массивы или ленты. Другое дело, что одни покупают для этого специальное ПО, а другие проделывают оптимизацию хранения вручную. Раньше об этом практически не думали.

А что касается перехода от RISC к x86, то нам ответили просто: в принципе перенос SAP R/3 на оборудование x86 возможен, но работоспособность системы тогда не гарантируется. После этого мы решили, что быть первыми в этом эксперименте не хотим.

Intelligent Enterprise: Тут уже был поднят вопрос о консолидации ПО. Хотелось бы понять, в чем суть этого решения? Можно ли в данном случае добиться эффекта в условиях, не похожих на ситуацию со слиянием нескольких компаний, о которой было упомянуто?

Виталий Тукмаков: По мере роста компании накапливается разное ПО различных версий, растет количество баз данных. Причем часто компания просто теряет контроль над эксплуатируемыми системами. А если начать разбираться, выясняется, например, что вместо пяти баз данных вполне можно обойтись одной, которая будет аккумулировать данные из всех остальных. Также часто в компании каждое подразделение имеет свой файловый сервер, что, естественно, далеко не всегда оправданно. Создание общего ресурса в обоих случаях ведет к уменьшению количества используемого оборудования. Сюда же можно отнести и переход от концепции Direct Access Storage (DAS) к полноценной системе хранения данных. Эффект тут может быть такой же, как от консолидации серверов при использовании виртуализации.

Роман Шапошников: Большинство современных компаний можно разделить на две категории. Одни из них росли, не поглощая при этом другие компании. У них инфраструктура выращена более-менее управляемым образом. Но есть и такие, которые поглощали конкурентов и смежные бизнесы. И это происходило с сохранением всей ИТ-инфраструктуры поглощенных компаний. У такого заказчика ситуация, которую описал Виталий, встречается очень часто. Тут даже их объединение в рамках одного ЦОД может дать хороший эффект за счет сокращения эксплуатационных затрат. Но из этой задачи вырастает другая: обеспечение отказоустойчивости. Общий ЦОД становится единой точкой отказа, и встает задача создания резервного, географически удаленного дата-центра.

Часто такая консолидация проводится с использованием сторонних площадок, что существенно ускоряет процесс, так как инфраструктура уже готова. Но возникает вопрос безопасности. Ну и опасения размещать свои данные в месте, которое невозможно полностью проконтролировать. Так что использование аутсорсинга — далеко не панацея.

Виталий Хозяинов: Еще использование сторонних площадок может повлечь дополнительные затраты на согласования с контролирующими органами. К примеру, такова ситуация с платежными системами, которым в подобном случае придется проводить аудит сторонней организации на предмет соответствия требованиям PCI DSS.

Игорь Попов: Есть и экономический фактор. Проводить консолидацию ради самого процесса, на мой взгляд, неправильно. Надо все тщательно просчитывать. В нашем издательстве внедрен SAP R/3, но, несмотря на это, можно встретить и продукты «1С», и всяческие малые CRM. И этот «зоопарк», с нашей точки зрения, вполне оправдан. Мы решили, что вопрос о внедрении SAP в региональных подразделениях не стоит, так как это затратно, да и ситуация с персоналом там обстоит намного хуже, чем в Москве.

Intelligent Enterprise: Вопрос об энергоэффективности: какая проблема более актуальна для наших условий — рост тарифов или выделение необходимых мощностей? Каковы организационные и технические способы ее решения?

Виталий Тукмаков: Повышение энергоэффективности позволяет решить две задачи. С одной стороны, повышение энергоэффективности ЦОД позволяет больше электроэнергии выделить на ИТ-инфраструктуру. Что, в свою очередь, позволяет разместить большее количество оборудования в том же ЦОД без выделения дополнительных мощностей. На сегодняшний день в Москве лишь 42% электроэнергии, подведенной в ЦОД, доступно к использованию ИТ-инфраструктурой (серверами, системами хранения).

С другой стороны, повышение энергоэффективности позволяет расходовать меньше электроэнергии на инженерную инфраструктуру, что, в свою очередь, при неизменном количестве активов ИТ-инфраструктуры дает экономическую выгоду.

Яков Шпунт: По моим наблюдениям, сейчас вновь остра проблема выделения мощностей. Компании сами начали их строить, чтобы ни от кого не зависеть. Хотя в марте 2009г., когда спрос на электроэнергию упал, многие говорили о том, что решение вопроса энергоэффективности не в числе наиболее приоритетных у ИТ-директоров.

Есть и совершенно неожиданные решения. Например, ИТ-директор одной из розничных сетей, стремясь обеспечить нужную мощность, пошел на то, чтобы заменить настольные ПК ноутбуками. По этой же причине многие компании сильно ускорили процесс замены ЭЛТ-мониторов на ЖК.

Роман Шапошников: Да, такая тенденция есть. Хотя строительство собственных энергомощностей — процесс затратный как в смысле финансов, так и по времени. С другой стороны, в плане эксплуатации это может оказаться выгодным. Особенно если утилизировать выделяемое тепло, например, для отопления или для работы адсорбционных чиллеров.

Еще одним из удачных примеров энергоэффективности можно назвать использование мобильных ЦОД. Но опять же при условии, что есть куда отводить тепло. Есть несколько примеров, когда оно отводится в водоем.

Замена же настольных систем такими, которые тратят меньше энергии, дает хороший эффект в большой компании. Причем в плане оборудования речь может идти еще и о тонких клиентах.

А вот в том, что касается роста мощностей, надо быть осторожнее. В моей практике не так давно был случай потери нескольких дисковых полок вследствие того, что температура в помещении достигла 50 градусов вследствие остановки кондиционеров. Еще лет пять назад такая температура была относительно безопасной.

Виталий Хозяинов: Я сам обсчитывал экономику решения, которое предусматривало создание собственных генерирующих мощностей, и все выглядело привлекательно до того момента, как речь заходит о резервировании системы охлаждения. Пока генераторы работают и выделяют тепло, адсорбционные чиллеры работают. Как только произойдет переход на резервное питание, допустим, от дизель-генераторов, тепла для адсорберов не хватит. Значит, необходимо иметь резервные электрические чиллеры и резервную мощность для их питания. Это значительно ухудшает экономику проекта. При отсутствии же требования по резервированию собственная генерация весьма привлекательна. Например, одна из крупнейших аптечных сетей оборудовала логистический центр собственной системой, генерирующей электричество, тепло и холод.

К тому, что сказал Роман, хотел бы добавить, что необходимо поддерживать и влажность. Иначе повышается риск пробоя статическим электричеством.

Не стоит забывать и о том, что чем меньше напряжение питания, тем больше потери при передаче. А в обычных зданиях, которые не проектировались изначально на размещение ЦОД, электрическая инфраструктура рассчитана как раз на передачу низкого напряжения на значительные расстояния. Последнего нужно всячески избегать, стараясь разместить трансформаторы 10 кВ/380 В как можно ближе к серверной. При этом к стойкам лучше подавать три фазы (380 В), а не одну (220 В). Благо появились PDU, которые позволяют распределять нагрузку по фазам. Все это существенно снижает потери на передачу электроэнергии. Да и производители начали использовать трехфазные блоки питания. Ведь питать системы высокой плотности от 220 В неэффективно.

Intelligent Enterprise: Использование аутсорсинга. Как решается дилемма о том, развивать свой ЦОД или пользоваться услугами внешней компании? А если строить свой, то можно ли задумываться о сдаче мощностей в аренду?

Яков Шпунт: К тому же вопрос нехватки кадров касается специалистов по инженерным системам даже в большей степени, чем ИТ-персонала. Квалифицированного дизелиста или электромеханика найти намного сложнее, чем администратора.

Роман Шапошников: Причина большинства отказов в том, что неразумно срезаются затраты на обслуживание инженерных систем. Оборудование обычно не прощает такого подхода. Случаются и исключения из этого правила: например, не так давно приходилось видеть кондиционер, которому 15 лет не проводили техническое обслуживание. Да, он потерял мощность, но тем не менее работал, и того холода, который он давал, хватало. Но нужно отметить, что произведен он был одним из лидеров отрасли.

Игорь Попов: Что касается аутсорсинга, то если нет проблем с энергетическими мощностями и площадями, то лучше развивать собственный ЦОД.

Intelligent Enterprise: От проблем дисциплины эксплуатации перейдем к стандартам. Сертифицировать ЦОД или нет? Ведь эти меры заведомо затратны. Но что это может дать? Что должно двигать заказчиком?

Яков Шпунт: Требования к ИТ‑системам уже входят во многие отраслевые стандарты. Например, в стандарте по информационной безопасности Центробанка весьма детально прописаны меры, направленные на обеспечение катастрофоустойчивости.

Виталий Хозяинов: ИТ-директором должно двигать прежде всего стремление обеспечить согласованный уровень обслуживания. Нужно соотносить те средства, которые бизнес готов потратить, причем потратить осмысленно, и надежность инфраструктуры. И если бизнес действительно нуждается в обеспечении круглосуточной работы, то это один уровень требований. Но когда наличие работающей ИТ-инфраструктуры в нерабочее время некритично, они будут совсем другими. Как и уровень затрат. Так что первый шаг — это оценить то, чего мы хотим добиться и сколько готовы за это платить. И только после этого нужно оценивать, по какому уровню стандарта ANSI/TIA 942 мы будем строить наш корпоративный ЦОД или выбирать арендуемый. Кстати, именно на этом этапе стоит решать для себя дилемму, строить ЦОД самим или же арендовать.

И надо учитывать наличие квалифицированной группы эксплуатации, включая тех же электриков, дизелистов и других. Но электрики не подчиняются ИТ‑службе, что влечет массу неувязок. Хотя бы связанных с тем, что затраты на электроэнергию не входят в ИТ-бюджет.

Не стоит забывать и о том, что в стандарт ANSI/TIA 942 заложены, на первый взгляд, странные требования: отдаление от военных объектов, железных дорог, опасных производств, дорог, по которым перевозят взрывоопасные грузы и горючее. Но эти требования не из области теории. В моей практике был случай, когда здание начало разрушаться из‑за проложенной рядом линии метро. И хорошо, что серверное помещение из него заранее было переведено в нормальный ЦОД. Так что выбор места для размещения ЦОД очень важен. И у нас об этом задумываются редко.

Роман Шапошников: Случается, ИТ‑служба в такой ситуации идет на строительство своей собственной энергосистемы, чтобы быть уверенными в том, что их не подведут энергетики. Ведь никто не может гарантировать от того, что электрик просто не отключит рубильник тогда, когда ему удобно. Для малых и средних ЦОД она довольно распространена. Хотя бы потому, что они размещаются на арендованных площадях, и администрация вполне может в профилактических целях отключить электропитание. И далеко не всегда мощности системы бесперебойного питания хватает на то, чтобы корректно завершить работу всех систем. Или серверную просто заливают.

Рассматривая внешние факторы, способные нарушить работу ЦОД, хотелось бы напомнить про банальный мороз. Например, температура зимой в Москве может опускаться до –42, а летом достигать +37 градусов по Цельсию. И хорошо, что в Москве таких морозов не было уже давно, потому как большинство импортных кондиционеров не способны работать при таких температурах, а устанавливаемые при адаптации «зимние комплекты» позволяют работать при температурах до –20 или –35 градусов по Цельсию. Летом ситуация проще, так как в большинстве случаев приводит к снижению мощности кондиционеров. Спасает то, что на жаркий период обычно приходятся отпуска, и системы практически не нагружены. Хотя в моей практике был случай: в одной из госструктур возникали проблемы, когда температура поднималась выше определенного порога. И все из‑за невнимательности при выборе кондиционеров, которые попросту не справлялись с работой.

Виталий Тукмаков: Внутри компании довольно легко договориться с владельцами и пользователями сервисов о том, что связано с SLA. А вот арендодателю, который строит свой бизнес на сдаче мощностей, договориться с несколькими арендаторами гораздо сложнее. Особенно если уровень предоставляемых в аренду ЦОД ниже TIER 3, а только этот уровень сможет гарантировать бесперебойную работу размещаемых в ЦОД систем. А таких ЦОД, уровень которых подтвержден Uptime Institute, в России на настоящий момент просто нет. Так что я согласен с тем, что каждый для себя решает, строить ли ЦОД самому, в соответствии со своими требованиями SLA, или пользоваться услугами аутсорсинга.

Игорь Попов: Надо учитывать, что кризис принес новые требования. Раньше компании могли находиться многие годы в одном и том же офисе. Но в кризис все начали считать деньги и решили, что позволить себе платить арендную плату за это помещение они не могут. В результате многие начали переезжать. К тому же компании понимают, что переезжают не в последний раз. И в таких условиях начинаешь задумываться, а стоит ли каждый раз заново отстраивать всю серверную инфраструктуру. Так что спрос на размещение оборудования на аутсорсинговых площадках растет. Очень многие знакомые провайдеры расширяют свой бизнес.

Intelligent Enterprise: А как обстоит дело с использованием таких инструментов, как средства мониторинга, в том числе удаленного, балансировки нагрузки, управления производительностью приложений?

Виталий Хозяинов: Тут нужно разделить компании на те, кто имеет свой ЦОД, и те, кто сдает его в аренду. Для оператора, у которого сотни стоек, нужны средства автоматизации управления инженерными системами: клапанов, позволяющих переключать рабочее тело в кондиционерах, средства мониторинга физических условий, напряжения, объемов прокачиваемого воздуха. Для тех, кто оказывает услуги, связанные со сдачей в аренду приложений, есть специализированное ПО, которое управляет продажей этих услуг клиентам. К тому же аутсорсинговые ЦОД проектируются под максимальные нагрузки, и их персонал следит за тем, чтобы клиенты не превышали максимума. При этом задача мониторинга работы собственных приложений клиента не актуальна, потому что они лежат за рамками оказываемых ЦОД услуг.

Если речь идет о собственном ЦОД, то тут в большей степени стоит задача управления приложениями и мониторинга нагрузки. Большинство бизнесов циклично. Есть сезонные пики спроса, праздники. Соответственно меняется и нагрузка на системы. А это означает, что нужно вести мониторинг не только параметров работы ЦОД, но и бизнес-показателей — объемов продаж, количества транзакций или чего‑то еще. Это нужно для того, чтобы предсказать нагрузку и не упереться в пределы вычислительной мощности ЦОД. Тогда появятся важные аргументы для бизнеса. В преддверии прошлого Нового года продажи составили, скажем, N единиц, что повлекло нагрузку в 70%. Если накануне текущего Нового года планируется удвоение продаж, то имеющиеся мощности не справятся. Так что нужно или «размазать» пик спроса по времени, или увеличить мощности. Причем мощности как вычислительные, так и инженерные. Ведь ситуация, описанная Романом, возникает довольно часто, когда выход серверов на пиковые нагрузки перегружает инженерные системы. То же самое может произойти и при добавлении оборудования, особенно если не реализованы средства управления изменениями. А если это оборудование выходит на пиковые нагрузки, проблема еще более обостряется.

Роман Шапошников: Хотелось бы также добавить, что при правильном построении бизнеса мощности аутсорсинговых ЦОД, как вычислительные, так и инженерные, заведомо больше, чем максимальный объем предполагаемой загрузки. Но задача такого предикативного анализа для аутсорсинговых ЦОД тоже актуальна.

При этом надо иметь в виду, что система мониторинга инфраструктуры являются хорошим инструментом, позволяющим отслеживать подобные ситуации и находить наиболее эффективные пути их предотвращения. К сожалению, при создании инженерной инфраструктуры о системе мониторинга часто забывают.

Виталий Тукмаков: Хотелось бы напомнить, что затраты на аренду помещений, электроэнергию, инженерные сети — самая быстрорастущая статья в структуре ИТ-бюджета. Рост составляет около 20% в год. В результате компании сами толкают себя от инновационного пути развития к поддержке накопленного оборудования.

Виталий Хозяинов: Хотелось бы также отметить, что в ходе кризиса исчез такой ресурс, как дешевые заемные средства. А значит, за приобретаемое оборудование надо платить авансом, возможно, с небольшой отсрочкой. И эти средства приходится изымать из оборота, а ведь речь идет о весьма немаленьких суммах.

Яков Шпунт: Еще один кризисный фактор — девальвация и нестабильность валютных курсов. Курс может заметно измениться за срок поставки. К тому же в конце прошлого года появилась тенденция к росту валютных цен у ряда поставщиков инженерного оборудования.

Роман Шапошников: Напомню, что достаточно большое количество производителей инженерной инфраструктуры цены номинируют в евро. И на цены это влияет еще сильнее. Также повышение цен часто связано с изменением схемы поставок, что, впрочем, нельзя так уж однозначно считать отрицательным моментом. Мне не раз приходилось сталкиваться с кондиционерами, собранными из дешевых «совместимых» комплектующих, использование которых приводило к проблемам у заказчиков. Тут «обеление» схемы поставок скорее помогает.

Виталий Хозяинов: С другой стороны, на европейское оборудование можно найти дешевое финансирование от европейских же организаций. Единственное условие — это оборудование должно быть сделано на территории Евросоюза. А под это определение подпадает большая часть кондиционеров, ИБП, всяческого рода расходных материалов и опций к ним. Американское оборудование к нам не возят просто по причине других стандартов по напряжению. И этими условиями можно воспользоваться, тем более что они весьма благоприятные: порядка 5—6% годовых. И при стоимости сделки от 500 тыс. евро и выше, а также если речь идет о покупке у солидной компании, этим можно воспользоваться. Что же касается повышения цен — это всего лишь один из способов компенсировать потери от падения объемов продаж.

Игорь Попов: Тут должен играть свою роль и здравый смысл. Когда мы размещаем в стойках блейд‑серверы, это одно ПО для управления, а когда традиционные или дисковые полки — то совсем другое.

А вопрос страхования курсов валют следует согласовывать на стадии заключения договора. Есть хорошо отработанные механизмы возмещения курсовой разницы. Я как заказчик готов идти на это. Что же касается лизинга и кредитов от зарубежных структур, у нас был такой опыт. И его нельзя назвать удачным из‑за большого объема всяческого рода бюрократических процедур. А насчет цен — я лично был шокирован, когда Sun не снизил цены на обслуживание своих серверов в 2010  г. Хотя очень многие ждали снижения расценок на обслуживание ИТ-оборудования и оргтехники.

Intelligent Enterprise: Актуальна ли тема облачных вычислений? Насколько ясна эта модель, как она будет влиять на развитие ЦОД?

Игорь Попов: Пока эта тема, на мой взгляд, из области фантастики. Говорить об этом серьезно пока рано.

Виталий Хозяинов: Не соглашусь, что эта тема совсем уж надуманна. Просто российский рынок тут существенно отстал. Да и в России появляются подобные проекты. Уже объявлено о запуске в коммерческую эксплуатацию сервиса сдачи налоговой отчетности для малых предприятий по модели SaaS. Появляется соответствующая инфраструктура. Как минимум три компании, в том числе одна российская, предлагают ПО, позволяющее упаковывать приложения в вид, пригодный для распространения по модели SaaS. Это позволяет выйти на данный рынок многим мелким игрокам, поскольку стоимость услуги по размещению того или иного сервиса в ЦОД близки к нулю. Заметно упрощено решение таких стандартных проблем, как биллинг, подключение новых пользователей и прочее. Значит, барьер для выхода на рынок SaaS снижается, а популярность модели SaaS находится практически в прямой зависимости от перспектив облачных вычислений.

При использовании облачных вычислений на корпоративном рынке на первый план выходит управление ИТ‑сервисами. Компания, которая рискнет перейти от использования собственных мощностей к модели услуг, должна быть уверена в соблюдении соглашений по уровню сервиса, или SLA, при любых условиях. А тут есть традиционное препятствие, поскольку в России не принято верить никому. Кроме того, дело состоит еще и в том, чтобы корректно согласовать SLA с заказчиком. А заказчик должен понимать, что он покупает. Вот простой пример такого непонимания. Некая компания хотела арендовать MPLS-канал из США до Москвы. Был заключен договор с американским провайдером, где оговорено, что время задержки не будет превышать некий порог. Но практически эта величина оказалась вдвое больше. При предъявлении претензий показывают пункт, отпечатанный мелким шрифтом, где говорится, что провайдер гарантирует соблюдение параметров только между своим оборудованием, а все, что относится к последней миле, находится вне рамок соглашения, и все претензии нужно предъявлять российскому оператору связи. И во второй раз такой клиент никакому SLA не поверит. Так что заказчику стоит внимательно читать документы, а оператору — быть дружелюбнее к клиенту и растолковывать то, что прописано в SLA.

Если же говорить о применимости иных, кроме управления уровнем сервиса, процессов ITIL к ЦОД, наиболее актуальными представляются управление инцидентами, управление изменениями, управление мощностью и управление финансами.

Игорь Попов: Да, документы читать надо. Коллизии, о которых говорил Виталий, имеют место и в Европе, и в США. Для операторов связи весьма характерны ссылки на всякого рода форс-мажоры, которыми оправдывают несоблюдение SLA. Надо тщательнее составлять договоры и жестче прописывать SLA.

Яков Шпунт: Хотел бы обратить внимание на то, что цены на услуги, например, Microsoft Azure (с учетом того, что не надо платить за электроэнергию, не надо выделять помещение, покупать инженерную инфраструктуру, брать на работу персонал, покупать лицензии на ПО) ниже, чем затраты на свои серверы. В целом проблемы тут, скорее, организационные и инфраструктурные, связанные с отсутствием недорогого высокоскоростного интернет-доступа.

Роман Шапошников: С аппаратной точки зрения все уже проработано. А вот уровень ПО, к сожалению, не успевает. И насчет каналов связи тоже дело обстоит не всегда хорошо. Мне приходилось сталкиваться с очень крупной компанией, где работало больше 25 тысяч человек, но при этом выход в Интернет был всего 256 кбит/с. И это обусловлено политикой безопасности. А что касается SLA, то тут проблема состоит в ограниченной доступности в России высоко­уровневых консультационных услуг. К сожалению, настоящих специалистов мало, но при этом, увы, довольно много тех, кто считает себя таковыми, на самом деле ими не являясь. И это проблема общемировая.

Виталий Тукмаков: Бизнесу интересно, чтобы работал его сервис, его услуга. А вот где она расположена, никого не волнует. Соответственно любой бизнес-процесс можно декомпозировать на составные части, которые обслуживают те или иные приложения, серверы, системы хранения. Они, в свою очередь, располагаются в тех или иных ЦОД. И каждый уровень декомпозиции несет различные ограничения, в том числе по отказоустойчивости. И для преодоления этих ограничений есть различные способы. Для приложений это создание кластеров приложений, для ИТ-инфраструктуры — обеспечение резервирования и репликация данных, для инженерной инфраструктуры — создание систем уровня TIER 3. Любой бизнес-процесс, равно как и его ИТ-поддержкку, можно разложить на составляющие, и это позволяет оценить, как повлияет на данный бизнес-процесс отказ того или иного функционального компонента. Существуют средства, которые, например с помощью CMDB, позволяют показывать бизнесу на понятном ему языке, во что обойдется простой той или иной системы.

При этом резервирование систем более низкого уровня будет дешевле, чем создание дублирующей подсистемы, которая соответствует более высокому. Как показали внутренние расчеты, проведенные в нашей компании, создание двух ЦОД уровня TIER 2 будет существенно дешевле, чем одного TIER 4.

Роман Шапошников: Но стоит иметь в виду, что ЦОД уровня TIER 4 по требованиям соответствует военному объекту. Я сильно сомневаюсь, что в него просто так пустят, «на предмет ознакомиться».