Компания APC - признанный лидер в области построения инфраструктуры для центров обработки данных. Сегодня мировой опыт APC начинает активно применяться в России. Константин Зимин и Маринэ Восканян беседуют с Максимом Ивановым, главой представительства APC в России и странах СНГ.

Максим Иванов

Родился 12 апреля 1969 года в Москве. Окончил Московский инженерно-физический институт, факультет автоматики и электроники, затем продолжил свое образование в Школе бизнеса Открытого университета Великобритании. Имеет опыт работы в ряде крупных российских и зарубежных компаний. В АРС с 2003 года. Два года подряд, в 2004 и в 2005 году, награжденнаграждался как лучший руководитель регионального подразделения -— «Country Manager of the Year» АРС. В 2005 году удостоен национальной премии России «Персона года -- 2004» в номинации «Руководитель наиболее динамично развивающего бизнеса».

Intelligent Enterprise: Максим, давайте начнем разговор с вопроса о построении инфраструктуры центров обработки данных. В последнее время этому вопросу уделяется все больше внимания…

Максим Иванов: Бизнес АРС находится в стадии активного роста. Это реальные плоды стратегической линии, которая была выбрана компанией более пяти лет назад. Основным мотивом стратегии стал тот факт, что в условиях быстро изменяющихся требований рынка и технологий компании будут уделять пристальное внимание вопросам построения и развития инфраструктуры центров обработки данных.

В области информационных технологий постоянно появляются новые задачи, и их приходится решать. Правильная реакция на эти изменения оборачивается в итоге необходимостью обеспечить непрерывность бизнеса. Согласно объективным законам, вычислительные мощности непрерывно растут с известной скоростью. На практике это означает, что появляется новое оборудование, и все больше вычислительной мощности сосредоточивается в меньшем объеме. Для обеспечения нормальной работы такому оборудованию требуется все больше электроэнергии, а значит, оно выделяет все больше тепла. Тепловыделение в центре обработки данных в среднем сейчас составляет 3-4 кВт на стойку. Дальше, с ростом мощности, нужны уже специальные системы охлаждения, распределения холодного воздуха к оборудованию и отвода горячего к кондиционеру. Когда такие мощности сосредоточены в малом объеме, обеспечение непрерывности работы комплекса, а следовательно, бесперебойного электропитания и теплоотвода, становится важнейшей задачей.

Компания APC, как технологический лидер в своей области, обязана думать "на два шага вперед". Впервые APC стала задумываться об этих проблемах примерно тогда, когда появились первые идеи о применении blade-серверов. APC провела массу консультаций с производителями серверов, различными компаниями - потребителями ИТ-услуг, чтобы понять, как они оценивают перспективы роста вычислительных мощностей. И решение InfraStruXure появилось как ответ на прогнозы.

Проблемы теплоотвода действительно настолько серьезны, что их не удается решить обычными средствами?

В сложных и больших центрах обработки данных возникают специфические проблемы, связанные с теплоотводом. Как результат работы оборудования и системы кондиционирования возникают сложные воздушные потоки. Начинают играть свою роль законы аэродинамики. Еще год назад эти задачи просто не стояли на повестке дня.

Обычно подход достаточно прост - "мы сделали серверную, защитили ее ИБП, все работает, потом мы поставили туда еще серверы и ИБП, оборудование стало греться, и мы ставим дополнительное кондиционирование". Кондиционер начинает дуть сильнее, но при этом возникают скорости, которые приводят к неприятным последствиям и наносят вред оборудованию. Например, турбулентность приводят к тому, что воздух идет не туда, куда мы планировали. В частности, на оборудовании начинает сказываться эффект Бернулли. Суть его в том, что скорость потока при его сужении повышается, а давление понижается. В результате сервер не получает полноценного охлаждения и начинает перегреваться. А каждый сложный чип сегодня имеет термодатчик, и при перегревании чипсет вдвое сбрасывает тактовую частоту. Значит, сначала при перегреве компания будет терять вычислительную мощность, а при еще более сильном превышении оборудование просто самоотключается и перестает выполнять свои функции.

Другой пример. Обычно помимо диапазона изменений температуры в серверных комнатах контролируется и другой параметр - скорость ее изменения. Скачки температуры приводят либо к иссушению, либо к переувлажнению воздуха. Иссушение ведет к накоплению статического электричества. Обратный процесс - конденсация. Он тоже оказывает отрицательное воздействие, приводя к оседанию влаги и возможность короткого замыкания. Это важно, и сегодня у нас есть возможность специально моделировать эти процессы.

Кроме того, важно подумать о сценариях, когда в центре обработки данных выходят из строя системы кондиционирования. Надо понять, какие именно вычислительные ресурсы начнут терять свою производительность в результате выхода из строя тех или иных кондиционеров. Проблемы могут возникнуть и там, где никто не ждет, - например, из-за пыли, скопившейся в воздуховоде.

Когда компании надо задумываться о подобном моделировании тепловых потоков в центре обработки данных?

Если в центре обработки данных стоит 150-200 стоек, то в этом случае просто невозможно обеспечить работу без специального расчета движения теплого и холодного воздуха, возможных зон перегрева, местоположения кондиционеров,. Сегодня о необходимости подобного моделирования должны задумываться практически все компании. Если посмотреть на серверы ведущих вендоров, то стойка с мощностью 3 кВт - это обычный случай. И очевидно, что компании, у которых сегодня мощность на стойку составляет 3 кВт, уже через год начнут ее наращивать. Об этом надо задуматься сейчас.

Например, в рамках одного из российских проектов по установке InfraStruXure мы совместно с европейскими специалистами АРС смоделировали центр обработки данных, сделали расчет тепловых потоков в помещении центра и тепловое моделирование. Что очень важно, были разработаны сценарии развития центра и проведены исследования, какие изменения в тепловых процессах могут в связи с этим произойти.

Один из интересных проектов в области теплоотвода в Европе мы осуществили для автомобильной компании Sauber. У Sauber создан мощный кластер на blade-серверах для расчета аэродинамики гоночных болидов "Формулы-1". Тепловыделение здесь составляет 15 кВт на стойку. При таком тепловыделении применяются специализированные стойки - поскольку возникает уже не вопрос подачи и отвода воздуха из зала, а холодный воздух необходимо подавать непосредственно к конкретным серверам. Здесь применяется технология Netshelter High Density, то есть монтируются стойки со встроенным кондиционером и возможностью четко направлять потоки холодного воздуха. Таких стоек в центре обработки данных Zauber около 20. В прошлом году аналогичное оборудование было установлено компанией Ferrari и некоторыми другими автопроизводителями.

В будущем, несомненно, изменятся принципы охлаждения серверов. Популярность blade-серверов растет, и производители серверов уже сегодня заявляют, что не так долго осталось ждать мощности в 45 кВт на стойку. Проводятся эксперименты с непосредственным направленным охлаждением чипов. Так что будущее обещает быть жарким.

InfraStruXure объединяет решения в области бесперебойного питания, теплоотвода с кондиционированием и стоечной структуры. Почему APC предпочла именно такое комплексное решение?

Подобный комплексный подход решает три задачи - планирование, совместимость и развитие. Когда мы говорим о создании центра обработки данных, для любой компании это серьезные инвестиции, которые должны окупаться. А инвестиции должны быть правильно спланированы. Конечно, в принципе можно планировать и каждое из этих направлений по отдельности. Но когда бесперебойное питание, теплоотвод и стоечная структура планируется как единый комплекс, то получается качественно другой результат.

Здесь сразу встает на повестке дня вопрос совместимости. Очень часто при создании и модернизации возникают достаточно банальные проблемы - одно оборудование технически не стыкуется с другим, или после установки оборудования оказывается, что оно перегревается. Или выясняется, что установленное оборудование неудобно с точки зрения подведения к нему каких-то коммуникаций и ресурсов. И так далее. У нас для решения этих проблем существует единое средство - InfraStruXure Build Out Tool. При создании центра обработки данных оно позволяет оперировать не габаритами или параметрами разъемов, а базовыми понятиями - такие-то коммутаторы и серверы, с таким-то энергопотреблением. В результате система достаточно быстро проектируется и монтируется, даже при больших размерах. Например, центр обработки данных на 50 стоек может быть смонтирован в течение дня. Строить центры обработки данных становится так же легко, как и собирать конструкторы "Лего". Наконец, цель планирования - не только текущая реализация системы, но и обеспечение возможностей развивать ее в дальнейшем. Важно заложить в центре обработки данных возможности для гибкого развития - очевидно, что через некоторое время оборудование устареет, и его будут заменять каким-то другим. Причем ИТ-рынок динамичен и в хорошем смысле непредсказуем. Например, вряд ли несколько лет назад все предполагали такой успех технологии WiFi. Есть много и других примеров. И в случае с центром обработки данных нужно быть максимально готовыми к любым будущим технологическим новшествам. Например, центр обработки данных физически увеличивается, нужно сломать стену и добавить в помещение еще 15 стоек. Вы просто задаете в Build Out Tool, сколько и какого оборудования прибавляется, и получаете рекомендации, как сделать перетрассировку линий питания, как изменить систему кондиционирования, при этом максимально сохранив эффективность предыдущей инфраструктуры. В результате грамотного планирования можно обеспечить для этого нового оборудования особую зону, изолировать его, не снося старых конструкций, и обеспечить нормальный теплоотвод.

Build Out Tool - это не система разового проектирования, это система проектирования и развития. У нас есть ряд проектов создания центров обработки данных, в которые при проектировании закладывалась мощность тепловыделения 4-5 кВт на стойку, но при работе она довольно быстро возросла до 6-8 кВт. Важно такие варианты предусмотреть заранее, чтобы потом не пришлось все переделывать. Инфраструктура центра обработки данных должна быть фундаментом, позволяющим возводить на нем разные типы зданий, то есть она должна быть рассчитана на возможные изменения в будущем.

При создании центров обработки данных российские компании, как правило, имеют дело не с производителем оборудования, а с системным интегратором. В какой момент к проекту разумно подключать консультантов APC?

Подключать консультантов APC к проекту по созданию центра обработки данных нужно как можно раньше. В идеале наши консультанты должны присутствовать на этапе формирования технического задания. Если компания уже объявляет тендер на построение центра обработки данных - значит, у нее уже есть понимание, как его строить. И уже достаточно сложно вмешаться в проект со своими предложениями, говорить о планировании его развития в будущем. Все основополагающие решения по фундаменту центра обработки данных - инфраструктуре - в этот момент уже приняты. На практике наши инженеры участвуют в создании центров обработки данных на этапе создания проектной группы, состоящей, как правило, из представителей компании-заказчика (со стороны клиента в нее все чаще входит не ИТ-директор, а главный инженер проекта), специалистов системного интегратора и компании - производителя серверного оборудования.

Проблема в том, что наши решения ИТ-директора воспринимают иногда как вопрос приобретения и инсталляции части инфраструктуры. А ведь это вопрос непрерывности бизнеса, для обеспечения которой и работает ИТ-служба. В тактическом смысле - если компания через два года собирается внедрить ERP-систему, она должна понимать, что в результате у нее появится достаточно мощный центр обработки данных, о инфраструктуре которого надо думать уже сейчас. И многие ИТ-директора в последние годы начинают это понимать.

Насколько, с вашей точки зрения, сейчас меняется роль ИТ-директора в компании?

Раньше в задачи ИТ-директора входило приобрести много ИТ-оборудования и сделать, чтоб оно работало как комплекс. Такой подход характерен для конца 90-х - времени интернет-бума. Но период спада на ИТ-рынке стал не только временем переосмысления того, куда вкладывать деньги, но и временем переосмысления роли CIO.

Правильное использование ИТ - это большое конкурентное преимущество. Однако понятно, что роль CIO не везде одинакова и зависит от типа бизнеса. Есть такие отрасли, где CIO - двигатель бизнеса, человек, во многом определяющий стратегию развития компании. Но существуют бизнесы, где все-таки роль CIO - это скорее техническое сопровождение. И современный CIO находится где-то между двумя точками - CIO, в чистом виде и CTO (Chief Technology Officer). Вполне вероятно, что скоро во многих компаниях это будут два разных человека. Так же как раньше за все техническое обеспечение предприятия отвечал главный инженер, а потом появилась отдельная должность начальника центра АСУ. Уже сейчас поле деятельности CIO настолько широко, что требует разделения и специализации. Будущее покажет

Насколько часто российские ИТ-директора оценивают эффект от инвестиций в те или иные ИТ-технологии. Оценивается ли, например, эффективность вложений в инфраструктуру центра обработки данных?

Как правило, сегодня центр обработки данных не рассматривается как затратная часть, а относится к инвестициям. Это расходы для эффективного создания и оптимизации бизнес процессов и управления компанией. Существуют методики расчетов эффективности центра обработки данных. Можно посчитать, какие будут расходы у компании, если она его не сделает, и, напротив, какую прибыль принесут сервисы, которые можно предоставить бизнесу с помощью центра обработки данных. Фактически, например, та же "Формула-1" - это сегодня не гонка машин, а гонка центров обработки данных. То же самое происходит и с операторами связи. Центр обработки данных - это не набор компонентов, которые мигают лампочками и греются. Это реальные конкурентные преимущества. Хотя, конечно, с оценкой эффективности собственного центра обработки данных могут возникнуть сложности. Россия повторяет процессы идущие в Европе и Америке, хотя и с опозданием на несколько лет. Но разрыв сокращается. И если эта тенденция продолжится, то в ближайшие годы российские компании будут еще более усиливать внимание к центрам обработки данных и использовать опыт и знания, наколенные АРС.