25 ноября по долгу службы пришлось посетить одно, казалось бы, рядовое мероприятие. Касалось оно особенностей выбора оборудования для тестовой платформы. Правда, заказчик был весьма интересный: московский Технический центр Microsoft.

Оборудование же предназначалось для демонстрации решений на базе Cloud OS. Обратимся определению от самой Microsoft: «Это единая платформа, в которую входят инфраструктурные продукты и сервисы корпоративного уровня. С ее помощью организации могут использовать любые виды облаков — частное, публичное, гибридное — в любых сочетаниях и бизнес-приложения на любых устройствах, а также извлекать новые знания из мультиструктурных данных, независимо от того, где и как они хранятся. Cloud OS помогает реализовать облачные службы на локальных или удаленных платформах, выделенных организации и размещенных в локальной сети либо у поставщика услуг. Такой подход к инфраструктуре как к услуге (IaaS) поддерживается пулом ресурсов, средствами автоматизации и управления, доступными благодаря Windows Server 2012 R2, средствам виртуализации Hyper-V, Microsoft System Center 2012 R2 и другим продуктам. Модель гибридного облака позволяет предложить заказчикам самообслуживаемую, масштабируемую и эластичную облачную инфраструктуру, снабженную дополнительными возможностями управления и настройки».

И практически сразу после объявлений концепции CloudOS, а оно произошло в октябре, Технологический центр Microsoft в Москве озаботился тем, чтобы обеспечить возможность проводить демонстрацию технологий Microsoft Cloud OS потенциальным заказчикам. Причем так, чтобы дать возможность на практике показать все возможности новых технологий для решения типичных задач, стоящих перед ИТ-службами обычных компаний в ходе лабораторных работ.

С одной стороны, требования к оборудованию для решения данной задачи близкими к минимальным. Для начала работ с любой современной облачной платформой достаточно четырех физических серверов, причем это требование одинаково у многих, а точнее, практически у всех вендоров. Тем более, что облачная концепция нынче популярна и неплохо поддерживается большинством производителей, даже из числа не слишком известных. Однако свою роль играет специфика Технологического центра. Он расположен в центре Москвы, где ситуация с обеспечением энергетическими мощностями крайне напряженна. Кроме того, отсутствует резервирование ряда ключевых элементов системы охлаждения, вследствие чего оборудование приходится выключать по окончании рабочего дня, благо что ничего высококритичного там не запускать никогда не предполагалось.

И именно это стало наиболее сложным моментов в процессе выбора серверов для реализации тестовой платформы. Как известно, подавляющее большинство вендоров рассматривает любое выключение серверного оборудования как чрезвычайную ситуацию, которой стоит всячески избегать. В итоге единственным производителем, у которого выключение является штатной функцией, оказалась компания Fujitsu. Такого требования домашнего японского рынка, где ситуация с электроэнергией довольно напряженная и все серверы, не занятые обеспечением работы высококритичный приложений, работают примерно в том же режиме, что и обычные персоналки. Но именно то, что для практически любого сервера от Fujitsu гарантировано 5000 циклов включения/выключения и предопределило выбор оборудования этой марки.

Для создания тестовой среды были использованы две системы: PRIMERGY CX400 S2, представляющий собой кластер из двух систем в одном корпусе, и блейд-платформа PRIMERGY BX400 с пятью серверами-лезвиями и СХД ETERNIUS DX80. На них был развернут пул из виртуальных машин, где и развернута вся инфраструктура.

И похожих проектов будет все больше. Не секрет, что значительная часть серверов не занята решением задач, которые требуют работы в режиме 24х7, полноценно функционируя лишь в ходе рабочего дня. Ведь далеко не все компании работают круглосуточно или являются территориально распределенными, и филиалы расположены в нескольких часовых поясах. Но при этом электроэнергия становится все более дорогим и дефицитным ресурсом. А оплата за электроэнергию, которую тратит сервер за год, еще несколько лет назад была вполне сопоставима с его конечной ценой. Современные модели тратят меньше энергии, но и стоимость последней не снижается. Так что серверным вендорам, которые хотят, чтобы их оборудование продавалось, стоит предусмотреть такую возможность, как банальное выключение. Эту процедуру не стоит рассматривать как экстраординарное событие

Точка зрения автора может не совпадать с позицией редакции.