В январе 2011 г. объявлено о завершении масштабного проекта по модернизации ИТ-инфраструктуры в Национальном исследовательском технологическом университете МИСиС с весьма активным использованием технологий виртуализации. Причем использовались они не только на серверном оборудовании, но и для организации рабочих мест, что пока встречается не слишком часто. Кроме того, применялись решения разных вендоров. Это и стало предметом разговора с начальником управления информационных технологий Национального исследовательского технологического университета МИСиС Андреем Панферовым.

Intelligent Enterprise: Какая ситуация сложилась до начала проекта? Чем она вас не устраивала? Почему был инициирован проект модернизации ИТ-инфраструктуры?

Андрей Панферов: До начала работ по проекту все было не так плохо. Был большой серверный комплекс, состоящий из серверов на разных платформах. Но он не был консолидирован. Кроме того, основную массу составляли системы 2006—2007  гг. выпуска, и уже стояла задача их плановой замены. А замена 35 серверов с 80 вычислительными ядрами была делом довольно дорогостоящим. Кроме того, эта замена не решала такие задачи, как повышение надежности работы систем и снижение энергопотребления. При этом эффективность использования серверов была низкой и не превышала 15—20%. Объединение систем в кластер виртуальных машин позволяло эти задачи решить.

При этом эксперименты по созданию малых кластеров мы проводили и раньше, начиная с 2007 г. На них мы тестировали различные гипервизоры виртуализации, включая решения Microsoft, VMwareVmWare, Citrix (причем как их собственные решения, так и на базе Xen). В 2009 г. в рамках проекта по нанотехнологиям опробовали решение на основе продуктов VMware и Citrix. Так что наше решение было вполне осознанным и проверенным на практике.

А что можно сказать о сегменте рабочих мест? Это ведь куда менее популярно и реже встречается.

Проект по созданию рабочих мест был обусловлен прежде всего соображениями экономии энергоресурсов. Потребление рабочего места на базе «тонкого клиента» составляет 150 Вт, а такое же место на базе ПК — уже 400 Вт. Как видим, экономия составляет два-три раза. Да и конечная цена ниже, пусть эта разница и не столь заметна, порядка 30—40%. Но тем не менее экономия налицо. Также мы уменьшаем издержки, связанные с сопровождением и администрированием. А затраты на ремонт и вовсе исчезли. Эти системы если и ломаются, то тут же меняются по гарантии. Но потенциальных слабых мест там намного меньше, чем в ПК. Сыграло свою роль и то, что «тонкие клиенты» служат существенно дольше, чем ПК. Мы можем просто забыть о замене оконечного оборудования. А мощности для обеспечения работы допустимо выделить и на устаревшем серверном оборудовании, и пользователь ничего не заметит. Тут тоже все логично, продуманно и по‑хорошему консервативно. Я лично не стремлюсь сломя голову внедрять новые решения только потому, что они новые. Все должно быть протестировано и только потом применено.

Как выбирались гипервизоры? Почему были выбраны решения от VMware и Citrix и отсеяны другие? Что было сделано для того, чтобы максимально подчеркнуть преимущества и минимизировать слабые места?

Как уже было сказано выше, мы тщательно тестировали все гипервизоры. Для этого была создана специальная группа, на ее выводы мы и ориентировались. В итоге мы отказались от гипервизоров Microsoft. Это было сделано по целому ряду причин. Так, у них хуже всех реализована поддержка Unix-подобных систем, включая Linux. Также нас не устроило то, что функциональность решений от Microsoft заметно уступает продуктам VMware и Citrix. Кроме того, у него выше аппаратные требования и существенно заметнее потери в производительности. Специфичные решения вроде XenServer мы просто не рассматривали, так как они требуют переработки ядра ОС.

В итоге мы остановились на продуктах VMware для серверов и Citrix для организации рабочих мест. Есть мнение, что продукты Citrix сложны, но это из области преувеличений. По крайней мере, с точки зрения конечного пользователя. Он заходит только через те точки, которые мы даем, и это сводится к банальному клику по иконке. И у нас большие планы на эту технологию как для организации рабочих мест административно-управленческого персонала, так и в компьютерных классах и лабораториях. Хотя для администратора, возможно, продукты Citrix несколько сложнее. Но если он не может справиться с гипервизором, значит, это плохой администратор. Так что эта проблема, скорее, надуманная. При этом производительность решений Citrix при прочих равных условиях даже «на глаз» заметно выше.

Как модернизировались серверные мощности? Какую роль сыграл интегратор в этом процессе?

Идея внедрения технологий виртуализации созрела у нас еще в 2007 г. Тогда мы начали работы по тестированию. Спустя год мы поняли, чего хотим. К концу 2009 г. мы смогли выполнить проект по созданию инфраструктуры для ЦОД. Исторически наша серверная комната располагается на восьмом этаже, в середине здания. Так сложилось задолго до моего прихода на это место.

В 2009 г. мы решили сменить основное помещение на то, в котором возможно разместить инфраструктуру, что называется, по всем правилам. Основу этого решения составили системы электропитания и кондиционирования APC InfrastruXure и промышленные машины Emerson. При этом решение строилось с большим запасом. Сейчас мы используем четыре из 12 возможных шкафов‑стоек. В этом помещении мы можем разместить оборудование мощностью до 320 кВт.

Основу вычислительной системы составляет блейд-платформа компании HP. На наш взгляд, у этой компании оптимальное соотношение цены, производительности и качества, а также хороший уровень технической поддержки. Кроме того, это относится ко всем модулям, включая системы хранения и резервного копирования. У других производителей с этими модулями возникают различные сложности.

Прежде всего, интегратор реализовал наши желания. Причем, что важно, это было сделано грамотно и в короткие сроки. А именно этот фактор был для нас крайне критичным в конце 2010 г. Проект был реализован в рамках государственной программы развития, и финансирование по ней было выделено довольно поздно. И это беда всех учреждений с бюджетным финансированием. В итоге времени на реализацию проекта оставалось крайне мало. Но, несмотря на это, специалисты «Астерос» вовремя сделали для нас рабочую систему.

Какие программные и аппаратные решения использовались для организации рабочих мест? Учитывалась ли различная специфика, связанная с целевой аудиторией, для которой эти рабочие места предназначались? Приходилось ли сталкиваться с проблемами, связанными с подключением периферийного оборудования?

У нас пока два типа рабочих мест. Один из них представляет собой «тонкий клиент», программная среда реализована на базе продуктов Citrix. Второй тип рабочих мест на базе традиционных ПК. Это связано с тем, что значительная часть работ производится с использованием приложений САПР, которые предъявляют высокие аппаратные требования, и продуктивная работа их в виртуальной среде просто не представляется возможной. Плюс ко всему, перенос такого ПО в виртуальные машины резко повышает интенсивность файлового обмена по сети, что также становится источником серьезных проблем и чего хотелось бы избежать. И мы, честно говоря, пока не определились с выбором клиентского решения. Ведь и на таких системах часть задач можно без большого ущерба перенести на виртуальную машину, хотя наиболее «тяжелые» придется оставлять локальными. Мы находимся еще в начале пути, и, вполне возможно, таких типов рабочих мест будет больше. Пока мы решили только проблемы, связанные с серверной составляющей и предоставляемыми ей услугами и сервисами.

Что касается подключения периферийных устройств, то тут проблем не вижу. Мы специально подбирали «тонкие клиенты» с четырьмя портами USB. Вполне стандартное количество для офисного ПК. А проблемы, связанные с обеспечением работоспособности оборудования, необходимо решать на стадии выбора. Мы используем периферийное оборудование HP и Xerox, причем одним из критериев выбора была как раз поддержка работы в виртуальных и терминальных средах. Сложности возникают там, где имеет место «зоопарк» из разномастных систем. К тому же такая ситуация порождает массу других проблем, связанных, например, с обеспечением расходными материалами.

Можно говорить о положительном эффекте, достигнутом в ходе проекта?

О конкретных цифрах пока говорить рано. После завершения работ прошел всего месяц. Но уже сейчас я могу гарантировать обслуживание в режиме «семь дней в неделю, 24 часа в сутки». И это касается всех предоставляемых сервисов. Мы надеемся достичь этого за счет сокращения количества аппаратных сбоев, используя возможности по обеспечению бесперебойной работы, которые предоставляет кластер из виртуальных машин.

Также я могу сократить расходы на обслуживание без ущерба для качества, пусть и не сразу. Ориентировочно это произойдет в будущем году. А это важно, поскольку студентов, к сожалению, становится меньше вследствие вступления в очередную волну демографического кризиса. А раз меньше студентов, то и государственное финансирование тоже сокращается. Значит, надо экономить везде, где только можно, без ущерба качеству предоставляемых услуг.

Кроме того, внедрение виртуализации позволило сократить количество используемых в серверном комплексе процессорных ядер в 1,5 раза. Это достигается путем балансировки нагрузки между установленными в кластер процессорными модулями, что тоже приводит к экономии электроэнергии.

Каковы планы на будущее? Как будет развиваться проект?

Первая задача, которую предстоит решить, — подготовка специалистов. Да, за время наших экспериментов и пилотных проектов мы накопили некоторый опыт, но сертифицированных специалистов по технологиям Citrix и VMware у нас пока нет. Их надо готовить. Еще одна важная задача — обучение конечных пользователей.

Во-вторых, желающих работать в виртуальной среде оказалось несколько больше, чем мы первоначально рассчитывали. В итоге мы столкнулись со значительным дефицитом целого ряда ресурсов. Это касается, прежде всего, емкости подсистемы хранения данных. Да и предел по вычислительной мощности уже, что называется, отчетливо маячит. Так что еще где‑то 32 процессорных ядра нам не помешает.

К тому же наш проект охватывает лишь 200 рабочих мест из более чем 3500. Процесс замены будет проходить постепенно в течение ближайших нескольких лет. А здесь как раз и заложены значительные резервы по снижению затрат на администрирование, ведь использование виртуальных сред существенно повышает живучесть систем, особенно в весьма тяжелых условиях учебного заведения. Очередным шагом к этому будет перевод на терминальные решения нашего вычислительного центра. При этом положение осложняется тем, что последние закупки клиентских ПК проводились в 2009 г., и, по нормативам, мы обязаны их эксплуатировать в течение еще пяти лет. И это вполне полноценное оборудование, которое нельзя назвать устаревшим. Так что нужен баланс — чтобы снижались затраты, с одной стороны, но при этом не срывался учебный процесс и профессорско-преподавательский и административно-управленческий персонал выполнял свои обязанности.

Довольно заманчивой видится и возможность использования студентами личных компьютеров. Благо у нас действует весьма развитая беспроводная сеть, использование которой для студентов бесплатно. Однако это требует некоторых переговоров по изменению схемы лицензирования ПО, и мы к ним уже приступили.