Очень часто можно слышать о том, что ИТ надо превращать из расходной статьи в доходную. И тому есть примеры, в частности, в телекомпании RT (ранее Russia Today). Об этом мы и говорили с начальником службы информационно-технической поддержки эфира Александром Озерским.

Intelligent Enterprise: Как была устроена подсистема хранения данных на телеканале до начала работ по проекту? Чем она вас не устраивала?

Александр Озерский: Си­стема хранения данных нашего эфирного комплекса делится на две части — долгосрочный видеоархив, который построен на базе ленточной библиотеки Oracle StorageTek SL8500 Modular library system, и оперативный видеоархив на базе дисковых систем хранения данных с файловым доступом компании Exanet. Все они были запущены довольно давно, в 2005—2007 годах. При этом в 2009 году Exanet была куплена компанией Dell и перестала существовать, в итоге данное направление просто прекратило развитие. В результате мы остались без полноценной технической поддержки ПО управления дисковыми массивами. Основу этих массивов составляли системы Hitachi Data Systems AMS 500 и AMS 1000, но они также были сняты с производства и основательно устарели. Да и на момент покупки СХД не вполне удовлетворяли нашим потребностям. А к концу 2011 года все возможности для модернизации оказались исчерпанными. Кроме того, участились сбои в работе, прежде всего связанные с ПО. А когда речь зашла о переходе на новый формат изображения высокой четкости, то стало ясно, что перспективы обновления оборудования не избежать.

Ленточную библиотеку мы не планировали менять. У нас был большой опыт работы с ней. На тот момент мы уже решили все основные проблемы по интеграции SL8500 c системой верстки и вещения Dalet, которая выполняет роль MAM для видеоархива и интергации с системой управления библиотекой DIVA от компании Front Pordge Digital. Этот комплекс модернизировался, увеличился объем хранимых данных. В итоге объем данных, который стало возможным хранить на одной кассете, вырос на порядок за счет модернизации приводов до топовой модели T10000C. Если в 2005 году мы могли записывать 500 Гбайт данных на одну кассету, то затем этот объем был увеличен сначала до 1,5 Тбайт, а затем и до 5 Тбайт. При этом мы не увеличили траты на лицензирование ПО, поскольку его стоимость рассчитывается исходя из количества слотов НМЛ. Поставщиком этой системы стала компания «Техносерв АС». Она же осуществляет ее техническую поддержку.

Какие варианты оборудования вам предлагались? Что было выбрано в итоге и почему?

Новое оборудование должно было работать уже на новой территории. Старый комплекс был расположен на Зубовском бульваре, а новый предполагалось запустить на Боровой улице. Кроме того, переход со старого комплекса на новый должен был проходить постепенно.

Более высокие требования к оборудованию были обусловлены переходом нашего телеканала к вещанию в формате высокой четкости. Мы используем видеоформат XDCAM HD с потоком 50 Мбит / с. Для этого к СХД, которые должны поддерживать эфир в таком формате, накладываются весьма серьезные требования к производительности и объему. Тем более, что потребовалось хранить две копии материалов, как в низком, так и в высоком разрешении. В итоге мы решили использовать две СХД. Причем комплекс для хранения копий низкого разрешения должен был работать в условиях увеличенного количества одновременных соединений.

В старом комплексе была создана тестовая платформа, где была развернута вещательная система Dalet, которую мы используем. На ней мы тестировали различные СХД, предоставленные вендорами, включая оборудование от HP, EMC, NetApp и Hitachi Data Systems. В итоге для хранения материалов низкого разрешения была выбрана NAS система EMC Isilon. Именно она показала лучший результат по производительности и отказоустойчивости, в том числе и в условиях большого количества одновременных обращений. Для работы с видео высокого разрешения были выбраны решения SAN от HP P9500 XP и Hitachi Data Systems Virtual Storage Platform. В принципе речь шла об одной и той же системе, выпущенной на одном и том же предприятии, но под разными марками. В итоге мы остановились на решении Hitachi Data Systems, которая предложила более выгодные условия для приобретения своего оборудования.

Как шли работы по проекту? Сколько времени они заняли? Какой из этапов был наиболее сложен и почему?

Сложностей было немало, но самым трудным, думаю, был этап, когда обе системы работали параллельно. Эфир шел в старом комплексе, а в новом — тестовое вещание. Новую систему и новую технологию работы осваивали не только пользователи, но и инженеры ИТ-поддержки. К тому же им приходилось осуществлять поддержку параллельно сразу двух комплексов, удаленных друг от друга.

Все работы по проекту заняли около года. Причем монтаж оборудования занял очень небольшую часть. Основные затраты времени пришлись на проектирование систем и планирование работ.

Переход на сервисную модель — чьей это было инициативой?

Главной задачей ИТ-подразделения является обеспечение бесперебойного вещания четырех телевизионных каналов. Комплекс очень сложный. Его основу составляет система верстки и организации вещания DaletPlus. Ее работа непосредственно зависит от стабильности взаимодействующих с ней других систем. Это серверные Blade-системы HP, на которых работают программные сервисы Dalet, дисковые и ленточные системы хранения данных, файловая система StoreNext компании Quantum, обеспечивающая множественный высокопроизводительный доступ к данным систем с блочным доступом, и т.д.

В эфирной системе Dalet одновременно работает около 400 пользователей, которые территориально разбросаны по трем зданиям нового аппаратно-студийного комплекса RT. Идея внедрения Service Desk была обусловлена необходимостью более эффективно поддерживать работоспособность комплекса и своевременно обслуживать поступающие от пользователей запросы. Внедрение Service Desk позволило получить единую точку поступления заявки от пользователей, отслеживания статуса выполнения заявок, получение статистики по возникающим проблемам. Помогло разделить задачи ИТ-службы по приоритетам и зонам ответственности.

О переходе к сервисной модели речи на данном этапе не идет. Наши работы находятся в самой начальной стадии. Мы пока в фазе выбора решения. Хотя я не исключаю того, что мы к этому когда-нибудь придем и будем строить CMDB и многое другое, что предполагается при внедрении сервисной модели.

Выработка SLA. Сколько времени занял этот процесс? Можно ли считать его полностью завершенным?

Процесс идет. Еще нет четких регламентов. Мы пока лишь пытаемся определить, сколько времени требуется для решения тех или иных задач. Но когда-нибудь мы все это сделаем и договоримся с нашим бизнес-заказчиком. Для всех нас главной задачей является эфир, и тут часто бесполезно писать какие-то регламенты. Просто потому, что нет времени на заполнение всяческого рода журналов, а любое промедление сказывается на качест­ве эфира. Это если и делается, то уже постфактум.

Так что наши усилия идут на создание и развитие системы проактивного мониторинга. Это позволяет исправлять проблемы и всяческого рода узкие места в зародыше, когда они еще не очень заметны. И могу сказать, что нам это удается. Мы используем систему мониторинга с открытым кодом Hyperic. Мы вводим туда все возможные показатели, в том числе и из разряда некритичных на первый взгляд. За ними происходит круглосуточное наблюдение. В итоге нам удалось значительно сократить число обращений пользователей.

Процесс адаптации и пользователей, и ИТ-службы к использованию Service Desk часто бывает длительным и довольно болезненным. Как это было у вас?

Да, этот процесс был у нас не слишком простым. Наши пользователи — люди творческие, требующие к себе повышенного внимания. Много проблем было связано с тем, что пользователи работали с системой некорректно или просто не хотели выполнять какие-то регламентные процедуры. Тем не менее со временем уровень дисциплины рос, и сейчас проблем практически не возникает. В этом нам помогли тренинги. Мы обучали и пользователей, и сотрудников ИТ-службы работе и с прежним комплексом, и с новым.

Экономика проекта. Как планируется возврат инвестиций и за счет чего он достигается?

Могу сразу сказать, что работы у нас после расширения комп­лекса стало больше. Но с ней справляется ровно то же количество ИТ-специалистов, что и раньше. Без использования системы Service Desk и проактивного мониторинга это стало бы просто невозможным. Хотя бы за счет того, что большая часть работ проводится из одного помещения, а значит, чаще всего за меньшее время.

А что касается внедрения комп­л­екса СХД, то эти затраты тоже себя окупят. С 2005 года видеоархив накопил большое количество материалов. Сначала мы покупали видео у агентств, теперь создали свое полноценное видеоагентство Ruptly и продаем свою «картинку», в том числе и наши архивные ма­­териалы.

RT (Russia Today) — это три круглосуточных информационных телеканала, вещающие более чем в 100 странах мира на английском, арабском и испанском языках, телеканал RT America, выходящий в эфир из собственной студии RT в Вашингтоне, документальный канал RTД, а также онлайн-видеоагентство FreeVideo и новое видеоагентство Ruptly, предлагающее эксклюзивные материалы телеканалам всего мира. RT — единственный российский телеканал, дважды вышедший в финал самой престижной телевизионной премии мира — EMMY International. Сегодня RT удалось зарекомендовать себя как важный источник альтернативной информации на Западе. RT — первый в мире новостной телеканал, вплотную приблизившийся к миллиарду просмотров на YouTube, что позволило ему стать крупнейшим поставщиком новостного контента на этом наиболее популярном международном видеохостинге.

О Проекте

Проект должен был решить задачу модернизации и увеличения емкости цифрового программно-архивного комплекса телеканала. Общая емкость поставленной системы хранения и резервирования данных составляет около 24 Пбайт с возможностью дальнейшего масштабирования. Эффективная плотность хранения данных возросла в 10 раз при сохранении требуемой производительности. Также в рамках этого проекта была внедрена служба Service Desk.