Тема сохранности данных была важна всегда, с самого развития цивилизации и появления письменности. Менялись только носители и некоторые подходы, связанные с тем, какие технологии хранения доминировали.

Сейчас, на этапе смены самой парадигмы развития ИТ, связанной с переходом к облачной модели, происходит как раз очередная такая смена. И сама природа облака такова, что никто точно не знает, где физически находятся приложения и данные. Когда все работает, об этом никто обычно не задумывается. Но когда происходит сбой, то вопрос о спасении данных встает в первую очередь.

К рискам, связанным с использованием публичных сервисов, мы уже обращались (Неприятности в облаке/Intelligent Enterpeise, №2, 2013). С того времени список громких инцидентов только расширился. Появились и российские сервисы, которые потеряли данные своих пользователей. Довольно громкий резонанс вызвали злоключения пользователей Яндекс Диска, у которых очередное обновление клиентского приложения для Windows привело к потере работоспособности операционной системы. Встала и новая проблема, как быть с данными тех сервисов, которые владелец решил закрыть. А среди них были и довольно популярные, которые работали длительное время, и активные пользователи хранили там довольно большие объемы данных, так что быстрая их эвакуация может стать довольно непростой задачей.

Надо сказать, что многие из проблем, связанных с хранением данных, будут актуальными и для частного облака. Именно эта модель, по нашим наблюдениям, преобладает в России. Плюс сказывается влияние неблагоприятной ситуации в экономике, прямым следствием чего является снижение затрат на все, и закупки ИТ оборудования в том числе. Особенно такого дорогого, как системы хранения данных или источники бесперебойного питания промышленного класса. Естественно, это усиливает вероятность потерь данных вследствие перегрузок, отсутствия резервирования или сбоев энергопитания. О том, чтобы строить полноценный резервный ЦОД и вовсе можно забыть.

Положение осложняет и то, что в последнее время появляется все больше моделей серверов, где большое количество посадочных мест для локальных дисков. Это дает ложную надежду и вовсе обойтись без использования систем хранения данных даже в довольно крупных компаниях. Например, такие серверы оказались популярными при построении инфраструктуры виртуальных рабочих столов, или VDI. Благо что в последних версиях всех основных гипервизоров появилась возможность объединить локальные ресурсы хранения на пуле серверов в виртуальную СХД с, казалось бы, вполне приличными возможностями, в том числе и по обеспечению отказоустойчивости и использованию популярных технологий, таких как дедупликация или выделение ресурсов в больших объемах, чем реально имеется (thin provisioning).

Однако и тут может помешать желание сократить затраты. Обычно для тех же VDI решений рекомендуют использовать массивы RAID 0 или RAID 1, а еще лучше SSD, да еще и с горячим резервированием. А в массивах такого типа дисковая емкость и так используется не слишком эффективно, так что еще большая «расточительность» на обеспечение резервирования и репликации данных, что повышает избыточность использования дисковых ресурсов, может не найти отклика у бизнес-руководства. Особенно если речь идет о быстрых, но при этом дорогих твердотельных накопителях.

Так что, по оценке очень многих практиков, вероятность потерь данных в результате сбоя дисков повышается. При этом все осложняется тем, что использование виртуальной сети хранения делает весьма сложным процесс поиска того, на каком именно сервере и на каком диске хранится информация тех или иных пользователей. Плюс ко всему, к и так весьма нетривиальной задаче извлечения данных с RAID массивов добавляется проблема того, как обеспечить целостность виртуального «диска», что еще более усложняет эту задачу. А восстановление информации с SSD накопителя и вовсе нетривиальная задача, которая часто ставит в тупик даже специалистов экстра-класса.

Точка зрения автора может не совпадать с позицией редакции.