Удобнее хранить и быстрее считывать

06 февраля 2013

Автор: Сергей Костяков

06.02.2013

Развитие систем хранения данных уже который год изобилует, пожалуй, большим числом инновационных решений, чем другие ИТ-направления, также связанные с аппаратной инфраструктурой. Причиной не ослабевающего интереса к совершенствованию устройств и технологий хранения информации, а также к методам управления этим процессом служат всем известные основные драйверы развития корпоративных ИТ — облака, новые клиентские устройства, феномен больших данных и некоторые другие факторы.

Среди основных направлений эксперты сейчас единодушно выделяют более широкое внедрение в ИТ-архитектуру корпоративной автоматизации твердотельных дисков (solid state disks — SSD). Направление это не сверхновое, однако считается, что буквально до 2012 года им в основном занимались небольшие компании-стартапы, что в свою очередь тормозило проникновение SSD практически на все рынки за исключением американского. Сейчас же, после того как многие стартапы приобретены соответствующими ключевыми игроками, продуктовая стратегия и особенно возможности проникновения продукции на глобальный рынок могут измениться. Так, например, EMC после покупки в 2011 году компании XtremIO намерена в самом ближайшем будущем выпустить на рынок платформу хранения, полностью ориентированную на устройства флэш-памяти (all-flash), — ныне эта платформа известна под именем Project X. Корпорация IBM на этом рынке уже присутствует с соответствующими устройствами, доставшимися ей после приобретения минувшим летом компании Texas Memory Systems. А в декабре 2012-го о намерении войти на рынок платформ класса all-flash однозначно заявила компания NetApp.

Предполагается, что в первое время наиболее широко в архитектуре систем хранения SSD будут использоваться в основном в качестве кэширующих устройств, а затем их начнут применять и как основные носители. Особенно там, где ключевым целевым параметром создания ИТ-архитектуры является не цена на гигабайт, а стоимость в расчете на известный параметр IOPS (Input/Output Operations Per Second), характеризующий производительность операций ввода-вывода. Движущей силой развития твердотельных накопителей является также, как известно, технология виртуализации рабочих мест (Virtual Desktop Environment — VDI), которая, в свою очередь, очень тесно связана с перспективами развития облачных технологий.

Еще одной весьма значимой технологической тенденцией, о которой активно говорили в истекшем году, стала технология объектного хранения информации. Сама концепция тоже разработана не вчера и известна специалистам уже не первый год. Но опять-таки усилившееся внимание к ней именно сейчас продиктовано развитием наиболее знаковых направлений.

Объектные хранилища, которые также прямо связываются c будущим облачных хранилищ, имеются в спектре предложений ведущих игроков рынка, в том числе присутствующих в России.

Высокая гибкость объектных хранилищ отождествляется с возможностью задавать самые разные параметры объектам и соответственно с куда более широким перечнем потенциально доступных операций в отношении данных (помимо привычных записи и считывания), выполняемых в том числе в автоматическом режиме. К их достоинствам относят также высокую масштабируемость. Недостатками объектных хранилищ пока считаются низкие значения IOPS и проприетарность (соответственно низкий уровень стандартизации). Кроме этого в настоящее время доступ к объектным хранилищам напрямую возможен только из программных интерфейсов, основанных на Web-сервисах и далеко не всегда реализованных в прикладных системах. Так или иначе указанные и некоторые другие технологические тенденции во многом определяют и новые приемы работы с корпоративными данными, постепенно становящиеся стандартом де-факто в мировом бизнесе. Среди таковых — перенесение важнейшей для многих компаний процедуры Data Recovery в пространство облачных технологий и соответственно использование сервиса DRaaS (Data Recovery as a Service). Так, по данным опроса, проведенного в марте 2012 года Forrester Research, 23% респондентов уже движутся в этом направлении и более половины считают его важнейшим приоритетом в принципе. Помимо этого в настоящее время широко обсуждается управление хранилищами данных из виртуальной среды, которое постепенно оформляется в отдельное направление, получившее название программно определяемых систем хранения информации (software defined storage).

Резервное копирование — в облака

Александр Яковлев,

менеджер по маркетингу продукции, Fujitsu

Сама идея перемещения процессов резервного копирования и восстановления в облако имеет действительно огромные перспективы для современной ИТ-инфраструктуры. С одной стороны — лавинообразный рост данных, с другой — необходимость оперативно организовать их резервное копирование и архивирование в строго отведенный промежуток времени и с установленными SLA. Фактически мы имеем задачу с большим количеством переменных, причем варианты её решения могут меняться со временем: меняется производительность дисковых массивов, ленточных систем и систем дедупликации. Да ещё каждое слагаемое имеет различные ограничения по максимальной емкости и производительности. В результате многолетней разработки собственных систем для организации облачного процесса резервного копирования и архивирования Fujitsu сегодня предлагает на рынке единую систему, позволяющую гарантировать резервное копирование и архивирование для различных пользователей с гарантированными SLA, скоростью копирования и восстановления при гарантированном хранении на установленном количестве независимых носителей. Например, для критически важных систем может быть организовано две копии данных на дисковом массиве и три копии на лентах, причем одна из лент будет экспортирована из системы в удаленное хранилище.

Между классическим и облачным подходами

Владимир Шибанов,

генеральный директор ПК «Аквариус»

О преимуществах облаков уже известно, кажется, всё. Интерес к данной теме с каждым годом неуклонно растет, практически не осталось тех, кто как минимум не обсуждает возможность внедрения облачных технологий в своих компаниях. Так что переход к облакам неизбежен, о чем повсеместно говорят СМИ и производители. Проблемам же, как это принято, уделяется гораздо меньше внимания, а они, несомненно, существуют. Широкое распространение облачных решений, на наш взгляд, усложняет процесс резервного копирования и восстановления данных. Как показывает практика, большинство организаций используют одновременно по нескольку решений для резервного копирования своей физической, виртуальной и облачной информации, что снижает эффективность и повышает риски. На наш взгляд, пока еще существует риск потери данных, размещенных в облаке. А кроме того, процесс восстановления данных из облака в настоящий момент проходит очень медленно.

Применение SSD в системах хранения данных может быть оправданно там, где приоритетом выступает не объем хранимой информации и стоимость, а производительность.

Комбинация двух концепций

Антон Банчуков,

менеджер по корпоративным продуктам Dell в России

Согласимся, что технологии хранения данных в последнее время развиваются значительно интенсивней, чем вычислительные. В современном мире количество корпоративных данных удваивается каждые полтора года. И их нужно не просто хранить, но и максимально эффективно обработать и анализировать. Однако удвоение объёма данных не сопровождается пропорциональным сокращением их стоимости или автоматическим удвоением бюджетов. Очевидно, что в такой ситуации необходимо применять какие-то новые подходы к хранению. Немаловажную роль в этом случае играют твердотельные накопители, SSD. Все мы знаем, что SSD — весьма быстрый носитель, но в то же время и чрезвычайно дорогой. Если, условно говоря, мы ставим задачу полного перехода на SSD, то получаем высокопроизводительное решение по неприемлемой цене. Если же использовать только жёсткие диски, то ситуация ровно обратная. Очевидный выход — комбинировать оба подхода.

Первоисточник: http://www.iemag.ru/analitics/detail.php?ID=27785
Еще новости по тегам:
Еще новости по тегам: