NetApp Innovation 2011. ежегодная конференция

4 октября компания NetApp провела в Москве ставшую уже традиционной ежегодную конференцию NetApp Innovation 2011. Мероприятие собрало более 400 участников, среди которых были Заказчики и Партнеры.

Программа конференции была задумана и выполнена очень обширно и включала в себя:

  • обсуждения вопросов глобально-актуального  хранения и управления информационными данными с использованием инновационных технологий — виртуализации и облачных вычислений;
  • пленарные заседания с докладами и представлениями специалистов NetApp из России, Канады, Англии и США, партнеров NetApp в России и странах СНГ;
  • и конечно же важной составляющей конференции стали технические сессии для всех желающих, организованные собственно Партнерами NetApp
  • не была обойдена вниманием и пресса, для которой была проведена пресс-конференция
NetApp. Доля рынка СХД

NetApp. Доля рынка СХД

Конференцию NetApp Innovation 2011 открыл Роман Волков, глава представительства NetApp в России и СНГ, он напомнил собравшимся, что компания NetApp была основана в 1992 году и в настоящее время занимает лидирующие позиции на мировом рынке систем хранения данных и решений для их хранения, а также управления информационными данными. В компании сейчас работают более 8000 сотрудников в 135 странах мира. Доходы компании по итогам 2010 финансового года составили $3,9 млрд.

Согласно своим собственным исследованиям, NetApp довела свою долю присутствия на рынке СХД  до 15,5% и вышла на второе место среди производителей систем хранения, обойдя при этом IBM (12,3%), HP (10,0%) и Dell (7,4%). Первую строчку по-прежнему занимает EMC (31,2%).
В качестве комментария к этому, хочется привести некоторые данные опубликованные IDC на второй квартал 2011 года, опубликованные в статье, согласно данным IDC, первое место действительно занимает EMC (28,7%), на втором IBM (13,7%) и третьем NetApp (12,85), далее HP (11,0%), HDS (8,1%), Dell (7,9%)

NetApp. Пять этапов инноваций

NetApp. Пять этапов инноваций

Исполнительный вице-президент компании NetApp Роб Салмон, сообщил, что успех компании NetApp, стал возможен благодаря трем основным вещам.
Бурному развитию IT технологий, которые, как «… мы считаем, ускоряют процесс развития любой компании…»
Инновациям.  «… NetApp, это компания всегда занимавшаяся и занимающаяся инновациями в области систем хранения данных …, поскольку именно это позволяет делать бизнес успешным».
Корпоративной культуре в работе с многочисленными Партнерами, среди которых: Клиенты, которым NetApp помогает решать их проблемы; Поставщики, без которых невозможен бизнес; компании помогающие развивать и вести бизнес-процессы. Без плотного взаимодействия NetApp со всеми вышеперечисленными частям — ничего не будет…

В беседе с прессой, Роб Салмон, представил 19 лет истории компании как четыре основных этапа: если на первом основное внимание уделялось созданию файловых серверов; то на второй был посвящен производительному компьютингу; третий стал временем работы над оптимизацией выполнения приложений; и наконец, сегодня, во время постоянного роста объёмов хранимых сохраняемых данных и ограниченного финансирования, пришла пора заняться вопросами оптимального использования оборудования.

NetApp. Большие Данные

NetApp. Большие Данные

Разговор о оптимизации и Больших Данных продолжил Мэтт Уоттс, стратегический советник NetApp в регионе EMEA. По его словам, в самом ближайшем будущем, ключевыми станут проблемы создания распределенной универсальной инфраструктуры хранения данных, унифицированной масштабируемой архитектуры с использованием как локальных ресурсов так и облачных, и, конечно же, ещё большим ростом объема хранимых данных, исчисляемых уже не Тера- и Пентабайтами, а Экза-,  Зетта- и Йоттабайтами.
В качестве примера лавинообразного роста информации, Мэтт привел данные, что за 2010 год только почтовая система компании NetApp обработала 1,2 миллиарда сообщений, а ведь существует ещё , IP телефония, аудио и видео контент, рост которого к 2015 году составит 800% !

Казалось бы естественный рост объёмов дисков и снижение их стоимости, могли бы легко справиться с этим — сегодня 4х Гб диск уже не редкость, но, беда в том, что с точки зрения, обеспечения надежности хранения и быстрого доступа к данным возникает противоречие, поскольку чем больше объём диска, тем сложнее обеспечить доступ и быстрый поиск информации. И тут неизбежно встает вопрос оптимизации, развития новых технологий, инноваций …

NetApp. Увеличение объёма данных

NetApp. Большие Данные

Уже сегодня, технологии, предлагаемые компанией NetApp, позволяют почти вдвое увеличить объём хранимых и сохраняемых данных без каких-либо дополнительных инвестиций в новые решения. Мэтт Уоттс, отметил что этого можно добиться за счет применения технологии дедупликации, виртуализации памяти, моментальных снимков, динамического выделения ресурсов, клонирования виртуальных машин, кэширования и компрессии данных. Рациональное использование  дискового пространства, сокращение энергопотребления, удобства администрирования систем, ускорение процессов, связанных с резервным копированием являются не банальными маркетинговыми лозунгами, а реальностью.
Используя вышеперечисленные технологии и методы оптимизации, в зависимости от выбранной Заказчиком системы хранения данных можно сократить потребности в дисковом пространстве на 35 — 50%
По словам Уоттса, в 2010 году технологии NetApp, позволили сэкономить Заказчикам примерно 1 экзабайт дискового пространства, что эквивалентно 5,5 млрд евро.

Так, одна лишь виртуализация систем хранения данных с помощью решений сторонних поставщиков, например VMWare, и контроллеров NetApp V-серии с одновременной дедупликацией данных может снизить, на некоторых задачах, потребность в дисковом пространстве более, чем на треть, что в свою очередь позволит сократит операционные издержки и упростит управление данными.

Филипп Образцов, директор компании VMware, отвечающий за работу с партнерами в России и СНГ,  продолжая мысль Уоттса, подчеркнул, что «без виртуализации компания пускает деньги на ветер». Он обрисовал ситуацию, при которой серверы, продолжая потреблять электроэнергию и охлаждение в полном объеме, оказываются загруженными всего лишь на жалкие единицы процентов, однако справиться с пиковой нагрузкой при этом сервер не способен. По его словам, чтобы решить эту задачу, нужно «разорвать» связь приложений и «железа», что достигается внедрением технологии виртуализации. При этом достигается гибкость, быстрая инициализация, высокая доступность, быстрое аварийное восстановление. И все это возможно на стандартной архитектуре x86, и загрузка сервера повышается до 60-80%.

Согласно исследованиям  Gartner, виртуализация занимает сейчас только второе  место по важности, на первое  вышла технология Cloud computing, на третьем месте – мобильные технологии.

После решения инфраструктурных проблем компаниям приходится решать проблемы с приложениями, их интеграцией. Большинство приложений, используемых на предприятиях, не коробочные. Имеются и такие, которые предоставляются в виде сервиса. Задача состоит в том, чтобы объединить старые, новые приложения и предоставляемые по модели SaaS.

Ну а после внедрения базовой виртуализации перед заказчиками встает задача создания единой инфраструктуры, которая объединяет внутреннюю и внешнюю инфраструктуру. «Все должно работать, как монолит», — подчеркнул Филипп Образцов.

По материалам и личным впечатлениям от конференции NetApp, а также osp, pcweek, mskit