Продолжение рассказа о конференции VMworld Europe 2014. С первой частью можно ознакомиться тут.
День начался с традиционной пленарной сессии.
Как и в прошлом году основными направлениями развития VMware остаются:
Одной из проблем, с которой сталкиваются современные компании, занимающиеся разработкой продуктов, является использование различного набора ПО для организации производственной инфраструктуры и инфраструктуры для тестирования и разработки. Разработчики могут использовать ОС на базе *nix и контейнерную виртуализацию, а также Openstack для управления всем этим хозяйством, в то время, как в производственной инфраструктуре используется ПО VMware. Это приводит к тому, что, разработчики, вместо того, чтобы заниматься разработкой, по-сути, самостоятельно поддерживают весь зоопарк ПО, т.к. ИТ-поддержка отказывается работать с "не-enterprise решениями".
Решение этой проблемы - использовать OpenStack, построенный на базе продуктов и решений VMware (vSphere, NSX, VSAN), что позволит получить единую надежную, управляемую, масштабируемую платформу для решения любых задач.
На сессии было сказано несколько слов и про контейнерную виртуализацию. На сегодняшний день контейнерная виртуализации (на базе Docker) является весьма горячей темой для обсуждения. Именно поэтому VMware совместно с партнерами (Pivotal) разрабатывает решения (Project Fargo, Cloud Foundry), позволяющие интегрировать контейнерную виртуализацию в экосистему продуктов VMware.
VMware NSX стремительно развивается. По всему миру насчитывается уже более 250 заказчиков, внедривших в своей инфраструктуре NSX. Более 40 партнеров разрабатывают различные решения, завязанные на NSX.
Аналитическое агенство Gartner включило VMware в свой магический квадрат Data Center Networking.в качестве компании, задающей направление развития сетевой инфраструктуры в ЦОД.
В области End-user Computing за год произошли значительные изменения: закрытие сделки по приобретению Desktone - крупнейшего сервис-провайдера Desktop as a Service, закрытие сделки по приобретению AirWatch - лидера рынка управления мобильными устройствами (MDM - mobile device management), партнерство с NVIDIA и Google по развитию технологий ускорения 3D графики в VDI, релиз VMware Horizon 6, покупка компании CloudVolumes - разработчика решения доставки приложений на виртуальные машины.
Публичное облако VMware vCloud Air (бывший vCloud Hybrid Services) шагает по планете. VMware заявляет о поддержке облака чуть ли не в каждом своем продукте. Так, например, новая версия vSphere Replication прямо из коробки поддерживает возможность репликации ВМ прямо в облако VMware Air. Интерфейс vSphere Web Client поддерживает управление облаком, vRealize Operations 6.0 имеет соответствующий Management Pack для мониторинга, vRealize Automation, так вообще, является единой платформой для управления как частными, так и публичными облаками. Тем не менее, VMware всеми силами открещивается от именования vCloud Air публичным облаком, старательно называя его гибридной облачной платформой.
На конференции были анонсированы новые услуги на базе vCloud Air: СУБД как сервис (Database as-a Service), объектное хранилище (на базе EMC ViPR), но самое главное - это запуск тестовой версии облака Virtual Private Cloud OnDemand с моделью оплаты за использованные ресурсы (pay as you go), т.е. плата будет взиматься за фактический объем потребленных ресурсов (мегагерц процессора, мегабайт памяти и дискового пространства, операций ввода-вывода и т.д.). Такую же модель оплаты предоставляют другие облачные провайдеры типа Amazon или Microsoft.
На презентации также было показано, как с помощью Cloud Volumes становится возможным установить на виртуальную машину более сотни приложений всего за несколько секунд.
Первая сессия INF1311 Deploy and Destroy 85K VMs in a Week: VMware Hands-on Labs Backstage раскрыла секреты инфраструктуры, на которой проводятся лабораторные работы Hands-on Labs. Секрета, в общем-то, никакого и нет, все делается на стандартном наборе ПО, разрабатываемом VMware: vSphere, vShield Manager, vCloud Director, vCOps, Log Insight.
Важным условием при подготовке лабораторной работы является то, что все компоненты должны быть виртуальными - никакого специализированного оборудования, даже в партнерских лабораторных работах. В основном используются серверы Cisco UCS и СХД EMC VNX и XtremIO, хотя в последнее время происходит активный переход на EVO:RAIL. В качестве протокола подключения к хранилищам в основном используется iSCSI, также присутствует NFS, но он используется только для задач распространения новых лабораторных работ.
Основная нагрузка на лабораторию приходится на дни проведения конференций VMworld и Partner Exchange.
Интересным архитектурным решением является наличие большого числа серверов управления vCenter Server (по одному на кластер vSphere) и vCloud Director. Сделано это из-за архитектурных ограничений - количества одновременных операций развертывания ВМ из шаблонов, создания linked-клонов, миграции ВМ, накладываемых одним vCenter.
Основная проблема, с которой сталкиваются администраторы лаборатории - это патч-менеджмент и распространение новых лабораторных работ во все ЦОД. Из-за работы лаборатории в режиме 24x7 и требования единообразия инфраструктуры, решение об установке обновлений может затягиваться, хотя часто в лаборатории используются бета версии еще не вышедших продуктов или билды, недоступные конечным заказчикам, что также может вносить дополнительные сложности. Лабораторные работы копируются, преимущественно, вручную, путем экспорта и импорта шаблонов vApp в каталоги vCloud Director.
Вторая сессия - STO25520SPO, How VMware Virtual Volumes (VVols) Will Provide Shared Storage with X-ray Vision, носила преимущественно маркетинговый характер, к тому же, читалась по слайдам прошлого года, поэтому особой пользы от нее не было.
Вкратце, VVols несмотря на кажущуюся сложность, весьма прост в настройке и позволяет решать множество проблем, возникающих из-за использования томов СХД для хранения ВМ. VVols позволяет администраторам получить лучшее от двух миров SAN и NAS систем, и фактически, является той самой долгожданной, прорывной, технологией, которая даст толчок всей индустрии СХД.
Кстати, для меня было новостью, что HP 3PAR является референсной платформой для разработки VVols для Fibre Channel СХД.
Дальше была выставка партнерских достижений.
На стенде Oracle красовалась надпись: "Виртуализуй в 7-10 раз быстрее с Oracle VM". -Хорошая штука! - подумал я и не стал подходить.
Партнерам, которым не досталось слотов для проведения сессий, читали мини-лекции прямо на стендах. Для привлечения потенциальных слушателей использовались всевозможные "грязные" приемы, вроде маек в подарок или участия в лотерее с возможностью выиграть iPhone, iPad, bluetooth аудиосистему, квадрокоптер.
На общем фоне отличилась компания Simplivity, разыграв... BMW i8.
Хорошие у ребят маркетинговые фонды.
Интересная задумка с подарками была на стенде Fujitsu - всем прослушавшим лекцию давали купон на мышку, на которой тут же на стенде можно было нанести любую понравившуюся надпись с помощью лазера. К сожалению, данная операция занимала довольно продолжительное время, а желающих было много, поэтому жадным до халявы посетителям приходилось ждать по 40 минут в огромной очереди. Вот, кстати, моя мышка.
Посетителей развлекали как могли. Кто-то участвовал в гонках.
Кого-то умелые фокусники разводили на часы, обручальные кольца и 10 евро.
Из интересного стоит отметить отдельный демонстрационный зал EVO Zone, где партнеры VMware показывали оборудование EVO:RAIL.
Поскольку спецификация оборудования предоставляется самой VMware, то конфигурация у всех производителей максимально однотипна:
EVO:RAIL от Dell.
EVO:RAIL от HP на базе платформы HP Proliant SL2500.
EVO:RAIL от Fujitsu, а возможно от Inspur, хотя я уже запутался.
В общем, суть вы уловили.
На входе в демо-зону стоял один единственный EVO:RACK. Отличить его оказалось очень просто из-за нестандартной стойки и специфичного вида оборудования (Open Compute Project).
На стенде HP демонстрировали много всего интересного, в том числе прошедшие мимо меня серверы Proliant 9-го поколения. Главной отличительной особенностью 9-го поколения стала поддержка процессоров Intel Haswell, и, как следствие, больших объемов памяти (до 768 ГБ на моделях HP Proliant DL360 или DL380). Из приятных мелочей - в базе у сервера 4 Ethernet порта 1 Гбит/с, а в разъем Flexible LOM, впервые появившийся в GEN8, можно опционально установить 1/10 Гбит/с Ethernet или Infiniband адаптеры. Кстати, материнская плата у HP Proliant DL360 и DL380 теперь одинаковая, а модель системы определяется угадайте чем? Блоком вентиляторов системы охлаждения!
Для блейд-серверов HP Proliant BL460c Gen9 появилась возможность использования двухпортовых 20 Гбит/с конвергентных адаптеров (но только в сочетании с определенными коммутационными модулями блейд-шасси). Это позволяет отказаться от покупки дополнительных мезанинных карт (Fibre Channel или Ethernet), поскольку пропускной способности встроенного адаптера должно хватить для работы и 10 Гбит/с виртуального nic адаптера, и для 8 Гбит/с виртуального hba адаптера.
На стенде Teradici (разработчик протокола PCoIP) демонстрировались возможности новой прошивки для нулевых клиентов, обеспечивающей оптимизацию передачи потокового аудио (например при голосовых звонках с одной виртуальной рабочей станции на другую).
Также я записал небольшое видео, наглядно демонстрирующее преимущество использования аппаратных графических адаптеров и ускорителей PCoIP.
На стенде Bull демонстрировали новое поколение сервера Bullion (S2, S4, S8, S16). Сервер имеет модульную архитектуру, включающую в себя от одного до восьми вычислительных узлов. Каждый узел представляет собой 3U двухпроцессорный сервер, который коммутируется с другими узлами через внешний коммутатор (Bull Coherency Switch). Объединенные таким образом узлы могут работать как единый 16 сокетный сервер (суммарно до 240 ядер) с 24 ТБ оперативной памяти (не хило!). Сервер имеет модульную архитектуру, оперативная память и адаптеры ввода-вывода устанавливается в специальные картриджи.
На этой позитивной ноте я завершу сегодняшний рассказ. Продолжение следует.
День начался с традиционной пленарной сессии.
Как и в прошлом году основными направлениями развития VMware остаются:
- программно-определяемые ЦОД (SDDC - Software Defined Datacenter);
- облачные вычисления; (Cloud Computing);
- приложения и сервисы для конечных пользователей (End-user computing);
Одной из проблем, с которой сталкиваются современные компании, занимающиеся разработкой продуктов, является использование различного набора ПО для организации производственной инфраструктуры и инфраструктуры для тестирования и разработки. Разработчики могут использовать ОС на базе *nix и контейнерную виртуализацию, а также Openstack для управления всем этим хозяйством, в то время, как в производственной инфраструктуре используется ПО VMware. Это приводит к тому, что, разработчики, вместо того, чтобы заниматься разработкой, по-сути, самостоятельно поддерживают весь зоопарк ПО, т.к. ИТ-поддержка отказывается работать с "не-enterprise решениями".
Решение этой проблемы - использовать OpenStack, построенный на базе продуктов и решений VMware (vSphere, NSX, VSAN), что позволит получить единую надежную, управляемую, масштабируемую платформу для решения любых задач.
На сессии было сказано несколько слов и про контейнерную виртуализацию. На сегодняшний день контейнерная виртуализации (на базе Docker) является весьма горячей темой для обсуждения. Именно поэтому VMware совместно с партнерами (Pivotal) разрабатывает решения (Project Fargo, Cloud Foundry), позволяющие интегрировать контейнерную виртуализацию в экосистему продуктов VMware.
VMware NSX стремительно развивается. По всему миру насчитывается уже более 250 заказчиков, внедривших в своей инфраструктуре NSX. Более 40 партнеров разрабатывают различные решения, завязанные на NSX.
Аналитическое агенство Gartner включило VMware в свой магический квадрат Data Center Networking.в качестве компании, задающей направление развития сетевой инфраструктуры в ЦОД.
В области End-user Computing за год произошли значительные изменения: закрытие сделки по приобретению Desktone - крупнейшего сервис-провайдера Desktop as a Service, закрытие сделки по приобретению AirWatch - лидера рынка управления мобильными устройствами (MDM - mobile device management), партнерство с NVIDIA и Google по развитию технологий ускорения 3D графики в VDI, релиз VMware Horizon 6, покупка компании CloudVolumes - разработчика решения доставки приложений на виртуальные машины.
Публичное облако VMware vCloud Air (бывший vCloud Hybrid Services) шагает по планете. VMware заявляет о поддержке облака чуть ли не в каждом своем продукте. Так, например, новая версия vSphere Replication прямо из коробки поддерживает возможность репликации ВМ прямо в облако VMware Air. Интерфейс vSphere Web Client поддерживает управление облаком, vRealize Operations 6.0 имеет соответствующий Management Pack для мониторинга, vRealize Automation, так вообще, является единой платформой для управления как частными, так и публичными облаками. Тем не менее, VMware всеми силами открещивается от именования vCloud Air публичным облаком, старательно называя его гибридной облачной платформой.
На конференции были анонсированы новые услуги на базе vCloud Air: СУБД как сервис (Database as-a Service), объектное хранилище (на базе EMC ViPR), но самое главное - это запуск тестовой версии облака Virtual Private Cloud OnDemand с моделью оплаты за использованные ресурсы (pay as you go), т.е. плата будет взиматься за фактический объем потребленных ресурсов (мегагерц процессора, мегабайт памяти и дискового пространства, операций ввода-вывода и т.д.). Такую же модель оплаты предоставляют другие облачные провайдеры типа Amazon или Microsoft.
На презентации также было показано, как с помощью Cloud Volumes становится возможным установить на виртуальную машину более сотни приложений всего за несколько секунд.
Первая сессия INF1311 Deploy and Destroy 85K VMs in a Week: VMware Hands-on Labs Backstage раскрыла секреты инфраструктуры, на которой проводятся лабораторные работы Hands-on Labs. Секрета, в общем-то, никакого и нет, все делается на стандартном наборе ПО, разрабатываемом VMware: vSphere, vShield Manager, vCloud Director, vCOps, Log Insight.
Важным условием при подготовке лабораторной работы является то, что все компоненты должны быть виртуальными - никакого специализированного оборудования, даже в партнерских лабораторных работах. В основном используются серверы Cisco UCS и СХД EMC VNX и XtremIO, хотя в последнее время происходит активный переход на EVO:RAIL. В качестве протокола подключения к хранилищам в основном используется iSCSI, также присутствует NFS, но он используется только для задач распространения новых лабораторных работ.
Основная нагрузка на лабораторию приходится на дни проведения конференций VMworld и Partner Exchange.
Интересным архитектурным решением является наличие большого числа серверов управления vCenter Server (по одному на кластер vSphere) и vCloud Director. Сделано это из-за архитектурных ограничений - количества одновременных операций развертывания ВМ из шаблонов, создания linked-клонов, миграции ВМ, накладываемых одним vCenter.
Основная проблема, с которой сталкиваются администраторы лаборатории - это патч-менеджмент и распространение новых лабораторных работ во все ЦОД. Из-за работы лаборатории в режиме 24x7 и требования единообразия инфраструктуры, решение об установке обновлений может затягиваться, хотя часто в лаборатории используются бета версии еще не вышедших продуктов или билды, недоступные конечным заказчикам, что также может вносить дополнительные сложности. Лабораторные работы копируются, преимущественно, вручную, путем экспорта и импорта шаблонов vApp в каталоги vCloud Director.
Вторая сессия - STO25520SPO, How VMware Virtual Volumes (VVols) Will Provide Shared Storage with X-ray Vision, носила преимущественно маркетинговый характер, к тому же, читалась по слайдам прошлого года, поэтому особой пользы от нее не было.
Вкратце, VVols несмотря на кажущуюся сложность, весьма прост в настройке и позволяет решать множество проблем, возникающих из-за использования томов СХД для хранения ВМ. VVols позволяет администраторам получить лучшее от двух миров SAN и NAS систем, и фактически, является той самой долгожданной, прорывной, технологией, которая даст толчок всей индустрии СХД.
Кстати, для меня было новостью, что HP 3PAR является референсной платформой для разработки VVols для Fibre Channel СХД.
Дальше была выставка партнерских достижений.
На стенде Oracle красовалась надпись: "Виртуализуй в 7-10 раз быстрее с Oracle VM". -Хорошая штука! - подумал я и не стал подходить.
Партнерам, которым не досталось слотов для проведения сессий, читали мини-лекции прямо на стендах. Для привлечения потенциальных слушателей использовались всевозможные "грязные" приемы, вроде маек в подарок или участия в лотерее с возможностью выиграть iPhone, iPad, bluetooth аудиосистему, квадрокоптер.
На общем фоне отличилась компания Simplivity, разыграв... BMW i8.
Хорошие у ребят маркетинговые фонды.
Интересная задумка с подарками была на стенде Fujitsu - всем прослушавшим лекцию давали купон на мышку, на которой тут же на стенде можно было нанести любую понравившуюся надпись с помощью лазера. К сожалению, данная операция занимала довольно продолжительное время, а желающих было много, поэтому жадным до халявы посетителям приходилось ждать по 40 минут в огромной очереди. Вот, кстати, моя мышка.
Посетителей развлекали как могли. Кто-то участвовал в гонках.
Кого-то умелые фокусники разводили на часы, обручальные кольца и 10 евро.
Из интересного стоит отметить отдельный демонстрационный зал EVO Zone, где партнеры VMware показывали оборудование EVO:RAIL.
Поскольку спецификация оборудования предоставляется самой VMware, то конфигурация у всех производителей максимально однотипна:
- шасси высотой 2U, в которое устанавливается 4-е сервера;
- 2 шестиядерных процессора Intel Xeon E5-2620 (v2 или v3);
- 192 ГБ оперативной памяти;
- 14,4 ТБ сырой емкости на жестких дисках;
- 1,6 ТБ сырой емкости на SSD накопителях для кэширования;
- 2 порта Ethernet 10G (с разъемами RJ-45 или SFP+).
EVO:RAIL от Dell.
EVO:RAIL от HP на базе платформы HP Proliant SL2500.
EVO:RAIL от Fujitsu, а возможно от Inspur, хотя я уже запутался.
В общем, суть вы уловили.
На входе в демо-зону стоял один единственный EVO:RACK. Отличить его оказалось очень просто из-за нестандартной стойки и специфичного вида оборудования (Open Compute Project).
На стенде HP демонстрировали много всего интересного, в том числе прошедшие мимо меня серверы Proliant 9-го поколения. Главной отличительной особенностью 9-го поколения стала поддержка процессоров Intel Haswell, и, как следствие, больших объемов памяти (до 768 ГБ на моделях HP Proliant DL360 или DL380). Из приятных мелочей - в базе у сервера 4 Ethernet порта 1 Гбит/с, а в разъем Flexible LOM, впервые появившийся в GEN8, можно опционально установить 1/10 Гбит/с Ethernet или Infiniband адаптеры. Кстати, материнская плата у HP Proliant DL360 и DL380 теперь одинаковая, а модель системы определяется угадайте чем? Блоком вентиляторов системы охлаждения!
Для блейд-серверов HP Proliant BL460c Gen9 появилась возможность использования двухпортовых 20 Гбит/с конвергентных адаптеров (но только в сочетании с определенными коммутационными модулями блейд-шасси). Это позволяет отказаться от покупки дополнительных мезанинных карт (Fibre Channel или Ethernet), поскольку пропускной способности встроенного адаптера должно хватить для работы и 10 Гбит/с виртуального nic адаптера, и для 8 Гбит/с виртуального hba адаптера.
На стенде Teradici (разработчик протокола PCoIP) демонстрировались возможности новой прошивки для нулевых клиентов, обеспечивающей оптимизацию передачи потокового аудио (например при голосовых звонках с одной виртуальной рабочей станции на другую).
Также я записал небольшое видео, наглядно демонстрирующее преимущество использования аппаратных графических адаптеров и ускорителей PCoIP.
На стенде Bull демонстрировали новое поколение сервера Bullion (S2, S4, S8, S16). Сервер имеет модульную архитектуру, включающую в себя от одного до восьми вычислительных узлов. Каждый узел представляет собой 3U двухпроцессорный сервер, который коммутируется с другими узлами через внешний коммутатор (Bull Coherency Switch). Объединенные таким образом узлы могут работать как единый 16 сокетный сервер (суммарно до 240 ядер) с 24 ТБ оперативной памяти (не хило!). Сервер имеет модульную архитектуру, оперативная память и адаптеры ввода-вывода устанавливается в специальные картриджи.
На этой позитивной ноте я завершу сегодняшний рассказ. Продолжение следует.
0 коммент.:
Отправить комментарий