Docker Machine предназначен для автоматизации развертывания виртуальных машин (хостов) с настроенным Docker на различных платформах виртуализации. Использование Docker Machine позволит избавиться от необходимости выполнять настройки вручную для каждого хоста в отдельности, а также, по мере необходимости, увеличивать или уменьшать размеры фермы Docker. На текущий момент Docker Machine имеет драйверы для интеграции с VMware vSphere, VMware Fusion и VMware vCloud Air.
Ниже приведен пример установки Docker Machine для 64-битной версии Ubuntu 14.04.
Подготовительные шаги
Перед установкой Docker Machine потребуется установить Docker Client. Для установки Docker добавьте публичный ключ репозитория:
В данном примере устанавливается версия 0.2.0. Ссылку на актуальную версию бинарников govc под нужную платформу можно найти в заметках к релизу: https://github.com/vmware/govmomi/releases).
Корректность установки можно проверить, выполнив команду:
govc version
Опционально, вы можете заранее загрузить актуальный образ boot2docker.iso (ссылку на актуальную версию можно найти здесь: https://github.com/boot2docker/boot2docker/releases). Если этого не сделать, то при создании нового хоста Docker Machine самостоятельно скачает образ:
, где: -d vmwarevsphere - указывает тип платформы, на которой создается docker хост; --vmwarevsphere-vcenter - имя или IP адрес сервера vCenter; --vmwarevsphere-username - имя учетной записи для подключения; --vmwarevsphere-password - пароль учетной записи для подключения; --vmwarevsphere-datacenter - виртуальный ЦОД, в котором будет создан хост; --vmwarevsphere-datastore - хранилище для размещения ВМ хоста; --vmwarevsphere-network - сеть, к которой требуется подключить хост; docker-vm01 - имя ВМ.
Вместо ввода параметров для команды docker-machine create, вы можете предварительно задать переменные окружения, например:
export VSPHERE_CPU_COUNT=2
позволит задать количество виртуальных процессоров для создаваемых ВМ. Список параметров и переменных окружения для vSphere доступен по ссылке: https://docs.docker.com/machine/drivers/vsphere/
Посмотреть список существующих хостов, созданных через Docker Machine, можно с помощью команды:
docker-machine ls
Удалить хост можно с помощью команды:
docker rm <имя_хоста>
Если в процессе создания хоста что-то пошло не так, можно принудительно удалить данный хост:
docker rm -f <имя_хоста>
Вы можете использовать компьютер, на котором установлен Docker Client и Docker Machine, в качестве клиента для управления Docker на хостах. Настройка клиента выполняется через переменные окружения. Для определения значения переменных окружения, выполните команду docker-machine env:
docker-machine env docker-vm01
Переменные окружения можно задать вручную, либо с помощью команды:
eval "$(docker-machine env docker-vm01)"
После этого вы можете работать с демоном Docker на удаленном хосте также, как если бы он был запущен локально.
Продолжение отчета о конференции VMworld 2015. Первая часть доступна по ссылке.
В этот раз я решил немного изменить формат и рассказать отдельно о докладах/сессиях, отдельно - о партнерской выставке.
Генеральные сессии
Первый и второй дни конференции начинались генеральных сессий. Нынешняя конференция побила прошлогодний рекорд по числу участников (порядка 10000 участников, из них 2500 из компаний-партнеров) и прошла под девизом: "Ready for any".
VMware прилагает много усилий, чтобы предложить заказчикам решения, которые позволят создать одно облако, в котором могут быть запущены любые приложения для любых устройств ("One cloud, any application, any device).
Под одним облаком VMware подразумевает не только и не столько собственный облачный сервис vCloud Air, сколько унифицированное гибридное облако, использующее единые средства управления и мониторинга, обладающее одинаковым набором функциональных возможностей, независимо от того, располагается облако внутри организации или используются публичные облака сервис-провайдеров.
Использование унифицированного гибридного облака позволит запускать не только различные классические, унаследованные приложения, но и новомодные нативные облачные приложения (cloud native apps). За счет использования VMware NSX и таких технологий как Cross-Cloud vMotion появляется возможности миграции ВМ между облачными инфраструктурами без простоя.
Для работы с контейнерами VMware предлагает использовать один из двух подходов. Первый - унифицированный, позволяющий запускать на платформе vSphere как обычные ВМ, так и контейнеры с приложениями. Такой подход получил название vSphere Integrated Containers. VIC предполагает, что каждый контейнер будет запускаться в отдельной ВМ. Это позволит обеспечить лучшую изоляцию контейнеров друг от друга, а также использовать существующие инструменты мониторинга, резервирования и обеспечения безопасности, что используются для обычных виртуальных машин. Для снижения требований к вычислительным ресурсам планируется использовать такие технологии, как мгновенное клонирование ВМ (Instant Clone), дедупликацию памяти (TPS), связанные копии (Linked Clones). В качестве примера были приведены цифры, что одна такая ВМ при создании занимает не более 25 МБ дискового пространства, создается менее чем за секунду и практически не занимает места в оперативной памяти.
Во втором подходе - Photon Platform, предлагается устанавливать на серверы специализированную ОС - микровизор Photon Machine, базирующийся на гипервизоре ESXi и Photon OS. Отличительными особенностями микровизора является простота, возможность легко объединять серверы в кластеры и заменять серверы при необходимости. Для управления Photon Machine будет использоваться Photon Controller, служащий единой точкой подключения к кластеру, выполняющий аутентификацию пользователей, распределяющий задачи по запуску контейнеров между серверами и обеспечивающий многопользовательский доступ к ресурсам кластера. Photon Platfrom предназначена исключительно для запуска контейнеров (нативных облачных приложений) и будет являться основным инструментом для разработчиков и тестировщиков, тогда как vSphere Integrated Containers больше нацелена на эксплуатацию.
Для продвижения обоих подходов VMware активно работает со множеством компаний-разработчиков облачного ПО.
Для запуска унаследованных и облачных приложений нужна производительная, надежная, функциональная платформа. Такой платформой, по мнению VMware, может служить EVO SDDC, являющийся логическим продолжением гиперконвергентной платформы EVO: RAIL. Ключевым отличием EVO SDDC является наличие в составе решения по виртуализации сетевого окружения - VMware NSX, и решения по автоматизации - vRealize Suite (Operations - для мониторинга виртуальной инфраструктуры, и, опционально, Automation - для автоматизации развертывания облачных сервисов). EVO SDDC привносит понятие Workload Domain - части ресурсов (процессоров, оперативной памяти, дискового пространства, сетевых адресов), для которых можно указать определенный уровень производительности и доступности. Нарезав, таким образом, EVO SDDC на нужные по размеру куски для каждой из задач (например, часть ресурсов отдается под VDI, часть - под инфраструктурные сервисы, часть - под тестирование и разработку) можно предоставлять доступ к тому или иному куску только для определенных пользователей. Если проводить аналогии, то Workload Domain крайне похож на Organization Virtual Datacenter в vCloud Director. Благодаря простому и интуитивному интерфейсу управления развертывание EVO SDDC на новой площадке (greenfield) занимает около 2 часов. Для существующих инфраструктур (brownfield) VMware предлагает VMware Validated Designs - набор референсных архитектур, которые заказчик может внедрить самостоятельно для создания полноценного программно-определяемого ЦОД.
Также во время выступления был анонсирован VMware vRealize Automation 7.0. Ключевой особенностью данного продукта является поддержка нового формата шаблонов сервисов (unified blueprints), благодаря которым появилась возможность развертывания ВМ и приложений внутри ВМ напрямую из интерфейса vRealize Automation без использования vRealize Application Services (vCloud Application Director). И в такой ситуации крайне вероятно, что Application Services может скоро закончить свое существование.
Еще одна тема, о которой говорили очень активно - доставка приложений. С момента приобретения AirWatch компания VMware стала лидером в области управления корпоративными мобильными устройствами (Enterprise Mobile Management). Объединив продукты Horizon, Workspace и AirWatch в пакете Workspace Suite заказчики получат возможность доставки любых пользовательских приложений на любые устройства. Как насчет запуска 3D Studio MAX на Tesla... которая не видеокарта, а электромобиль?
Одним из важных событий этого года стал релиз ОС Microsoft Windows 10, которая теперь может полностью управляться при помощи AirWatch. Вдобавок, VMware объявил о выходе tech preview версии Project A2 - набора из продуктов AirWatch и App Volumes для управления и доставки приложений на физические устройства под Windows.
На конференции было объявлено о новом приобретении VMware - компании Boxer, занимающей разработкой многофункционального почтового клиента под мобильные платформы.
Что касается ближайших и не очень планов на будущее, то на сессии была продемонстрирована работа функции Cross-Cloud vMotion, позволяющая выполнять миграцию ВМ между различными облачными сервисами без простоя, без общего хранилища, и с сохранением сетевой конфигурации ВМ.
Что касается облачных приложений, то для них появится возможность организации виртуальных сетей между частным облаком заказчика, облаком VMware vCloud Air и публичным облаком Amazon Web Services благодаря технологиям виртуализации сетей VMware NSX for Amazon Web Services.
Генеральную сессию второго дня завершил CEO VMware - Пат Гелсингер.
В своей речи он пояснил, почему так много внимание VMware уделяет сети. Потому что за последние 20 лет количество пользователей Интернет увеличилось с 16 миллионов до 3,1 миллиардов. Ожидается, что к третьему кварталу 2019 года, половина всех жителей Земли будет иметь доступ в Интернет, но уже сейчас индустрия мобильных приложений приносит денег больше, чем Голливуд. Почему это важно? Потому что на сегодняшний день практически каждое приложение, так или иначе использует сеть. Фактически, Приложение = Сеть.
Жизненный цикл компаний уменьшается, 40 процентов компаний, входящих в S&P 500 исчезнут с рынка в течение 10 лет. Для выживания требуется быть гибким, быстрым, нужно внедрять инновации. Не большие компании побеждают маленькие, а быстрые побеждают медленных.
Доклады
Первый доклад, на который я попал (MGT5956 - The New vRealize Converged Blueprints: Driving Automation and DevOps), был о новых конвергентных шаблонах (Converged Blueprints) vRealize Automation 7.0. Чем плохи существующие шаблоны: Infrastructure Blueprints, Advanced Services Blueprints, Application Director Blueprints? Тем, что каждый из них хорошо решает задачу в определенных узких рамках - создание ВМ, создание сервиса, или развертывание приложения. Когда же речь идет о развертывании приложений, требуется выполнять сотни различных действий: выделять вычислительные ресурсы, дисковое пространство, настраивать сеть, брандмауэры, балансировщики нагрузки, IDS устройства, политики безопасности, конфигурировать IPAM, CMDB, AD, настраивать сами приложения внутри ВМ или интегрировать с ПО для автоматической настройки вроде Puppet или Chef.
Чтобы решить проблему VMware предлагает новый тип универсальных или как сейчас модно говорить - конвергентных шаблонов (converged blueprints). Первое и главное преимущество конвергентных шаблонов - простота переноса, шаблон описывается в синтаксисе YAML, может легко экспортироваться, изменяться, переноситься между инсталляциями vRealize Automation. Шаблоны разрабатываются в соответствии с индустриальными стандартами, такими как: OASIS TOSCA и OpenStack HEAT. Важным плюсом является и то, что шаблоны позволяют развертывать и настраивать приложения внутри ВМ без необходимости развертывания и использования Application Director.
Следующий доклад SDDC5273 - EVO SDDC: Deploying a Software-Defined Data Center Made Easy подробно рассказывал о новом решении VMware для построения программно-определяемых ЦОД. В традиционном ЦОД основную работу на себя берет специализированное аппаратное обеспечение. Поддержка оборудования требует ручных операций, в результате чего, ИТ подразделения должны постоянно прилагать большие усилия, чтобы все продолжало работать. В противовес этому представляется подход программно-определяемого ЦОД (SDDC), в котором используется стандартизованное, унифицированное оборудование, а всю логику, весь функционал обеспечивает программное обеспечение. Но у SDDC есть свои проблемы:
Первоначальное развертывание - не всегда понятно, откуда следует начинать, как интегрировать компоненты разных вендоров друг с другом, первое внедрение занимает много времени.
Администрирование - множество точек управления, отсутствие инструментов автоматизации развертывания.
управление жизненным циклом (включая решение проблем и обновление).
Решить эти проблемы призван EVO SDDC. Если помните, в прошлом году VMware рассказывала об инициативе EVO: Rack, так вот, это оно.
Среди плюсов EVO SDDC:
Интеграция на всех уровнях. VMware предлагает полный стек программных продуктов для организации SDDC (вычислительная подсистема, СХД, сеть, управление, мониторинг и т.д.).
Простота. Унифицированное управление из нескольких консолей, автоматизация за счет использования политик.
Стоимость. До 50% экономии TCO.
Производительность. До 7 миллионов IOPS.
Эластичность. Горизонтальная и вертикальная линейная масштабируемость.
Выбор. Гибкость в выборе моделей/поставщиков серверного и сетевого оборудования.
Поскольку SDDC рассчитан на средние и крупные организации, то поставляется стойками. Одна стойка способна обеспечить:
Запуск до 1000 служебных машин.
Или запуск до 2000 виртуальных рабочих станций.
Производительность дисковой подсистемы до 2 миллионов IOPS.
В состав решения входят следующие продукты VMware:
vSphere Enterprise Plus.
Virtual SAN.
NSX.
vRealize Log Insight.
vRealize Operations Management.
(опционально) vRealize Automation.
(опционально) Horizon Suite.
Модели серверов и сетевого оборудования определяются партнерами.
В каждом шасси устанавливается:
24 двухпроцессорных сервера;
два 40-портовых Top of Rack 10 Гбит/с коммутатора для передачи данных
один 1 Гбит/с коммутатор для подключения управляющих интерфейсов серверов и коммутаторов
два (опциональных) 40 Гбит/с коммутатора для соединения ToR коммутаторов в нескольких стойках при масштабировании EVO SDDC.
На управляющий коммутатор устанавливается специализированное ПО Hardware Management Services, которое отвечает за обнаружение, инвентаризацию и мониторинг оборудования, а также установку прошивок.
Для первоначального развертывания и управления используется веб-консоль EVO SDDC Manager, написанная на HTML5.
Отдельного внимания заслуживает процедура выпуска обновлений. Для EVO SDDC предусмотрено два типа обновлений:
Ежеквартальные, содержащие обновление программных компонентов EVO SDDC, с данными обновлениями в SDDC добавляются новые функциональные возможности, происходит обновление на новые мажорные версии ПО.
Асинхронные обновления, содержащие патчи, хотфиксы и исправления безопасности. Выпускаются по необходимости.
Следующий доклад INF4535 - 5 Functions of Software Defined Availability был посвящен тому, как отличить Дункана Эппинга (известный блоггер, VCDX, автор книги vSphere Clustering Deep Drive) от Френка Деннемана (известный блоггер, VCDX, автор книги vSphere Clustering Deep Drive). Дункан пожаловался, что их довольно часто путают друг с другом, поэтому выпустил небольшую памятку.
Оставшаяся, небольшая, часть выступления была посвящена особенностям работы технологий vSphere High Availability, Storage IO Control и Resource Pools. Если пропустили - не переживайте, вы всегда сможете прочитать об этом в самой книге.
Кстати, а вы, вот так сходу без подглядывания, сможете отличить, кто есть кто?
Облако охватывает 5 ЦОД, расположенных в США, Европе и Азиатско-тихоокеанском регионе.
Интересно, что в облаке развернуто достаточно большое количество vCenter. По словам выступающих, это обусловлено ограничениями, которые накладывает vCenter на количество операций клонирования, миграции и т.д. Большее количество vCenter позволяет развертывать больше ВМ без негативного влияния на производительность. Недостаток данного подхода - то, что для каждого vCenter требуется свой набор шаблонов ВМ, которые периодически надо было централизованно обновлять и распространять (до выхода vSphere 6.0, где появился Content Catalog). Другим интересным моментом, является то, что для внутренних пользователей ведется учет потребления (Chargeback), что позволяет видеть - насколько облако востребовано тем или иным подразделением. Если раньше для облака использовались аппаратные решения самых разных производителей, то с августа 2014 начался постепенных переход на унифицированную гиперконвергентную архитектуру EVO Rack (EVO SDDC).
Последний доклад, который я посетил SDDC5113 - What’s New in VMware Integrated OpenStack version 2.0 касался собственного дистрибутива OpenStack от VMware - VMware Integrated OpenStack. VMware вносит весомый вклад в развитие OpenStack и старается обеспечить максимально полную интеграцию своих продуктов (vSphere, VSAN и NSX) с компонентами OpenStack.
Аргументация VMware очень проста - зачем заказчикам отказываться от vSphere и разворачивать OpenStack от других вендоров на других гипервизорах, если можно взять бесплатный VMware Integrated OpenStack и создать свое открытое частное облако. VIO доступен для любых заказчиков, у которых есть лицензии vSphere Enterprise Plus, vSphere with Operations Management или vCloud Suite. Поддержку на VIO, при необходимости, можно приобрести отдельно. При необходимости, функционал OpenStack может быть дополнен и расширен другими продуктами из линейки VMware: vRealize Operations, vRealize Log Insight, vRealize Business.
VMware не старается гнаться за частотой релизов OpenStack (VIO 1.0 базировался на Icehouse, VIO 2.0 - на Kilo, Juno пропустили), а делает акцент на стабильности и функциональных возможностях.
Отдельное внимание VMware уделяет простоте развертывания VIO по сравнению с другими OpenStack дистрибутивами.
Ведь важно не только развернуть OpenStack, но и решить вопросы, связанные с безопасностью, мониторингом, обновлениями, поддержкой и многими, многими другими вещами.
В версии VIO 2.0, вышедшей в сентябре, доступны следующие нововведения:
Версия основана на релизе OpenStack Kilo.
Автоматизированное обновление с VIO 1.0.
Упрощенный бекап и восстановление служебных ВМ OpenStack.
Функция балансировка нагрузки как сервис.
Функция автоматического масштабирования при помощи Ceilometer и Heat.
Возможность брендирования портала самообслуживания Horizon.
Возможность локализации портала.
Управление сертификатами и паролями.
Для тех, кто уже работал с OpenStack и не понаслышке знает, какого это, устанавливать обновления должно понравиться видео, как это можно легко сделать с VIO (на примере обновления с версии 1.0 до 2.0).
На сегодня это все, что я хотел рассказать. Продолжение следует.
Поскольку поездки на VMworld Europe стали для меня своеобразной традицией, то и для вас, дорогие читатели данного блога, я хочу, в который уже раз, рассказать о наиболее запоминающихся моментах, которые мне довелось здесь наблюдать.
VMworld Europe - одно из крупнейших IT-мероприятий (в области виртуализации уж точно), которое ежегодно проходит в выставочном центре Fira Grand Via (Барселона, Испания) в середине октября.
Участие в конференции доступно всем желающим, достаточно лишь оплатить билет (около 1425 евро при предварительной регистрации + скидки постоянным участникам, членам VMware User Group и сертифицированным специалистам VMware), проезд/перелет и проживание в стоимость не входят.
Конференция длится четыре дня (первый день - партнерский, который называется Partner Exchange, куда могут попасть только сотрудники компаний-партнеров VMware, три оставшиеся - основная конференция для всех участников). Раньше Partner Exchange мало чем отличался от основной конференции - можно было посещать сессии, делать лабораторные работы, сдавать экзамены и т.д. Однако в этом году VMware изменила формат мероприятия и сделала так называемый Partner Exchange Plus, в рамках которого участники могут посещать дополнительные сессии, в том числе и генеральную партнерскую сессию, заплатив дополнительные 180 евро.
Для некоторых постоянных участников, немнимательно читавших почтовую рассылку или описание в процессе регистрации, такое изменение стало сюрпризом, представьте - приходите вы на обед для партнеров, а вам говорят - обед только для партнеров, и вы как бы партнер, но вся разница в маленькой надписи на бейджике... и 180 евро.
Но не будем о грустном.
Начало ежегодного путешествия чуть было не омрачили проблемы, возникшие у авиакомпании Трансаэро. Были серьезные опасения не улететь в Барселону, но вроде все обошлось, хотя лететь в воскресенье в полупустом самолете оказалось довольно забавно (и никаких плачущих детей).
В понедельник прямо с утра (конференция начинает работу в 8:00) я выдвинулся в нужном направлении.
Поскольку павильоны располагаются довольно далеко от ближайшего метро (Fira Barcelona), то в дни конференции работает бесплатный автобус.
Кстати, для тех, кто пользуется общественным транспортом, а он тут ой какой недешевый (2,15 евро, чтобы доехать на метро до станции Espanya, а потом еще столько же за поездку на поезде FGC до Europa Fira), на конференции выдают проездной билет на 10 поездок.
Сам выставочный комплекс огромен, и даже VMworld занимает всего-то три павильона из восьми (6, 7 и 8).
При входе в здание располагаются стойки регистрации и проход в зону выдачи ништяков, а к гардеробу.
Сама процедура регистрации предельно проста - можно воспользоваться официальным приложением, который генерирует персональный QR-код, либо ноутбуком на стойке регистрации.
Что касается раздаточного материала, то в этом году тоже все стандартно: рюкзак, записная книжка, фляга для воды, пара рекламных проспектов. Рюкзак, на удивление, оказался довольно качественным и симпатичным.
После регистрации я зашел в местный магазин, торгующий разнообразными предметами с атрибутикой VMware: майками, сумками, ручками, кружками, портативными зарядными устройствам, и даже комбинезонами для маленьких детей, видимо, чтобы привыкали к продукции VMware с пеленок, а также книгами на IT-тематику. Лично я присмотрел пару книжек по OpenStack, будет что на Amazon купить (если только не получу халявный купон на 40 евро).
В 7 павильоне расположились места для выполнения лабораторных работ, зона отдыха, переговорные комнаты для спонсоров конференции, а также кое-что интересное - стенд VMware Video Game Container System.
Да-да, новый продукт VMware, грозящийся перевернуть рынок игровых консолей и ПК. Зачем пользоваться сервисами электронной дистрибьюции типа Steam, или покупать игры на диске, если можно запускать их в контейнере? Как вам может быть известно, VMware активно ведет разработку решения по управлению Docker контейнерами - vSphere Integrated Containers. В отличие от типовой Docker инфраструктуры, где в качестве хостов для контейнеров используются серверы с установленной ОС Linux, и на одном хосте может быть запущено несколько контейнеров, в vSphere Integrated Containers предполагается использовать хосты ESXi для запуска обычных ВМ и контейнеров. Каждый контейнер планируется запускать в отдельной гостевой ОС. Несмотря, на кажущуюся на первый взгляд абсурдность идеи из-за больших накладных расходов, такой подход имеет свои плюсы, например, все существующие инструментры и функциональные возможности, доступные для ВМ, будут работать и для контейнера. Возможно будет настроить мониторинг контейнеров с помощью vRealize Operations, использовать VSAN для хранения постоянных данных для приложений, работающих внутри контейнеров (ClusterHQ Flocker), и так далее. Для ускорения процедуры создания новых контейнеров предлагается использовать технологию мгновенного клонирования ВМ (ранее Project Fargo). В качестве эффектной демонстрации возможностей vSphere Integrated Containers на стенде можно было сыграть в игру Prince of Persia на эмуляторе DOSBox внутри контейнера, запущенного на ВМ, созданной с помощью Instant Clone, и работающей на хосте ESXi. Вот такой вот Inception от VMware.
Для тех, кто не мог осилить принца Персии, в зоне отдыха были установлены игровые автоматы, столы для биллиарда и настольного тенниса и футбола.
В зоне для выполнения лабораторий (hands-on labs) можно было ознакомиться и вживую пощупать практически любой продукт и технологию VMware. К сожалению, в этом году особого разнообразия в лабораторных работах не было, все они и так уже были доступны на сайте http://labs.hol.vmware.com. Единственным исключением стала лабораторная работа по Native Cloud Apps, которая демонстрировала работу с Docker, Kubernetes и Project Lightwave.
В отдельном зале для постоянных участников VMworld (Alumni - посетившие конференцию 3 и более раз) можно было отдохнуть в тихой и приятной обстановке. О ценности постоянных посетителей для VMware говорит хотя бы тот факт, что во всем 7 павильоне, только в зале Alumni располагался холодильник с прохлаждающими напитками.
На стенде VMware Educational Service можно было сделать селфи с табличкой для участия в конкурсе на получение скидки на обучение по какому-либо из курсов VMware.
Оставшуюся часть дня я посвятил сессиям. Новшество этого года - Quick talks - короткие сессии по 30 минут. Мне крайне понравился такой формат в отличие от занудных выступлений по 1 часу, где частенько можно видеть одинаковые слайды и по десятку раз слушать об одних и тех же вещах. В quick talks же все быстро и по делу.
Например, доклад 10 Reasons Why VMware Virtual SAN is the Best Hyperconverged Solution. Вот такие 10 причин:
VSAN встроен в гипервизор. Это позволяет снизить накладные расходы на организацию виртуального хранилища по сравнению с другими гиперконвергентными решениями.
Возможность выбора. Большинство гиперконвергентных решений поставляются в виде заранее определенного набора аппаратных компонентов. VSAN за счет большого выбора поддерживаемых серверов, накопителей, адаптеров позволяет создавать оптимильные по конфигурации платформы, а также обеспечивать поддержку самых современных комплетующих.
Возможность вертикального масштабирования (а не только горизонтального), во многом перекликается с предыдущим тезисом. Конфигурация узлов может быть изменена, установлено больше дисков, более высокой емкости или более производительные SSD, более мощные процессоры. Другие решения более ограничены и обычно масштабируются горизонтально путем покупки дополнительных узлов.
Прозрачная интеграция с другими продуктами и решениями (стеком) VMware. VSAN можно мониторить с помощью vRealize Operations, а также использовать всевозможные технологии, такие как vMotion, DRS, SRM, Fault Tolerance и другие, которые не будут оказывать негативного влияния на производительность (например, из-за локализации ввода-вывода).
Производительность. VSAN может обеспечивать производительность в несколько миллионов IOPS, чего должно быть достаточно для запуска даже самых ресурсоемких приложений.
Более низкая стоимость владения по сравнению с традиционными решениями или другими гиперконвергентными продуктами. VSAN позволяет экономить на аппаратном обеспечении за счет использования стандартных комплектующих, устанавливающихся в серверы.
Простота в освоении. Тем, кто работает с vSphere будет крайне просто разобраться в работе VSAN. VSAN использует те же инструменты управления, что и vSphere, что позволит снизить затраты на обслуживание.
Более 2000 заказчиков уже выбрали VSAN. Более того, 62% заказчиков уже опробовали VSAN для запуска бизнес-критичных приложений.
Скорость выпуска новых версий. За 1.5 года было выпущено уже три релиза, каждый из которых привносит новые функциональные возможности, улучшает производительности, повышает лимиты.
VSAN строится с заделом на будущее. Все новомодные технологии в той или иной мере могут использовать VSAN. Например, VSAN используется для организации хранения в облачной инфраструктуре OpenStack, на VSAN можно хранить постоянные данные для Docker контейнеров и т.д.
Со всеми доводами можно поспорить, но некое рациональное зерно в них есть.
Завершил первый день генеральный доклад для партнеров. На нем представители VMware в очередной раз поделились своим видением ИТ рынка и перспектив его развития. VMware давно и всерьез нацелена на то, чтобы предоставлять заказчикам полный спектр продуктов для запуска и доставки любых приложений. Для запуска и работы приложений используются программно-определяемые ЦОД или публичные облака, которые интегрируются друг с другом с помощью средств автоматизации, позволяющих прозрачно переносить приложения из частного облака в публичное и обратно. Для публикации и доставки приложений есть Workspace Suite, позволяющий доставлять любое приложение на любое устройство (Horizon View, Workspace Portal), а также управлять любыми устройствами (Horizon Mirage, AirWatch). Наконец, VMware NSX используется как средство обеспечения безопасности внутри ЦОД и для связи территориально-удаленных площадок.
P.S. кстати, как стало известно на партнерском дне, Dell собирается приобрести компанию EMC за 67 миллиардов $, а с ней и большую часть VMware. Хотите знать больше? Продолжение следует.
Если вы подыскиваете простой, функциональный и небольшой по размеру дистрибутив Linux для работы с Docker, то я советую вам посмотреть в сторону Photon OS. В конце августа вышел новый релиз Photon OS Technical Preview 2 (TP2), который принес много всего интересного. Информация о релизе доступна по ссылке.
Photon OS строится на базе другого известного мини-дистрибутива CoreOS Linux и заточен под работу с гипервизорами VMware и облачными инфраструктурами на базе OpenStack.
Установка
Photon OS доступен для загрузки с сайта http://vmware.github.io/photon/ в виде ISO образа (Full ISO и Minimal ISO), а также в виде шаблона ВМ в формате OVA.
Перед установкой настоятельно рекомендую ознакомиться с официальным FAQ по Project Photon, а также FAQ комьюнити на GitHub.
Установка Photon OS может быть выполнена в одном из следующих режимов:
Photon Micro - минимальный из доступных вариантов установки, предназначенный для развертывания внутри контейнера.
Photon Minimal - подходит для развертывания как внутри контейнера, так и на хосте.
Photon Full - установка со всем необходимым набором пакетов, может использоваться для разработки или тестирования.
Photon OSTree Host - установка Photon OS в режиме RPM-OSTree хоста, который синхронизирует все изменения с единого сервера, позволяя централизованно обновлять множество хостов. Более подробно про RPM-OSTree можно прочитать тут.
Photon OSTree Server - установка Photon OS в режиме RPM-OSTree сервера, с которым будут синхронизироваться хосты.
Установка дистрибутива на ВМ vSphere крайне проста. Все, что требуется - это указать диск, на который будет установлена ОС, задать имя компьютера и пароль для root.
При развертывании ВМ из OVA шаблона для учетной записи root задан пароль по умолчанию: changeme
Изменение сетевых настроек
Конфигурация сетевых интерфейсов хранится в файлах .network в каталоге /etc/systemd/network. По умолчанию в каталоге присутствует только один файл 10-dhcp.network в котором прописано получение всех сетевых настроек через DHCP.
Для задания статического адреса удалите файл 10-dhcp.network:
rm /etc/systemd/network/10-dhcp.network
Создайте новый файл в каталоге /etc/systemd/network/, например, 10-static.network (имя не принципиально и используется только для очередности применения сетевых настроек, важно только, чтобы расширение файла было .network) со следующим содержимым:
lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 UP LOOPBACK RUNNING MTU:65536 Metric:1 RX packets:6 errors:0 dropped:0 overruns:0 frame:0 TX packets:6 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:516 TX bytes:516
Для редактирования можно использовать nano (доступен в Full инсталляции) или vi.
После редактирования файла выполните команду systemctl restart systemd-networkd.service
или перезагрузите компьютер:
reboot
Настройка root для подключения по SSH
По умолчанию, учетной записи root запрещено напрямую авторизовываться по SSH. Чтобы разрешить подключение требуется отредактировать файл /etc/ssh/sshd_config и раскомментировать строчку:
PermitRootLogin yes
После чего перезапустить службу sshd с помощью команды:
systemctl restart sshd.service
Установка обновлений пакетов
Несмотря на то, что Photon OS придерживается атомарного подхода к развертыванию - все необходимое уже есть внутри, обновление выполняется для всего дистрибутива сразу, а не для отдельных компонентов, в некоторых случаях может потребоваться установить дополнительные пакеты или обновить существующие.
В Photon OS менеджером пакетов по умолчанию является tdnf (в Full варианте установке также присутствует привычный всем yum).
В Full установке для обновления пакетов достаточно выполнить команду:
yum update
В Minimal и Micro установке проще всего будет сначала установить yum:
tdnf install yum
А затем запустить обновление через него. Если yum ставить не хочется, то можно выполнить команду:
tdnf check-update
А затем поочередно для каждого пакета, который нуждается в обновлении:
tdnf upgrade <packet_name>
Если после обновления VMware Tools не стартуют (в свойствах ВМ отображается not running / not installed), создайте символическую ссылку на файл конфигурации сервиса и запустите сервис:
Кастомизация с помощью vSphere Customization Specification
Начиная с релиза Photon OS TP2 при клонировании ВМ из шаблона поддерживается кастомизация ВМ с помощью Customization Specification.
Для работы кастомизации требуется наличие vSphere 6.0. Шаблон ВМ должен иметь 11 версию Virtual Machine Version, а качестве гостевой ОС должна быть выбрана CoreOS Linux (x64).
В целях безопасности, перед выключением ВМ для создания из нее шаблона или клонирования не лишним будет удалить из нее файлы SSH ключей:
rm -f /etc/ssh/ssh_host_*
Кастомизация с помощью Cloud-init
Photon OS также поддерживает автоматическую настройку ОС с помощью cloud-init. Для VMware vSphere настройка выполняется через Config Drive - специальный ISO образ, с которого Photon OS считывает настройки в момент загрузки ОС.
С помощью cloud-init возможно изменять имя хоста, настраивать сетевые интерфейсы, изменять размер томов, изменять etc/hosts, настраивать Puppet и многое другое. Полный список модулей доступен по ссылке.
Образ Config Drive должен включать в себя, по крайней мере, два файла в формате YAML:
user-data - файл конфигурации.
meta-data - файл мета-данных.
Для примера создадим Config Drive, который меняет имя компьютера и IP адрес сетевого интерфейса, а также перезагружает компьютер после выполнения настройки.
Для создания Config Drive проще всего использовать Photon OS в Full инсталляции.
Создайте файл user-data со следующим содержимым (не забудьте про отступы, а также #cloud-config в начале файла, для проверки можете использовать online-валидатор: https://coreos.com/validate/):
В качестве instance-id в файле meta-data нужно задавать уникальное значение, отличное от текущего instance-id в эталонной ВМ, так как некоторые из модулей cloud-init запускаются только один раз для одного инстанса, например, write_files. Если не изменить instance-id, то модуль не запустится. Текущий instance-id можно посмотреть в файле /var/lib/cloud/data/instance-id
Если нужно, чтобы все модули отработали, а instance-id менять, по какой-либо причине не хочется, то нужно удалить все содержимое каталога /var/lib/cloud/instances:
rm -rf /var/lib/cloud/instances
После создания файлов user-data и meta-data создайте ISO образ: