Снимки состояния гостевой ОС. Платформа виртуализации и виртуальные машины

Виртуальные машины уже прочно заняли свое место среди инструментов, существенно повышающих эффективность использования серверных платформ и персональных компьютеров. Возможность консолидации нескольких виртуальных серверов на одном физическом позволяет организациям различного уровня существенно экономить на аппаратном обеспечении и обслуживании. Пользователи настольных компьютеров применяют виртуальные машины, как в целях обучения, так и в целях создания защищенных и переносных пользовательских сред. В корпоративной среде виртуальные машины на настольных системах применяются также для целей тестирования программного обеспечения в различных конфигурациях, запуска специализированных виртуальных шаблонов и централизованного хранения виртуальных пользовательских десктопов. При массовом использовании виртуальных систем одними из самых важных мероприятий являются обслуживание и оптимизация производительности виртуальных машин. В то время как большинство производителей платформ виртуализации предоставляют пользователям и системным администраторам множество инструментов и средств для поддержания эффективной виртуальной инфраструктуры, оптимизация производительности, как самих платформ, так и виртуальных машин является более тонким моментом. Применение различных техник оптимизации во многом зависит от используемой платформы, вариантов использования виртуальных машин, доступных средств и квалификации персонала.

В России наиболее популярными средствами виртуализации являются продукты компании VMware. И это не случайно: VMware, являясь одним из старейших участников рынка, на данный момент является его лидером и во многом определяет направления развития сферы виртуализации в целом. На сегодняшний день наибольший интерес для пользователей представляют коммерческие платформы VMware Workstation, VMware ESX Server и бесплатная платформа VMware Server. Несмотря на то, что VMware Server является серверной платформой, многие пользователи успешно применяют ее в качестве настольной платформы ввиду ее бесплатности, хотя практически по всем параметрам функциональность продукта VMware Workstation 6 намного выше.

Вопросы оптимизации виртуальных машин и гостевых систем, запущенных в них, возникают как у домашних пользователей продуктов виртуализации, так и компаний, стремящихся максимально полно использовать аппаратные ресурсы. Особенно это актуально для виртуальных серверов, которые должны обладать свойством высокой доступности из внутренней или внешней сети, и серверов, интенсивно использующих какой-либо из аппаратных ресурсов компьютера (например, жесткий диск серверами баз данных).

Сравнительный обзор VMware Server и VMware Workstation

Продукты VMware Workstation и VMware Server, хотя и предназначены для разных категорий пользователей, тем не менее, используются в схожих ситуациях. VMware Server используется не только для поддержания небольшой инфраструктуры виртуальных серверов в секторе SMB (Small and Medium Business), но и применяется для целей разработки и тестирования программного обеспечения. Также многие домашние пользователи используют VMware Server как бесплатную альтернативу продукту VMware Workstation, хотя последний обладает значительно большими функциональными возможностями именно для конечного пользователя. Из приведенной ниже таблицы можно увидеть, когда нужно использовать VMware Workstation, а когда будет достаточно бесплатного VMware Server.

Возможности Workstation 6.0.0 Server 1.0.3
Запуск в качестве сервиса Нет (но есть возможность сворачивания UI в System Tray) Да
Запуск виртуальной машины при загрузке Нет Да
Локальное управление Толстый клиент, командная строка
Множественный пользовательский доступ Нет Да
Программные интерфейсы C / COM / Perl C / COM / Perl
Удаленное управление хостом Нет Web-консоль
Удаленное управление виртуальными машинами Нет Толстый клиент
Управление множественными установками Нет Нет 1
Соотношение виртуальные машины на ядро 2-4 2-4
Поддержка аппаратной виртуализации Intel VT Intel VT (экспериментально)
Поколение виртуального аппаратного обеспечения 6 5
Виртуальных процессоров через SMP (Symmetric Multi Processing) 2 2 (экспериментально)
Максимум оперативной памяти для одной виртуальной машины до 8 ГБ до 3,6 ГБ
Максимум оперативной памяти для всех виртуальных машин Неограничено 2 До 64 ГБ 2
IDE контроллеров/дисков на них 1/4 1/4
SCSI контроллеров/дисков на них 1/7 4/60
Максимальный размер виртуального диска (IDE/SCSI) до 950 ГБ до 950 ГБ
Виртуальных сетевых адаптеров на одну виртуальную машину 10 4
Виртуальных коммутаторов 10 9
Снапшоты через толстый клиент Да Да (только один)
Снапшоты через командную строку Да Нет
Клонирование виртуальных машин Да Нет 3
Команды виртуальных машин (в одном виртуальном сетевом сегменте) Да Нет
Запись активности виртуальной машины Да Нет
Отладка виртуальных машин Да Да
Общие папки с хостовой системой Да Нет
Запись активности виртуальной машины в видеофайл Да Нет
Интерфейс Drag&Drop между гостевой и хостовой системой Да Нет
Официально неподдерживаемые хостовые системы SuSE Linux 7.3 Windows XP Professional (32/64 бит)
Windows XP Home
Windows 2000 Professional
Red Hat Linux 7.0
Red Hat Linux 7.1
Поддержка 64-битных систем Да Да
Поддержка паравиртуализации Да 4 Нет
Цена $189 (при загрузке с сайта)
$209 (розничные поставки)
Бесплатно 5
  1. Доступно при использовании с продуктом Virtual Center (не бесплатен).
  2. В операционных системах с включенным PAE-режимом.
  3. Доступно при управлении продуктом Virtual Center (не бесплатен).
  4. Доступно при использовании VMware Virtual Machine Interface (VMI) 3.0.
  5. Техническая поддержка не бесплатна, но и не необходима. Пользователи могут купить VMware Gold или Platinum Support and Subscription Services .

Оптимизация производительности VMware Workstation и VMware Server

Оптимизация виртуальных систем под управлением платформ VMware Server и VMware Workstation состоит из четырех ключевых компонентов:

  • правильный выбор аппаратного обеспечения и его оптимизация
  • настройка и оптимизация хостовой платформы
  • настройка и оптимизация платформы виртуализации и виртуальных машин
  • оптимизация гостевой системы

Аппаратное обеспечение

При выборе оборудования для хостовой системы необходимо исследовать среднюю загруженность физической системы, которую необходимо виртуализовать и выбрать так называемый коэффициент виртуализации - количество виртуальных машин, запущенных одновременно на одной физической платформе. Необходимо учитывать не только загруженность процессора, но и всех аппаратных ресурсов, поскольку чрезвычайно интенсивное использование какого-либо ресурса одной виртуальной машины может привести к замедлению работы хоста в целом.

По оценкам экспертов, большинство серверов на данный момент использует приблизительно 10-20 процентов от аппаратных мощностей компьютеров, поэтому, в этом случае, для продукта VMware Server необходимо придерживаться соотношения 2-4 виртуальные машины на ядро процессора, оставив некоторый запас для пиковых нагрузок на какой-либо из серверов. При использовании VMware Workstation пользователи часто создают десятки виртуальных машин, и число одновременно запущенных виртуальных систем может быть различным, в зависимости от применяемых гостевых ОС.

Выбирая аппаратные компоненты для сервера виртуализации или хоста для настольной платформы, нужно учитывать следующие аппаратные ресурсы:

  • Память
    Оцените количество памяти, используемой виртуальными машинами и приложениями, запущенными в них, прибавьте память, необходимую для хостовой ОС (зависит от выбранной платформы) и поддержки платформы виртуализации (обычно не менее 64 МБ).
  • Диски
    Старайтесь использовать высокопроизводительные SCSI диски и RAID-массивы. Помните, что RAID массивы могут быть различного типа, и от его выбора зависит производительность дисковой системы. Следите за тем, чтобы диски хостовой системы не переполнялись, поскольку это сильно действует на производительность виртуальных машин, в особенности при создании снапшотов или работе с Redo-дисками. Используя SAN или NAS устройства хранения, следите за тем, чтобы на них были включены кэши на чтение и запись и правильно выставлены их размеры.
  • Сеть
    При выборе сетевых адаптеров и устройств коммуникации, учитывайте следующие рекомендации:
    • используйте коммутаторы («свичи») вместо концентраторов («хабов»)
    • при использовании Gigabit Ethernet карт на хостах убедитесь, что вы используете кабели и коммутаторы с соответствующей пропускной способностью
    • не используйте большее число физических сетевых интерфейсов, чем необходимо - ненужные адаптеры принимают широковещательные пакеты, что замедляет быстродействие в целом

Хостовая ОС

При выборе хостовой операционной системы для VMware Server или VMware Workstation необходимо учитывать ее требования к оборудованию и заранее планировать ресурсы, выделяемые виртуальным машинам. Наибольшее внимание при оптимизации хостовой ОС нужно уделять памяти, дискам, сетевым интерфейсам и сервисам операционной системы. Само собой, в хостовой системе нельзя устанавливать никакого дополнительного программного обеспечения, которое может отрицательно повлиять на ее быстродействие.


Платформа виртуализации и виртуальные машины

При оптимизации системы виртуализации и виртуальных машин необходимо учитывать множество параметров и различные варианты использования виртуальных машин. В каждом отдельном случае необходимо тщательно изучить, какой из аспектов при настройке хостовой или гостевой ОС может являться «бутылочным горлом» (bottleneck), существенно влияющим на производительность системы. В частности, необходимо придерживаться следующих рекомендаций:

  • Процессор

    В случае если ваш процессор использует технологию hyper-threading для представления двух логических процессоров для одного физического, не включайте виртуальный SMP (два виртуальных процессора) в настройках виртуальной машины при ее создании.

    Вы можете также вручную выставить приоритет для процессов виртуальных машин:

    зайдите в меню «Edit», выберите «Preferences», перейдите на вкладку «Priority» и назначьте приоритет активной виртуальной машине (Input grabbed - когда курсор находится внутри виртуальной машины) и остальным виртуальным машинам в фоне (Input ungrabbed).

    Эти настройки влияют на все виртуальные машины хоста. Вы можете также назначить их для конкретной виртуальной машины (они перекроют глобальные настройки): зайдите в меню «VM», далее «Settings», перейдите на вкладку «Options» и категорию «Advanced».

  • Память

    Если вы используете хостовую ОС не только для запуска виртуальных машин, но и для других задач вы можете задать количество физической оперативной памяти, которое могут использовать виртуальные машины. Для этого зайдите в меню «Edit», выберите «Preferences», перейдите на вкладку «Memory» и выставьте необходимое количество памяти для виртуальных машин.

    Здесь вы можете также определить, как виртуальные машины будут использовать файл подкачки. По умолчанию часть памяти виртуальной машины сбрасывается в файл подкачки. Если же выставить параметр «Allow most virtual machine memory to be swapped», это позволит запустить большее число виртуальных машин одновременно, но отрицательно скажется на их быстродействии. Выбор первого параметра повлечет за собой использование только физической памяти хостовой системы, что ускорит быстродействие, однако, соответственно, уменьшит число одновременно запущенных виртуальных машин.

    VMware Workstation и VMware Server используют процедуры очистки неиспользуемой памяти (Memory Trimming). Вообще говоря, этот параметр не сильно влияет на производительность, однако его отключение может немного повысить производительность при работе с дисками виртуальной машины. Отключить его можно, добавив в vmx-файл строчку MemTrimRate=0 или в настройках виртуальной машины:

    Продукты VMware используют также общий доступ к страницам памяти (Page Sharing), который позволяет виртуальным машинам совместно использовать одну копию страниц памяти, что особенно эффективно при запуске одинаковых гостевых систем, с одинаковыми запущенными в них приложениями. В этом случае, такой подход позволяет экономить до 30 процентов физической памяти, однако снижает скорость операций ввода-вывода. Если на хосте достаточно оперативной памяти, эту технику можно отключить, добавив в vmx-файл строчку: sched.mem.pshare.enable = “FALSE”

  • Диски

    По возможности используйте диски виртуальных машин хранящиеся локально. В случае использования сетевых ресурсов, следите за пропускной способностью сети и ее доступностью. По умолчанию VMware Server и VMware Workstation используют эмуляцию SCSI-дисков. Не меняйте этот параметр, поскольку применение виртуальных IDE-дисков снижает быстродействие. Используйте виртуальные диски типа «preallocated», вместо «growable», хотя вторые и выгодны с точки зрения используемого места (растут по мере наполнения), они работают несколько медленнее. Для задания дисков типа «preallocated» при создании виртуальной машины поставьте галку «Allocate all disk space now». Можно также создавать независимые (Independent) диски для виртуальной машины, которые могут быть постоянными (Persistent) и непостоянными (Nonpersistent). Содержимое этих дисков существует независимо от мгновенных снимков виртуальной машины (снапшотов). Непостоянные диски отличаются тем, что их содержимое сбрасывается при выключении виртуальной машины. Диски типа Independent-persistent обладают наилучшим быстродействием и рекомендуются для большинства вариантов использования. Для того чтобы создать такой диск, выберите меню «VM», «Settings», на вкладке «Hardware» выберите диск и нажмите «Advanced», убедитесь, что галки «Independent» и «Persistent» установлены.

    Помните также, что использование снапшотов замедляет быстродействие дисковой подсистемы, поэтому не используйте их без необходимости.

  • Сеть

    Удалите все неиспользуемые виртуальные сетевые адаптеры для каждой виртуальной машины в меню «VM»->«Settings». При интенсивном обмене трафиком с хостовой ОС наиболее эффективно использовать тип сетевого взаимодействия Bridged, нежели NAT, поскольку в последнем случае присутствуют затраты на поддержание виртуального NAT-устройства.

  • Другое
    • Отключение режима отладки

      По умолчанию VMware Workstation собирает отладочную информацию, что может несколько замедлить производительность виртуальной машины. Эту возможность можно отключить в меню «VM», далее «Settings», вкладка «Options», категория «Advanced», затем выставить комбобокс «Gather debugging information» в значение «None».

    • Отключение логирования

      Для виртуальных машин в VMware Server и VMware Workstation включен режим логирования, который практически не влияет на производительность, но его можно отключить, добавив в vmx-файл строчку logging = «FALSE».

    • Отключение приводов CD/DVD-ROM

      Многие забывают, что некоторые старые операционные системы, такие как Windows 98, постоянно проверяют наличие диска в приводе, что приводит к потере быстродействия. Виртуальный CD/DVD-ROM можно отключить в настройках виртуальной машины:

Гостевая ОС и приложения

Оптимизация гостевой системы является наиболее тонким моментом оптимизации виртуальных систем, поскольку многое зависит от того, для каких целей используется виртуальная машина, какие приложения в ней запущены и к каким компонентам системы предъявляются наиболее высокие требования к быстродействию. Самыми значимыми объектами настройки являются: процессор, память, диски, сетевые адаптеры и программное обеспечение виртуальной машины.

Однако, первым делом, после установки гостевой системы, необходимо установить пакет VMware Tools, который содержит в себе улучшенные драйверы устройств, существенно повышающие быстродействие гостевой системы. Приложение VMware Tools может быть установлено не во всех гостевых ОС. Для установки этого пакета, при запущенной виртуальной машине, после полной загрузки ОС, в меню «VM» выберите пункт «Install VMware Tools».

Заключение

После того, как все четыре перечисленных мероприятия по оптимизации будут проведены, необходимо постоянное наблюдение за производительностью виртуальных машин, особенно если они работают в качестве виртуальных серверов. Целью оптимизации в этом случае должна стать стабильная одновременная работа нескольких виртуальных систем на одном физическом хосте. Регулярно обновляйте программное обеспечение и платформу виртуализации, и тогда вы сможете максимально эффективно использовать виртуальные машины, как на десктопах, так и в качестве гибких серверных элементов ИТ-инфраструктуры предприятия.

Видеозапись демонстрации в хорошем качестве - 720p - все отчетливо видно. Для тех, кто не хочет смотреть видео - под катом расшифровка демонстрации и скриншоты.

Дисклеймеры:

1. Стенограмма с небольшой редактурой.
2. Просим помнить о разнице в письменной и устной речи.
3. Скриншоты в большом размере, иначе ничего не разобрать.

Коллеги, добрый день. Мы начинаем демонстрацию VMware NSX. Итак, что бы хотелось сегодня показать. Наша демо-инфраструктура развернута на базе нашего дистрибьютора MUK. Инфраструктура достаточно небольшая - это три сервера, серверы есть ESXI в 6-й версии апдейт 1 v-центр обновленный, то есть самое свежее, что мы можем предложить.

В этой структуре мы до использования NSX получили от сетевых инженеров MUK-а несколько VLan-ов, в которых можно было разместить серверный сегмент, видео-десктопы, сегмент, который имеет доступ в интернет, для того чтобы от видео-десктопа можно было получить доступ в интернет, ну и доступ к транзитным сетям для того, чтобы коллеги из MUK могли из внутренней своей сети подключаться, да? Любые операции, связанные, например, если я захочу для какого-то демо или какого-то пилота создать еще несколько каких-то там сетей порт-груп сделать более сложную конфигурацию, надо обратиться к коллегам из MUK, попросить, чтобы они на оборудовании что-то там наделали.
Если мне нужно взаимодействие между сегментами, то либо опять же договариваться с сетевиками, либо по-простому - маленькую машинку, роутер внутри, два интерфейса, туда-сюда, как все мы привыкли делать.

Соответственно использование NSX 10 преследует две цели: с одной стороны, это показать, как это работает не на виртуалках, на железе, да, что это реально работает и это удобно; второй момент, это действительно упростить определенные свои задачи. Соответственно, что мы видим в данный момент? В данный момент мы видим, какие виртуальные машины появились в этой инфраструктуре после того, как NSX был внедрен. Некоторые из них являются обязательными, без них нельзя. Некоторые появились вследствие определенного сетапа самой инфраструктуры.

Соответственно, обязательными являются NSX-менеджер - это основной сервер, через который мы можем взаимодействовать с NSX, он предоставляет веб-клиент V-центра свой графический интерфейс, он позволяет обращаться к нему через rest api для того, чтобы автоматизировать какие-то действия, которые можно делать с NSX либо какими-то скриптами, либо, например, из различных облачных порталов. Например, VMware vRealize Automation либо порталы других вендоров. Для работы технически NSX-у нужен кластер из NSX-контроллеров, то есть эти серверы выполняют служебную роль. Они определяют, они знают, да, они хранят в себе информацию о том, на каком физическом esxi-сервере, какие ip-адреса и mac-адреса в данный момент присутствуют, какие у нас новые сервера добавились, какие отвалились, распространяют эту информацию на esxi -сервера, то есть фактически, когда у нас есть созданный при помощи NSX, L2 сегмент, который должен быть доступен на нескольких esxi -серверах и виртуальная машина пытается отправить ip-пакет другой виртуальной машине в том же самом L2-сегменте, NSX-контроллеры точно знают, на какой хост на самом деле сетевой пакет нужно доставить. И они эту информацию регулярно хостам отдают. Каждый хост владеет таблицей, какие ip, какие mac-адреса на каких хостах находятся, какие реально, физически пакеты надо передавать.

Если мы откроем конфигурацию какого-либо хоста, то мы можем увидеть тот самый интерфейс, через который пакеты будут по сети передаваться. То есть у нас параметры VMkernel адаптера, данный хост будет, используя этот ip-адрес в сеть VXLan пакеты. Немножко у нас тут маленький монитор, поэтому приходится выкручиваться.

И мы видим, что отдельный TCP/IP stack используется для передачи этих пакетов, то есть может быть отдельный default gateway отличный от обычного VMkernel интерфейса. То есть с точки зрения физики: для того, чтобы в демо это развернуть, мне понадобился один VLan, в который я могу разместить эти интерфейсы; желательно - и я проверил, что этот VLan он не только на эти три сервера распространяется, он растянут немножко дальше, если появится там четвертый-пятый сервер, например, не в том же самом шасси, где эти лезвия стоят, а где-то отдельный, может быть, даже не в этом VLan-е, но который маршрутизируется сюда, я смогу добавить, например, четвертый сервер, который будет в другой сети, но они между собой смогут общаться, я смогу растянуть свои L2-сети, созданные при помощи NSX с этих трех серверов в том числе и на этот новый четвертый.

Ну и собственно теперь переходим к тому, как выглядит сам NSX, то есть: что мы можем с ним сделать мышкой и клавиатурой, да? Мы не говорим сейчас о rest api, когда мы хотим что-либо автоматизировать.

Раздел Installation (сейчас мы туда, я надеюсь, переключимся) позволяет нам посмотреть, кто у нас менеджер, сколько контроллеров, сами контроллеры разворачиваются отсюда. То есть менеджер мы скачиваем с сайта VMware, это template, мы его разворачиваем и внедряем в V-центр. Далее мы настраиваем менеджер, указываем ему логин-пароль для подключения к V-центр серверу, для того чтобы он смог зарегистрировать плагин здесь. После этого мы подключаемся к этому уже интерфейсу, говорим: «Надо внедрить контроллеры».

Минимально, если мы говорим, например, о каком-то тестовом стенде, контроллер может быть даже один, система будет работать, но это не рекомендуется. Рекомендуемая конфигурация - это три контроллера, желательно на разных серверах, на разных хранилках, для того, чтобы выход из строя какого-то компонента не мог привести к потере всех трех контроллеров сразу.

Также мы можем определить, какие хосты и какие кластеры под управлением этого V-центр сервера будут взаимодействовать с NSX. На самом деле, не обязательно вся инфраструктура под управлением одного V-центр сервера будет с этим работать, могут быть некие выборочные кластеры. Выбрав кластеры, мы должны выполнить установку на них дополнительных модулей, которые позволяют esxi серверу делать инкапсуляцию/декапсуляцию VXLan пакетов, делается это, опять же, из этого интерфейса. То есть не надо ходить в SSH, не надо никакие модули вручную копировать, отсюда нажали кнопку, отследили статус «получилось/не получилось».

Далее мы должны выбрать, собственно говоря, каким образом вот эта настройка VMkernel интерфейса будет происходить. То есть мы выбираем распределенный коммутатор, выбираем аплинки, то есть где это произойдет; выбираем параметры балансировки нагрузки, когда линков несколько, в зависимости от этого, когда у нас на один хост только один ip-адрес такого типа, иногда их может быть несколько. Сейчас мы используем в режиме по одному.

Далее мы должны выбрать идентификатор VXLan. То есть VXLan - это технология, напоминающая VLan, но это дополнительные метки, позволяющие в одном реальном сегменте изолировать разные виды трафика. Если VLan идентификаторов - их 4 тыс., VXLan идентификаторов- их 16 млн. Здесь мы фактически выбираем некий диапазон номеров VXLan сегментов, которые при автоматическом создании логических свичей, будут им присваиваться.

Как их выбирать? Собственно говоря, как хотите, из вот этого диапазона, если у вас большая инфраструктура и может быть несколько NSX внедрений так, чтобы они не пересекались. Просто-напросто. Собственно, так же, как и VLan. То есть я использую диапазон с 18001 по 18999.

Далее мы можем создать так называемую транспортную зону. Что такое транспортная зона? Если инфраструктура достаточно большая, представьте себе, у вас есть там порядка сотни esxi-серве ров, примерно по 10 серверов на кластер, у вас есть 10 кластеров. Мы можем не все из них задействовать для работы с NSX. Те из них, которые мы задействовали, мы можем использовать как одну инфраструктуру, а можем разбить, например, на несколько групп. Сказать, что у нас первые три кластера - это один островок, с четвертого по десятый - это некий другой островок. То есть, создав транспортные зоны, мы указываем, как далеко этот VXLan-сегмент может распространяться. У меня здесь три сервера, особо не разживешься, да? Поэтому здесь все по-простому. Просто все хосты у меня попадают в эту зону.

И еще один важный момент. При настройке зоны мы управляем, каким образом будет идти обмен информацией для поиска информации об ip-адресах, mac-адресах. Это может быть Unicast, это может быть Multycast уровня L2, это может быть Unicast, маршрутизируемый через уровень L3. Опять же, в зависимости от сетевой топологии.

Это такие некие предварительные вещи, то есть еще раз повторюсь: все, что потребовалось от сетевой инфраструктуры - это то, чтобы у меня все хосты, на которых должен работать NSX, могли взаимодействовать между собой по ip, используя, если нужно, в том числе и обычную маршрутизацию. И второй момент - это то, чтобы MTU вот в этом сегменте, где они взаимодействуют, был 1600 байт, а не 1500 - как это происходит обычно. Если же я не могу получить 1600 байт, поэтому мне просто придется во всех конструкциях, которые я создаю в NSX-е, явным образом прикручивать MTU, например в 1400, чтобы я в физическим транспорте в 1500 поместился.

Далее. Использую NSX, я могу создать логический коммутатор. Это проще всего в сравнении с традиционной сетью (VLan нарезать). Единственное что, как бы я не знаю, куда подключены мои физические серверы, да, здесь - это одни и те же коммутаторы. Теоретически сеть может быть более сложной. У вас может быть часть серверов подключена к одному коммутатору, часть к другому, где-то L2, где-то L3. В итоге, фактически создавая логический свитч, мы нарезаем VLan сразу на всех коммутаторах, через которые трафик будет ходить. Почему? Потому что на самом деле мы создаем VXLan, а реальный физический трафик, который будут видеть коммутаторы, - это трафик с ip-адреса на одного гипервизора на ip-адрес другого гипервизора, тип udp, внутри VXLan-содержимое.

То есть таким образом нарезка сетей происходит очень легко. Мы просто говорим: «Создать новый сегмент», выбираем тип транспорта unicast, выбираем, через какую транспортную зону, то есть фактически на каких esxi-кластерах этот сегмент будет доступен. Немножко ждем - и сейчас этот сегмент появится. На самом деле, что происходит, когда мы создаем эти сегменты? То есть, как подключить туда виртуальную машину? Для этого есть два варианта.

Вариант номер раз.

Мы прямо отсюда говорим, что подключить к физической сети виртуальную машину. И некоторые наши заказчики сказали: «О, это то, что хотят наши сетевики». Они идут в настройки сети, и говорит, вот у тебе вот, шнурок от машины, включая в порт логического коммутатора, да? И выбираем, здесь - машину, здесь, соответственно, интерфейс.

Либо второй вариант. На самом деле, при создании логического коммутатора NSX-менеджер обращается к V-центру сервера и создает порт-группу на распределенном коммутаторе. Поэтому на самом деле мы можем пойти просто в свойства виртуальной машины, выбрать нужную порт-группу, включить виртуальную машину туда. Поскольку имя генерируется программно, в нем будет включено имя этого логического коммутатора, номер VXLan-сегмента. То есть в принципе из обычного V-центр-клиента достаточно понятно, в камкой логический сегмент вы включите виртуальную машину.

Далее. Еще несколько машинок, которые были видны в самом начале, да? И вот, откуда они взялись. Некоторые функции NSX реализует напрямую на уровне модуля в ядре esxi-я. Это, например, маршрутизация между этими сегментами, это файервол при переходе между этими сегментами, либо даже внутри этого сегмента некоторые функции реализовываются при помощи дополнительных виртуальных машин. Так называемые EDGE gateways или дополнительные сервисы, когда они нужны. Что мы видим здесь? Мы видим, что в моей инфраструктуре их три, один из них называется NSX-dlr, dlr - это distributed logical router. Это служебная виртуальная машина, которая позволяет распределенному маршрутизатору в NSX-е работать, через нее не идет сетевой трафик, она не является дата-плэйном, но если у нас распределенный маршрутизатор участвует, например, в обмене маршрутами по протоколам динамической маршрутизации bgp, ospf, откуда-то эти все маршруты должны попадать, другие маршрутизаторы должны к кому-то обращаться и обмениваться этой информацией. Кто-то должен отвечать за статус «работает распределенный маршрутизатор или нет». То есть это фактически некий менеджмент-модуль распределенного маршрутизатора. При его настройке мы можем указать, что он должен работать надежно, соответственно, будет внедрено две виртуальных машины в HA-паре. Если одна почему-то стала недоступна, то на ее место будет работать вторая. Два других edge, которые имеют тип NSX edge, – это виртуальные машины, через которые роутится или натится трафик, который выходит во внешние сети, которые не управляются NSX-ом. В моем сценарии они используются для двух задач: NSX edge просто подключен ко внутренним сетям дата-центра MUK, то ест, например, мой V-центр – он как был на обычной стандартной порт-группе, он там и работает. Для того, чтобы я мог с какой-то виртуальной машиной на NSX logical свитче добежать до V-центра, мне нужен кто-то, кто их свяжет. Связывает их у меня вот эта виртуальная машина. У нее, действительно, один интерфейс подключен к логическому свитчу, другой интерфейс подключен к обычной порт-группе на standart свитче на esxi, который называется NSX Internet edge. Угадайте, чем отличается? Примерно то же самое, но порт-группа, к которой он подключит - та порт-группа, которая подключеня в DNZ-сеть, в которой работают честные белые интернет-адреса. То есть на нем сейчас, на одном из его интерфейсов, настроен белый ip-адрес и можно подключиться к этой демо-среде, используя уже NSX Networking. Соответственно дополнительные сервисы такие, как распределенная маршрутизация, мы настраиваем здесь в пункте фаервол, если же мы хотим делать фаерволинг, если мы хотим делать нат, если мы хотим делать log balancing либо, например, VPN, при внешнем подключении, для этого мы открываем свойства интернет edge.

Мы немножко закругляемся по времени, поэтому не покажу все, что хотел показать.
Соответственно, в свойствах edge мы можем управлять фаерволом, это фаервол, который будет применятся, когда трафик через эту виртуальную машину проходит, то есть это фактически некий наш периметр фаервол получается. Далее, на нем может быть dhсp-сервер, либо он может делать проброс как ip-helper, так как dhсp-helper. Он может делать NAT - то, что мне нужно здесь для edge, который смотрит одной стороной в честный Интернет, а другой во внутренние сети. На нем есть балансировщик нагрузки. Он может выступать в качестве точки для VPN тоннеля либо в качестве терминатора для клиентских подключений. Вот две закладки: VPN и VPN Plus. VPN - это сайт ту сайт, между edge и другим edge, между edge и нашим облаком, между edge и облаком провайдера, который использует наши технологии VCNS либо NSX. SSL VPN Plus - есть клиент для различных операционных систем, который можно поставить вам на свой ноутбук либо пользователя, они смогут к инфраструктуре подключиться к VPN.

Ну и буквально несколько последних моментов. Распределенный фаервол, то есть фаерволлинг, применяется на каждом хосте, в качестве правил мы можем указывать здесь ip-адреса, номера пакетов, номера портов, имя виртуальных машин, включая маски, например. Сделать правило, что со всех машин, имя которых начинается с up, разрешить ходить по 14:33 на все машины, имя которых начинается с db. разрешить трафик с машинки, которая в папочке V-центра одной, будет ходить в папочке другой, подключиться к active directory, сказать, что если у нас машина входит в определенную группу ad, тогда этот трафик разрешить, если не входит, то трафик запретить. Ну и различные другие варианты.

Плюс опять же, что делать с трафиком? Три действия: разрешить, запретить, отказать. Чем отличается запретить от отказать? И одно, и другое блокирует трафик. Но одно просто делает это тихонечко, а второе присылает обратно сообщение, что ваш трафик убили. И гораздо проще потом в диагностике.

И буквально важное дополнение в конце. То есть такой компонент как service composer. Здесь мы можем интегрировать NSX какими-то дополнительными модулями, например, это внешний балансировщик нагрузки, это антивирус, это какая-либо IDS/IPS-система. То есть мы их можем зарегистрировать. Мы можем увидеть здесь, какие конфиги есть, можем описать те самые секьюрити-группы. Например, группа demoUsers - это группа, включающая себя в машины, на которых залогонился пользователь из группы demoUsers. Что мы видим сейчас? Что сейчас в эту группу попадает одна виртуальная машина. Где она? Вот.

Виртуальный десктоп, пользователь туда подключен. Я могу сделать правило в фаерволе, в котором сказать, что разрешить пользователям одной группы доступ к одним файловым серверам, а пользователям другой группы разрешить доступ к другим файловым серверам. И даже если это два пользователя, которые заходят на один и тот же, например, VDI десктоп, но в разное время, фаервол динамически будет применять разные политики к разным пользователям. Таким образом можно гораздо более гибкую инфраструктуру построить. Нет необходимости выделять отдельные какие-то сетевые сегменты, отдельные машины для разных типов пользователей. То есть сетевые политики могут динамически перенастраиваться в зависимости от того, кто сейчас сетью пользуется.

Дистрибуция решений VMware в

Новая версия популярного продукта стала доступна в ноябре, в качестве хостовых операционных систем поддерживаются Windows и Linux. VMware Workstation 7 позиционируется, как персональная платформа виртуализации. Одной из причин такого позиционирования, служит то, что для запуска виртуальных машин используется персональный компьютер. Продукт включает в себя обширный набор дополнительных средств, позволяющих использовать различные сетевые настройки, запись и воспроизведение сессий виртуальных машин, осуществлять отладку приложений и многое другое. VMware Workstation 7 может использоваться совместно со средой разработки, что делает ее особенно популярной в среде разработчиков, преподавателей и специалистов технической поддержки.

Выход VMware Workstation 7 означает официальную поддержку Windows 7 как в качестве гостевой, так и хостовой операционной системы. Продукт включает поддержку Aero Peek и Flip 3D, что делает возможным наблюдать за работой виртуальной машины, подводя курсор к панели задач VMware или к соответствующей вкладке на рабочем столе хоста.

Новая версия может работать на любой версии Windows 7, также как и любые версии Windows могут быть запущены в виртуальных машинах. Кроме того, виртуальные машины в VMware Workstation 7 , полностью поддерживают Windows Display Driver Model (WDDM), что позволяет использовать интерфейс Windows Aero в гостевых машинах.

В VMware Workstation 7 значительно усилена поддержка 3D, поддерживается OpenGL 2.1, Shader Model 3.0, а также драйвер XPDM (SVGAII) для Windows XP, Windows Vista и Windows 7. Добавлена поддержка Windows XP Mode, что позволяет импортировать виртуальную машину Windows XP Mode с помощью VMware Workstation 7 и запустить ее, используя дополнительные возможности, такие как многопроцессорность, высококачественная графика и другие возможности VMware.

Поддержка новой операционной среды от Microsoft, это не все новшества в VMware Workstation 7 . Новые возможности включают в себя использование до четырех процессоров/ядер, 32 Гб оперативной памяти, возможность менять размер виртуальных дисков «на лету», функция Auto Protect позволяет создавать снапшоты через заданные интервалы времени. В VMware Workstation 7 появилась возможность приостановить работающую виртуальную машину, для срочного высвобождения системных ресурсов.

В случае обновление с VMware Workstation 6.5 до VMware Workstation 7 сохраняются все настройки виртуальных машин и приложений. Единственное, что необходимо сделать, это установить новые VMware Tools в виртуальные машины для возможности использования некоторых новых функций. К числу таких функций относится возможность установки принтера хоста или сетевого принтера без дополнительных драйверов, используя универсальный драйвер ThinPrint. Сам пакет VMware Tools теперь динамически обновляется.

Среди других особенностей VMware Workstation 7 можно выделить возможность шифрования виртуальных машин, а также возможность запуска в виртуальной машине без дополнительных настроек гипервизора VMware ESX 4.0. Что позволяет разработчикам и другим специалистам работать с гипервизором без использования дополнительных аппаратных средств. Разработчики получают усовершенствованные средства отладки, а также интеграцию с пакетом SpringSource Tools Suite для отладки Java-приложений.

В отличии от некоторых своих конкурентов, продукт VMware Workstation 7 не бесплатен, но возможности, которые представлены в продукте впечатляют! Конкурентные продукты не предлагают подобного разнообразия функций.

Можно с уверенностью сказать, что пользователи, использующие ранние версии VMware Workstation захотят обновиться сразу, а для тех, кто ищет персональную платформу виртуализации выбор очевиден - это VMware Workstation 7 .

Данная статья посвящена лучшей платформе виртуализации для настольных компьютеров VMware Workstation , да простят меня любители VirtualBox, HyperV и др.

Виртуальная машина - программа, которая позволяет эмулировать самостоятельный компьютер в среде рабочей операционной системы. Виртуальная машина позволяет выполнять собственную операционную систему и приложения, как физический компьютер.

Такая программа позволяет эмулировать процессор, оперативную память, жесткий диск, BIOS и т.д.

Сама программа эмуляции, равно как и работающая в ней операционная система, называется виртуальной машиной, в то время как основная операционная система и физическая машина называются хост-системой.

Предназначение VMware Workstation

1. VMware Workstation позволяет опробовать любую (почти любую) операционную систему на компьютере без необходимости создания новых разделов на физическом жёстком диске.

2. VMware Workstation позволяет установить на одном компьютере несколько операционных систем без необходимости соответствующего конфигурирования физических жестких дисков.

3. VMware Workstation позволяет работать с несколькими операционными системами одновременно с возможностью динамического переключения между ними без перезагрузки системы.

4. VMware Workstation позволяет тестировать приложения под управлением различных операционных систем (например, XP и 8).

5. VMware Workstation позволяет эмулировать компьютерную сеть.

6. VMware Workstation позволяет снизить риск заражения хостовой системы, за счет запуска не безопасного программного обеспечения в изолированной виртуальной среде.

7. Преподаватели используют VMware Workstation, чтобы создавать виртуальные машины для студентов, включающие все приложения, которые требуются для обучения. Ничего страшного не произойдет, если студент в процессе обучения умышленно или нечаянно разрушит подопытную среду. Для восстановления поврежденной виртуальной системы из резервной копии (созданный ранее Snapshot) понадобится всего несколько секунд.

Системные требования VMware Workstation Technology Preview 2014

Как указано в документации к программе VMware Workstation Technology Preview 2014, системные требования к платформе схожи с VMware Workstation 10, за исключением следующего:

1. 32 – разрядные операционные системы теперь не поддерживаются в качестве хостовой системы (теперь платформу можно устанавливать только на 64 – разрядные системы)

2. Windows XP 64-Bit, Windows Vista 64-Bit, Windows Server 2003 64-Bit и Windows Server 2008 (64-бит (не включая R2) также не поддерживаются в качестве хостовой системы

В остальном системные требования аналогичны VMware Workstation 10

  • Минимальная тактовая частота процессора 1.3 GHz
  • Минимальное количество оперативной памяти для хостовой системы 1Гб, рекомендуется 2 Гб.
  • Минимальное количество оперативной памяти для гостевой системы 256 Мб.
  • 1.5 Гб свободного пространства на жестком диске

Существуют версии программы для Windows, Linux. Windows и Linux версии программы имеют единый серийный номер, поэтому покупая приложение для одной из этих ОС, пользователь может бесплатно использовать его в другой. Если необходима программа для Mac, то необходимо установить VMware Fusion.

Есть у компании VMware и бесплатный продукт – это VMware Player , который можно использовать бесплатно в личных некоммерческих целях.

В чем разница между VMware Player и VMware Workstation?

VMware Workstation - гораздо мощное решение с расширенными возможностями, такими как создание снимков, удаленные подключения к vSphere, клонирование, совместное использование виртуальных машин, расширенная настройка и многое другое. Workstation предназначается для использования техническими специалистами - разработчиками, специалистами по контролю качества, системными инженерами, ИТ-администраторами, специалистами по технической поддержке, консультантами и т. д.

Установка программы VMware Workstation

1. Скачать превью VMware Workstation 11


Рис.1 Сайт VMware

M50AC-J034J-08L8A-03ARM-3D14A

c. Скачать программу. Чтобы скачать программу, необходимо зарегистрироваться на сайте.


2. Запустить файл инсталляции программы VMware Workstation (новая версия VMware Workstation устанавливается только на 64 bit системы Windows).

3. На первом шаге инсталляции программы нажать кнопку Next


4. В диалоговом окне лицензионного соглашения установить радиокнопку I accept the terms in the license agreement и нажать Next


5. В следующем окне выбора способа инсталляции программы указать Typical


6. Указать путь для инсталляции программы VMware Workstation и нажать Next


7. Если необходимо, чтобы при запуске программы VMware Workstation производилась проверка обновлений, проверить, установлен ли флажок в чекбоксе Check for product updates on startup и нажать Next


8. В следующем окне необходимо указать, будет ли программа отправлять анонимную статистику в компанию VMware. Эта статистика содержит в себе имя используемого продукта, версию, номер сборки и конфигурацию программы. Эти данные позволяют компании выявлять популярные конфигурации и своевременно оптимизировать свой продукт в правильном направлении.10. По окончании инсталляции необходимо ввести лицензионный ключ программы, который был указан выше.


11. По окончании установки нажать кнопку Finish

Эра персоналок, с установленными приложениями, судя по всему потихоньку движется к закату, вернулись клиент-серверные технологии. Уже не потребуется мощный ПК, ведь вся обработка данных производится на сервере. Новинка требует наличия структуры, которая усилиями маркетологов получила название облачные вычисления. Индустрия стремительно развивается и за пару лет нам обещают убрать в облака десятую часть приложений. Для всего этого нужны специфические инструменты, и кому как не VMware быть первыми.

Назначение VMware vSphere

Чтобы не бежать впереди поезда вначале давай определимся с назначением и местом продукта. Официально история нового имени началась чуть больше года назад (в конце апреля 2009), когда VMware анонсировала VMware vSphere (vmware.com/products/vsphere). Решение не возникло на пустом месте и пришло на смену платформе виртуализации VMware Virtual Infrastructure, наработки которого и использованы.
Вообщем назначение продукта после переименования не изменилось — объединение виртуальных систем, сетей и хранилищ в единые пулы ресурсов. Хотя над определением видно, что поработали маркетологи, которые чуть подправили формулировку под современные тенденции. Теперь на сайте значится, что “vSphere первая ОС ориентированная для облачных вычислений ”, которая дает возможность быстро и качественно развернуть и управлять виртуальными ресурсами. Но мы то знаем, что “ОС — это на чем Земля вертится”, а вертится vSphere, ну не буду забегать вперед.

Главная идея при переходе на vSphere сделать рабочую среду максимально удобной, устойчивой и управляемой. За счет, конечно же оптимизации — уменьшения числа физических серверов, повышения степени консолидации серверов. К слову если почитать описание микрософтовского System Center Virtual Machine Manager 2008 (SCVMM) натыкаемся на знакомые слова:).
Список возможностей vSphere очень большой, здесь лучше обратиться к официальной документации. Выделю только самые примечательные:

  • VMware vStorage Thin Provisioning — экономия дискового пространства, используется реально только необходимый объем;
  • VMware VMsafe – высоконадежная кластерная файловая система, используемая для хранения виртуальных машин;
  • VMware API vStorage и vCenter Data Recovery — централизованное резервное копирование и восстановление VM из графической консоли;
  • VMware Hot Add — горячее «добавление» устройств без остановки виртуальной машины;
  • VMware Distributed Power Management — управление электропотреблением, позволяет существенно сократить ее расходы;
  • VMware Host Profiles — интерфейс управления позволяющий централизовано настраивать узлы VMware ESX/ESXi и контролировать установки на соответствие политикам.

Плюсуем сюда средства «горячей» миграции VMware VMotion , кластеризации High Availability и высокой доступности Fault Toleranc e, балансировки нагрузки VMware DRS , технология перемещения виртуальных дисков Storage VMotio n и многое другое. Причем экономия при использовании vSphere достигается и тем, что для некоторых операций (например, резервирование) уже не нужно закупать продукт стороннего разработчика. Ранее приходилось докупать, что-то вроде Veeam Backup производимый Veeam Software.
Поддерживается ограничения в потреблении CPU, RAM и для пулов ресурсов (Resource Pool) и отдельных хостов, с возможностью гарантированного выделения ресурсов (Reservation), компонент vNetwork обеспечивает двунаправленный шейпинг и ограничение трафика.
Полный список поддерживаемых ОС для разных продуктов VMware представлен на странице VMware Compatibility Guide, здесь найдешь все популярные сегодня системы – Windows и варианты *nix.
В vSphere по сравнению с Virtual Infrastructure изменился и порядок лицензирования, который стал более гибким, так как теперь лицензии ориентированы не на пару физических процессоров, а по числу процессоров (их количество вбивается в ключ). Причем если количество ядер не превышает 6 (в версиях Advanced и Enterprise Plus — 12), то дополнительная оплата не потребуется. В разгар кризиса такой подход весьма приветствовался, ведь при принятии весьма не простого решения о переходе на виртуальные машины учитываются десятки показателей.
VMware vSphere состоит из следующих компонентов:

  • гипервизоров VMware ESX и/или VMware ESXi – собственно на них все и вертится;
  • VMware vCenter Server Agent обеспечивающий подключение гипервизоров к центру управления VMware vCenter Server (ранее VMware VirtualCenter Server), сам vCenter Server отвечающий за развертывание, централизованный менжемент и обеспечение доступа приобретается отдельно;
  • прочих компонентов обеспечивающих основные возможности, состав которых варьируется в зависимости от выбранной лицензии.

Функционально компоненты разделены на две части: службы инфраструктуры (Infrastructure Services) и службы приложений (Application Services), чем они отличаются отлично расписано на сайте проекта.
Чтобы упростить выбор своего решения, vSphere доступен в трех редакциях: Standard,Advanced и Enterprise. Для небольших организаций предлагаются — Essentials, Essentials Plus, и две версии for Retail and Branch Offices Essentials и Essentials Plus. Причем цена на Essentials достаточно адекватная, обеспечивающая использование продукта на 3 серверах (по 2 CPU), чтобы сделать его интересным и главное, что решения для небольшого офиса является интегрированным all-in-one уже включающим vCenter Server.
В документации на сайте можно найти таблицы сравнения vSphere с другими продуктами виртуализации по стоимости и функциональности.
На момент написания этих строк на сайте VMware появилась версия vSphere4 update 2, хотя в сеть уже просочилась полуофициальная информация о будущей версии 4.1. Основные изменения касаются в основном количественных изменений — VM в кластере, зарегистрированных VM и хостов, и так далее.

Развертывание vSphere

Читая описание, первая мысль, которая приходит в голову новичку – это очень сложно. На самом деле при внимательном подходе и выполнении всех требований процесс развертывания и последующего добавления хостов и VM можно назвать даже простым.
Чтобы установить vSphere потребуется выполнить ряд требований и пройти несколько шагов:

  • оборудование должно соответствовать VMware Hardware Compatibility List (HCL);
  • VMware vSphere ESX/ESXi Server — разворачиваем на физических серверах (2х2 Гц х64бит CPU, 2+ Гб RAM, 2+ Гб HDD);
  • VMware vCenter Server и vSphere Client — устанавливаются в той же сети для управления ESX(i) серверами;
  • развертываем сеть хранения данных SAN;
  • устанавливаем клиентские ОС в виртуальных средах.

Чтобы определить поддержку сервером 64-бит VMware можно при помощи утилиты CPU Identification , размещенной на странице (vmware.com/download/shared_utilities.html).
Выше показаны только основные шаги, каждый этап требует и промежуточных настроек (настройка сети, SAN, если нужно Active Directory и так далее). Некоторые из этих моментов очень подробно описаны в документации, которую можно найти в по адресу vmware.com/support/pubs/vs_pubs.html . Как водится, все доки на английском и часто запутаны, хотя она в любом случае рекомендуема к прочтению (по крайней мере если возникнут проблемы 🙂). Мы же вкратце разберем основные моменты по настройке и управлению vSphere, чтобы наглядно представить с чем имеем дело.
На странице закачки, который будет доступен после регистрации, выбираем для установки гипервизор ESX или VMware ESXi, VMware vCenter Server (в виде ISO образа или zip архива). Плюс здесь же опциональные компоненты — Server Heartbeat, Data Recovery (CD ISO) и vShield Zones.
Для небольших организаций вероятно больше подходит бесплатная платформа VMware ESXi, обладающая всеми необходимыми возможностями. Кроме этого ее рекомендует и сами представители VMware. В начале разворачиваем VMware ESX или ESXi, учитывая, что их основа Linux, хотя и несколько урезанный, то установку можно назвать стандартной и проблем она обычно не вызывает. Просто следуем за указаниями визарда — принимаем лицензию, настраиваем сеть и выбираем диск. На ESX лицензию можно ввести затем на vCenter. После перезагрузки мы можем управлять гипервизором с консоли, через веб-интерфейс или установив vSphere Client. Последний можно скачать с веб-страницы виртуальной машины адрес которой будет доступен после установки ESX(i) или с vCenter.
Кроме этого в контексте можно вспомнить о бесплатном веб-инструменте VMware Go (go.vmware.com ), который позволяет быстро перейти к использованию бесплатного гипервизора VMware ESXi для виртуализации физических серверов в небольшой компании.


Следующий шаг установка VMware vCenter ан компьютер под управлением MS Windows. Упоминаний о версии на сайте найти не удалось, но центр без проблем стал как на Windows XP, так и Windows 2008 R2. Все данные vCenter хранит в базе данных, для небольших сред (5 физических, 50 виртуальных машин) можно использовать Microsoft SQL Server 2005 Express , который идет уже с установочным архивом и предлагается по умолчанию. Иначе в процессе установки нужно будет настроить подключение к СУБД.

Если хостов не много (до 250), то достаточно будет и 32 битной версии иначе только 64 битный вариант. То есть резюмируем для небольшого количества серверов достаточно клиентской 32 битной XP с бесплатным SQL Express, в более мощных конфигурациях придется разворачивать сервер с MS SQL с 64 битной ОСью. Более подробно все остальные требования расписаны в документации. В самом начале следует разрешить прохождение пакетов по портам — 80, 389, 443, 636, 902/903, 8080 и 8443.
Скачиваем ISO образ или zip архив, запускаем установочный файл и в окне мастера выбираем ссылку vCenter Server. К слову архив содержит дистрибутивы и некоторых других продуктов — vSphere Client, vCenter Guided Consolidation, vCenter Update Manager, vCenter Converter, vCenter Orchestrator и VMware Consolidated Backup. Язык инсталлятора — английский. Если весь процесс производится в среде Active Directory, то тебе понадобятся админские права.
Во время инициализации установочного скрипта будут произведены проверки на совместимость и в случае нессответствия выданы рекомендации. Например, так как vCenter использует свой веб-сервер, он будет конфликтовать с установленным IIS по портам. Хотя в процессе можно будет изменить настройки, указав порт по умолчанию для большинства сервисов — http, https, LDAP, SSL, heartbeat. Пакет самодостаточен, если чего-то не будет хватать, все необходимое (.Net, J# и другие) будет доустановлено автоматически.
Возможно, объединять несколько систем с установленным в vCenter в связанную группу (Linked Mode), и управлять с любой системы всеми настройками виртуальных машин. По умолчанию предлагается standalone установка, но выбрав на шаге «vCenter Server Linked Mode Options» переключатель в положение «Join a VMware vCenter Server group …», мы может сразу подключиться к уже существующей группе серверов vCenter. Вообщем это вся установка сервера. Некоторое время ждем пока мастер настроит сервисы, сгенерирует сертификаты и скопирует файлы.
По окончании, аналогично устанавливаем остальные компоненты, доступные в окне vCenter Installer, если конечно в них есть необходимость. Опять же их не обязательно ставить на один и тот же комп, хотя так обычно удобней.
При установке vCenter Update Manager (vCUM) указываем IP сервера vCenter и учетные данные для доступа. В качестве базы данных, к которой необходимо подключиться указываем созданную ранее БД. Внимание, при запросе пароля в окне «Database Information » оставляем его пустым, в этом случае будет использована Windows аутентификация. Каталог в который будут помещаться обновления лучше расположить на отдельном разделе харда, который имеет достаточно свободного места (не менее 20 Гб). Его и указываем на шаге Destination Folder для «Configure the location for downloading patches». Клиентская часть vSphere Client при помощи которой и производится собственно все настройки обычно ставится на компе админа, системные требования не велики (CPU 266, 200 Мб RAM и 1 Гб HDD).

Добавление узлов и лицензий

Установка закончена. Открываем из меню vSphere Client, вводим логин и пароль (флажок Use Windows session credential позволит подключиться с текущими учетными данными), принимаем сертификат.
Появившееся окно клиента выполнено в знакомом стиле Проводника. Слева выбираются компьютеры, справа настройки, внизу панель текущих задач. Обрати внимание на строку адреса. После первой регистрации ты попадаешь во вкладку настроек ОС в Home — Inventory — Host and Clusters, а они нам пока не нужны. Чтобы получить доступ ко всем возможностям vSphere просто переходим в Home.


Область управления разделена визуально на три части по назначению:
  • Inventory — поиск систем, добавление узлов и кластеров, datacenter, управление разрешениями и так далее;
  • Administration — управление ролями, сессиями, лицензиями, настройками vSphere, просмотр журнала и статуса работы сервиса;
  • Management — управление задачами, вывод событий и карты виртуальных машин, создание профилей хостов.

Подпунктов в каждом не так уж много, поэтому времени на знакомство с интерфейсом уйдет не много. Не могу не отметить наличие всяческих подсказок и мастеров, если не выполнен какой нибуть обязательный шаг, то сразу получишь ссылку и рекомендации что делать. Интерфейс задача ориентированный, то есть админ что-то настраивает, а vSphere по мере возможностей последовательно выполняет задачи, главное что нет необходимости ждать пока выполнится одна задача, чтобы настроить следующий пункт. Большинство операций требуют некоторого времени и происходят в фоне, поэтому отслеживай статус внизу окна.


Всплывающее окно сразу же показывает количество дней оставшихся до окончания пробного периода. Если лицензия уже куплена, то самое время ее ввести. Переходим в Administration — Licensing , выбираем систему и в контекстном меню пункт Manage vSphere Licenses . Копируем в окно лицензию, и опционально в поле внизу краткое описание и нажимаем Add License Keys. Чтобы сопоставить ключ, конкретному серверу переходим в Assign Licenses или в контекстном меню выбираем Change License Key .
Теперь самое главное ради чего мы все это устанавливали, подключение ESX(i). Вначале создаем DataCenter, не говорю где искать, так как нужную ссылку подсунут в любом случае, а только потом пустят дальше. Тебе останется только переименовать DataCenter, чтобы было понятней его принадлежность. Щелкаем по DataCenter и выбираем ссылку Add a host .

Появляется очередной визард, в первом окне, которого вводим имя или IP узла и логин/пассворд для управления, подключаемся, принимаем сертификат и получаем информацию о системе. Если требуется, мы можем здесь добавить лицензию и ввести данные об узле. Некоторое время придется подождать пока хост будет добавлен (процесс покажет статус-бар внизу окна).
Далее процесс практически аналогичен, выбираем хост, открываются рекомендации в Add a virtual machine (все рекомендации можно отключить в настройках). В окне Summary выводятся все данные по хосту, перейдя в окно Configuration получаем возможность изменить некоторые настройки — параметры сети (подключение VMotion, iSCSI, NFS и другие), виртуального свича и так далее. После добавления нескольких хостов станет доступна возможность создания кластера. Выбираем в контекстном меню пункт New Cluster, визард попросит ввести имя будущего кластера. При помощи чеккеров устанавливаем поддержку HA и DRS (Distributed Resource Scheduler). Технология DRS представляет собой простой балансировщик, который отслеживает и как можно равномерней распределяет ресурсы в VM (подробнее vmware.com/ru/products/vi/vc/drs_overview.html). Если он активирован, в дальнейшем мастер предложит выбрать один из вариантов миграции VM — Manual, Partially и Full automated, плюс указать метод миграции (от Conservative до Aggressive). Настраиваем управление питание (DPM), активируем мониторинг хостов, активация EVC (Enhanced VMotion Compatibility), место хранения свапфайла. К слову суть EVC очень проста. Как известно, процессоры бывают разные и гостевая ОС, установленная в системе может использовать разные фишки вроде SSE. Но что будет, если эту ОС взять и перенести при помощи VMotion в другую систему, в которой совсем другие технологии? Вот EVC и приводит все к единому знаменателю, просто отключая “лишнее”, в результате перенос VM проходит безболезненно. Доступно два варианта включения EVC — для AMD и Intel хостов. После выбора пунктов будет показан список совместимых процессоров. Хотя если в кластере все сервера одинаковы EVC можно совсем отключить.
Кластер создан, но хосты мы еще в него не добавили. Это очень просто, берем и тащим мышкой. Сразу же стартует новый мастер, в котором можно все оставить по умолчанию, жмем два раза Next и аналогично добавляем остальные хосты.
После всех операций становится доступным пункт Deploy OVF Template, позволяющий добавить шаблоны виртуальных машин в формате Open Virtualization Format как с локального диска так и через интернет. Такой образ можно создать, самостоятельно воспользовавшись VMware OVF Tool (можно найти на сайте поиском) или скачать в из интернет. Процесс добавления упрощает очередной мастер. Добавленую ОСь сразу же можно запустить и проверить в работе. Осталось распространить добавленные образы ОС на хосты, для выбираем в контекстном меню пункт Migrate и в окне мастера указываем хост на который его необходимо скопировать.
Учитывая, что облачные системы будут обслуживаться большим количеством админов с разными правами их нужно как то разделить по возможностям. В vSphere используется ролевая концепция, после установки в Administration — Roles доступно 9 шаблонов ролей позволяющих выбрать и за один клик назначить юзеру его права. Простой мастер дает возможность создать любое количество новых ролей.
В проделах одной статьи нельзя рассказать обо всех возможностях такого мощного продукта как vSphere, за рамками остались функции Fault Tolerance, Storage vMotion, горячее добавление устройств, управление ресурсами, мониторинг и многие другие вопросы.
Понравилась статья? Поделиться с друзьями: