Vmware vsphere hypervisor esxi offline bundle как установить
VMware vSphere – широко используемая популярная платформа виртуализации, и сегодня темой нашего разговора станет инсталляция и разворот ее последней актуальной – 7.0 версии.
Требования
Для начала, огласим ряд минимальных требований к аппаратному оборудованию для успешной установки VMware vSphere 7.0.
Требования для ESXi 7.0:
CPU. Двухъядерный x86_64 CPU на компьютере, на котором будет работать ESXi хост. Функции Intel-VT-x или AMD-v (RVI) следует включить в UEFI/BIOS.
RAM. Для запуска ESXi понадобится не менее 4 ГБ RAM, а для запуска виртуальных машин на хосте – от 8 ГБ и выше. Больше памяти – большее количество ВМ будет бегать.
Хранилище. ESXi 7.0 требует не менее 8 ГБ дискового пространства для установки и загрузки. Устанавливать можно на отдельный SSD/HDD, RAID и даже держать на SD-карте или флешке.
Важно! В случае SD-карты или флешки не предусмотрено постоянного или временного раздела для хранения журналов.
На загрузочном девайсе рекомендуется выделить более 32ГБ под ESXi, и он не должен совместно использоваться с прочими хостами ESXi. Оптимальными для хранения виртуальных машин являются SCSI (SAS) диски.
Сеть. Понадобится минимум один сетевой контроллер Gigabit Ethernet. Должна быть совместимость сетевого адаптера с ESXi 7.0. Хорошо иметь несколько сетевых адаптеров на сервере ESXi – тогда можно пользоваться утилитой агрегирования каналов NIC Teaming (настраивается отдельно). Это полезно, если есть нужда в функциях кластеризации. Для всех компонентов vSphere (хостов ESXi, серверов vCenter и т.п.) рекомендовано применять статическую IP-конфигурацию.
Естественно, если в vSphere планируется развернуть дополнительные компоненты, например, Kubernetes или NSX, минимальные требования растут. Перед расчетом спецификации оборудования под инсталляцию ESXi обязательно проверьте его совместимость в VMware Compatibility Guide.
Важно! Для полноценной поддержки оборудования серверов Hewlett Packard , DELL и других рекомендуются специальные установочные образы. Например, для HP и DELL:
VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020.iso
VMware-VMvisor-Installer-7.0.0-15843807.x86_64-DellEMC_Customized-A00.iso.
Требования для vCenter 7:
Для централизованного управления хостами ESXi традиционно используется vCenter Server. Его можно развернуть исключительно как работающую на хосте ESXi виртуальную машину (VCSA). Контроллер сервиса платформы (PSC) интегрирован в саму VCSA.
Важно! В vSphere 7.0 нельзя инсталлировать PSC отдельно или поставить vCenter на машину под управлением Windows – отличие от версии 6.7.
CPU. Минимально (среда до 10 хостов и до сотни ВМ) потребуется два виртуальных процессора.
RAM. 12 ГБ ОЗУ необходимо для обслуживания максимум 10 хостов и 100 виртуальных машин.
Рост количества машин и хостов эквивалентен росту параметров CPU и RAM. Кроме того, обратите внимание, с этим увеличением следует выбирать и соответствующий режим установки (Tiny, Small, Medium, Large, X-Large).
Хранилище. vCenter Server Appliance 7.0 нуждается в 415-3665 ГБ, исходя из количества виртуальных машин. В реальности используется меньше, так как часть зарезервирована под обновления Lifecicle Manager. Часто используется тонкий диск.
Схема развертывания
Для примера возьмем инсталляцию двух серверов ESXi и разворот vCenter Server Appliance на первом из них. Второй отдадим под запуск других виртуальных машин. Назначим:
Далее рассмотрим подключение ESXi-хостов и виртуальных машин к одной сети, но при желании можно создавать отдельные сети для каждой ВМ или их группы. Последнее особенно актуально, когда разворачивается очень большое количество машин, и тогда с помощью VLAN можно заизолировать их друг от друга на втором уровне модели OSI.
Важно! VLAN должен поддерживаться имеющимся маршрутизатором для внешних соединений.
Если используется кластеризация, следует настроить отдельные сети для vMotion и SAN.
Развертывание хостов ESXi. Инсталляция ESXi на серверах
ESXi представляет собой гипервизор первого типа (инструмент запуска виртуальных машин на физическом оборудовании при помощи аппаратной эмуляции). Перед его установкой следует подготовить компьютеры/серверы, проверив соответствие указанным выше требованиям, обеспечив доступ в сеть и назначив всю адресацию.
Инсталляция первого хоста ESXi
Для установки первого хоста ESXi (192.168.11.30) загружаемся с подготовленного носителя, на котором уже записан VMware-VMvisor-Installer-7.0.0-15843807.x86_64.iso. Жмем Enter после приветствия и подтверждаем лицензионное соглашение в следующем окне:
Вводим пароль root и подтверждаем желание инициировать процесс установки, нажав F11:
Базовая конфигурация ESXi-хоста
Первое, что мы увидим при запуске новоустановленного ESXi-хоста, будет его прямая консоль DCUI с версией гипервизора, номером сборки, данными по CPU, памяти и IP-адресации, кроме того там содержится ссылка на браузерное управление ESXi-хостом:
Для настройки системы жмем F2.
Удовлетворяем запрос на аутентификацию (пароль root, который использовался в процессе установки):
Для продолжения жмем Enter.
После этого перед нами появится меню настройки системы. Правая часть интерфейса содержит IP-адрес, назначенный через DHCP. Давайте поменяем настройки сети и присвоим статический IP этому ESXi-хосту, выбрав «Configure Management Network»:
В появившемся окне выбираем «IPv4 Configuration» и подтверждаем решение:
Далее выбираем «Set static IPv4 address and network configuration» и жмем пробел, после чего заходим в следующие настройки IPv4:
Pv4 Address: 192.168.11.30
Subnet Mask: 255.255.255.0
Default Gateway: 192.168.11.2
Чтобы сохранить настройки жмем Enter. Если этот сетевой протокол не используется, можно отключить IPv6.
Затем переходим в DNS Configuration. Выбираем «Use the following DNS server address and hostname» и нажимаем пробел. У нас используется такая конфигурация DNS:
Primary DNS Server: 192.168.11.2
Alternative DNS Server: 192.168.11.1
Для сохранения настроек жмем Enter.
После нажатия Escape выходим из меню «Configure Management Network». Чтобы применить все прописанные изменения, жмем Y (перезапустится демон сети). Перезагрузка потребуется, если мы выключили/включили IPv6:
Теперь переходим к «Troubleshooting options» в меню «System Customization»:
Здесь включаем при необходимости ESXi Shell и SSH-доступ к нашему ESXi-хосту путем выбора соответствующих строк и жмем Enter:
Создание хранилища данных
Для хранения файлов виртуальных машин можно создать специальное хранилище данных. Для этого подключаем диск (или несколько) к серверу ESXi.
Важно! Для производственных сред рекомендуется использовать RAID 1 или RAID 10. Это поможет создать достаточный запас места и снизить вероятность потерять данные при повреждении диска. Но, применение RAID не является заменой организации резервного копирования.
Теперь будем использовать VMware Host Client для управления ESXi-хостом. Если выберем пункт «Host» в навигации, сможем просмотреть всю информацию о нем (версия, имя, CPU, память и состояние хранилища):
Перейдем непосредственно к созданию стораджа. В навигации в разделе «Virtual Machines» выбираем «Storage» и кликаем на кнопку «New datastore»:
Здесь проходим следующие шаги:
- Выбираем параметры разбивки. Пока пусть будет все по умолчанию (полный диск);
- Для завершения создания нового хранилища данных нажимаем кнопку «Finish» в пункте «Ready to complete», после чего появится предупреждение: «The entire contents of this disk are about to be erased and replaced with the specified configuration, are you sure?».
- Подтверждаем. После этого новый сторадж появится в списке хранилищ на соответствующей вкладке.
Проделав все эти операции, мы полностью подготовили наш первый хост ESXi (192.168.11.30) к созданию виртуальных машин.
Развертывание других ESXi-хостов
По аналогии с предыдущим разворачиваем второй хост ESXi (192.168.11.27), который планируем применять для запуска виртуальных машин.
Развертывание vCenter Server
Мастер-установщик vCenter Server проходит два этапа.
Stage 1
Introduction. Здесь нам подробно показывают, как будет устанавливаться наш vCenter. Кнопочкой «Next» проходим до конца:
End user license agreement. Здесь лицензионное соглашение, которое следует принять.
vCenter Server deployment target. На этом этапе следует указать параметры первого хоста ESXi, где будет развернут в итоге vCenter:
ESXi host or vCenter Server name: 192.168.11.30
Set up vCenter Server VM. Здесь вводится имя vCenter VM и устанавливается пароль администратора для vCenter Server Appliance:
Select datastore. В этом разделе выбирается место хранения этого vCenter Server, достаточное для развертывания виртуальной машины. У нас он уже готов – это «datastore100». Включаем режим тонкого диска («Enable Thin Disk Mode»):
Configure network settings. Сетевые настройки в нашем случае будут следующими:
Network: VM Network
IP version: IPv4
IP assignment: static
IP address: 192.168.11.31
Subnet mask of prefix length: 255.255.255.0
Default gateway: 192.168.11.2
DNS servers: 192.168.11.2
Ready to complete stage 1. Проверяем все настройки и соглашаемся с завершением первого этапа установки:
Какое-то время на экране будет прогресс-бар разворота vCenter 7.0.
Stage 2
Introduction. Нам аналогично сообщают, что будет происходить на данном этапе. Чтобы продолжить, нажимаем «Next».
vCenter Server configuration. Выбираем настройки синхронизации времени и включаем доступ к SSH:
Time synchronization mode: Synchronize with the ESXi host
SSH access: Enabled
SSO configuration. Выбираем опцию «Create a new SSO domain»:
Single Sign-On domain name: vsphere.local
Single Sign-On user name: administrator
Single Sign-On password: Enter a password and confirm the password
Configure CEIP. Убираем галочку, если не хотим отправлять статистику в VMware и идем далее:
Ready to complete. Проверяем все, что задали, и жмем «Finish».
Важно! Ни в коем случае не прерывайте процесс установки vCenter. Иначе придется все начинать сначала.
Снова видим прогресс-бар установки. По завершению автоматически запустится vCenter Server Appliance. Если этого не случилось, нужно подключиться к хосту ESXi с VCSA и запустить в VMware Host Client виртуальную машину вручную:
К vCenter VM можно подключиться через консоль VCSA напрямую. Для этого в клиенте щелкаем на предварительный просмотр ВМ, после чего перейдем в автономное приложение VMware Remote Console или же в VMware Workstation, чтобы открыть управление клавиатурой и мышью. Здесь будут отображены все данные vCenter: версия, конфигурация ЦП, памяти, IP-адрес, а также ссылки для управления VCSA. Нажимаем F2 и вводим назначенные в процессе установки vCenter данные – точно так же, как редактировались настройки для ESXi:
Перейдем в раздел «Administration» и в «Edit» поменяем срок действия пароля. Можно отключить эту функцию вообще, чтобы не отслеживать его истекание в дальнейшем.
Настройка среды vSphere 7.0
После создания и конфигурирования ESXi, инсталляции и настройки vCenter, можно приступать к созданию виртуальных машин и применению разнообразных функций vSphere.
Важно! Веб-клиент на Flash для этой версии vSphere является устаревшим – доступен только HTML5 vSphere Client.
Создание дата-центра
Дата-центр представляет собой логический контейнер, используемый для организации ESXi-хостов, кластеров и виртуальных машин. Правой кнопкой мыши кликаем на vCenter server (у нас 192.168.11.31) и выбираем в открывшемся меню «New Datacenter»:
В появившемся окне вбиваем его имя.
Добавление хостов ESXi
Теперь, когда у нас есть новый дата-центр, необходимо добавить в него ESXi-хосты. Кликаем правой кнопкой мыши на его имя и в открывшемся меню выбираем «Add Host»:
Откроется окошко мастера добавления хоста, где, двигаясь по пунктам меню при помощи кнопки «Next», мы обозначим все его параметры:
Name and location. Задание имени/IP-адреса хоста ESXi (192.168.11.30 у нас):
Connection settings. Вводим имя пользователя и пароль.
Host summary. Проверяем сводку по хосту.
Assign license. Вводим серийный номер vSphere 7.0. Либо же останется режим Evaluation:
Lockdown mode. Рекомендуется выключать этот режим для сохранения возможности подключаться к ESXi-хосту напрямую, в обход vCenter. То есть даже если машина vCenter не работает:
VM location. Здесь надо выбрать дата-центр для размещения ВМ (в нашем случае Datacenter1):
Ready to complete. Проверяем все выбранные нами параметры хоста и, если все хорошо, жмем «Finish».
Итак, один хост нам удалось добавить в окружение vCenter. У нас, к примеру, vCenter VM работает на 192.168.11.30. Аналогичным образом добавляем и второй хост ESXi (192.168.11.27):
В развороте большого количества машин очень полезны рекомендованные вендором шаблоны, а также VMware vApps для апробированных конфигураций. Но, это уже тема для отдельного подробного разговора.
На свете существует замечательный гипервизор ESXi от компании VMWare, и все в нем хорошо, но вот требования к “железу”, на котором он может работать, весьма нескромные. ESXi принципиально не поддерживает программные RAID’ы, 100-мегабитные и дешевые гигабитные сетевые карты, поэтому попробовать, каков он в работе, можно только закупившись соответствующим оборудованием.
Однако ESXi самые “вкусные” возможности ESXi открываются тогда, когда у нас есть не один, а несколько хостов ESXi — это кластеризация, живая миграция, распределенное хранилище VSAN, распределенный сетевой коммутатор и т.п. В этом случае затраты на тестовое оборудование уже могут составить приличную сумму. К счастью, ESXi поддерживает Nested Virtualization — то есть способность запускаться из-под уже работающего гипервизора. При этом и внешний гипервизор понимает, что его гостю нужен доступ к аппаратной виртуализации, и ESXi знает, что работает не на голом железе. Как правило, в качестве основного гипервизора также используется ESXi — такая конфигурация поддерживается VMWare уже довольно давно. Мы же попробуем запустить ESXi, использую гипервизор QEMU. В сети есть инструкции и на этот счет, но, как мы увидим ниже, они слегка устарели.
Для начала обозначим версию QEMU, на которой будем ставить эксперименты:
Последняя на данный момент версия, но у меня фокус получался даже на 2.4.0.
Затем отключим невежливое поведение модуля KVM в моменты, когда гость пытается читать машинно-специфические регистры, которых на самом деле нет. По-умолчанию, KVM в ответ на это генерирует внутри гостя исключение General protection fault, отчего гость ложится в синий (в нашем случае-розовый) экран смерти. Сделаем под рутом:
В некоторых дистрибутивах модуль kvm грузится по умолчанию с нужными параметрами, в некоторых — нет. В любом случае нужно проверить dmesg на наличие строк
Если этих строк нет — добавить в /etc/modprobe.d/kvm.conf строку
и перезагрузиться. Для процессора Intel строка примет вид:
Попробуем решить проблему “в лоб” — пойдем на сайт VMWare, зарегистрируемся там и скачем последний на данный момент образ VMware-VMvisor-Installer-201701001-4887370.x86_64.iso.
Не будем измудряться, создадим аналог “флешки” на 16Gb, возьмем наверняка поддерживаемую сетевую карту e1000, поставим RAM в 4 Gb (с меньшим количеством памяти ESXi гарантированно не встанет) и запустим установку, полагая, что в такой конфигурации ESXi как минимум не увидит IDE-диска:
И тут нас ждет первая неожиданность — ESXi не только обнаруживает наш IDE-диск, но и успешно ставиться на него, правда, на пять минут подвисая на 27% установки:
А вот 8086:100e — это идентификатор чипа “Intel 82540EM Gigabit Ethernet Controller”, который с некоторых пор объявлен unsupported, т.е. он работает, но с ним не работает техническая поддержка.
Вообще, QEMU поддерживает эмуляцию разных сетевых карт:
но не все они работают в ESXi одинаково хорошо, например, с формально поддерживаемым e1000e не работает проброс портов в user-режиме сети, а у vmxnet3 пропадает половина пакетов. Так что остановимся на e1000.
Перезагружаем ВМ и видим, что гипервизор стартовал успешно. Собственно, и все — патчить QEMU для ESXi, как рекомендуют некоторые руководства, не нужно.
Нужно отметить, что я использую параметр nocow=on при создании диска, поскольку диск ВМ будет лежать на btrfs, которая сама по себе является ФС с концепцией copy-on-write. Если добавить к этому то, что и thin-provisioned диск формата qcow2 тоже реализует этот принцип, то получится кратное увеличение числа записей на диск. Параметр nocow=on заставляет qemu-img создавать файл с атрибутом nocow и тем самым блокировать механизм copy-on-write в btrfs для конкретного файла.
В режиме сети user внутри ВМ работает легковесный DHCP-сервер, поэтому адрес присваивать не нужно, однако придется пробрасывать порты. Заходим в консоль QEMU, нажав Ctrl+Alt+1, вводим там команду
и пробрасываем 443 порт с сетевого интерфейса виртуальной машины на 4443 порт хоста. Затем в браузере набираем
Удивительно, но установщик ESXi даже создал в свободной области диска “хранилище” размером целых 8Gb. Первый делом поставим пакет с обновленным Web-интерфейсом, потому что разработка этого полезнейшего компонента идет быстрее, чем выходят новые версии ESXi. Идем в консоль QEMU по Ctrl+Alt+1 и пробрасываем там 22 порт:
потом переключаемся в консоль гипервизора по Ctrl+Alt+2, нажимаем F2 — Troubleshooting Options — Enable SSH и подключаемся клиентом SSH:
Идем во временный каталог
Как видно, размер Web-интерфейса — чуть больше трех мегабайт.
Теперь попробуем улучшить нашу виртуальную машину. Первым делом сменим контроллер дисков с IDE на AHCI, потому что реализация контроллера PIIX3 1996 года выпуска в QEMU, как бы это сказать, слегка тормознутая. А контроллер AHCI (эмулируется чипсет Intel ICH9) во-первых, быстрее, а, во вторых, поддерживает очереди команд NCQ.
Даже по уменьшению времени загрузки компонентов гипервизора видно, что прирост в скорости мы получили. На радостях заходим в Web-интерфейс и… как это нет дисков? На вкладке “Adapters” AHCI-контроллер имеется, однако диски на нем не определяются. А как же тогда загрузился гипервизор? Очень просто — на начальном этапе загрузчик считывает данные диска при помощи BIOS и видеть диски напрямую ему не нужно. После того, как компоненты загружены в память, загрузчик передает на них управление, а инициализация гипервизора проходит уже без обращений к диску.
Как бы то ни было, ESXi 6.5 дисков на AHCI-контроллере не видит, а вот ESXi 6.0 эти диски видел — зуб даю. С помощью Google и такой-то матери выясняем причину: в ESXi 6.5 старый драйвер ahci замене на полностью переписанный драйвер vmw_ahci, из-за чего у кучи народа тормозят SSD, а у нас не определятся диски. Согласно совету из статьи делаем на гипервизоре
перезагружаемся и… ничего не происходит. А чего мы хотели? Дисков-то нет, записывать конфигурацию некуда, следовательно, наши изменения и не сохранились. Надо вернуться на IDE-диск, выполнить эту команду и уже потом загружаться с AHCI — тогда диски определяться.
USB 3.0 диски тоже не определяются. Видимо, и здесь драйвер переписан. Ну что ж, мы уже знаем, что делать. Идем в консоль гипервизора, там пишем
Когда система загрузится, зайдем в Storage — Devices и увидим там нашу флешку. Кстати, с USB 3.0 контроллером nec-usb-xhci система загружается намного быстрее, чем с ich9-usb-ehci2.
Итак, минимум два драйвера контроллера диска в ESXi 6.5 переписаны заново по сравнению с ESXi 6.0. А казалось бы — только цифра после точки в номере версии изменилась, можно сказать, минорный релиз.
Если мы добавим к конфигурации виртуальной машины диск объемом 1 Tb, то сможем создать полноценное хранилище в дополнение к диску с гипервизором. Чтобы система грузилась с usb-диска, а не с ahci, воспользуемся параметром bootindex. Обычно для управления порядком загрузки применяют параметр -boot, но в нашем случае он не поможет, потому что диски “висят” на разных контроллерах. Заодно заменим платформу со старого чипсета 440fx на новый Q35/ICH9.
Заходим в консоль — вот они, наши диски.
Продолжим эксперименты: теперь нам нужно объединить несколько гипервизоров в сеть. Какой-нибудь libvirt самостоятельно создает виртуальный коммутатор и подключает к нему машины, а мы попробуем провести эти операции вручную.
Пусть у нас будут две виртуальные машины, значит, нам потребуется два виртуальных адаптера
Теперь нам нужен виртуальный коммутатор. Долгое время для этих целей принято было использовать встроенный в ядро Linux виртуальный коммутатор, управляемый утилитой brctl. Сейчас же принято решать задачу через Open vSwitch — реализацию коммутатора, предназначенную именно для виртуальных сред. Open vSwitch имеет встроенную поддержку VLAN, протоколов туннелирования (GRE и т.п) для объединения нескольких коммутаторов и, что самое интересное — технологии OpenFlow. Иными словами, в коммутатор можно загружать правила фильтрации L2/L3 в удобочитаемом формате. Раньше для фильтрации требовалось использовать iptables/ebtables, а, как говориться, хорошую вещь “ebtables” не назовут.
Установим Open vSwitch, если он еще не стоит:
Создадим виртуальный коммутатор:
Добавим в него интерфейсы:
Посмотрим, что получилось:
Теперь присвоим интерфейсу коммутатора адрес:
Казалось бы, достаточно просто изменить тип сети в командной строке QEMU с user на tap, примерно так:
и все будет работать.
Зайдем в консоль ESXi и присвоим ему адрес — 192.168.101.2, а затем проверим связь:
….
и из консоли ESXi — F2- Test Network
Все работает, пинги ходят.
Сделаем копию диска esxi_6.5-1.qcow2 и запустим второй экземпляра ESXi:
Тут нас ждут неожиданности: ping от хоста к первому гостю ходит лишь до того момента, пока мы не запускаем пинг ко второму гостю. После прерывания второй команды ping пакеты к первому гостю начинают ходить секунд через 10. Пинги между гостями не ходят вообще.
Ясно, что мы напортачили с mac-адресами, и действительно, QEMU присваивает всем tap-адаптерам один и тот же mac-адрес, если не указано иное.
Выключим оба ESXi’а, укажем им уникальные mac’и и запустим снова.
И в другой консоли:
К нашему громадному удивлению, проблема с пингами никуда не делась, мало того, команда arp показывает, что не изменились и MAC-адреса гипервизоров. Тут самое время вспомнить, как устроена сеть в ESXi: физическая сетевая карта переведена в “неразборчивый режим” и подключена в качестве одного из портов к виртуальному коммутатору. Другим портом к этому коммутатору подключен интерфейс vmkernel, который и является сетевой картой с точки зрения гипервизора. В момент установки ESXi аппаратный адрес физической сетевой карты клонируется в vmkernel, чтобы не смущать системного администратора. После этого его можно изменить только удалив интерфейс и создав его заново или же указав гипервизору, что следует переконфигурировать vmkernel из-за изменения адреса физической карты.
Существенная различие между указанными способами состоит в том, что первый не требует перезагрузки гипервизора, а второй — требует.
Выполнив эти нехитрые операции, мы получим в одной сети два гипервизора.
Теперь можно ставить vCenter и проверять”живую миграцию”. С некоторых пор vCenter доступен в виде образа виртуальной машины с Linux и соответствующими службами на борту. Именно такой вариант мы попробуем установить. Берем образ VMware-VCSA-all-6.5.0-5178943.iso, монтируем его в хостовой ОС, запускаем инсталлятор из каталога vcsc-ui-installer\lin64 и разворачиваем образ, следуя указаниям мастера. Для виртуальной машины потребуется 10 Gb оперативной памяти, так что на хостовой системе неплохо было бы иметь минимум 16 Gb. Впрочем, у меня образ развернулся и на 12 Gb RAM, съев всю доступную память и загнав систему в своп.
После установки VCSA заходим в Web-интерфейс с учетными данными вида [email protected] и паролем, которые мы указали при настройке SSO. После этого добавляем в vCenter оба хоста и получаем простейший кластер, в котором работает живая миграция. Настроим vMotion на сетевых картах обоих хостов, создадим виртуальную машину TestVM и убедимся, что она может переезжать с одного хоста на другой, меняя как хост, так и хранилище.
Кстати, на предыдущих версиях ESXi до 6.0 включительно виртуальную машину невозможно было запустить в режиме вложенной виртуализации без добавления строки
в ее конфигурационный файл. В ESXi 6.5 этого делать не требуется, и виртуальная машина запускается без вопросов.
В заключение — небольшой лайфхак. Допустим, вам нужно скопировать файл диска ВМ из хранилища ESXi куда-нибудь на сервер резервных копий, при этом у вас нет возможности пользоваться FastSCP из состава Veeam Backup and Replication. Вам на помощь придет старый добрый rsync, нужно только найти бинарный файл, который запуститься на ESXi. К сожалению, в rsync вплоть до версии 3.0.9 включительно есть баг, из-за которого некорректно обрабатываются большие файлы на томах VMFS, поэтому стоит использовать rsync версии 3.1.0. и выше. Взять его можно здесь.
Основная функциональная возможность, которую реализует гипервизор ESXi – это создание виртуальных машин на физическом сервере. В качестве гостевых операционных систем поддерживаются все основные версии, используемые в корпоративном секторе.
Уникальность заключается в том, что ESXi написан практически с нуля, размер дистрибутива 348 Мб, большая часть из которых составляют драйверы для многочисленных операционных систем (VMware tools). В самом гипервизоре нет ничего лишнего, в се что есть направлено на выполнение задач серверной виртуализации. А когда нет ничего лишнего вероятность поломки значительно уменьшается. Простота администрирования продукта, позволяет даже не очень опытным администраторам разобраться и начать использовать виртуализацию в своей компании.
ссылки для скачивания
VMware vSphere
Гипервизор VMware ESXi можно использовать бесплатно и без дополнительного ПО. Но когда у администратора несколько физических серверов и необходимо раскрыть весь потенциал платформы виртуализации от VMware, требуется центр управления гипервизорами, виртуальными машинами, настройками. VMware vCenter server выполняет эту роль. А общий набор программных продуктов для серверной виртуализации называется VMware vSphere.
На картинке показана типовая схема платформы виртуализации VMware vSphere. Она состоит из следующих элементов: общая система хранения данных, физические серверы с установленным гипервизором ESXi, vCenter server для управления. Администратор может подключиться к vCenter или отдельным хостам ESXi через браузер с поддержкой HTML5 (ранее использовался vSphere client). Сетевого оборудования на картинке не отображено.
Дистрибутив гипервизора VMware ESXi одинаковый, как для платной, так и для бесплатной версии. В зависимости от введенного ключа продукта в ESXi доступен тот или иной набор фич. Но если вы не собираетесь пользоваться генераторами пиратских ключей, то можно зарегистрироваться на сайте VMware. Вам будет доступен ключ активации для бесплатной версии ESXi и ссылка для скачивания крайней версии.
VMware vSphere 6.0
Новый релиз VMware vSphere 6 не принес кардинальных изменений в функциональные возможности продуктов. Естественно, звучат заявления, что все стало лучше, быстрее, удобнее, но это можно смело пропускать мимо ушей, ведь не проверишь… но давайте по-существу.
- Сервер управления vCenter Server 6.0. Функционал Windows версии и Linux апплайнса теперь одинаковые. Разница в поддерживаемых базах данных: Win версия поддерживает MS SQL и Oracle, а Linux версия — Postgres и Oracle.
- Переработан механизм управления несколькими vCenter-ами
- Переработана работа с сертификатами в vCenter
- Возможность делать Монстро-кластеры из 64 хостов, по 8000 виртуальных машин в каждом
- Возможность создавать Монстро виртуальны машины, по 128 vCPU и 4Tb RAM в каждой. Создать такие можно только через Web интерфейс, ведь только он поддерживает новую версию оборудования vHW 11
- vSphere Web консоль стала удобнее и быстрее, — мне вспоминается фраза из Властелина колец:»По-моему, вы орки, дурите меня!»
- vSphere client 6.0 — в нем оставляют все меньше возможностей, приучают пользоваться vSphere Web. Но, финт, для Update Manager все равно нужен толстый клиент… что тут скажешь.
- Улучшенная поддержка кластеризации Microsoft в Windows server 2012 R2 и SQL 2012, но там все равно остались подводные камни. Если вы задумались над переносом кластера в виртуальную среду следует внимательным образом изучить документацию
- vMotion претерпел много изменений и стал таким, каким мы все его хотели видеть с самого начала, а именно. При миграции можно изменить одновременно Хост, хранилище, сеть и даже vCenter. Можно осуществлять миграцию на дальние расстояния с задержками в сети до 100-150мс (разные сведения)
- VMware Fault Tolerance, наконец-то, обновили. Можно включать FT на виртуальных машинах с 4 vCPU, но не более 4-х машин на хост (не точно). Хосты в свою очередь должны быть связаны 10GB сетью передачи данных.
Важно. Раньше у машин защищенных FT был один общий виртуальный диск, теперь диски разные и храниться они могут хоть на локальных дисках сервера. Этот факт повышает отказоустойчивость в разы и позволяет строить схемы без системы хранения данных.
Теперь можно бэкапить виртуальные машины защищенные FT - Новая фича, виртуальные тома vVol (Virtual Volume) — (+1) к уровню абстракции от систем хранения данных, но поддерживается ограниченный набор СХД. Смысл в том, что раньше, на СХД мы создавали сначала Array (RAID из дисков) или Pool, затем создавали LUN определенного объема, который уже презентовали хостам ESXi . С технологией vVol мы создаем Array или Pool и презентуем.
- Улучшены vSphere Replication и vSphere DataProtection — этот факт требует проверки, когда я в последний раз тестировал в 5.1 эти продукты показались мне бесполезными или около того.
Почему так дорого?
На сайте VMware уже давно можно найти стоимость продуктов и меня часто спрашивают, почему там такие высокие цены. Все дело в том, что там опубликованы рекомендуемые цены, которые и сама компания и ее партнеры должны транслировать своим заказчикам. Естественно, закупочная цена для партнера существенно ниже и озвучивать ее никто не имеет права. Поэтому на сайте ITsave будут публиковаться цены, доступные в OEM канале. Это те лицензии, которые обычно продаются вместе с оборудованием и тоже доступны в открытом доступе.
Лицензии VMware OEM отличаются от тех, которые продаются в коммерческом канале:
Наборы лицензий VMware vSphere для старта
Если это ваша первая покупка лицензий VMware для серверной виртуализации, то можно не разбираться сколько стоят отдельные лицензии, т.к. все равно они получатся дороже, чем стартовые наборы.
Любой из наборов рассчитан на 1-3 сервера, по два процессора в каждом. Сейчас уже есть процессоры содержащие по 18 ядер, поэтому изначально рассчитанные на малый бизнес, эти наборы могут потянуть очень большую инфраструктуру. Выделенные синим цветом Essentials Kit наборы обладают минимальным функционалом и такой же стоимостью, но из опыта я знаю, что базовые возможности самые востребованные. Иногда компании покупают самые дорогие Enterprise Plus лицензии, но пользуются только базовыми возможностями.
Установка ESXi
Для установки гипервизора VMware ESXi сервер должен соответствовать минимальным системным требованиям:
- двухъядерный центральный процессор(ы) и сервер x86 архитектуры
- 4 Gb оперативной памяти, но для включения полного функционала ESXi нужно 8 Gb и больше
- для запуска 64-bit виртуальных машин в BIOS сервера должна быть активирована Intel-VT-x
- под основные требования подходят все современные серверы даже в своем базовом варианте, в котором они поставляются с заводов. Подробное описание в официальном документе
Установку VMware ESXi на сервер можно производить следующими способами:
- через консоль удаленного управления сервером: у Dell это iDRAC, у HP это iLO, у IBM серверов IMM. Через удаленную консоль к серверу монтируется образ диска с ESXi, после чего в boot menu выбираете вариант загрузки с виртуального DVD
- можно записать образ ESXi на DVD диск и произвести установку по старинке
- можно создать установочную флешку с ESXi, для инсталляции на диски доступные серверу
- можно создать загрузочную флешку с ESXi, чтобы гипервизор запускался и работал непосредственно с нее
Во время установки ESXi мастер попросит вас выбрать, куда установить гипервизор, это могут быть:
- локальные диски сервера
- любая USB флешка, подключенная к серверу
- SD карта установленная в сервер производителем (у Dell часто встречается)
- раздел на системе хранения данных подключенной по оптическому каналу FC, SAS или iSCSI
Самым оптимальным, на мой взгляд, является выбор установки на локальные диски, работающие в зеркале (RAID-1), это безопаснее, чем флешка или SD карта, которую сложно зарезервировать. Также не советую вариант с системой хранения, ведь это потребует лишних манипуляций для создания каждому серверу небольших логических разделов специально для установки ESXi.
Описание слайдов установки и активации
11 После загрузки в консоли отображается IP адрес, по которому можно подключиться ESXi через VMware vSphere client.
После установки на сервер гипервизора VMware ESXi в локальной в графической консоли делаются только первоначальные настройки, чтобы можно было по сети подключиться и начать работу через основной инструмент управления бесплатной версией гипервизора – vSphere client. А если ваш физический сервер хотя бы одним интерфейсом подключен к сети с работающей DHCP службой, то уже на стартовом экране вы увидите адрес для удаленного подключения.
В нашем случае версия гипервизора бесплатная, вводим IP адрес, который получил наш ESXi после установки. Пользователь root и пароль, который был задан во время инсталляции.
Появляется стандартная ошибка сертификата, ее можно игнорировать.
Всплывает окно, говорящее, что наш триальный период истечет через 60 дней. После того, как срок истечет, виртуальные машины просто перестанут запускаться. Но так как я скачивал дистрибутив с официального сайта VMware, у меня есть ключ активации. Закрываем данное окно.
Недавно установил на сервер HPE Proliant Microserver Gen10 гипервизор ESXi 6.7. Пришла пора создать на сервере первую виртуальную машину. Подготовим всё для установки операционной системы Microsoft Windows Server 2016.
Ссылки
Создание VM
Логинимся в UI под root:
Переходим в раздел Virtual Machines.
Нажимаем Create / Register VM. Запускается мастер создания VM.
Нам предлагают выбрать одну из трёх опций:
- Create a new virtual machine - Создать новую виртуальную машину (выбираем)
- Deploy a virtual machine from an OVF or OVA file - Развернуть виртуальную машину из OVF или OVA файла.
- Register an existing virtual machine - Зарегистрировать существующую виртуальную машину.
Выбираю Create a new virtual machine, Next.
Указываем название виртуалки. Длина названия до 80 символов. Название должно быть уникальным в рамках гипервизора. Ести у вас vCenter, то уникальность названия должно быть в рамках всех гипервизоров. Старайтесь в названии использовать такие же символы, как в названиях директорий.
Выбираем совместимость с версиями ESXi. Виртуалки версии 6.7 не будут работать, если вы их перенесёте на ESXi 6.0.
Выбираем семейство ОС и версию. Дело важное, от этого зависит первоначальный набор устройств.
Выбираю параметры для Microsoft Windows Server 2016. Next.
Выбираю хранилище. Оно у меня сейчас одно. Next.
2 CPU - это максимум для данного гипера.
6 ГБ оперативки, можно потом добавить.
500 ГБ диск, расширю потом.
Меняю USB контроллер на 3.0, хотя он мне особо не нужен.
Можно при желании изменить опции. Я добавляю поддержку буфера обмена для консоли VMware vSphere Client:
Буфер обмена в консоли VMware vSphere Client
По умолчанию буфер обмена в консоли VMware vSphere Client отключён в целях безопасности. Но его можно включить. Переходим во вкладку VM Options:
В свойствах виртуалки в Advanced > Configuration Parameters > Edit Configuration.
Читайте также: