Vmware проверка совместимости оборудования
Недавно вышел в свет один из важнейших документов, содержащий в себе концентрацию лучших практик для обеспечения производительной работы VMware vSphere с поправками на последнюю, седьмую, версию.
Данная серия постов, скорее, вырезка интересующих меня моментов из гайда, которыми можно поделиться с коллегами, с моими комментариями и дополнениями, но не в коем случае не попытка перевести полностью и дословно данный документ.
Мой перевод и понимание документа могут содержать неточности и, возможно, ошибки, поэтому в первую очередь настоятельно рекомендую самостоятельно ознакомиться с документом в его оригинальном виде.
В целом, документ состоит из большого количества секций. Я просто пойду сверху вниз по всем пунктам, которые интересуют меня, и могут быть полезны в первую очередь новичкам.
Первая часть «Hardware for Use with VMware vSphere» посвящается моментам, на которые необходимо обратить внимание при выборе серверного оборудования и начальной конфигурации.
Validate Your Hardware
Всегда необходимо проверять серверное оборудование, планируемое для использования под задачи виртуализации на совместимость с устанавливаемой версией vSphere. Проверять по Support Matrix необходимо все:
- HBA, NIC, CPU;
- Версии Firmware, драйвера;
- СХД, протокол подключения;
- Версии гостевых ОС.
Конечно, это не значит, что если в матрице совместимости отсутствует нужная прошивка, либо драйвер, модель CPU и т.п., то система не запустится, но вот в случае возникновения проблем, в технической поддержке могут и отказать до обновления на поддерживаемые версии компонентов.
При новых инсталляциях, рекомендуется тестировать ОЗУ в течение 72 часов, для выявления возможных ошибок.
CPU Hardware Considerations
Hardware-Assisted Virtualization
Большинство современных процессоров Intel и AMD включают в себя функции «помощи в виртуализации» и улучшают производительность виртуальной среды. Данные функции ниже:
Программная реализация вышеуказанных функций не поддерживается VMware начиная с версии 6.7, теперь данную задачу должен полностью брать на себя процессор.
Memory Hardware Considerations
Persistent Memory (PMem)
Планки энергонезависимой памяти, которые включаются в стандартные слоты DIMM. Дешевле, данные сохраняются при перезагрузке, большие объемы памяти, по сравнению с классической ОЗУ, обладают более низкой скоростью доступа. Пример – Intel Optane (DCPMM – DC Persistent Memory Modules), NVDIMM-N.
Intel Optane работает в двух режимах:
- Memory mode – DCPMM выступает для операционной системы как основная оперативная память. В этом случае «классическая ОЗУ» DRAM выступает в качестве кэша для DCPMM. Данный режим позволяет «сэкономить» на более дорогой DRAM, не без уменьшения скорости доступа. Производительность зависит от размера DRAM под кэш, как часто необходимо обращаться к ОЗУ и т.п. Подробнее.;
- App Direct Mode – В данном случае приложение, либо ОС понимает, что работает как с классической DRAM, так и с Persistent Memory, в связи с чем само выбирает, какую память использовать в конкретный момент. DCPMM может представляться в виртуальной машине виде классического диска (vPMEMDisk) также, как и устройство, выступающее в качестве виртуальной NVDIMM (vPMEM). В этом случае, гостевая операционная система должна понимать, что работает с NVDIMM памятью (PMem aware). Подробнее.
VMware рекомендует использовать режим App Direct как устройство vPMEM. Для получения максимальной производительности приложение должно быть PMem-aware, например, MS SQL Server 2019.
NVDIMM – тип Persistent Memory, работающий на тех же скоростях, что и DRAM, но сохраняет данные при перезагрузках. Всегда подключается в виртуальную машину как PMem и не может работать в режиме Memory Mode, как DCPMM.
В App Mode работает аналогично DCPMM как vPMEMDisk, либо как vPMEM. Подробнее.
Storage Hardware Considerations
В большинстве случаев, на итоговую работу дисковой подсистемы влияет не сколько конфигурация ESXi, сколько конфигурация СХД и сети передачи данных.
Производительность дисковой подсистемы зачастую зависит от множества факторов, включая уровень используемого RAID, типы дисков, размер кэш и т.п.
Перед непосредственным внедрением, крайне рекомендуется ознакомиться с документацией вендора СХД, а также с документацией VMware относительно работы системы виртуализации с СХД выбранного вендора.
VMware vStorage APIs for Array Integration (VAAI)
Выбираем СХД, которая поддерживает VAAI, чтобы перенести выполнение некоторых дисковых операций с гипервизора ESXi на СХД.
В некоторых случаях использование VAAI снижает нагрузку на CPU гипервизора, поскольку теперь часть своей работы он перекладывает на СХД, снижается latency, уменьшается трафик в сети передачи данных.
Основные возможности VAAI для SAN:
- Scalable Lock (hardware-assisted locking, atomic test & set он же ATS). Используется при обновлении метаданных VMFS. Ранее, при изменении метаданных ненадолго, но блокировались обращения ко всему VMFS-тому. С использованием Scalable Lock эта проблема решается, блокируется только доступ к изменяемому элементу, но не ко всему Datastore. Выражается в ускорении многих операций, типа изменения конфигураций машин, снапшотов, расширения диско, увеличивается производительность «тонких» VMDK и т.п.;
- Extended Copy (XCOPY, copy offload) перекладывает операции по копированию (в рамках одной СХД) на систему хранения данных. Например, при клонировании машин, Storage vMotion. Снижает нагрузку на ESXi. Не будет работать при копировании\клонировании между двумя разными СХД;
- Block zeroing (Write Same) – «зануление» дисков thick provision eager-zeroed тоже перекладывается на СХД, уменьшая работу гипервизора;
- Dead space reclamation (UNMAP) – крайне полезная вещь, при использовании тонких LUN на СХД. Возвращает освобожденное на Datastore пространство обратно в СХД. Удалил виртуальную машину – стал меньше размером тонкий LUN на СХД (конечно, не моментально).
Основные возможности VAAI для NAS:
Исходя из вышеуказанных возможностей VAAI для SAN и NAS, очевидно, что использование массивов с поддержкой данной технологии настоятельно рекомендуется.
iSCSI and NFS Storage
Убеждаемся, что у нас на сети нет узких мест, желательно, роутинга (точнее крайне настоятельно рекомендуется).
Держим в голове, что использование software-initiated iSCSI адаптера, а также NFS могут потребовать дополнительных ресурсов CPU на хосте, поскольку заниматься обработкой дискового трафика придется ему.
NVMe Storage
NVMe быстрее, но так же требует больше процессорных ресурсов. Рекомендуются к использованию многоядерные процессоры, хотя бы от 8 ядер. Больше процессоров – лучше, но хотя бы 2. С частотой так же – выше – лучше.
NVMe over Fabrics (NVMe-oF) Storage
Начиная с версии 7, ESXi поддерживает технологию NVMe-oF с помощью FC, либо RDMA в качестве транспорта.
NVMe-oF позволяет получить больше значения IOPS при меньших задержках.
Network Hardware Considerations
Убеждаемся, что мы используем «server-class» сетевые адаптеры для получения максимальной производительности. Убеждаемся, что на сети нет узких мест, все кабеля, коммутаторы работают на максимально доступных скоростях.
Так же рекомендуется использовать карты, поддерживающие функции Checksum offload, TSO, LRO, RSS, Jumbo и т.д. (если они, конечно, планируют использоваться).
По аналогии с HBA адаптерами, сетевые карты должны быть установлены в соответствующие PCI слоты, для получения максимально-доступной скорости приема/передачи.
Однопортовые 10Gb/s адаптеры рекомендуется устанавливать в слоты PCIe x8 (или выше), в то время как двухпортовые уже в PCIe x16.
При этом 40 гигабитные адаптеры следует устанавливать в PCI Gen3 x8/16 (либо выше).
По возможности, и крайне рекомендуется, чтобы виртуальный свитч vSwitch содержал адаптеры с одинаковой пропускной способностью.
Использование LACP может увеличить пропускную способность и доступность.
Hardware BIOS Settings
Всегда следует использовать последнюю версию BIOS, доступную для системы (но матрицу совместимости глянуть все равно стоит).
После обновления версии, следует проверить настройки BIOS, вдруг, ранее выставленные значения были изменены.
Добавлю от себя, что, если не знаешь, зачем нужен параметр, лучше его не изменять, чтобы не получить в дальнейшем проблем.
- Следует убедиться, что в BIOS задействованы все процессорные сокеты и все ядра на установленных процессорах, включен Hyper-Threading и Turbo Boost;
- Не стоит переводить Node Interleaving в параметр enabled (это отключит использование NUMA). Для использования NUMA – выставляем этот параметр в disabled, для использования UMA – enabled. В большинстве случаев, при правильном сайзинге виртуальных машин, с NUMA мы получим большую производительность;
- Необходимо убедиться, что все функции hardware-assisted virtualization включены (VT-x, AMD-V, EPT, RVI);
- Неплохим решением будет отключить в BIOS устройства, которые не используются. Например, USB, либо сетевые порты.
Power Management BIOS Settings
Не про употребление электропитанием сервера, а про управление питанием CPU.
Рекомендуется переложить управление питанием с плеч BIOS на плечи ESXi, и выставить в BIOS значение “OS Controlled Mode”, либо аналогичное.
C-States помогают экономить электроэнергию, переводя простаивающие процессоры в режим пониженного энергопотребления за счет приостановки работы его отдельных компонентов.
Всего таких уровней 6. Чем выше уровень – тем больше элементов процессора в режиме минимального энергопотребления.
Все выглядит прекрасно до тех пор, пока нагрузка не начинает расти и процессору необходимо перейти из состояния с отключёнными компонентами в полностью рабочее состояние (из режима C6 в C0). Этот переход занимает какое-то время, и это может сказаться на работе некоторых приложений. Подробнее.
- Использование C1E (аппаратно-управляемое состояние) зачастую уменьшает потребление электроэнергии с минимальным, либо вообще без влияния на производительность. Однако, некоторые приложения, крайне чувствительные к I/O latency, например, финансовые платформы, могут быть к этому чувствительны. В таком случае рекомендуется отключение C1E в BIOS;
- C-States глубже чем C1 и C1E управляются программно. Чтобы получить максимальную производительность на ватт электроэенергии, рекомендуется оставить включенными все C-States, которые в дальнейшем будут управляться с помощью vSphere;
- При использовании технологии Turbo Boost или Turbo Core, использование C-States в некоторых ситуациях могут даже увеличить производительность некоторых немногопоточных приложений (в случае, если некоторые ядра процессора простаивают).
На этом раздел по «железной» части подходи к концу. В следующей части посмотрим на все, что касается раздела ESXi and Virtual Machines этого замечательного гайда.
VMware vSphere – широко используемая популярная платформа виртуализации, и сегодня темой нашего разговора станет инсталляция и разворот ее последней актуальной – 7.0 версии.
Требования
Для начала, огласим ряд минимальных требований к аппаратному оборудованию для успешной установки VMware vSphere 7.0.
Требования для ESXi 7.0:
CPU. Двухъядерный x86_64 CPU на компьютере, на котором будет работать ESXi хост. Функции Intel-VT-x или AMD-v (RVI) следует включить в UEFI/BIOS.
RAM. Для запуска ESXi понадобится не менее 4 ГБ RAM, а для запуска виртуальных машин на хосте – от 8 ГБ и выше. Больше памяти – большее количество ВМ будет бегать.
Хранилище. ESXi 7.0 требует не менее 8 ГБ дискового пространства для установки и загрузки. Устанавливать можно на отдельный SSD/HDD, RAID и даже держать на SD-карте или флешке.
Важно! В случае SD-карты или флешки не предусмотрено постоянного или временного раздела для хранения журналов.
На загрузочном девайсе рекомендуется выделить более 32ГБ под ESXi, и он не должен совместно использоваться с прочими хостами ESXi. Оптимальными для хранения виртуальных машин являются SCSI (SAS) диски.
Сеть. Понадобится минимум один сетевой контроллер Gigabit Ethernet. Должна быть совместимость сетевого адаптера с ESXi 7.0. Хорошо иметь несколько сетевых адаптеров на сервере ESXi – тогда можно пользоваться утилитой агрегирования каналов NIC Teaming (настраивается отдельно). Это полезно, если есть нужда в функциях кластеризации. Для всех компонентов vSphere (хостов ESXi, серверов vCenter и т.п.) рекомендовано применять статическую IP-конфигурацию.
Естественно, если в vSphere планируется развернуть дополнительные компоненты, например, Kubernetes или NSX, минимальные требования растут. Перед расчетом спецификации оборудования под инсталляцию ESXi обязательно проверьте его совместимость в VMware Compatibility Guide.
Важно! Для полноценной поддержки оборудования серверов Hewlett Packard , DELL и других рекомендуются специальные установочные образы. Например, для HP и DELL:
VMware_ESXi_7.0.0_15843807_HPE_700.0.0.10.5.0.108_April2020.iso
VMware-VMvisor-Installer-7.0.0-15843807.x86_64-DellEMC_Customized-A00.iso.
Требования для vCenter 7:
Для централизованного управления хостами ESXi традиционно используется vCenter Server. Его можно развернуть исключительно как работающую на хосте ESXi виртуальную машину (VCSA). Контроллер сервиса платформы (PSC) интегрирован в саму VCSA.
Важно! В vSphere 7.0 нельзя инсталлировать PSC отдельно или поставить vCenter на машину под управлением Windows – отличие от версии 6.7.
CPU. Минимально (среда до 10 хостов и до сотни ВМ) потребуется два виртуальных процессора.
RAM. 12 ГБ ОЗУ необходимо для обслуживания максимум 10 хостов и 100 виртуальных машин.
Рост количества машин и хостов эквивалентен росту параметров CPU и RAM. Кроме того, обратите внимание, с этим увеличением следует выбирать и соответствующий режим установки (Tiny, Small, Medium, Large, X-Large).
Хранилище. vCenter Server Appliance 7.0 нуждается в 415-3665 ГБ, исходя из количества виртуальных машин. В реальности используется меньше, так как часть зарезервирована под обновления Lifecicle Manager. Часто используется тонкий диск.
Схема развертывания
Для примера возьмем инсталляцию двух серверов ESXi и разворот vCenter Server Appliance на первом из них. Второй отдадим под запуск других виртуальных машин. Назначим:
Далее рассмотрим подключение ESXi-хостов и виртуальных машин к одной сети, но при желании можно создавать отдельные сети для каждой ВМ или их группы. Последнее особенно актуально, когда разворачивается очень большое количество машин, и тогда с помощью VLAN можно заизолировать их друг от друга на втором уровне модели OSI.
Важно! VLAN должен поддерживаться имеющимся маршрутизатором для внешних соединений.
Если используется кластеризация, следует настроить отдельные сети для vMotion и SAN.
Развертывание хостов ESXi. Инсталляция ESXi на серверах
ESXi представляет собой гипервизор первого типа (инструмент запуска виртуальных машин на физическом оборудовании при помощи аппаратной эмуляции). Перед его установкой следует подготовить компьютеры/серверы, проверив соответствие указанным выше требованиям, обеспечив доступ в сеть и назначив всю адресацию.
Инсталляция первого хоста ESXi
Для установки первого хоста ESXi (192.168.11.30) загружаемся с подготовленного носителя, на котором уже записан VMware-VMvisor-Installer-7.0.0-15843807.x86_64.iso. Жмем Enter после приветствия и подтверждаем лицензионное соглашение в следующем окне:
Вводим пароль root и подтверждаем желание инициировать процесс установки, нажав F11:
Базовая конфигурация ESXi-хоста
Первое, что мы увидим при запуске новоустановленного ESXi-хоста, будет его прямая консоль DCUI с версией гипервизора, номером сборки, данными по CPU, памяти и IP-адресации, кроме того там содержится ссылка на браузерное управление ESXi-хостом:
Для настройки системы жмем F2.
Удовлетворяем запрос на аутентификацию (пароль root, который использовался в процессе установки):
Для продолжения жмем Enter.
После этого перед нами появится меню настройки системы. Правая часть интерфейса содержит IP-адрес, назначенный через DHCP. Давайте поменяем настройки сети и присвоим статический IP этому ESXi-хосту, выбрав «Configure Management Network»:
В появившемся окне выбираем «IPv4 Configuration» и подтверждаем решение:
Далее выбираем «Set static IPv4 address and network configuration» и жмем пробел, после чего заходим в следующие настройки IPv4:
Pv4 Address: 192.168.11.30
Subnet Mask: 255.255.255.0
Default Gateway: 192.168.11.2
Чтобы сохранить настройки жмем Enter. Если этот сетевой протокол не используется, можно отключить IPv6.
Затем переходим в DNS Configuration. Выбираем «Use the following DNS server address and hostname» и нажимаем пробел. У нас используется такая конфигурация DNS:
Primary DNS Server: 192.168.11.2
Alternative DNS Server: 192.168.11.1
Для сохранения настроек жмем Enter.
После нажатия Escape выходим из меню «Configure Management Network». Чтобы применить все прописанные изменения, жмем Y (перезапустится демон сети). Перезагрузка потребуется, если мы выключили/включили IPv6:
Теперь переходим к «Troubleshooting options» в меню «System Customization»:
Здесь включаем при необходимости ESXi Shell и SSH-доступ к нашему ESXi-хосту путем выбора соответствующих строк и жмем Enter:
Создание хранилища данных
Для хранения файлов виртуальных машин можно создать специальное хранилище данных. Для этого подключаем диск (или несколько) к серверу ESXi.
Важно! Для производственных сред рекомендуется использовать RAID 1 или RAID 10. Это поможет создать достаточный запас места и снизить вероятность потерять данные при повреждении диска. Но, применение RAID не является заменой организации резервного копирования.
Теперь будем использовать VMware Host Client для управления ESXi-хостом. Если выберем пункт «Host» в навигации, сможем просмотреть всю информацию о нем (версия, имя, CPU, память и состояние хранилища):
Перейдем непосредственно к созданию стораджа. В навигации в разделе «Virtual Machines» выбираем «Storage» и кликаем на кнопку «New datastore»:
Здесь проходим следующие шаги:
- Выбираем параметры разбивки. Пока пусть будет все по умолчанию (полный диск);
- Для завершения создания нового хранилища данных нажимаем кнопку «Finish» в пункте «Ready to complete», после чего появится предупреждение: «The entire contents of this disk are about to be erased and replaced with the specified configuration, are you sure?».
- Подтверждаем. После этого новый сторадж появится в списке хранилищ на соответствующей вкладке.
Проделав все эти операции, мы полностью подготовили наш первый хост ESXi (192.168.11.30) к созданию виртуальных машин.
Развертывание других ESXi-хостов
По аналогии с предыдущим разворачиваем второй хост ESXi (192.168.11.27), который планируем применять для запуска виртуальных машин.
Развертывание vCenter Server
Мастер-установщик vCenter Server проходит два этапа.
Stage 1
Introduction. Здесь нам подробно показывают, как будет устанавливаться наш vCenter. Кнопочкой «Next» проходим до конца:
End user license agreement. Здесь лицензионное соглашение, которое следует принять.
vCenter Server deployment target. На этом этапе следует указать параметры первого хоста ESXi, где будет развернут в итоге vCenter:
ESXi host or vCenter Server name: 192.168.11.30
Set up vCenter Server VM. Здесь вводится имя vCenter VM и устанавливается пароль администратора для vCenter Server Appliance:
Select datastore. В этом разделе выбирается место хранения этого vCenter Server, достаточное для развертывания виртуальной машины. У нас он уже готов – это «datastore100». Включаем режим тонкого диска («Enable Thin Disk Mode»):
Configure network settings. Сетевые настройки в нашем случае будут следующими:
Network: VM Network
IP version: IPv4
IP assignment: static
IP address: 192.168.11.31
Subnet mask of prefix length: 255.255.255.0
Default gateway: 192.168.11.2
DNS servers: 192.168.11.2
Ready to complete stage 1. Проверяем все настройки и соглашаемся с завершением первого этапа установки:
Какое-то время на экране будет прогресс-бар разворота vCenter 7.0.
Stage 2
Introduction. Нам аналогично сообщают, что будет происходить на данном этапе. Чтобы продолжить, нажимаем «Next».
vCenter Server configuration. Выбираем настройки синхронизации времени и включаем доступ к SSH:
Time synchronization mode: Synchronize with the ESXi host
SSH access: Enabled
SSO configuration. Выбираем опцию «Create a new SSO domain»:
Single Sign-On domain name: vsphere.local
Single Sign-On user name: administrator
Single Sign-On password: Enter a password and confirm the password
Configure CEIP. Убираем галочку, если не хотим отправлять статистику в VMware и идем далее:
Ready to complete. Проверяем все, что задали, и жмем «Finish».
Важно! Ни в коем случае не прерывайте процесс установки vCenter. Иначе придется все начинать сначала.
Снова видим прогресс-бар установки. По завершению автоматически запустится vCenter Server Appliance. Если этого не случилось, нужно подключиться к хосту ESXi с VCSA и запустить в VMware Host Client виртуальную машину вручную:
К vCenter VM можно подключиться через консоль VCSA напрямую. Для этого в клиенте щелкаем на предварительный просмотр ВМ, после чего перейдем в автономное приложение VMware Remote Console или же в VMware Workstation, чтобы открыть управление клавиатурой и мышью. Здесь будут отображены все данные vCenter: версия, конфигурация ЦП, памяти, IP-адрес, а также ссылки для управления VCSA. Нажимаем F2 и вводим назначенные в процессе установки vCenter данные – точно так же, как редактировались настройки для ESXi:
Перейдем в раздел «Administration» и в «Edit» поменяем срок действия пароля. Можно отключить эту функцию вообще, чтобы не отслеживать его истекание в дальнейшем.
Настройка среды vSphere 7.0
После создания и конфигурирования ESXi, инсталляции и настройки vCenter, можно приступать к созданию виртуальных машин и применению разнообразных функций vSphere.
Важно! Веб-клиент на Flash для этой версии vSphere является устаревшим – доступен только HTML5 vSphere Client.
Создание дата-центра
Дата-центр представляет собой логический контейнер, используемый для организации ESXi-хостов, кластеров и виртуальных машин. Правой кнопкой мыши кликаем на vCenter server (у нас 192.168.11.31) и выбираем в открывшемся меню «New Datacenter»:
В появившемся окне вбиваем его имя.
Добавление хостов ESXi
Теперь, когда у нас есть новый дата-центр, необходимо добавить в него ESXi-хосты. Кликаем правой кнопкой мыши на его имя и в открывшемся меню выбираем «Add Host»:
Откроется окошко мастера добавления хоста, где, двигаясь по пунктам меню при помощи кнопки «Next», мы обозначим все его параметры:
Name and location. Задание имени/IP-адреса хоста ESXi (192.168.11.30 у нас):
Connection settings. Вводим имя пользователя и пароль.
Host summary. Проверяем сводку по хосту.
Assign license. Вводим серийный номер vSphere 7.0. Либо же останется режим Evaluation:
Lockdown mode. Рекомендуется выключать этот режим для сохранения возможности подключаться к ESXi-хосту напрямую, в обход vCenter. То есть даже если машина vCenter не работает:
VM location. Здесь надо выбрать дата-центр для размещения ВМ (в нашем случае Datacenter1):
Ready to complete. Проверяем все выбранные нами параметры хоста и, если все хорошо, жмем «Finish».
Итак, один хост нам удалось добавить в окружение vCenter. У нас, к примеру, vCenter VM работает на 192.168.11.30. Аналогичным образом добавляем и второй хост ESXi (192.168.11.27):
В развороте большого количества машин очень полезны рекомендованные вендором шаблоны, а также VMware vApps для апробированных конфигураций. Но, это уже тема для отдельного подробного разговора.
В ЭТОЙ ТЕМЕ РАССМАТРИВАЮТСЯ ПРОБЛЕМЫ, ВОЗНИКАЮЩИЕ ПРИ РАБОТЕ С
ВНИМАНИЕ!
НОВЫЕ ВЕРСИИ VMWARE WORKSTATION ПРЕДНАЗНАЧЕНЫ ДЛЯ УСТАНОВКИ ТОЛЬКО НА 64-БИТНЫЕ СИСТЕМЫ!
ДЛЯ УСТАНОВКИ НА 32-БИТНЫЕ СИСТЕМЫ ИСПОЛЬЗУЙТЕ ВЕРСИИ НИЖЕ 11!
База знаний (KB)
Интернет-ресурсы
Да дискуссия тут особо-то и не нужна. Если хочется без бекдоров - то только ПО, которое вы сами проверили на отсуствие этих бекдоров. Иначе - вероятность влететь убегает в 0.5.
Да в интерпрайзе, особенно в толстом, где фермы изсеряются сотнями серверов и десятками тысяч машин - там немного по другому все. Если все грамотно - то админ по виртуализации даже и знать не будет, где и на чем его данные храняться, и как бекапяться. На хранилищах сидят отдельные люди. На бекапах - еще более отдельные. Секюрити ж.
Я вам там ответил , дабы не продолжать невольный офтоп здесь.
Пишет Выбранный виртуальный диск не совместим с этой виртуальной машиной.
1. Запускам VMware Workstation (НЕ VMware Player).
2. Заходим в меню "VM" (Виртуальная машина).
3. Ищем пункт "Manage" (Управление).
4. Далее выбираем "Change Hardware Compatibility" (Изменить совместимость оборудования).
5. В открывшемся диалоговом окне выбираем из списка Hardware Compatibility (Совместимость оборудования) нужную версию VMware Workstation и нажимаем Next (Далее).
6. Будет предложено применить изменения к клонированной копии машины или же изменить конфигурацию без создания копии.
7. Выбираем подходящий вариант и жмем "Next" (Далее), затем "Finish" (Завершение)
8. Готово
Ставил VMARE 12 ошибка осталась.
Mavrikii
Пробовал установить VMware Workstation 14 Pro v14.1.1 Build 7528167 в надежде что будет предложение удалить хвосты старой версии. Но ничего не предложило.
Есть ли сборки которые бы устанавливались без этого драйвера Failed to install USB inf.file ?
Или может есть способ установки VMARE.
Так как я вот только что опять все почистил начал ставить 15 версию. Ошибки не было просто зависло в конце установки и висело минут 20. Пока оно весело на рабочем столе появился ярлык VMARE я зашел в его открылась программа ураааааа подумал я. А окно с установкой все висит и висит я нажал отмену ярлык пропал.(((((
Просто у меня на 7 винде стояла 12 версия. Я ее удалил затем пробовал ставить 14, 15 версии не ставились. Я чистил перезагружался не помогало. Даже сделал откат ОС до последней точки восстановления где VMARE не стояла ошибка осталась. Пришлось переустанавливать винду))) на 8 вот тогда установилось.
Требуемая оперативная память у меня есть и процессор поддерживает виртуализацию.
«ESXi» позволяет разделить физический компьютер на логические разделы, называемые виртуальными машинами. Включает в себя средства управления виртуальными ресурсами.
Первым делом, следует подготовить саму виртуальную машину “ Virtualbox” согласно ниже перечисленным пунктам:
Предварительные настройки виртуальной машины:
«Версия» — «Red Hat (64 bit)»
«Система» — «Материнская плата»
«Включить IO APIC»
«Абсолютные устройства позиционирования»
убрать галочку у пункта «Включить Nested Paging»
«Выставить тип контроллера — ICH6»
убрать галочку у пункта «Кеширование операций ввода/вывода»
Установку буду производить с помощью образа
VMware-VMvisor-Installer-5.0.0-469512.x86_64.iso
Из которого становиться ясно, что семейство процессоров «AMD Family 10h” (Мой процессор — AMD Phenom(tm) 9850 Quad-Core Processor) не поддерживаются и не могут выступать для разворачивания «VMware ESXi”. Но как быть — можно сделать так, отключить проверку корректности используемого железа (не правильный вариант конечно, но для изучения «ESXi” отлично подходит и в будущем будет напоминанием тому, что значит использовать не сертифицированного оборудование):
Нужно перезапустить установку и в момент когда загрузчик спрашивает Вас как поступить,
- либо начать грузиться с образа дистрибутива
- либо загрузиться с диска
(см. скриншот ниже)
нужно нажать клавишу «Tab» на клавиатуре и дописать в строку :
> mboot.c32 -c book.cfg
> mboot.c32 -c book.cfg skipMicrocodeCompatCheck
и установка пойдет: (см. скриншот ниже для наглядного понимания, что должно получиться)
С уважением, ekzorchik.
5 комментариев
Жду продолжения, интересные моменты Вы расписываете, хотелось бы видеть оформленный цикл одной темы в формате PDF. А так респект!
СПС большое.
благодаря вам подняли ESXi 5 все работает
готов отблагодарить пивом )))
Спасибо за положительный отзыв, рад что моя заметка Вам помогла.
Comments are closed.
Используйте прокси ((заблокировано роскомнадзором, используйте vpn или proxy)) при использовании Telegram клиента:
Поблагодари автора и новые статьи
будут появляться чаще :)
Карта МКБ: 4432-7300-2472-8059
Большое спасибо тем кто благодарит автора за практические заметки небольшими пожертвованиями. С уважением, Олло Александр aka ekzorchik.
Читайте также: