Vcf vmware что это
Перейти к содержимому

Vcf vmware что это

  • автор:

Up & Running with VMware Cloud Foundation (VCF)

Its been awhile since I last posted. After much procrastination, I decided to set aside some time during this short December break of mine to write about this topic.

Recently, I was given an opportunity to help up with the set up of VCF (VMware Cloud Foundation). There has been much talks about how VCF becomes the foundation of SDDC and how it to work across the different cloud offerings creating a seamless hybrid approach. This sits in well with the recent collaboration announcements of VMware and AWS where VCF will be used as the foundation for public cloud offerings in particular VMware on AWS and AWS outpost. I was truly excited as I could never try it on my homelab due to hardware and resource constraints.

What is VCF?

VCF Overview

Cloud Foundation provides a complete set of software-defined services for compute, storage, network and security, along with cloud management capabilities. The end result is simple, secure and agile cloud infrastructure that can be can deployed on premises and consumed as a service from public cloud.

Essentially, VCF is an integrated software stack that uses SDDC Manager which is an automated life-cycle management tool to bundle compute (vSphere), storage(vSAN) and network visualization(NSX) into a single platform that can be deployed on premises as a private cloud or run as a service within a public cloud. It fundamentally tries to solve the traditional issues of data centers silos by merging the 3 components together making it easy not only for day one but for day two as well.

Do check out the product page for more info!

Deploying SDDC w/ VCF

For a start, I’d like to drop a disclaimer on what I will be sharing. A lot of what is being shared below is based on my own personal experience and I may have miss out or not include everything there is when it comes to deploying VCF. Content within this blog post is done with VCF 3.0.x and from what I understand VCF 3.5.x has very recently been GA’ed.

As such, I think it’s important to check out the official VCF documentation based on the type of version you are deploying as it may varies. I personally think that the VCF documentation is well documented as it covers all the way from the planning and preparation to the life-cycle management and day 2 operations.

In this blog, I’ll be focusing mainly on the SDDC bring up process with VCF which consist of the following:

Planning & Preparation

The entire bring up process with VCF is actually pretty straightforward. In order for that to happen, it’s important that we get the necessary preparation work done in order for the Cloud Foundation Builder VM to work its magic. I personally wont go into the details of that as there’s an entire documentation on the planning and preparation required for the setup to take place. I would strongly suggest using that as a check list to ensure everything is in place before going ahead with the deployment.

Documentation mentioned in this section can be found here!

Architecture & Deployment


There are 2 main architecture designs for for VCF

I believe that the main decision criteria choosing between standard or consolidated would be the number of hosts you have. It’s recommended that if you have lesser then 6 hosts is best you go with a consolidated model. But not to worry, as you can shift to a standard model anytime when you see the need to scale.


Now… here’s where the magic happens. The deployment process of Cloud Foundation consist of the following:

1. Deploy Cloud Foundation Builder VM

The Cloud Foundation Builder VM is basically a virtual appliance (.ova) that can be downloaded from My VMware.

  • The virtual appliance requires 4 vCPU, 4 GB of Memory, and 350 GB of Storage.
  • The virtual appliance must be deployed on a suitable platform. This can be on a laptop running VMware Workstation or VMware Fusion or on a dedicated ESXi Host. Its import to note that the virtual appliance must have access to all hosts on the management network.
  • The virtual appliance require the following settings during the setup:
    • IP Address
      • Subnet Mask
      • Default Gateway
      • Hostname
      • DNS Servers
      • NTP Servers
      • Password


      2. Fill up the configuration excel sheet

      Once the Cloud Foundation Builder VM is deployed, you can access the appliance via a web browser with the IP that you have assigned. This should bring you to a welcome page where you can proceed to log in and download the “Deployment Parameter Sheet”.

      Do note that the “Deployment Parameter Sheet” tend to receive changes every version so its of best interest that you obtain the sheet from the appliance VM itself to ensure compatibility.

      Welcome Deployment Parameter Sheet Download Page

      3. Validate Excel Sheet Configurations

      This is a time where it puts all the preparation work that you have done to the test. The validation tool will be able to tell if the configurations that you have inputed into the file tallies to whatever that you have set up beforehand. If there are issues, it will be flagged out with the appropriate error messages and you can then proceed to fix the issue and re-run the validation again.

      Config Validation Successful Validated Configurations

      4. Sit Back and Relax!

      Now that the configurations have been successfully validated, you may now click ‘Next’ and watch the entire setup take place. Do note there may be errors along the way due to configurations issues and its best to monitor it time to time to ensure the setup takes place. If all goes well, you should see something similar to the screenshot shown below.

      SDDC Success Successful SDDC Setup

      You may now login to the SDDC Manger with the URL that you have configured in the excel sheet. Upon login, it should bring you to the SDDC Manager dashboard page.

      SDDC Manager SDDC Manager Dashboard

      Documentation to this section can be found here.

      Key Learnings

      Here are some learnings that I took away when deploying with VCF.

      Its Always DNS

      DNS, DNS, DNS! I cant stress on this enough. Always check if the both forward & reverse DNS to all the components listed in the excel configuration file is working properly.

      Make sure NTP is properly sync’ed across all hosts and most importantly your Cloud Foundation Builder VM.

      • For ESXi host, upon configuring the NTP server on the hosts ensure that the NTP is sync’ed after configuration. If its not, simply restarting the NTP service should suffice.
      • For the Cloud Foundation Builder VM, the NTP service should sync with the NTP server that you have configured during the set up. However, I have face issues where the NTP is way off. I manage to fix via restarting the NTP service of the appliance by entering either through the appliance or via ssh and running the command systemctl restart ntpd . Follow this up by restarting the appliance VM and the NTP should sync up perfectly.

      Password Complexity

      Passwords used for all components have to been to be “Strong”. It is mention in the documentation that all password used must be a minimum of 8 characters and include at least one uppercase, one lowercase, one digit, and one special character.

      A great example would be the VMware’s default password of “VMware1!”.


      • Do note that there should be only 2 physical NIC cards presented to the host as VCF 3.0.x currently only supports 2 physical NIC’s per ESXi Host and plus one BMC NIC for out-of-band host management. for each host where there must be at least 1 left unassigned to be used for VDS during the setup.
      • Ensure that one physical NIC is configured and connected to the vSphere standard switch while leaving the second physical NIC untouched.
      • Network should be able to handle jumbo frames connectivity. Use the vmkping command to test. For example. vmkping -I vmkX x.x.x.x -d -s 1600

      One major thing about vSAN to take note is to ensure that your caching and capacity disk are eligible for vSAN. Do use the vdq -q command on the ESXi host to check if the respective disk identifiers displays “Eligible for vSAN”.

      If you are keen to know more about this vdq command you can check out this post here by William Lam.

      During the bring up process, there was an error with regards to setting up vSAN. It complained that it was unable to delete partitions on the host which was very puzzling as the disks within the host was cleared and vdq -q commands was showing the respective disks meant for vSAN as “Eligible for vSAN”.

      vSAN Error

      We actually took the logs to the engineering team and found out that it was due to a really stupid mistake made in the “Deployment Parameter Sheet”. During the naming of the vSAN datastore we named the datastore “vSAN Datastore” which consisted of a space and that spacing was causing issue. Once we remove the space everything ran as expected. So do take note of using spaces for names in general.

      Final Words

      There are a couple more stuff that I would like to follow up with on this VCF set up such as:

      • Commission/Decommission host
      • Expanding the workload domain
      • Bringing up the VI workload domain
      • Patching with SDDC Manager

      In fact, most of it can be explored with VMware’s Hands-On-Lab. So if you are ever interested in the benefits of what VCF can provide from a day 2 perspective do feel free to check out HOL-1946-01-SLN — VMware Cloud Foundation 3.0 – Getting Started lab!

      Lastly, huge thanks to a senior of mine who got me involved in this VCF setup.

      Categories: SDDC

      Share on
      You may also enjoy

      Compilations of Kubernetes Applications

      April 17, 2020   less than 1 minute read

      A few months ago, I had the chance to be involved in a couple of Pivotal Container Services (PKS) with NSX-T proof-of-concepts (POC). The thing about these P.

      Life in VMware, Going on 2020

      April 14, 2020   5 minute read

      Work From Home… Well hello there! It has been awhile since I last wrote something. Given that things are slowing down due to the COVID-19 outbreak and everyo.

      NSX-T 2.3 to 2.3.1 Upgrade Failure & Troubleshooting

      February 23, 2019   4 minute read

      2 weeks or so, I had to opportunity to help a customer out upgrading its NSX-T environment from 2.3 to 2.3.1. Apparently, this was suppose to be a straightfo.

      AWS Certified, New Year, New Financial Year, New Goals!

      February 16, 2019   3 minute read

      First off, I would like to start off by wishing everyone a Happy (Lunar) New Year. It’s been awhile since I last posted and I thought it would be nice to wri.

      What is VMware Cloud Foundation (VCF)?

      VMware Cloud Foundation

      VMware Cloud Foundation (VCF) is a single platform that includes:

      • Compute Virtualization (VMware vSphere)
      • Network Virtualization (VMware NSX)
      • Storage Virtualization (VMware vSAN)
      • Cloud Management and Monitoring (VMware vRealize Suite)

      VCF can be deployed in an on-premises environment where the customer is responsible for managing the physical infrastructure and virtual machine workloads. Vmware VCF can also be used as a service in a public cloud where the cloud provider manages the underlying infrastructure and the client manages the virtual machine workloads.

      About VMware Cloud Foundation components

      VCF is fully integrated software based on Hyper Converged Infrastructure concepts that accelerate the provision of Virtual Infrastructure (VI) and Virtual Desktop Infrastructure (VDI).

      VMware Cloud Foundation uses the following components:

      • VMware vCenter Server to monitor, manage, and deliver virtual machines
      • SDDC Manager to automate the startup, configuration, and provision of the entire SDDC stack
      • vSAN to speed up and simplify the use of external storage and provisioning of virtual machines
      • NSX for vSphere and NSX T (mainly for new application platforms), which provide networking and sufficient security for the vSphere Environment
      • vRealize Suite (vRealize Log Insight, vRealize Operations, vRealize Automation) for easier and faster preparation of the application environment by administrators

      What are VCF architecture models?

      There are currently two main VCF architecture models:

      The Standard Architecture Model has a dedicated management domain for absolutely all Cloud Foundation management components. The standard architecture model is most commonly used for medium to large deployments (vCenter Server instances run in tied mode with a maximum of 14 VI workload domains). Here, custom workloads run in the VI workload domain. This creates a separation between the management domain and the VI workload domains intended for custom workloads.

      The Consolidated Architecture model is simpler and is used for small deployments (up to 6 hosts), where the management domain and the custom workload domain run in the management domain. This provides isolation between the management domain and the VI workload domain using vSphere resource pools.

      How can your information be recovered?

      There is nothing to worry about: DiskInternals VMFS Recovery can recover all inaccessible data in VMFS format. The application deeply scans VMFS partitions created in VMware vSphere 3.5-6.5 and ESX / ESXi VMware ESX Server™, retrieves all possible information, and then lets you view the found files for free. DiskInternals VMFS Recovery also recovers VMDK images stored on disks formatted with VMware ESX / ESXi Server as needed. This VMDK recovery tool allows you to mount virtual disks as local disks so that they can be accessed in Windows Explorer, etc. So you have nothing to worry about: this application has been used by customers for over 15 years and has earned a lot of trust among both professionals and amateurs.

      Be sure to carefully read this guide to working with DiskInternals VMFS Recovery:

      Download and install the tool. As soon as you open the application, click on the Wizard icon and start the data recovery process (connect via SSH if necessary).

      After that, open the drive (local drive or SSH) and click on the Scan button. In the new window, find the files you want and mount the VMDK file. Then open this VMDK file and look at all the files found to check for their integrity.

      Then purchase a license on the company’s website and complete the entire process by exporting data, with help from an export wizard who will not steer you wrong.

      If the architecture of your virtual machine is complex enough, or during the recovery of VMDK files you find yourself in a difficult situation, you can contact the remote service center at Diskinternals and receive highly qualified assistance.

      Introduction to VMware Cloud Foundation (VCF)

      VMware Cloud Foundation(VCF) is VMware’s integrated SDDC platform for private and hybrid cloud infrastructures. This software package integrates VMware’s Compute, Storage and Network Virtualization solutions with a centralized automated lifecycle management tool call SDDC Manager. The core components of VCF are vSphere (Compute), vSAN (Storage) and NSX (Network & Security). VMware vRealize Suite can also be optionally added to VCF to increase the capability of SDDC infrastructure with performance & capacity Management and cloud management. Since VCF 3.8 beside running normal virtual machine workloads, you can also run containers with use of VMware Enterprise PKS.

      To start implementing VCF at least seven ESXi hosts is needed, four for Management Workload Domain(WLD) which hosts infrastructure components of SDDC and another three host for running actual infrastructure WLD. These nodes can be vSAN ready nodes or you can take advantage of DellEMC’s VxRAIL platform and run more integrated Hyper-converged(HCI) platform. The Management WLD brought up with use of special virtual appliance call Cloud Builder. This awesome tool brings up four first nodes in management cluster alongside Platform Service Controllers(PSC), vCenter Servers, NSX manager & controllers and vRealize Log Insight. After the initial bring up process VCF infrastructure management will be done through SDDC Manager.

      One concept that catch attentions of those who just started to work with VCF is Workload Domain(WLD). WLD is being used by VCF to group-together resources which contains host clusters and most possibly vSAN datastore. Earlier release of VCF each Workload domain could hold only one cluster but since VCF 3.0, each WLD can hold multiple host clusters. Initially WLD is also unit of lifecycle management in VCF and when the available upgrade packages are being applied to the WLD as a whole. The only exception is from VCF 3.9 individual host cluster can be life cycled for ESXi upgrades. This means that if you there is multi cluster WLD in place, every cluster can proceed with ESXi upgrades individually.

      In terms of storage, vSAN is the only storage solution that can be used in Management WLD. For VI, Horizon and PKS WLDs, VCF use vSAN as a principal preferred storage solution but, since VCF 3.5, NFS datastores and, since VCF 3.9, Fibre Channel systems can be used for storage consumption. But because of storage policy flexibility and compatibility with rest of VMware’s products, it is highly recommended to use VMware vSAN as the storage solution for VCF.

      Another aspect of VCF that provides value for customers is ease of Day 2 operations like lifecycle management and password-related operations. When there are various inter-related products that has been deployed into SDDC environment, it is always hard to execute upgrade projects. It can be super complex to define the inter-operable version and also update sequence. With use of VCF, upgrading SDDC environment is fully automated and orchestrated and the responsible team does not need to worry the upgrade process. It is just a matter of having the right packages downloaded into SDDC Manager’s repository and execute the upgrade in each WLD.

      In terms of password management, SDDC Manager is a central location that stores all administration password that is related to VMware SDDC environment. This is very important not just for ease of administration but also to make sure if a password changes, it get updated on all related systems. Password Management page of SDDC Manager can be used to update or automatically rotate password for accounts that are tracked in SDDC Manager.

      As it mentioned before, vRealize Suite can be implemented through SDDC Manager. vRealize Log Insight(vRLI) is the only product that is being deployed through the bring-up process but enabled and licensed only for Management WLD. In addition to vRLI, vRealize Operations(vROPS) and vRealize Automation(vRA) can also be deployed through SDDC Manager. One thing that should kept in mind is vRealize Suite Lifecycle Manager (vRSLCM) should be deployed prior to starting vROPS or vRA.

      In series of blog posts in VCF section, we will discuss various topics related to VMware Cloud Foundation deployment and administration.

      Leave a Reply Cancel reply

      About the Authors

      Sadaf Allahyari & Shahrouz Lahiji are Data Center & Cloud specialists. Both are double VCIX on Data Center & Network virtualization, vExperts and also VMUG leaders in Sweden.

      Референсные архитектуры: как построить программно-определяемый ЦОД?

      Итак, что же такое программно-определяемый (или программно-конфигурируемый) ЦОД (Software Defined Data Center, SDDC)? Прежде всего, это центр обработки данных с высокой степенью автоматизации, практически не требующий физического вмешательства. Все компоненты инфраструктуры такого ЦОД виртуализированы, а управление им полностью автоматизировано с помощью программного обеспечения. В случае VMware SDDC это программное обеспечение vSphere. VMware vSphere обеспечивает виртуализацию на каждом уровне, включая уровни вычислительных, сетевых ресурсов и ресурсов хранения данных.

      SDDC позволяет гибко предоставлять пользователям вычислительные, сетевые сервисы и сервисы хранения данных.

      В программно-определяемом центре обработки данных автоматизация на основе политик обеспечивает выделение ресурсов и управление ими. Результат — гибкость и эффективность ИТ, поддержки разного рода оборудования и приложений. На сегодня SDDC — проверенный архитектурный подход, основанный на виртуализации и автоматизации, а внедрять его можно поэтапно, не заменяя сразу существующую инфраструктуру ИТ.

      В программно-определяемом центре обработки данных вся инфраструктура виртуализирована, а управление автоматизировано с помощью программного обеспечения. Компания VMware продвигает концепцию SDDC с 2012 года.

      Для чего это нужно?

      С увеличением сложности ИТ становится труднее управлять ИТ-инфраструктурой в центре обработки данных, предвидеть последствия изменений. На инфраструктурные проблемы накладываются требования бизнеса: снижение затрат, более гибкое использование приложений, способных удовлетворить требования пользователей по стабильности работы, производительности, уровню доступности и легкости обновления.

      VMware SDDC включает в себя все программное обеспечение, необходимое для построения корпоративной инфраструктуры.

      Продукты VMware SDDC включают в себя ПО виртуализации вычислений VMware vSphere, виртуализации хранилищ VMware vSphere и VMware vSAN, виртуализации сети VMware NSX, а также облачную платформу управления VMware vRealize и интегрированную систему VMware EVO.

      Цель — получить гибкую, простую в управлении инфраструктуру ИТ, адаптируемую к меняющимся потребностям. Благодаря виртуализации вычислений, хранилищ и сетей SDDC меньше зависит от физического оборудования, базовой аппаратной платформы. Конфигурирование на основе политик и предоставление ресурсов ИТ по требованию упрощает управление ЦОД, расширение и обновление его инфраструктуры.

      Результат создания SDDC — высокая эффективность и низкие затраты. Виртуализированные ИТ-сервисы и автоматизированное управление операциями открывают новые возможности использования ресурсов и повышения производительности персонала. Конфигурирование на основе политик позволяет быстро развертывать рабочие нагрузки, а использование ресурсов автоматически настраивается в соответствии с меняющимися потребностями. Автоматизация функций обеспечения безопасности с учетом виртуализации увеличивает время бесперебойной работы.

      Вендоры предлагают несколько вариантов конфигураций оборудования и ПО для развертывания SDDC, включая гиперконвергентные решения «под ключ» — интегрированные аппаратные и программные системы, а также референсные, эталонные аархитектуры. Они предназначены для широкого спектра приложений и рабочих нагрузок.

      Ниже мы представим референсную архитектуру для создания программно-определяемого ЦОД VMware с использованием сертифицированных узлов и устройств Lenovo ThinkAgile VX, а также рассмотрим компоненты для интеграции локального облака VMware vRealize с облаком Amazon AWS.

      SDDC на базе Lenovo ThinkAgile VX

      Эта архитектура охватывает следующие программные продукты VMware:

      Продукт Назначение
      vsphere 6.7u1 (и vsphere 6.5 u2) виртуализация вычислительных ресурсов.
      vsan 6.7u1 программно-определяемое хранилище (sds).
      nsx для vsphere 6.4.4 виртуализация сети с помощью sdn и интеграция со шлюзами.
      vcloud suite 7.5 частное облако на основе vmware vsphere с использованием vrealize suite
      и дополнительных продуктов vsphere data protection and availability.
      vrealize suite 7.5 управление облаком для частных, публичных и гибридных облачных сред с
      поддержкой нескольких гипервизоров.
      aws server migration service connector миграция виртуальных машин из локального облака vsphere в публичное
      облако aws.
      vmware vcf 4.5 быстрое развертывание и эффективное управление инфраструктурой sddc.

      Ниже некоторые компоненты VMware SDDC описаны подробнее.

      Архитектура Lenovo для VMware SDDC предоставляет предприятиям облачное решение для управления всеми виртуализированными рабочими нагрузками. Эта референсная архитектура создана на основе серверных узлов Lenovo ThinkAgile VX и сетевого оборудования, предоставляет готовые к развертыванию и проверенные конфигурации.

      Узлы Lenovo ThinkAgile VX предназначены для развертывания гиперконвергентного программного обеспечения (Hyper-Converged Infrastructure, HCI) от VMware. Они поставляют собой проверенное и интегрированное аппаратное и программное обеспечение Lenovo с гипервизором VMware ESXi. Это решение сертифицировано для работы с программным обеспечением VMware и отвечает функциональным требованиям к SDDC. Его цель — упростить развертывание, обеспечить быструю окупаемость инвестиций и снизить затраты на ИТ.

      Функциональные требования к SDDC

      Требование Описание
      Виртуализация Обеспечивает виртуализацию вычислений, систем хранения и сети.
      Мониторинг, управление событиями и планирование Мониторинг работоспособности облачной инфраструктуры, сбор и обработка
      событий, планирование мощности.
      Автоматизация и самообслуживание Обеспечивает загрузку, предоставление и управление сервисами и виртуальными
      машинами из каталога сервисов.
      Обработка заявок Утверждение, изменение, отклонение и делегирование запросов на
      Администрирование Функции администрирования облачной среды, такие как добавление емкости
      или вычислительных ресурсов в пул.
      Управление образами ВМ Создание виртуальных машин, управления версиями, поиск и сравнение
      образов ВМ, их удаление из репозитория шаблонов ВМ.
      Управление сервисами Создание сервисов, контроль версий, поиск и удаление сервисов из
      каталога шаблонов сервисов.
      Контроль доступа и авторизация Создание пользователей и групп, их авторизация для выполнения
      определенных функций в облаке.
      Миграция ВМ Миграция приложений, виртуальных машин и шаблонов ВМ между частными и
      публичными облаками.
      Миграция политик безопасности Миграция сетевых политик и политик безопасности в публичное облако и

      Архитектура VMware SDDC. Разделение функций на кластеры упрощает масштабирование. Кластер управления обеспечивает изоляцию ресурсов.

      Компоненты VMware SDDC

      Основные компоненты VMware SDDC.

      VMware SDDC содержит следующие компоненты:

      Компонент Назначение
      Гипервизор ESXi Обеспечивает виртуализацию серверов и включает vSan для
      гиперконвергентных хранилищ.
      vCenter Server Централизованная платформа для управления vSphere, включает репликацию и
      защиту данных vSphere.
      Контроллер платформенных сервисов (PSC) Предоставляет набор общих сервисов инфраструктуры, которые включают
      единый вход (SSO), лицензирование и центр сертификации (CA).
      vRealize Suite Lifecycle Manager Предоставляет такие параметры развертывания, как установка, настройка,
      импорт и обновление сред vRealize suite, а также анализ и просмотр состояния
      этих сред.
      vRealize automation Предоставляет каталог ИТ-услуг и сервисов приложений с самообслуживанием
      с поддержкой политик для развертывания и предоставления релевантных для бизнеса
      облачных сервисов в частных и публичных облаках, физической инфраструктуре,
      гипервизорах и провайдерах общедоступных облаков.
      vRealize operations Набор компонентов для автоматизации операций.
      vCenter Site Recovery Manager (SRM) Предоставляет возможности аварийного восстановления.
      vRealize orchestrator Позволяет создавать рабочие процессы, которые автоматизируют такие
      действия как подготовка виртуальной машины, выполнение планового обслуживания и
      резервного копирования.
      NSX Обеспечивает виртуализацию сетей.
      VMware integrated openstack (VIO) Предоставляет дистрибутив OpenStack, поддерживаемый vmware.

      Остановимся на некоторых компонентах подробнее.

      VMware vSAN

      VMware vSAN — это решение с программно-определяемой системой хранения (SDS), интегрированное с гипервизорои ESXi. VMware vSAN объединяет кэш на флэш-памяти диски на трех или более серверах, подключенных по 10GbE, в одно общее хранилище данных. Согласно исследованию Gartner, в ближайшие пять лет доля программно-определяемых СХД на мировом рынке вырастет до 50%.

      VMware vSAN можно масштабировать до 64 серверов, причем каждый сервер поддерживает до пяти групп накопителей. Группа включает твердотельные накопители (SSD) и до семи жестких дисков (HDD). Производительность и емкость хранилища можно легко увеличить, добавив диски, флэш-память или серверы. Кэш-память используется для ускорения чтения и записи.

      Основные нагрузки, размещаемые на vSAN. 64% составляют критичные для бизнеса приложения (по данным опроса VMware).

      VMware vSAN использует распределенную архитектуру RAID: данные распределены по кластеру. Используется метод RAID-0, RAID-1 или RAID-5/6. В этом решении применяется управления на основе политик хранения (SPBM). Ресурсы хранения выделяются динамически на основе запрошенной политики, а не заранее, как во многих традиционных решениях.

      Особенности VMware vSAN.

      Виртуализация сети передачи данных

      VMware NSX Data Center — это решение SDN, позволяющее создавать оверлейные сети с теми же возможностями, которые доступны в физической сети. VMware NSX можно использовать с гипервизором VMware vSphere, а также с несколькими другими гипервизорами. По сути, VMware NSX представляет собой набор виртуальных машин, которые совместно работают для поддержки оверлейной сети. Эти компоненты распределены по нескольким хостам или кластерам.

      Компоненты NSX

      Компонент Описание
      NSX manager Предоставляет единую точку управления SDN.
      NSX controller Содержит информацию об оверлейной сети, такие как логические
      коммутаторы, VXLAN и виртуальные машины.
      Интерфейс VTEP VMkernel Создается менеджером NSX во время начальной подготовки хоста ESXi к
      участию в оверлейной сети.
      Шлюз Edge services Предоставляет доступ ко всем сервисам NSX edge, таким как брандмауэр,
      NAT, DHCP, VPN, балансирование нагрузки и высокая доступность.
      Логический коммутатор Каждому логическому коммутатору назначается VXLAN. Логические
      коммутаторы создаются и настраиваются NSX manager.
      Логический (распределенный) маршрутизатор Периферийный сервис, который обрабатывает трафик «восток-запад», чтобы
      уменьшить объем трафика, получаемого периферийными шлюзами. Также называется
      логическим распределенным маршрутизатором (LDR).
      Физический маршрутизатор Маршрутизатор, который логически связан с каждым хостом ESXi в центре
      обработки данных.

      Платформа VMware NSX помогает получить готовую сетевую среду для центров обработки данных, физическую и виртуальную, обеспечить централизованное управление, упростить ИТ-операции и сократить время на запуск новых приложений.

      Она позволяет отказаться от проприетарных решений ради открытых, гибких, простых и экономичных сетевых технологий, ускорить работу сетей и сократить время запуска сервисов, сократить время внедрения новых приложений, воспользоваться сетевой виртуализацией, технологиями изоляции и сегментации сетей, подключать к виртуальным сетям физические рабочие нагрузки. Кроме того, можно повысить производительность и качество сервисов за счет автоматического определения и изолирования потоков приложений. В целях безопасности ЦОД используют микросегментацию.

      VMware NSX позволяет создавать виртуальные сети, отличающиеся способностью очень быстро развертывать безопасную среду для новых приложений из пула сетевых ресурсов. Виртуальная сеть может устранить ограничения, диктуемые физической инфраструктурой. Кроме того, благодаря сетевой виртуализации виртуальная сеть отдельного приложения приобретает мобильность и независимость от конкретной физической инфраструктуры.

      Сертифицированные узлы Lenovo ThinkAgile VX

      Сертифицированные узлы Lenovo ThinkAgile VX на основе двухсокетных серверов Lenovo ThinkSystem SR630 в корпусе 1U подойдут для работы с широким спектром рабочих нагрузок, таких как базы данных, виртуализация и облачные вычисления, инфраструктура VDI, корпоративные приложения, приложения для совместной работы и электронная почта, потоковая передача мультимедиа, HPC и др.

      Узел ThinkAgile содержит до 12 2,5-дюймовых жестких дисков SAS/SATA (SFF) с возможностью горячей замены или SSD-накопителей или четыре 3,5-дюймовых накопителя (LFF) с возможностью горячей замены, а также поддерживает до 10 накопителей SFF U.2 NVMe PCIe с горячей заменой.

      Сертифицированный узел Lenovo ThinkAgile VX 1U с 4 отсеками для накопителей LFF или 10x SFF.

      Сертифицированные узлы Lenovo ThinkAgile VX 2U на основе серверов Lenovo ThinkSystem SR650 аналогичны ThinkAgile VX 1U, но имеют форм-фактор 2U.

      Сертифицированные узлы Lenovo ThinkAgile VX 2U с 16 отсеками для накопителей SFF, 12 LFF или 24 SFF.

      Основные отличия такого варианте от сертифицированных узлов VX 1U заключаются в большем количестве слотов расширения и шасси с поддержкой до 24 2,5-дюймовых накопителей с горячей заменой или 14 3,5-дюймовых накопителей SAS/SATA с возможностью горячей замены, либо накопителей SAS и 8 на SSD-накопителями U.2 NVMe PCIe. ThinkAgile VX 2U также поддерживает до двух графических адаптеров NVIDIA.

      Сертифицированные узлы Lenovo ThinkAgile VX 2U4N на основе Lenovo ThinkSystem SD530 — это сверхплотный двухпроцессорный сервер с форм-фактором 0,5U. С четырьмя узлами ThinkAgile VX 2U4N, установленными в корпус ThinkSystem D2 Enclosure, либо в ThinkSystem Modular, вы получите платформу высокой плотности 2U для корпоративных и облачных рабочих нагрузок.
      ThinkAgile VX 2U4N может содержать до шести 2,5-дюймовых накопителей SAS/SATA с возможностью горячей замены и до четырех твердотельных накопителей PCIe U.2 NVMe.

      Сертифицированные узлы Lenovo Think Agile VX 2U4N.

      Системы ThinkAgile VX Series можно настраивать для любого сценария использования. Они поставляются с VMware ESXi и настроены для работы с vSAN.

      Для сегмента SMB компания предлагает платформы Lenovo ThinkAgile серии VX2000 и VX3000:

      • Lenovo ThinkAgile VX2320 1U (4 LFF-накопителя с возможностью горячей замены).
      • Lenovo ThinkAgile VX3000 Series — универсальные платформы 1U, 2U с 1 узлом и 2U с 4 узлами, подходящие для нагрузок VDI. Эти модели поддерживают GPU.
      • Lenovo ThinkAgile VX3320 (1U, 10 SFF с возможностью горячей замены).
      • Lenovo ThinkAgile VX3520-G (2U, 16 2,5-дюймовых дисков с возможностью горячей замены, два NVIDIA PCIe GPU).
      • Lenovo ThinkAgile VX3720 (2U, 4 узла, 6 SFF, 2,5-дюймовые накопители с горячей заменой).
      • Lenovo ThinkAgile VX5520 (1U, 12 LFF с возможностью горячей замены — 2,5-дюймовые твердотельные накопители в 3,5-дюймовых слотах или 3,5 дюймовые диски).
      • Lenovo ThinkAgile VX7320-N (1U, 10 SFF U.2 NVMe PCIe).
      • Lenovo ThinkAgile VX7520 (2U, 24 SFF с возможностью горячей замены).

      Lenovo System Networking RackSwitch G8052 — это коммутатор Ethernet, разработанный для центра обработки данных. Он предлагает до 48 портов GbE и до 4 портов 10GbE, предусматривает резервные блоки питания, вентиляторы и различные функции высокой доступности.

      Конфигурация сервера

      Поскольку в общем кластере размещаются рабочие нагрузки клиентов, сервисы NSX и периферийные сервисы, рекомендуется следующая конфигурация узла:

      • 2 процессора Intel Xeon Gold 6130 (2,10 ГГц, 16 ядер).
      • 384 ГБ системной памяти.
      • Двухпортовая сетевая карта 10GbE.
      • 1 х 430-8i HBA.
      • 2 x 400 ГБ SSD.
      • 6 x 1,2 ТБ 10 HDD.
      • Двойные загрузочные накопители M.2 для ESXi.
      • ESXi 6,7.

      Важной частью инфраструктуры является балансирование нагрузки виртуальных машин сервера и распознавание ситуации, когда сервер не работает, и нужно переключиться на второй сервер. Для подключенного к интернету кластера также важно обеспечить защиту от внешних угроз. Существует много способов решения этих проблем, таких как использование пограничного шлюза F5 Big-IP или виртуальной машины. Подробности можно найти в документах Lenovo.

      Гиперконвергентное хранилище с использованием vSAN

      Общая емкость для виртуальных машин кластера управления составляет 9 ТБ. Это при условии наличия двух виртуальных машин в режиме высокой доступности. Добавим 50% для потенциального роста. Это означает, что необходимо 13 ТБ. Большая часть данной емкости используется некоторыми виртуальными машинами SQL-сервера и зависит от среды заказчика. Для кластера управления требуется в общей сложности до 26 ТБ. Эту емкость можно получить, используя четыре сервера с двумя группами дисков на сервер. Каждая группа дисков состоит из одного 400 ГБ SSD и трех жестких дисков по 1,2 ТБ. Общее количество жестких дисков составляет 3 x 2 x 4 = 24, что дает емкость 26,2 ТБ.

      Кластер управления: конфигурация сервера

      Кластер управления должен включать как минимум четыре хоста для обеспечения высокой
      доступности. Для большого количества виртуальных машин управления, которые можно использовать в кластере управления, для каждого сервера рекомендуется следующая конфигурация:

      • 2 процессора Intel Xeon Gold 6130 (2,10 ГГц, 16 ядер).
      • 384 ГБ системной памяти.
      • Двухпортовая сетевая карта 10GbE.
      • 1 х 430-8i HBA.
      • 2 x 400 ГБ SSD.
      • 6 x 1,2 ТБ HDD.
      • Двойные загрузочные накопители M.2 для ESXi.
      • ESXi 6,7.

      Тест Yahoo (YCSB): результаты узлов Lenovo

      Этот тест используется для указания относительной производительности хранилища для различных вычислительных нагрузок кластера. YCSB — платформа для тестирования NoSQL. Тест содержит различные нагрузки для выполнения операций чтения, вставки, обновления, удаления и сканирования, что дает возможность оценить нагрузку при работе с базами данных NoSQL и производительность систем ввода-вывода. Он поддерживает настройку рабочих нагрузок с различным соотношением операций чтения и записи.

      Тест YCSB был запущен на виртуальных машинах Ubuntu 16.04.4 LTS с mongodb v3.6.3 и механизмом хранения «WiredTiger». Каждая виртуальная машина имела 2 виртуальных ЦП, 4 ГБ памяти и 50 ГБ памяти.

      Тест был выполнен с 48 и 96 виртуальными машинами. Кроме того, четыре другие виртуальные машины Ubuntu 16.04.4 LTS с клиентами YCSB использовались для моделирования нагрузки на виртуальные машины mongodb. Чтобы оценить систему ввода/вывода, для достижения целевой скорости 5000 операций с базой данных в секунду использовались 125 одновременных потоков.
      Были протестированы три разные рабочие нагрузки, каждая с разным соотношением операций чтения и записи. Использованы следующие рабочие нагрузки:

      • Рабочая нагрузка A — Загрузка (100% записи) — создание 10 миллионов записей

      Сравнение производительности для рабочей нагрузки при 80% операций чтения и 20% операций записи.

      Тест YCSB выполнялся на четырех сертифицированных узлах Lenovo ThinkAgile 1U. Узлы, использованные для тестирования ESXi 6.7, были оснащены 2 процессорами x 6130 (16 ядер, 2,1 ГГц) и 384 ГБ системной памяти, а узлы для ESXi 6.7u1 — 2 процессорами Intel Xeon Scalable Gen2 2 x 6230 (20 ядер, 2,10 ГГц). и 384 ГБ памяти. Виртуальные машины были равномерно распределены по четырем машинам. Для теста YCSB 48 ВМ используют 9,8 ТБ, а 96 ВМ — 19,6 ТБ емкости.

      Для гибридного массива vSAN каждый из четырех серверов использовал две группы накопителей, каждая включала твердотельный накопитель емкостью 800 ГБ и три жестких диска емкостью 1,2 ТБ, то есть всего 8 кэш-накопителей и 24 жестких диска емкостью с общей емкостью хранения 27 ТБ. Для флэш-массива vSAN каждый из четырех серверов использовал две группы, каждая включала твердотельный накопитель емкостью 800 ГБ и два твердотельных накопителя емкостью 3,84 ТБ, то есть всего 8 SSD под кэш и 16 SSD-накопителей общей емкостью 43 ТБ.

      Результаты для 48 виртуальных машин показывают лишь незначительное улучшение при работе с флэш-памятью. Результаты для 96 виртуальных машин демонстрируют заметно лучшую производительность для 96 виртуальных машин при работе с флэш-памятью (all-flash) по сравнению с гибридной системой. Это доказывает, что флэш-память гораздо быстрее при больших нагрузках ввода-вывода, как и ожидалось.

      VMware Cloud Foundation

      VMware Cloud Foundation (VCF) — это единая гибридная платформа для развертывания VMware SDDC как частного облака и для интеграции с публичными облаками. Это решение предоставляет программно-определяемые сервисы для управления вычислениями, хранением, сетями и облаком для различных рабочих нагрузок. Оно упрощает установку, обновление и компонентов SDDC благодаря управлению их жизненным циклом.

      Возможности автоматизации обеспечивает новый компонент VMware SDDC Manager. ПО SDDC Manager автоматизирует установку и управление жизненным циклом vSphere, vSAN и NSX — от запуска и настройки до обновления, а также установку и настройку ПО vRealize Log Insight, vRealize Operations и vRealize Automation.

      Cloud Foundation объединяет VMware vSphere (вычислительные ресурсы), vSAN (хранилище) и виртуализацию NSX (сеть) в один стандартный интегрированный пакет. Cloud Foundation можно развернуть в локальном частном облаке или использовать как сервис публичного облака.
      VCF поставляется либо в виде интегрированного аппаратного стека, либо в виде пакета программного обеспечения для установке на оборудовании заказчика. VCF поддерживает развертывание компонентов SDDC на широком спектре физических серверов (vSAN Ready Nodes) и сетевых коммутаторов, формируя гибкую гетерогенную инфраструктуру для поддержки различных рабочих нагрузок. В частности, VCF можно установить на сертифицированных узлах Lenovo ThinkAgile VX.

      Решение протестировано, валидировано и поддерживается вендором. Клиенты получают все необходимые компоненты «из одного окна», что облегчает процесс заказа и поддержки. Готовые референсные архитектуры значительно упрощают внедрение и эксплуатацию таких комплексов.

      Проверенные архитектуры Validated Design

      Комплексные и тщательно протестированные схемы для разработки и эксплуатации программного ЦОД

      Проверенная архитектура VMware Validated Design предоставляет комплексные, прошедшие всестороннее тестирование схемы для разработки и эксплуатации программного ЦОД.

      Архитектуры VMware Validated Design — это комплексные архитектуры для развертывания и настройки полноценного программного ЦОД VMware в широком спектре сценариев с подробными рекомендациями по эффективной эксплуатации.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *