Windows server windows storage server 2012 r2 standard

Windows Storage Server is an exciting development in the storage platform. It can run on nearly any spec'd hardware and allows for simple management of storage appliances across a wide variety of manu

Windows Storage Server is an exciting development in the storage platform. It can run on nearly any spec’d hardware and allows for simple management of storage appliances across a wide variety of manufacturers.  Unlike customized NAS OS from other platforms, you get similar features and functions across an array of manufacturers.  It is offered in two flavors, provides simple management, and runs like a champ.  Additionally, having familiarity with Windows Server operating systems allows administrators to dive right in.

Buffalo-5400WSS (17)

Windows Storage Server comes in two flavors, WorkGroup and Standard. While they function the same, there are some key differences between the two:

Role/Feature Windows Storage Server 2012 R2 Workgroup Windows Storage Server 2012 R2 Standard
Active Directory domain controller No No
Domain join Yes Yes
Active Directory Lightweight Directory Services (AD LDS) Yes Yes
Active Directory Certificate Services (AD CS) No No
Active Directory Federation Services (AD FS) No No
Active Directory Rights Management Services (AD RMS) No No
BranchCache™ Peer to Peer Yes Yes
BranchCache™ Hosted cache No Yes
Failover clustering No Yes
Data Deduplication No Yes
Virtualization (Hyper-V® host or guest support) No Yes, 2 VMs
Dynamic Host Configuration Protocol (DHCP) No Yes
DNS No Yes
Windows Internet Name Service (WINS) No Yes
Application Server No No
Network Policy No No
Desktop Broker No No
Windows Deployment Server (WDS) No No
Fax Server No No

 WSS (1)

Hardware feature Windows Storage Server 2012 R2 Workgroup Windows Storage Server 2012 R2 Standard
Architecture x64 x64
CPU Sockets 1 2 per license
Random access memory (RAM) 32 gigabytes Unlimited (2 TB on Windows Storage Server 2012 Standard)
Disks (number / interfaces / RAID type) 6/Non-external SAS/Any Any/Any/Any
Concurrent Server Message Block (SMB) connections 250 Unlimited
Maximum number of users 50 Unlimited

Buffalo-5400WSS (1)

Additionally, licenses can be stacked. If you wanted to create a four socket system and wanted to have four virtual machine licenses you can stack two Standard licenses on the solution.

Key enhancements for Windows Storage Server 2012 R2 over is older brothers (2008/R2 and 2012):

iSCSI Target Server –Improvements to iSCSI Target Server include support for VHDx (VHD 2.0) virtual hard disks for capacities of up to 64 TB. iSCSI Target Server also now supports SMI-S, enabling end-to-end provisioning using System Center Virtual Machine Manager.

SMB – Improvements to the Server Message Block (SMB) protocol include better SMB Direct performance, automatic rebalancing for Cluster Shared Volumes (CSV) on scale-out file servers, shared VHDx files, Hyper-V Live Migration over SMB, SMB bandwidth management, detailed event messages, and more.

Work Folders – a new feature that facilitates the BYOD (bring-your-own-device) scenario by enabling users to access work files from their personal computers and devices. Organizations retain centralized control over their data and can specify device policies such as encryption and lock screen password.

DFS Replication – Enhancements include increases in scalability, the ability to do database cloning and corruption recovery, a Windows PowerShell module, a new WMI provider, faster replication on high bandwidth connections, and recovery tools for conflicts.

Failover Clustering – Enhancements include improvements to virtual machine availability, Cluster Shared Volumes (CSV), dynamic cluster quorums, cluster node health detection, deployment, updating and monitoring.

Hyper-V – Enhancements include shared virtual hard disks, resizing of virtual hard disks while a VM is running, storage quality of service (QoS), improved performance for live migrations, cross-version live migrations, and several more new or improved capabilities.

Storage Spaces – Enhancements include storage tiering, SSD write-back caches for storage spaces, parity storage spaces on failover clusters, dual parity storage spaces, and faster rebuilding of storage spaces after disk failures.

Data Deduplication – Enhancements include support for Cluster Shared Volumes and deduplication of live Virtual Desktop Infrastructure (VDI) VMs that reside on a file server connected via SMB.

OEM Appliance OOBE (out-of-the-box experience) – Enhancements include added support for four-node cluster deployments and a wizard for creating a domain controller within a Hyper-V VM that can be used to deploy a turnkey cluster-in-a-box.

Storage Management API – Enhancements include an improved Storage Management API enables 10x faster enumerations, added cluster-awareness, and remote management for Storage Spaces new features.

All versions of Windows Storage server can be added to an Active Directory domain, but it cannot function as a domain controller.

Корпорация Microsoft в конце октября выпустила свою новую операционную систему для серверов Windows Server 2012, которая имеет несколько редакций. Системные администраторы могут выбрать те преимущества решения, которые являются для них наиболее значимыми и удовлетворяют их финансовым и функциональным требованиям. Рассмотрим эти редакции Windows Server 2012 подробнее

Николай Печенкин — старший преподаватель учебного центра «Микротест» по направлению Microsoft

.

1. Редакция Windows Server 2012 Standard. Включает в себя все роли и компоненты, доступные для платформы Windows Server 2012, поддерживает до 64 процессорных разъемов, до 4 Тбайт оперативной памяти и предусматривает две лицензии для виртуальных машин.

2. Редакция Windows Server 2012 Datacenter. Включает все роли и компоненты, доступные для платформы Windows Server 2012, поддерживает до 64 процессорных разъемов, до 640 ядер процессоров и до 4 Тбайт оперативной памяти. Предусматривает неограниченное количество лицензий для запуска виртуальных машин на этом же оборудовании.

3. Редакция Windows Server 2012 Foundation. Поставляется только вместе с серверным аппаратным обеспечением, поддерживает 15 пользователей; сервер не может быть включен в домен. Поддерживает один процессор, 32 Гбайт оперативной памяти и только часть служебных ролей сервера.

4. Windows Server 2012 Essentials. Служит в качестве замены редакции Small Business Server в предыдущих версиях. Не может запускать роль Hyper-V, участвовать в формировании отказоустойчивого кластера, устанавливаться в режиме ядра server core или быть сервером служб удаленных рабочих столов remote desktop services. Поддерживает подключение до 25 пользователей и 50 устройств, два процессора и 64 Гбайт оперативной памяти. Сервер с этой редакцией должен быть основным (root) сервером в домене.

5. Microsoft Hyper-V Server 2012. Автономная редакция Hyper-V для виртуальных машин без пользовательского интерфейса. Не требует лицензии для хостовой операционной системы, виртуальные машины при этом лицензируются как обычно. Поддерживает 64 процессорных разъема и 4 Tбайт оперативной памяти. Может подключаться к домену. Не поддерживает другие роли Windows Server 2012.

6. Windows Storage Server 2012 Workgroup. Поставляется только вместе с аппаратным обеспечением. Система хранения начального уровня. Поддерживает до 50 пользователей, один процессор и 32 Гбайт оперативной памяти. Возможно подключение к домену.

7. Windows Storage Server 2012 Standard. Поддерживает 64 процессора, но лицензируется с шагом в два. Поддерживает 4 Tбайт оперативной памяти. Включает две лицензии на виртуальные машины. Предполагает включение в домен. Поддерживает некоторые роли, например DNS и DHCP Server, но не поддерживает: Active Directory Domain Services (AD DS), Active Directory Certificate Services (AD CS) и Active Directory Federation Services (AD FS).

8. Windows MultiPoint Server 2012 Standard. Предусматривает доступ нескольких пользователей к одному хостовому компьютеру напрямую, при этом каждый из них использует свою мышь, клавиатуру и монитор. Поддерживает один процессор, 32 Гбайт оперативной памяти и максимум 12 сессий. Поддерживает некоторые роли, например DNS и DHCP Server roles, но не поддерживает AD DS, AD CS и AD FS. Включение в домен невозможно.

9. Windows MultiPoint Server 2012 Premium. Поддерживает доступ нескольких пользователей к одному хостовому компьютеру напрямую, при этом каждый работает со своей мышью, клавиатурой и монитором. Поддерживает 2 процессора, 4 Тбайт оперативной памяти и максимум 22 сессии. Предполагается использование некоторых ролей, например DNS и DHCP Server; не поддерживаются AD DS, AD CS и AD FS. Допускается подключение к домену.

Требования к аппаратной части Windows Server 2012 зависят от количества ролей и пользователей, подключающихся к серверу. Каждая роль и каждый установленный компонент, в свою очередь, увеличивают общую нагрузку на жесткий диск, процессор, память. При установке Windows Server 2012 в виртуальной среде требования к аппаратной части не меняются, установка возможна на платформу виртуализации Hyper-V, а также на некоторые платформы сторонних разработчиков. Минимальные требования к аппаратному обеспечению представлены в таблице.

Минимальные требования к аппаратному обеспечению для Windows Server 2012

При рассмотрении вопроса об обновлении или миграции на Windows Server 2012 следует учитывать особенности, описанные ниже.

Установка через обновление

При установке методом обновления сохраняются файлы, настройки и приложения, установленные на исходном сервере. Вы выполняете обновление в случае, если хотите продолжать использовать то же самое серверное оборудование. Вы можете обновить имеющуюся версию до Windows Server 2012 только с x64 версий Windows Server 2003, Windows Server 2003 R2, Windows Server 2008 и Windows Server 2008 R2.

Установка посредством миграции

Используйте миграцию, когда вы хотите перейти от x86 версии Windows Server 2003, Windows Server 2003 R2 или Windows Server 2008. При миграции можно задействовать компонент Windows Server Migration Tools, входящий в состав Windows Server 2012 для переноса файлов и настроек с компьютеров, работающих под управлением Windows Server 2003, Windows Server 2003 R2, Windows Server 2008, Windows Server 2008 R2.

Кроме представленных выше редакций Windows Server 2012 поддерживает установку в режимеServer Core (минимальный вариант установки Windows Server 2012). При этом работа с сервером осуществляется из командной строки либо с удаленного компьютера, с помощью установленных средств администрирования. Подобный подход имеет ряд преимуществ.

-Поскольку сервер в режиме Server Core имеет меньшее количество компонентов, он требует меньшего количества обновлений, что сокращает время обслуживания сервера системными администраторами.

-Набор функций минимален, требуется меньшее количество оперативной памяти и меньше места на диске.

-Меньшее количество приложений сокращает площадь атаки на сервер.

Возможны два варианта установки Server Core. Первый — стандартный вариант установки. По умолчанию все графические инструменты администрирования находятся в состоянии «Удалены» (Removed). Управление осуществляется локально, только из командной строки, либо путем подключения с удаленной системы с помощью графических средств. Вы можете преобразовать Server Core до полной версии Windows Server 2012 с графическими инструментами администрирования только при наличии всех файлов установки.

Второй вариант — установка в режиме Server Core с инструментами управления. Этот вариант также известен как Server Core-Full Server. Данная редакция работает подобно Windows Server 2012 с графическими инструментами управления. При этом все графические компоненты уже скопированы на диск, но не установлены. Вы можете конвертировать Server Core-Full Server до Windows Server 2012 без дополнительных файлов установки.

Пробежимся по установке

Обычная установка Windows Server 2012 (если вы ее осуществляете без использования файла ответов) включает следующие шаги.

1.Подключение к источнику установки. При этом возможны варианты:

*начать установку с DVD-ROM;

*начать установку с диска USB;

*произвести загрузку по сети (PXE boot), после чего подключиться к серверу WDS и начать установку.

2.На первой странице Windows Setup Wizard необходимо выбрать:

*язык установки;

*формат времени и валюты;

*раскладку и методы ввода.

3.На второй странице мастера Windows Setup Wizard следует выбрать вариант «Установить» (Install now). Также на этой странице вы можете выбрать вариант «Восстановить» (Repair Your Computer). Эту возможность следует выбирать в том случае, если вы не можете загрузить уже установленную версию Windows Server 2012.

4.На странице выбора версии операционной системы указывается версия для установки. По умолчанию задан режим Server Core.

5.На странице лицензионного соглашения необходимо ознакомиться с ним и принять для продолжения установки.

6.На странице выбора типа установки доступны следующие варианты:

*обновление (Upgrade); выбирайте этот вариант, если требуется выполнить обновление до Windows Server 2012 с уже установленной версии Windows Server;

*Custom; выбирайте этот вариант, если нужно выполнить новую установку.

7.На странице выбора места для установки укажите диск, на который необходимо произвести установку. На данном этапе вы можете отформатировать диск, разбить его на разделы, создать диск VHD для установки операционной системы на него. После нажатия кнопки «Далее» начнется процесс копирования файлов, и компьютер будет несколько раз перезагружен. Время установки в первую очередь зависит от аппаратных характеристик компьютера.

8.На странице настроек Settings необходимо ввести пароль для локальной учетной записи администратора, после чего вы сможете выполнить регистрацию в системе для выполнения дополнительных настроек.

От ядра

Одной из новых функций Windows Server 2012 является возможность перехода от версии Core к полноценной версии с графическим интерфейсом без переустановки всей операционной системы. Для этого потребуется выполнить следующие действия:

-создать папку для монтирования образа. Для этого в командной строке выполним команду mkdir c:mount

-смонтировать образ полной версии Windows Server 2012 — dism.exe /mount-image /ImageFile:d:sourcesinstall.wim /Index:4 /Mountdir:c:mount /readonly

-импортировать графические модули, выполнив следующие команды:

*PowerShell.exe

*Import-Module ServerManagerInstall-WindowsFeature -IncludeAllSubfeature User-Interfaces-Infra -Source:c:mountwindows

и далее выполнить перезагрузку — Shutdown /r /t 5

После проведения этой процедуры вы получите полноценную версию Windows Server 2012 с графическими инструментами управления (см. экран).

Окно Windows Server 2012 с графическими инструментами управления
Экран. Окно Windows Server 2012 с графическими инструментами управления

Для обратного преобразования необходимо выполнить следующие команды:

— Powershell.exe;

— Import-Module ServerManager;

— Uninstall-WindowsFeature User-Interfaces-Infra;

— Shutdown /r /t 5.

Содержание

Что нового в хранилище Windows Server 2012 R2?
Многоуровневые пространства хранения
Кеш с обратной записью
Распараллеленное восстановление
Низкоуровневое усовершенствование: встроенная поддержка секторов 4 КБайт
Поддержка UEFI BIOS позволяет работать с дисками GPT
Утилита снкdsк стала более интеллектуальной
Онлайновое самолечение
Онлайновая верификация
Онлайновая идентификация и ведение журналов
Точное и быстрое исправление
Пространства хранения в Wiпdows Server 2012 R2
Повторное использование технологии из облачных служб Microsoft
Предоставление SАN-подобных возможностей посредством инструментов управления Microsoft
Создание пространствах хранения
Создание пула
Ограничения пулов хранения
Просмотр устройств в инструменте Disk Management
Работа с пулом хранения в PowerShell
Выделение пространств а пула под виртуальный диск
Демонстрация настройки многоуровневого хранения с помощью PowerShell
iSCSI в пространствах имен
Добавление целевой службы iSCSI
Подключение к виртуальному диску iSCSI со стороны клиента
Общие ресурсы NFS
Где используется общий ресурс NFS
Быстрая настройка общего ресурса NFS
Подключение к общему ресурсу NFS со стороны клиента
Дедупликация: диск и сеть
Конфигурирование дедупликации данных с помощью диспетчера серверов
Конфигурирование дедупликации данных с помощью PowerShell
Проверка томов на предмет повреждений

Администраторы, которые имели возможность поработать какое-то время с
пространствами хранения (Storage Spaces) в Windows Server 2012, наверняка по
достоинству оценят изменения, внесенные в Windows Server 2012 R2. Но прежде чем приступить к их обсуждению, давайте ознакомимся с краткой сводкой п Storage Spaces, предназначенной для тех, кто не еще не имел дела с этим средством.
Средство Storage Spaces было представлено в Windows Server 2012 как встроенный компонент. Вспомните, что это не RAID, но кое-что новое, что было спроектиро­вано для полноценного корпоративного использования.
Базовая функция Storage Spaces заключается в том, чтобы дать возможность взять просто группу дисков Uust а bunch of disks — JBOD) и сконфигурировать их в пуле. Отсюда вы можете созда­вать виртуальные диски (действительное пространство хранения) и тома с устойчи­востью к отказам разнообразных уровней. Такой тип конфигурации обеспечивает высокую гибкость.
Представьте себе отсутствие обязательства инвестировать в крупную дорогос­
тоящую сеть хранения данных (storage area network — SAN) или в специальное
обучение, которое администраторы должны были бы пройти, чтобы конфигури­
ровать и обслуживать эту сеть. Основной целью Storage Spaces является предостав­
ление рентабельного решения для хранилища с непрерывным доступом к данным.
Пространства хранения и пулы спроектированы с возможностью увеличения по
запросу.

Ниже приведен список лишь некоторых возможностей в Storage Spaces, входя-
щих в состав Windows Server 2012:
• оперативная настройка;
• устойчивость к отказам (зеркальное отображение и контроль по четности);
• интеллектуальное исправление ошибок;
• поддержка множества владельцев;
• интеграция с CSV для возможности обработки масштабированных сценариев.
В этой главе вы изучите следующие темы:
• создание пула хранения на виртуальном диске;
• создание дополнительного хранилища на виртуальном диске;
• применение приемов дедупликации для сокрашения размера файлов.

Что нового в хранилище Windows Server 2012 R2?

Поскольку эта книга посвяшена Windows Server 2012 R2, мы покажем, что нового
пояnилось в хранилище. Разработчики из Microsoft включили в Storage Spaces тех­нологию, которую ранее можно было nстретить только в дорогостоящих массивах хранения. Эта технология подробно рассматривается в последующих разделах.

Многоуровневые пространства хранения

В современном мире хранилищ существует несколько классификаций дисков, в
том числе последовательная расширенная технология подключения (Serial Advance
Technology Attachment — SATA), последовательно присоединенное SСSl-устройство (Serial Attached SCSI — SAS), твердотельный накопитель (Solid State Drive — SSD) и оптоволоконный канал (Fibre Channel). Выбор правильного типа хранилища для ра­боты очень важен. Например, если вам необходим файловый сервер, то SSD не яв­ляется удачным выбором. Накопители SSD были спроектированы для обеспечения
высокой скорости, но не емкости, и в связи с тем, что файловые серверы обычно нуждаются в емкости, а не скорости, в этом случае намного лучше может подойти диск SATA, который проектировался для большей емкости, нежели скорости.
В Windows Server 201 2 R2 можно иметь максимум два уровня хранения, в сущнос­ти, быстрый уровень и медленный уровень. На быстром уровне автоматически ис­пользуется SSD, а на меменном — SATA. По-настоящему хорошо здесь то, что ад­министратор не должен решать заранее, где размещать данные.
Службы управления
уровнями хранения (Storage Тiers Manageшent Service) автоматически проанализиру­ет данные на дисках в срезах по 1 Мбайт. Она имеет две категории для назначения:
горячие точки (hot spot) и холодные точки (cold spot). Горячие точки — это об.1асти данных, доступ к которым производится часто; здесь выдвигается предположение о том, что поскольку это активные данные, они являются своего рода «горячей те­мой». Холодные точки представляют собой противоположность: данные, доступ к которым осуществляется нечасто. После анализа горячие точки будут переведены
на уровень SSD, а любые идентифицированные холодные точки будут назначены
уровню SATA.

По умолчанию анализ происходит ежедневно в 1 :00, но вы можете сконфигури­
ровать это по своему усмотрению (рис. 1 2. l ). Но если файл нуждается в нахожде­нии на быстром уровне все время, администратор может «закрепить» такой файл на этом уровне.

Рис. 12.1 . Служба Storage Tiers Management в планировщике задач

Кеш с обратной записью

Под кешем с обратной записью понимается способ записи данных на диск.
Данные сначала записываются в кеш, и будут храниться в нем до тех пор, пока их не потребуется перезаписать; в этот момент они сбрасываются на диск и фиксиру­ются. В общем случае запись и хранение данных в кеше обеспечивает лучшую про­изводительность и рассматривается как еще один тип памяти. Если приложение записывает в кеш, оно может быстро-освободить свой обработчик ввода-вывода и возвратиться к выполнению других задач. Определенным рабочим нагрузкам тра­диционно не нравится кеширование с обратной записью, потому что когда прило­жение записывает данные, они должны быть записаны на диск во избежание разру­шения. Например, Hyper-V требует сквозной записи. Многоуровневое хранилище
может применяться в сочетании с виртуальным диском (в этом случае не с файломVHD/VHDX, имеющим отношение к Hyper-Y и виртуальным машинам, а вирту­
альным диском с точки зрения Storage Spaces), чтобы поглощать любые выбросы в операциях записи. Быстрый уровень затем может использоваться для преодоления выброса и разрешения Hyper-V применять кеширование с обратной записью.

Распараллеленное восстановление

В случае отказа диска в традиционном массиве RAID, при наличии горячего ре­
зерва (диск, который может немедленно принять работу отказавшего диска в масси­
ве RAID), этот горячий резерв вступает в игру и массив RAID начнет воссоздание данных на отказавшем диске. Во время воссоздания влияние на производительность дисковой подсистемы неизбежно, т.к. все данные записываются на единственный диск. Процесс распараллеленного восстановления в Storage Spaces несколько отли­чается. Если диск отказывает, оставшиеся работоспособные диски, которые имеют подходящую емкость, получают права владения данными, сохраненными на отка­завшем диске, и будут обслуживать запросы от пользователей по всем доступнымнакопителям.
Поскольку теперь помощь оказывают все диски, влияние на произ­водительность отсутствует. Процесс восстановления может задействовать горячий резерв или же администратор может заменить отказавший диск новым, который в
фоновом режиме постепенно возвратится в пространство хранения.

низкоуровневое усовершенствование: встроенная поддержка секторов
4 Кбайт

Первоначально жесткие диски использовали формат 512 байтов на сектор, и это
налагало ограничения на размер и производительность хранилища.
Учитывая пос­тоянно растущие потребности в емкости и скорости, назрела необходимость в из­менениях, и в течение всего нескольких лет стандартом стали диски с секторами 4 Кбайт.
Тем не менее, программное обеспечение (такое как утилиты файловой сис­темы, операционные системы и механизмы баз данных) не обязательно быстро под­хватили это изменение. Большинство производителей устройств поставляли диски с секторами 4 Кбайт, но в целях совместимости эмулировали 512-байтовые секторы.
Очевидно, это сопровождается некоторыми накладными расходами, поскольку сек­тор 4 Кбайт целиком считывается в память, модифицируется и затем записывается
обратно. Так как происходит определенная степень манипулирования, имеется так­же мияние на производительность, которое в данном случае вполне приемлемо.
Благодаря встроенной поддержке секторов 4 Кбайт, индустрия хранения данных
больше не эмулирует 5 12-байтовые секторы, а это значит, что влияние на произво­дительность устранено.
В следующем списке перечислены некоторые приложения и сценарии, которые
становятся доступными при поддержке секторов 4 Кбайт:
• возможность установки Windows на диск с секторами 4 Кбайт и загрузки с него
без необходимости в эмуляции (собственный диск 4 Кбайт);
• ноuый файловый формат VHDX;
• полная поддержка Hyper-V;
• резервное копирование Windows;
• полная поддержка со стороны файловой системы New Technology File System
(NTFS);
• полная поддержка со стороны новой файловой системы ReFS (Resilient File
System — отказоустойчивая файловая система);
• полная поддержка со стороны Storage Spaces;
• полная поддержка со стороны средства Windows Defender (Защитник Windows);
• поддержка входящих приложений.

Поддержка UEFI BIOS позволяет работать с дисками GPT

Главные загрузочные записи (masteг boot гecord — MBR) — это спеuиальные об­
ласти, расположенные в начале разделенного пространства на диске. Они содержат информацию о внутренней структуре разделов и связанный загрузочный код, ко­торый позволяет операционной системе запуститься. Запись MBR хранит свой ад­рес блока в 32-битном формате. Первоначально диск с 5 12-байтовыми секторами и адресом блока в 32 бита был ограничен объемом 2 Тбайт. Вполне очевидно, что это больше не является приемлемым. Таким образом, индустрия двигается в сторону секторов 4 Кбайт, и теперь диски обладают максимальной емкостью 16 Тбайт. Все выглядит так, как будто мы достигли цели, но с учетом современной инфраструкту­ры мы можем иметь дело с петабайтами данных, поэтому терабайты вряд ли спра­вятся с этим.
Таблица разделов GUID (GUID Partition ТаЫе — GPT) предоставляет 64-битную
структуру адресаuии. На диске с 512-байтовыми секторами можно иметь 9,4 Збайт
(9 444 732 965 739 290 426 880) данных. В настоящее время GPT поддерживает мак­симальный размер диска и раздела, равный 8 Збайт.
Если вы приготовились преобразовать свои диски в GРТ, то вы совершенно пра­
вы! Но будьте осторожны; не все операционные системы поддерживают загрузку из разделов GPT, используя стандартную систему BIOS. Ознакомьтесь с материалом по следующей ссьтке:
http : / / ru . wi kipedia . org/wiki /Taблицa_paздeлoв_GUID
Унифицированный расширяемый интерфейс прошивки (Unified ExtensiЬle Firmware
lnterface — UEFI) спроектирован как прямая замена унаследованной системы BIOS.
По существу он делает ту же самую работу, но добавляет такую функuиональность, как диагностика и восстановление компьютеров с развернутыми операционными системами. Интерфейс UEFI разработан для поддержки загрузки из разделов GPT, и Windows SeIVer 2012 R2 полностью поддерживает UEFI BIOS.

Утилита снКDsк стала более интеллектуальной

На протяжении многих лет утилита снкоsк была одним из главных инструмен­
тов. Она входила в состав многочисленных поколений DOS и Windows, и замеча­
тельно видеть этот инструмент модернизированным.
Одной из крупнейших проблем, с которыми сталкивалась утилита снкоsк до ее
модернизации, была ее прямая связь с количеством файлов внутри тома.
Большее число файлов требовало большего времени на ее выполнение. Еще одна причиняв­шая постоянное беспокойство сложность заключалась в том, что когда снкоsк об­наруживала проблему, она обычно размонтировала том, повторно все сканировала, обнаруживала проблему снова и только затем ее исправляла. Несложно представить, что на крупных томах это занимало длительное время, а при современной культуре постоянной готовности простой попросту неприемлем.
Код инструмента CHKDSK был модернизирован, и модель работоспособности
NTFS также была перепроектирована. Мы обсудим эти модернизации далее, но
они, в сущности, бьuш обусловлены тем, что утилита снкоsк с прежними возмож­
ностями больше не была нужна.

онлайновое самолечение

Хотя эта возможность файловой системы NTFS существовала со времен Windows
Vista, количество проблем, которые она способна обнаружить и исправить, зна­
чительно увеличилось. В свою очередь, это снизило фактическую потребность в
снкоsк, поскольку большинство проблем удавалось решить с помощью онлайново­
го самолечения. Поддерживая самолечение, том не обязан переходить в отключен­ное состояние.

Онлайновая верификация

В Windows Server 201 2 действительное повреждение можно подтвердить. Иногда
ошибки возникают из-за проблем с памятью, но это не обязательно означает пов­реждение диска. Теперь, благодаря онлайновой верификации, вы можете акти­
визировать проверку. Для выполнения этой проверки драйвер файловой системы
запускает новую службу под названием Spot Yerifieг (Точечный верификатор), как показано на рис. 12.2. Она функционирует в фоновом режиме и не оказывает влия­ния на производительность системы.

Онлайновая идентификация и ведение журналов

После обнаружения реальной проблемы запускается онлайновое сканирование
файловой системы. Это сканирование рассчитано на выполнение в сочетании с
операционной системой и будет запускаться только во время простоя системы или в период ее низкой загрузки. Найденная проблема фиксируется в журнале для после­дующего автономного исправления.

точное и быстрое исправление

Поскольку в журнале была зафиксирована информация о местах возникнове­
ния проблем, вам не придется заново сканировать всю файловую систему в начале автономного процесса. По существу это означает, что когда вы переведете том в автономный режим для исправления ошибок, такой процесс займет секунды, а не потенциально часы. Быстрое исправление называется Spotfix.
Если вы применяете общие тома кластера (Custer Shared Volume — CSV), никакого простоя не будет, и тома оказываются постоянно готовыми.
Благодаря этим новым усовершенствованиям, исполняющая среда CHKDSK
больше не зависит от количества файлов, а только от числа повреждений данных.
Учитывая возможность исправления настолько многих проблем в онлайновом ре­жиме (при постоянно онлайновом томе CSV), утилита снкоsк становится менее
востребованной. На рис. 12.3 показаны новые опции, которые доступны в снкоsк.

Рис. 12.З. Новые олции CHKDSK
Новыми опциями являются /scan, / forceofflinefix, /perf, /spotfix,
/sdcleanup и /offlinescanandfix. Как видите, они напрямую относятся к опи­
санной ранее новой модели работоспособности.
В этот момент мы должны подчеркнуть, что еще одной целью модернизации
снкоsк была необходимость сделать так, чтобы пользователи оставались инфор­
мированными о любом повреждении.
Частично причина заключалась в том, что­бы прекратить интенсивные запуски снкоsк для верификации файловой системы со стороны пользователей и администраторов; теперь в этом просто нет нужды.
Система использует центр действий (Action Center), включенный в Windows, что­бы уведомлять пользователя или администратора о разрушении данных в файловойсистеме и рекомендовать какое-то действие. На рис. 12.4 представлены результаты примера онлайнового сканирования.

Пространства хранения в Windows Server 2012 R2

Концепция пространств хранения (Storage Spaces) в Windows Server 201 2 R2 по
существу совпадает с той, которая была воплощена в Windows Server 2012 и обсужда­лась в начале этой главы. Исключениями являются упомянутые ранее новые средс­тва, которые сейчас будут рассмотрены более подробно.

повторное использование технологии из облачных служб Microsoft

В Microsoft запускают множество облачных служб. Наверняка вы слышали о
Windows Azure или Office 365. Представьте себе все уроки, которые в Microsoft из­влекли во время развертывания, настройки и выполнения ежедневных операций в этих средах.
Также подумайте о том, что если бы Microsoft пришлось приобрести многомиллионные сети хранения, чтобы справиться с постоянно растущей потреб­ностью в наличии хранилища в облачных средах, то насколько они были бы урезан­ными в контексте облачной среды.
Все накопленные знания разработчики из Microsoft применяют к выпускаемым
новым технологиям, в том числе и к Storage Spaces. Они нуждались в рентабельном способе увеличения хранилища и поддержке основных возможностей, присущих се­тям хранения данных, вот почему и появилась технология Storage Spaces. По мере развития облачных служб вы будете наблюдать улучшения в Storage Spaces наподобие тех, что вы видели между выпусками Windows Server 2012 и Windows Server 2012 R2.

Предоставление SАN-подобных возможностей

посредством инструментов управления Microsoft
Одной из по-настоящему интересных особенностей технологий компании
Microsoft является знакомый интерфейс, предлагаемый для управления ее програм­мными продуктами. Обычно доступны два варианта: графический пользовательскийинтерфейс и PowerShell.
Применение графического пользовательского интерфейса
Несмотря на то что консоль управления Microsoft (Microsoft Management
Console — М МС) — традиционная консоль для большинства оснасток управления — по-прежнему существует, большая часть средств внутри Windows Server 2012
R2 управляется через диспетчер серверов (Server Manager), окно которого показано на рис. 1 2.6. Область Storage Pools (Пулы хранения) по умолчанию включена на всех системах и может быть найдена в виде подкомпонента роли
Рис. 12.6. Роль File апd Storage Services в диспетчере серверов
Выбрав элемент меню File апd Storage Services, вы увидите все связанные с ним опции, в том числе и Storage Pools (рис. 12.7). Щелчок на Storage Pools приводит к отображению основной конфигурации (рис. 12.8) .

Рис. 12.В. Конфигурация компонента Storage Pools
Окно с основной конфигурацией делится на три главных области.

• Storage Pools (Пулы хранения). Эта область содержит раздел под названием
Storage Spaces (Пространства хранения), в котором перечислено пространство
Primordial (Первичное). По умолчанию все диски, которые не наз1-1ачены друго­му пулу, назначаются пулу Primordial. Поработав с пространствами хранения, вы заметите, что пул Primordial перестанет отображаться после того, как все диски окажутся назначенными.
Как видите, пока что другие назначенные или сконфигурированные пулы от­
сутствуют. В правом верхнем углу этой области, в раскрывающемся меню Tasks
(Задачи), имеется опция для создания нового пула хранения. Мы этим зай­
мемся далее в главе, так что пока не думайте о ней. На пуле Primordia можно
щелкнуть правой кнопкой мыши и просмотреть его свойства.
• Virtual Disks (Виртуальные диски). В области Virtual Disks представлены тома,которые вы будете создавать внутри пула хранения. Вспомните, что это не
файл VHD или VHDX. Внутри пула Primordial создать виртуальный диск не­
возможно; сначала должен быть создан пул хранения.
• Physical Disks (Физические диски). Физические диски — это диски, которые
доступны пространствам хранения для назначения пулам хранения. В каждый
момент времени диск может быть назначен только одному пулу.
Если вы щел­кнете правой кнопкой мыши на диске в этом списке, то в открывшемся кон­текстном меню вы получите опцию переключения (включения/выключения) индикатора устройства (переключение индикаторов устройств помогает привыяснении, какие диски работают в массиве физического хранилища); это бу­дет работать, только если используемое хранилище является совместимым сослужбами корпусов SCSI (SCSI Encosure Services — SES). Службы SES также функционируют, когда устройство терпит отказ, и взаимодействуют с компо­нентом Storage Spaces, чтобы уведомить администратора о том, что произошло.

Использование PowerShell
Как уже упоминалось, DЛЯ быстрой настройки Storage Spaces можно применять
команDЛеты PowerShell. Некоторые администраторы при обслуживании серверов
предпочитают работать в среде командной строки. Лично нам нравится смешанный
ПОДХОД.
В Windows Server 201 2 R2 имеется новый модуль PowerShell по имени Storage,
который содержит все команDЛеты PowerShell, необходимые DЛЯ работы с компо­
нентом Storage Spaces.
В Wiпdows Server 201 2 и последующих версиях модуль PowerShel автоматичес­
ки импортируется, когда вы пытаетесь вызвать команД11ет, который является час­тью этого модуля. Чтобы просмотреть команД11еты, доступные в модуле Storage, откройте окно PowerShell с повышенными полномочиями и введите get-command
-module Storage. В Windows Server 201 2 R2 доступны 102 команDЛета, правда, не все они относятся к пулу хранения.
К счастью, вы уже знакомы с PowerShel и понимаете его структуру «глагол/су­
ществительное». Если вы определяете, какие команDЛеты имеют отношение к тому, что было показано на рис. 1 2.8, это значит, что вы ищете команDЛеты, связанные
с физическими дисками, виртуальными дисками и пулами хранения. Чтобы уп­
ростить идентификацию команД11етов DЛЯ каждого аспекта, введите get-command
*StoragePool* l where { $_. modulename -eq «Storage» } и проанализируйте
результат. На рис. 12.9 показан ожидаемый вывод; каждый команDЛет имеет собс­твенный набор опций, которые можно просмотреть с помощью команды get-help имя_ коиандлета .
Рис. 12.9. Командлеты из модуля Storage
Мы не собираемся вдаваться здесь в особые подробности, но продемонстриру­
ем вывод из пары команDЛетов. Например, введите get-storagepool и изучите
вывод. Теперь введите get-storagepool 1 fl * и обратите внимание на разницу.
FL — это псевдоним PowerShell DЛЯ Format-List, а опция * определяет, какие
свойства необходимо отобразить, в данном случае — все свойства. Вывод показан на рис. 12.10. Повторите такие же команды DЛЯ команDЛетов get-physicaldisk и
get-virtualdisk и просмотрите их вывод.

Создание пространства хранения

Storages Spaces является исключительно мощным компонентом, и, как упомина­
лось ранее, пространства хранения привносят множество преимуществ в организа­цию. Их также легко конфигурировать. Никакого специализированного обучения DЛЯ этого не требуется.

Рис. 1 2.10. Пример вывода из командлета get-storagepool
На следуюших нескольких страницах мы обсудим процесс создания пространс­
тва хранения и покажем, насколько в действительности это легко делается. Общий процесс выглядит следующим образом.
1. Получение свободных физических дисков.
2. Создание пулов хранения.
3. Создание виртуальных дисков.
Мы продемонстрируем создание пула хранения с помощью графического поль­
зовательского интерфейса и PowerShell. Однако сначала необходимо кратко предста­вить испытательную среду. Мы имеем одиночный сервер с несколькими физичес­кими дисками, двумя дисками SAS по 100 Гбайт, двумя дисками SAS по 1 50 Гбайт и одним диском SATA объемом 300 Гбайт.

Соэдание пула

При создании пула хранения вы должны решить, какие физические диски назна­
чить этому пулу. Важно думать в терминах того, какой пул будет использоваться, и,
с учетом наличия теперь средства многоуровневого хранения, какой тип дисков дол­жен стать частью пула. Чтобы создать пул, выполните перечисленные ниже шаги.
1. Откройте диспетчер серверов и выберите в меню File (Файл) пункт Storage
Services (Службы хранения).
2. Выберите элемент Storage Pools (Пулы хранения).
3. Щелкните правой кнопкой мыши на пуле Primordial и выберите в контекс­
тном меню пункт New Storage Pool (Создать пул хранения), как показано на
рис. 12. 1 1 . Откроется мастер создания пула хранения (New Storage Pool Wizard).
Рис. 1 2.1 1 . Создание нового лула хранения 4. Щелкните на кнопке Next (Далее), чтобы пропустить экран приветствия. 655 5. На экране Storage Pool Name (Имя пула хранения), приведенном на рис. 12.12, вы должны назначить пулу хранения имя; в данном случае Test. При желании можно добавить описание. В нижней половине окна вы увидите, что для доступного дискового пула при­ меняется пул Primordial. Далее потребуется выбрать физические диски в пуле. 6. В этом примере выберите все диски (рис. 12.13). Обратите внимание на возможность выбора дисков АТА и SAS. На рис. 12.14 представлены опции Allocation (Выделение): Automatic (Автоматическое), Hot Spare (Горячая замена) или Manual (Ручное).
Рис. 12.12. Именование пула хранения

Рис. 12.14. Опции выделения дисков

7. В данном примере используется выделение Automatic. Для продолжения
щелкните на кнопке Next.

При выделении дисков вы можете иметь в пуле множество горячих замен, но не
должны смешивать диски, выделяемые вручную и автоматически. Выбор опции
Automatic на этом экране будет автоматически балансировать пул между горячими заменами и полезной емкостью.
Назначив опцию выделения диска, вы не сможете изменить ее с ручного на
автоматическое внутри графического пользовательского интерфейса, но може­
те сделать это в PowerShel. На рис. 12. 1 5 показан пример идентификации и
изменения типа выделения диска.
8. Наконец, как и со всеми мастерами, вы получаете шанс пересмотреть выбран­
ные опции, прежде чем фиксировать изменение (рис. 12.16). Щелкните на
кнопке Create (Создать), когда будете удовлетворены выбранными вариантами.
Появится экран с индикатором хода работ, на котором после создания пула бу­
дет отображено состояние Completed (Завершено), как показано на рис. 12.17.
Поздравляем, вы создали свой первый пул!

Ограничения пулов хранения

Как и со всеми технологиями, пулам хранения присущи некоторые ограничения,
и хотя эта технология является мощной, она, безусловно, не может быть оптималь­ной абсолютно во всех ситуациях. Имея это в виду, давайте взглянет на ее ограни­чения.
• Жесткий диск должен иметь объем lO Гбайт или больше.
• В пространстве хранения невозможно развернуть загрузочную систему.
• Любые диски, предназначенные для добавления в пул хранения, не должны
быть разбиты на разделы или сформатированы. Все данные на таких дисках
будут утрачены.
• В случае использования контроля по четности требуются три диска, при двух­
стороннем зеркальном отображении — два диска, а при трехстороннем зер­
кальном отображении — три и более дисков.
• Все диски в пуле должны иметь одинаковый размер сектора (4 Кбайт/512е или
512). 512е, или 512 Emulatioп (эмуляция 512-байтового сектора), позволяет
производителям выпускать диски с секторами 4 Кбайт и обеспечивать совмес­
тимость с программным обеспечением, которое не модернизировано для вос­
приятия секторов 4 Кбайт.
• Диски Fibre Channel и iSCSI в пуле хранения не поддерживаются.
+ Все хранилище должно быть совместимо с драйвером storport . sys.
Для проверки этого применяется список совместимости оборудования
Microsoft (Microsoft Hardware Compatibllity List), доступный по следующе­
му URL: http : / /www . microsoft . сот/ ru-ru/windows/ compatibil i t у/
compatcenter /home. (Если ваше оборудование находится в этом списке сов­
местимости, то оно будет работать с драйвером storport . sys.)
+ Если виртуальный диск должен использоваться в кластере с обходом отказа,
на таком виртуальном диске должна быть развернута файловая система NTFS.

Просмотр устройств в инструменте Disk Management

В сущности, пул хранения представляет собой логический контейнер дпя дисков.
Например, в нашей демонстрационной среде имеется несколько дисков, готовых
для назначения в пул хранения. На экране Disk Management (Управление дисками), показанном на рис. 12. 1 8, можно видеть все перечисленные ранее физические дис­ки до их назначения в пул.
После добавления дисков в пул хранения мы обновляем Disk Managemeпt. Как
видно на рис. 12.19, они перестали отображаться. Диск 1 по-прежнему остался, т.к. он является диском операционной системы, поэтому он должен быть всегда, и вы никогда не будете иметь возможность включить его в пространство хранения. Куда делись диски’? Вспомните, что пул хранения является контейнером. Чтобы снова увидеть тома в Disk Management, понадобится создать nиртуальные диски.
Рис. 1 2. 19. После добавления в пул хранения диски больше не отображаются в Disk Management

Работа с пулом хранения в PowerShell

Ранее мы упоминали, что все задачи, выполняемые в графическом пользователь­ ском интерфейсе, могут быть сделаны посредством PowerShell. Сейчас мы покажем, как создать пул хранения с применением PowerShell. 1. Сначала необходимо найти доступные диски. Воспользуйтесь командлетом Get-PhysicalDisk для получения списка всех дисков в системе. На рис. 12.20 показан результат для рассматриваемого примера. 2. Взгляните на свойство CanPool. Когда его значение равно True, этот диск мо­ жет быть помещен в пул хранения. 3. Отфильтруйте физические диски, которые можно помещать в пул, и сохра­ните результаты в переменной для дальнейшего применения с помощью еле . ­ дующего синтаксиса:
Рис. 12.20. Отображение доступных физических дисков
4. Идентифицируйте подсистему хранения, с которой имеете дело, и снова со­
храните результат в переменной, но в этом случае вы заинтересованы только в
свойстве FriendlyName (рис. 12.21).
Используйте приведенный ниже синтаксис для захвата значения свойства
FriendlyName подсистемы хранения:
$storagesystem = (get-storagesubsystem) . friendlyname
Теперь можно создать пул хранения.

Рис. 12.21 . Командлет Get-StorageSubsystem
5. Используйте следующий синтаксис для создания пула:
New-storagepool -friendlyname TestPool -StorageSubSystemFriendlyName
$storagesystem -physicaldisks $drivestopool
Дружественное имя для пула (указываемое в -friendlyname ) может быть лю­
бой желаемой строкой. Показанный синтаксис создаст пул по имени TestPool
и добавит в него диски (рис. 12.22).
Рис. 12.22. Вывод в PowerShell при создании нового пула хранения
6. Теперь примените командлет Get-StoragePool для получения более подроб­
ной информации о пуле:
Пример вывода можно видеть на рис. 12.23; обратите внимание на объем дета­
лей, которые предоставляет PowerShell по сравнению с графическим пользова­
тельским интерфейсом.

Выделение пространства пула под виртуальный диск

С самого начала этой главы мы прояснили, что когда ссьшаемся на виртуальный
диск в связи с пространством хранения, то не имеем в виду файл VН ОХ для вир­туальной машины. На самом деле, до тех пор, пока вы не поместите виртуальную машину в пространство хранения или не используете ее в качестве целевого храни­лища iSCSI, вы нигде не увидите файла VHD.

Рис. 1 2.23. Вывод из командлета Get-StoragePool
Виртуальные диски — это диски, которые выделяются из пула хранения. Ранее
мы созданали пул для физических дисков и показали, что с точки зрения инстру­мента Disk Management все диски исчезали, поскольку они стали принадлежать пулухранения. Для того чтобы использовать какое-то пространство, содержащееся внутри пула хранения, вы должны создать виртуальный диск. Он не связан напрямую с физическим диском в пуле хранения, но является представителем порции про­странства, выделяемого из пула хранения. То, каким образом эта порция обретает существование, зависит опций, которые мы обсудим далее.
Одной из замечательных характеристик виртуализации в целом является возмож­ность максимизации использования оборудования. Например, ранее многие орга­низации имели по одному серверу на роль, что было расточительством, но теперь на одном сервере можно удерживать несколько ролей, которые полностью изолиро­ваны друг от друга. Надеемся, что на этом этапе вы уже знакомы с виртуализацией.
Похожая концепция существует в пулах хранения и виртуальных дисках.
Как было указано, пулы хранения — это по сущест­ву логические контейнеры для набора физических дис­ков, которые вы хотите объединить. Виртуальные диски будут представлены серверу для применения в качес­тве тома. При наличии трех физических дисков по 500 Гбайт, скомбинированных в пул хранения, имеется по­тенциально 1 ,5 Тбайт пространства (рис. 12.24).
Довольно неплохо. (Мы пока не принимаем во вни­мание избыточность, т.к. это будет объясняться позже.)
Теперь системный администратор получает запрос от бригады, занимающейся новым приложением, которым Пул хранения

Рис. 12.24. Выделениепула хранения

требуется 2 Тбайт пространства. Тем не менее, когда системный администратор пе­ресматривает прогнозируемый рост, он понимает, что 2 Тбайт не нужны авансом, что хорошо, поскольку в бюджете не предусмотрены расходы на приобретение до­полнительных дисков. Знакомая история? Вопрос в том, как разрешить проблему.
Одним из первых выборов, которые вы делаете при создании виртуальных дис­
ков, касается типа настройки — фиксированной или тонкой.
• Fixed provisioning (Фиксированная настройка). При фиксированной настрой­
ке, если вы запрашиваете 2 Тбайт, то для настройки должно быть доступно
2 Тбайт емкости.
• Thin provisioning (Тонкая настройка). Диски с тонкой настройкой использу­
ют только то, что нужно в данный момент. Это замечательно! В предыдущем
примере бригада, занимающаяся приложением, считает, что у них есть запро­
шенная емкость 2 Тбайт, но в действительности задействовано только доля от
2 Тбайт (рис. 12.25).
Фиксированная настройка
Е м кость 1 Тбайт
Требуется 1 Тбайт
Используется 1 Тбайт
Тонкая настройка
Е мкость 1 Тбайт
Требуется 1 Тбайт
Используется 200 Гбайт
Рис. 1 2.25. Диски с фиксированной или тонкой настройкой
УПРАВЛЕНИЕ ДИСКАМИ С ТОНКОЙ НАСТРОЙКОЙ
Диски с тонкой настройкой могут приводить к невосполнимому распределению ре­
сурсов и должны управляться. Понадобится создать оповещения, чтобы обеспечить
мониторинг свободного пространства, остающегося в пуле и на виртуальном дис­
ке. Меньше всего хотелось бы получить перебой в работе из-за перегрузки ресурсов.
При корректном применении диски с тонкой настройкой могут помочь системным
администраторам уменьшить стоимость хранения, но по-прежнему удовлетворять
нуждам потребителей.
Определение компоновки диска
Далее необходимо принять решение относительно компоновки виртуального
диска. Доступны три вида компоновки с разной отказоустойчивостью.
• Simple (Простая). При такой компоновке данные разделяются на полосы по
всем дискам в пуле. Эта компоновка не является отказоустойчивой. В случае
сбоя диска все данные теряются.
ХРАНИЛИЩЕ WINDOWS 2012 R2 663
• Mirror (Зеркальное отображение). Зеркальное отображение данных дублирует их
на разных дисках; это дает максимальную отказоустойчивость, но оказывает
значительное влияние на объем пространства, которое потенциально может ис­
пользоваться. Чтобы защититься от одиночного дискового отказа, понадобится
иметь в пуле хранения, по меньшей мере, два физических диска; для обработки
двух дисковых отказов физических дисков должно быть минимум пять.
• Parity (Контроль по четности). Контроль по четности по существу записыва­
ет данные в полосы на всех дисках, но также производит запись информации
о четности, что позволяет восстанавливать данные в случае отказа диска. Это
обеспечивает великолепную отказоустойчивость и производительность. Для
обработки одиночного дискового отказа понадобится, по меньшей мере, три
физических диска.
На рис. 12.26 показано визуальное представление различных компоновок, до­
ступных для применения. Части, помеченные как «Полоса данных (простая компо­
новка)», говорят о том, что данные записываются по всем дискам. В случае частей,
помеченных как «Зеркало», если данные записываются на один диск в 4-дисковом
зеркале, то они будут записываться также и на второй диск. Наконец, в частях, ко­
торые помечены как «Контроль данных по четности», данные записываются по
всем дискам и сопровождаются информацией о четности, что позволит проводить
восстановление при отказе.
——- —
Контроль данных по четности
Рис. 1 2.26. Компоновки виртуальных дисков
Создание виртуального диска в графическом пользовательском интерфейсе
Следующий шаг заключается в создании виртуального диска. Все виртуальные
диски проще всего создавать внутри консоли Storage Pools (Пулы хранения) диспет­
чера серверов (рис. 12.27).
1 . В области Virtual Disks (Виртуальные диски), находящейся в левой нижней
части окна консоли, выберите в раскрывающемся меню Tasks (Задачи) пункт
New Virtual Disk (Создать виртуальный диск), как показано на рис. 12.28.
2. Щелкните на кнопке Next (Далее) на экране приветствия мастера создания
виртуального диска (New Virtual Disk Wizard).
Как показано на рис. 12.29, вы должны выбрать пул хранения, в котором не­
обходимо создать виртуальный диск. В рассматриваемом примере мы собира­
емся использовать пул TestPool.

3. Выберите пул хранения и щелкните на кнопке Next.
Виртуальному диску понадобится назначить имя. Можно также ввести описа­
ние, для чего предназначен этот виртуальный диск.
4. В данном примере мы назвали диск File _ Vdisk, как показано на рис. 12.30, и
указали в описании, что он применяется для файлового хранилища.
Следующий шаг связан с выбором компоновки хранения (рис. 12.31). Доступ­
ны три варианта: Simple (Простая), Mirror (Зеркальное отображение) и Parity
(Контроль по четности).

Рис. 12.30. Ввод имени и описания для виртуального диска
5. Для этого примера выберите Simple и щелкните на кнопке Next.
665
Теперь необходимо выбрать тип настройки. Как показано на рис. 12.32, до­
ступны два варианта: Thin (Тонкая) и Fixed (Фиксированная).
6. Для рассматриваемого примера выберите тип настройки Thin, т.к. требуется
максимизировать пространство в пуле хранения.
Сейчас нужно принять решение относительно размера виртуального диска.
Поскольку для него выбрана тонкая настройка, теоретически можно ввести
любое значение.

Рис. 1 2.32. Выбор типа настройки для виртуального диска
7. Пул хранения имеет емкость около 400 Гбайт, поэтому м ы назначим вирту­
альному диску 500 Гбайт (рис. 12.33). Для продолжения щелкните на кнопке
Next.
8. Наконец, просмотрите произведенный выбор и подтвердите его, щелкнув на
кнопке Create (Создать).
9. Просмотрите информацию на экране Results (Результаты) и удостоверьтесь,
что все завершено (рис. 12.34). Щелкните на кнопке Close (Закрыть), чтобы
закрыть окно мастера.

Рис. 1 2.33. Установка размера виртуального диска

Рис. 1 2.34. Экран Results мастера после создания нового виртуального диска
Дополнительное УПРАЖНЕНИЕ

Загляняте сейчас в инструмент Disk Management, и вы увидите, что неожиданно по­явилось!
Создание виртуального диска в PowerShell
Первым делом, давайте воспользуемся PowerShell для просмотра виртуального
диска, который был создан в предыдущем примере с применением графического
пользовательского интерфейса.

На рис. 12.35 демонстрируется применение команмета Get-VirtualDisk мя
измечения всей информации о созданных виртуальных дисках. Как видите, был со­здан только один виртуальный диск емкостью 500 Гбайт.

Рис. 1 2.35. Вывод из командлета Get-VirtualDisk
Чтобы создать новый виртуальный диск, необходимо воспользоваться команд­
летом New-VirtualDisk. Но прежде чем делать это, вы должны узнать дружест­
венное имя пула хранения. Помните ли вы команду мя получения дружественного имени пула хранения?
Имея дружественное имя, выполните следующие шаги.
l . С помощью показанного ниже синтаксиса сохраните дружественное имя пула
хранения в переменной:
$sp = (get-storagepool) . friendlynarne
Следующий шаг заключается в создании виртуального диска, но сначала
взгляните на полный синтаксис команды:
New-VirtualDisk -StoragePoolFriendlyNarne $sp [l]
-ResiliencySettingNarne Sirnple -Size 500GB -FriendlyNarne TestVdisk
-ProvisioningType Thin -NurnberofDataCopies 1 -NurnЬerofColumns 2
Как видите, на выбор доступно несколько больше опций. Далее приведены их
краткие описания.
• ResiliencySettingName. Эквивалент опций компоновки хранения Simple,
Mirror, Pari ty.
• NumЬerofDataCopies. Количество копий данных, которые необходимо
хранить; эта опция напрямую связана с ResiliencySettingName. Если вы
выбрали Simple, например, то NumЬerofDatacopies может быть только 1.
В случае выбора Mirror значением NumЬerofDataCopies будет как минимум
2, в зависимости от объема дискового пространства, имеющегося в системе.
• NumЬerofColumns. Прямо связано с количеством дисков, которые вы хо­
тите использовать. Пул хранения может иметь сотни дисков, но вам может
требоваться разделение на полосы, зеркальное отображение или приме­
нение контроля по четности, скажем, только мя пяти дисков. Эта опция
позволяет сделать выбор. Она также связана с ResiliencySettingName и
NumЬerofDa taCopies.
Значения, установленные дЛЯ NumЬerofDataCopies и NumЬerofColumns, от­
носятся к выбранным опциям. Например, если необходимо зеркально отобра­
зить данные, мы увеличиваем значение NumЬerofDataCopies, и если требует­
ся охватить виртуальным диском несколько физических дисков, то мы увели­
чиваем NumЬerofColumns. В этом случае нужна только одна копия данных и
запись данных на два диска.
2. С помощью опции $ sp [ 1] мы выбираем один элемент из всех пулов хранения,
захваченных командой get-storagepool. Например, при наличии пяти пулов
хранения команда get-storagepool возвратит все пять, поэтому $sp [ 1 ] поз­
воляет выбрать пул хранения с номером 2 из пяти захваченных. Счетчик начи­
нается с О, так что первый пул хранения можно извлечь как $ sp [ О J .
В испытательной среде определено несколько пулов хранения. Если просто
указать $sp, команда сообщит об ошибке, поскольку она попытается вставить
(в этом случае) дружественные имена двух пулов хранения.
На рис. 12.36 демонстрируется пример запуска только что разобранной команды.

Рис. 12.37. Пользовательский интерфейс Storage Spaces с созданным
ранее виртуальным диском

Рис. 12.38. Соэдание нового тома из виртуального диска
Рис. 12.39. Выбор сервера и виртуального диска
4. В этом примере мы оставляем стандартный размер 500 Гбайт с тонкой на­
стройкой (рис. 12.40).
Далее, как вы поступили бы с нормальным диском, выберите букву диска или
папку, в которой необходимо смонтировать том.

7. В поле Volume Label (Метка тома) введите Test _ Volume и щелкните на кнопке
Next.
8. Подтвердите выбранные опции и щелкните на кнопке Create (Создать).
9. На экране Results (Результаты), показанном на рис. 12.43, удостоверьтесь в
том, что все задачи имеют состояние Completed (Завершена), и щелкните на
кнопке Close (Закрыть).
1 О. Откройте проводник Windows и обратите внимание на появление нового тома
Рис. 1 2.45, Вывод командлета get-disk
3. Для перевода их в онлайновое состояние вы будете применять командлет
set-disk.
4. Чтобы перевести все диски в онлайновое состояние за один раз, используя
предыдущий синтаксис с фильтрацией отключенных дисков, вывод можно на­
править по конвейеру командлету set-disk.
Ниже показан синтаксис, а на рис. 12.46 — результаты выполнения:
Get-disk l where { $ . operationalstatus -eq «Offline» } l set-disk
-isoffline $false
Рис. 12.46. Перевод всех дисков в онлайновое состояние с помощью PowerShell

демонстрация настройки многоуровневого хранения с помощью PowerShell

Мы рассмотрели создание пула хранения, виртуального диска и томов для использования в среде.
В начале главы упоминалось об уровнях хранения. Они могут предоставить огромные преимущества среде, поскольку позволяют разделять хра­нилище и обеспечивать возврат платежей на основе ресурсов, которые требуются конечным пользователям.
По сути дела, если конечные пользователи требуют вы­сокоскоростного хранилища, вы можете выделить его и выставлять соответствую­щие счета на оплату;
в противном случае вы можете выделить для обслуживания их потребностей хранилище низкого уровня. Если ваша компания делает возврат платежей, то это пойдет на пользу всем конечным пользователям, т.к. пространс­тва хранения будут автоматически перемещать данные с более частым доступом, на быстрый уровень хранения, а данные, к которым обращаются редко — на медлен­ный уровень хранения.
Поскольку вы уже знакомы с консолью Storage Spaces (Пространства хранения),
вы заметите, что внутри пользовательского интерфейса отсутствует место для кон­фигурирования пулов хранения. Это средство может быть сконфигурировано только через PowerShell.
Мы уже создали пул хранения по имени TestPool, так что давайте применять
его в качестве дружественного имени.

Как уже говорилось, в Windows Server 2012 R2 можно создавать только два уров­ня хранения. Система распознает носители двух типов — твердотельный накопитель
(Soid State Drive — SSD) и жесткий диск (Hard Disk Drive — HDD).
Запустив в испытательной среде командлет PowerShell под названием get­
physicaldisk, мы получим вывод, показанный на рис. 12.47.
Рис. 1 2.47. Пример вывода командлета get-physicaldisk при создании уровней
хранения
Создание пулов SSD и HDD
Вы видите, что в среде присутствуют устройства SSD и H DD. А теперь мы со­
здадим уровни хранения. В рассматриваемом примере мы собираемся создать два
уровня (что также является максимальным поддерживаемым количеством) и затем
создадим виртуальный диск, который будет вьщелен по уровням. Далее мы разобьем диск на разделы и сформатируем.
Ниже показан синтаксис использования командлета New-StorageTier для со­
здания пула SSD. Мы должны сохранить его в переменной для дальнейшего приме­нения:
$ssdtier = new-storagetier -StoragePoolFriendlyNarne «TestPool»
-FriendlyNarne SSD_Tier -Mediatype SSD
Для создания уровня Н Н D используется следующий синтаксис:
$hddtier = new-storagetier -StoragePoolFriendlyNarne «TestPool»
-FriendlyNarne HDD_Tier -Mediatype HDD
Далее потребуется добавить виртуальный диск и привязать его к уровням хра­
нения. Предугадывая вопрос, можно ли переназначить существующий виртуальный
диск уровню хранения, ответим — нет, нельзя.
Имея это в виду, мы создадим новый виртуальный диск, который будет привязан
к нашим уровням хранения. Вот какой синтаксис применяется:
New-VirtualDisk -StoragePoolFriendlyNarne TestPool -FriendlyNarne
Tiered_VDisk -StorageTiers @ ($ssdtier, $hddtier) -StorageTierSizes
@ (lOGB, SOGB) -ResiliencySettingNarne Sirnple
На рис. 12.48 показан вывод после успешного создания диска.
Рис. 12.48. Вывод после успешного создания диска внутри уровней хранения

Большинство опций должны выглядеть знакомыми по созданию виртуального
диска ранее в главе. Тем не менее, есть две опции, которые связаны с созданием виртуального диска внутри уровня хранения.
• StorageTiers @ ($ssdtier, $hddtier) . Указывает используемые уровни. Это
не хеш-таблица, так что будьте внимательны и не применяйте фигурные скобки.
Мы сохранили уровни в отдельных переменных для простоты ссылки на них.
• StorageTierSizes @ (lOGВ, SOGВ) . Указывает размер каждого уровня и ссы­
лается в порядке, установленном в опции -StorageTier. Как вы заметили на
рис. 12.48, общий размер составляет 60 Гбайт, т.е. 10 Гбайт + 50 Гбайт.
Отсюда вам необходимо создать том, как это делалось ранее для хранения дан­
ных. Мы покажем быстрый трюк в PowerShell, которым можно воспользоваться
для создания на диске тома 20 Гбайт и его форматирования в единственной строке.
Ниже приведен синтаксис:
Get-VirtualDisk 1 Get-Disk 1 New-Partition -Size 20GB
-AssignDriveLetter 1 Format-Volume -Force -confirm:$false
Вывод команды представлен на рис. 12.49. Теперь вы можете перейти на диск по
его букве и скопировать файл.

Рис. 1 2.49. Соэдание нового раздела и его форматирование в PowerShell
Выделите время на просмотр свойств только что созданного виртуального диска.
На рис. 12.50 обратите внимание, каким образом разделилась емкость из-за того,
что мы разнесли этот виртуальный диск по двум уровням .

Использование кеша с обратной записью

А теперь мы покажем, как использовать одно из последних крупных средств тех­
нологии Storage Spaces в Windows Server 2012 R2 — кеша с обратной записью. Как и
с уровнями хранения, ero не получится включить через графический пользователь­
ский интерфейс; это должно делаться в PowerShell. Вспомните, кеш с обратной за­
писью может поспособствовать в ускорении работы приложений, т.к. запись в кеш
является быстрой и не требует ожидания, пока хранилище зафиксирует запись.
Возьмите команду PowerShell, которая применялась для построения предыдущего
уровня хранения, и модифицируйте имя и опции StorageTierSizes. Затем добавь­
те опцию -WriteCacheSize с настройкой размера; в данном случае необходим раз­
мер кеша с обратной записью, равный 2 Гбайт:
New-VirtualDisk -StoragePoolFriendlyName TestPooll -FriendlyName
Tiered _ VDisk -StorageTiers @ ($ssdtier, $hddtier) -StorageTierSizes @
(20GB, 70GB) -ResiliencySettingName Simple -WriteCacheSize 2GB
Итак, вы создали виртуальный диск, который будет использовать уровни хране­
ния и имеет включенный кеш с обратной записью.
Оптимизация уровней хранения
Последний аспект, который мы обсуждали об уровнях хранения в начале этой
главы, заключается в том, что каЖдую ночь в 1:00 запускается задание, повторно на­значающее приоритеты хранилищу и перемещающее данные на быстрый уровень вместо медленного.
В планировщике задач выберите папку Task Scheduler LibraryMicrosoftWindows
Storage Tiers Management (Библиотека планировщика задач Microsoft Windows
Управление уровнями хранения). Планировщик задач отображает задачу под на­
званием Storage Tiers Optimization (Оптимизация уровней хранения), показанный на
рис. 12.51. При необходимости вы можете изменить задачу или запустить ее вручную.

Рис. 1 2.51 . Задача Storage Tiers Optimization

iSCSI в пространствах имен

Лространства имен чрезвычайно полезны для обеспечения масштабируемого и
надежного хранилища. Подумайте о сумме, которую компании пришrюсь бы вло­
жить для получения уже обрисованных возможностей. Что было бы действительно
полезно сейчас — это объединение всей мощной технологии хранения с iSCSI, что­
бы позволить удаленным системам (таким как файловые серверы, почтовые систе­
мы, кластеры виртуализации и т.п.) также получить выигрыш от этих средств.
iSCSI требует конфигурирования нескольких элементов, чтобы они предоставля­
ли удаленным машинам номера логических устройств (logical unit numЬer — LUN).
Для начала мы объясним несколько элементов, образующих iSCSI с точки зрения
хает-сервера и удаленного сервера, которые необходимо знать, чтобы понять рас­сматриваемый далее пример.
• Целевой сервер iSCSI. Лозволяет инициаторам iSCSI создавать подключение к
целевой службе, в свою очередь, предстамяющей диск VHD, который распо­
ложен на томе uелевоrо сервера. Для операционной системы целевого сервера
это выглядит как файл VНD. Вы можете сконфигурировать контроль доступа,
чтобы соответствующим образом защитить диск.
• Виртуальный диск iSCSI. Виртуальный диск iSCSI в этом случае является дейс­
твительным диском VHD, когда просматривается на целевом сервере, но с
точки зрения клиента или инициатора он выглядит как диск, который может
быть переведен в онлайновое или отключенное состояние и имеет созданные
на нем тома.
• Инициатор iSCSI. Инициатор — это клиентское программное обеспечение,
применяемое для подключения к целевому серверу и доступа к каким угодно
виртуальным дискам iSCSI, которые бьши предстамены и к которым автори­
зован доступ.
В наши дни эта технология является обычным явлением в большинстве компа­
ний, и она позволяет создавать кластеры для бизнес-потребностей всех видов. Ранее нам приходилось использовать сервер Windows с целевым сервером iSCSI для со­здания кластера Hyper-V, предназначенного для функционирования в производс­твенной сети. В следующем разделе мы разберем пример настройки целевой службы iSCSI, создания виртуального диска и его представления удаленной системе.

добавление целевой службы iSCSI

По умолчанию целевая служба iSCSI не включена. Вы должны добавить ее с по­
мощью PowerShell. Синтаксис для добавления компонента Windows под названием
iSCSI Target Seiver выглядит так:
Add-windows feature fS-iSCS ITarget-Server -IncludeManagementTools
После добавления компонента серверу может потребоваться перезагрузка, поэто­
му удостоверьтесь в том, что имеете возможность завершить установку.
Компонент iSCSI Target Seiver является частью роли File and Storage Services, а это :значит, что его можно администрировать в консоли диспетчера серверов под у­лом File and Storage Services, как показано на рис. 12.52.

Рис. 12. 52. Управление целевым сервером iSCSI

Создание виртуального диска iSCSt

На рис. 1 2.52 видно, что есть две основных области: iSCSI Virtual Disks (Вирту­альные диски iSCSI) и iSCSI Targets (Цели iSCSI). Как уже упоминалось, цель бу­дет представлять виртуальные диски iSCSI, которые были созданы. (Не путайте их с виртуальными дисками в пространствах хранения. Они отличаются; виртуальные диски iSCSI на целевом сервере выглядят как файлы VHD.)
Чтобы продемонстрировать это, давайте создадим виртуальный диск iSCSI. В на­
шем примере мы будем использовать диск Е, созданный ранее из многоуровневого
пула хранения. Не беспокойтесь, если вы его не настроили; все, что вам необходи­мо — это диск и папка для сохранения файла YHD, который будет создан.
1 . В центре области iSCSI Virtual Disks (Виртуальные диски iSCSI), показанной
на рис. 12.52, щелкните на ссылке То create an iSCSI virtual disk, start the New
iSCSI Virtual Disk Wizard (Чтобы создать виртуальный диск iSCSI, запустите
мастер создания виртуального диска iSCSI (New iSCSI Yirtual Disk Wizard)).
2. Выберите целевой сервер в списке Server (Сервер) и том, где должен хранить­
ся виртуальный диск iSCSI. В данном примере диском будет Е : (рис. 12.53).
3. Предоставьте виртуальному диску iSCSI описательное имя; например, если он
предназначен для кластера Hyper-V, введите VМCluster_Vdisk. Обратите вни­
мание на путь, отображающийся на экране iSCSI Virtual Disk Name (Имя вир­
туального диска iSCSI), который показан на рис. 12.54.
4. Укажите размер виртуального диска; в настоящем примере введите 50 GВ.
Обратите внимание на опции; можно выбрать настройку всего пространства
за один раз (Fixed (Фиксированный)), настройку динамически расширяемого
диска ( Dynamically Expanding (Динамическое расширение)) или применение
разностного диска ( Differencing (Разностный)). Если вы имели дело с Hyper-Y,
то опции должны быть вам хорошо знакомы.
5. В данном случае выберите Dynamically Expanding.

Полезно отметить, что вы должны соблюдать крайнюю осторожность, выбирая между опциями Fixed, Dynamically Expanding и Differencing. Выбор неподходящего типа диска окажет значительное влияние на производительность. В качестве эмпиричес­кого правила, если вы не уверены и не знаете тип рабочей нагрузки, который в ко­нечном итоге будет использовать этот диск, выбирайте вариант Fixed.

6. Поскольку это новый сервер и пока что целевые серверы iSCSI отсутствуют,
вы должны выбрать переключатель New iSCSI target (Новая цель iSCSI), как
показано на рис. 12.55.
7. Укажите имя для цели iSCSI; в этом примере введите VМCluster_Target
(рис. 12.56). Далее понадобится сконфигурировать доступ к созданному вир­
туальному диску iSCSI. Вы можете авторизовать специфичные инициаторы на
основе их имен IQN или DNS, IР-адресов или МАС-адресов.
IQN (iSCSI qualified name — определенное имя iSCSI) является автоматичес­
ки сгенерированным именем. В серверах Microsoft оно всегда имеет формат
iqn . 1991-0 6 . com.microsoft :имя_cepвepa.

8. На экране Access Servers (Серверы доступа) мастера щелкните на кнопке Add
(Добавить). Откроется диалоговое окно Add initiator ID (Добавление идентифи­
катора инициатора), представленное на рис. 12.57.
Если вы знакомы с технологией iSCSI, то заметите новую опцию дЛЯ Win­
dows Server 2012 и последующих версий. Когда определенное имя инициато­
ра iSCSI не известно, его можно запросить у удаленного сервера. (IQN — это
просто соглашение об именовании дЛЯ iSCSI, которое соответствует форма­
ту имени машины; обычно оно следует такому формату: iqn. 1991-05 . сот .
microsoft : serverOl . contoso . com.)
В прошлом при развертывании iSCSI мы отдавали предпочтение именам IQN,
потому что они не меняются, если только не изменяется имя самой машины.
Другие варианты, как было описано ранее, обладают возможностью легкого
изменения в среде, и если вы представляете номера LUN удаленным машина­
ми, то не хотите, чтобы это происходило.
9. Как показано на рис. 12.57, выберите переключатель Select from the initiator
cache оп the target server (Выбрать из кеша инициатора на целевом сервере).
Далее можно запросить аутентификацию дЛЯ номера LUN с применением
СНАР (Challenge-Handshake Authentication Protocol (протокол аутентификации
по методу «вызов-приветствие») — это протокол аутентификации мя управле­
ния доступом к ресурсам). В рассматриваемом примере мы это проигнорируем.
1О. Наконец, пересмотрите все настройки и щелкните на кнопке Create (Создать)

Хотите создать новый виртуальный диск для iSCSI в PowerShell и представить его цели? Ниже приведены примеры командлетов, которые можно применять.
1 . Создайте виртуальный диск посредством командлета New-iSCSIVirtualDisk.
Вот пример:
New-IscsiVirtualDisk -path e : newdisk.vhdx -SizeBytes 20GB
-Cornputernarne SSOl
2. Добавьте этот виртуальный диск к цели с помощью командлета Add­
IscsiVirtualDiskTargetMapping.
Вот пример:
Add-IscsiVirtualDiskTargetMapping -TargetNarne VМcluster-Target
-path e : newdisk. vhdx
Дело сделано!

подключение к виртуальному диску iSCSI со стороны клиента

Вы настроили целевой сервер iSCSI и новый виртуальный диск, но они не ис­
пользуются до тех пор, пока клиент не подключится к соответствующему номеру
LUN. Вспомните, что если вы настроили списки доступа, то будете иметь возмож­ность подключения к LUN только из указанной машины.
1. Выберите в меню Tools (Сервис) диспетчера серверов пункт iSCSI lnitiator
(Инициатор iSCSI), как показано на рис. 12.58.
Откроется диалоговое окно iSCSI lnitiator Properties (Свойства инициатора iSCSI).
2. Чтобы следовать нашему примеру, введите 192 . 168 . о .1 в поле Target (Цель) и
щелкните на кнопке Quick Connect (Быстро подключиться), как показано на
рис. 12.59.
Откроется диалоговое окно Quick Connect (Быстрое подключение), которое
проверяет, что состоянием является Connected (Подключено). Это гарантирует
видимость номера LUN и корректность настройки правил доступа (рис. 12.60).
Для продолжения щелкните на кнопке Done (Готово).
3. Перейдите на вкладку Volumes and Devices (Тома и устройства) и щелкните на
кнопке Auto Configure (Сконфигурировать автоматически), как показано на
рис. 12.61 . Область Volume List (Список томов) автоматически заполнится томами, которые представляются клиенту.

Рис. 1 2.61 . Вкладка Volumes and Devices
4. Наконец, в окне диспетчера серверов внутри узла Rle and Storage Services (Службы файлов и хранилища) щелкните на папке VolumesqDisks (ТомаqДиски).
На рис. 12.62 видно, что появились два новых диска, для которых в столбце Bus Туре (Тип шины) указано iSCSI. Теперь они готовы к форматированию и созданию стандартных томов.

Общие ресурсы NFS

Сетевая файловая система (Network File System — NFS) позволяет совместно ис­
пользовать файлы между сервером Windows и машинами с платформой Unix/Linux
посредством протокола NFS Protocol. В Windows Server 201 2 бы.1и внесены следую­
щие усовершенствования.
• Поддержка NFS версии 4.1. Это включает упрошенный доступ через брандма­
уэры, протокол RPCSEC_GSS для расширенной безопасности, согласование
безопасности клиентов и серверов, семантика файлов Windows и Unix, улуч­
шенная поддержка для кластеризированных файловых серверов и дружествен­
ные к WAN составные процедуры.
• Улучшенная производительность. Никакой дополнительной настройки не тре­
буется, т.к. за счет применения нового встроенного протокола RPC-XDR вы
должны получить оптимальную производительность в готовом виде.
• Более простое управление.
Задачи управления выполняются с помощью
PowerShell и унифиuированного графического пользовательского интерфейса в
диспетчере серверов. Порт протокола RPC под номером 2049 упрощает конфи­
гурирование брандмауэров.
Еще одним усовершенствованием является улучшен­ное отображение удостоверений, к тому же появился новый поставщик WMlv2.
• Усовершенствования, касающиеся высокой rотовности NFSvЗ. Теперь улучшены
показатели времени обхода отказа с новыми настроенными путями обхода от­
казов для каждого физического дискового ресурса. Это ускоряет обход отказа
для клиентов N FS.

Где используется общий ресурс NFS

Файловая система N FS применяется в средах, где существует требование нали­
чия общих файловых ресурсов в среде со смесью операционных систем (таких как
Windows и Unix/Linux).
Б.1агодаря усовершенствованиям в Windows Server 2012, вы теперь можете одновременно представлять общий ресурс с помощью NFS и SMB.
Обычное использование этого можно обнаружить в ряде гипервизоров от независимых разработчиков, в которых общие ресурсы Windows Server 2012 NFS приме­няются в качестве хранилищ данных для шаблонов и образов ISO.

Быстрая настройка общего ресурса NFS

Ниже мы покажем, как настроить общий ресурс NFS. Так как мы обычно спе­
шим, давайте воспользуемся PowerShell. Добавьте службу NFS в Windows с помощью следующего синтаксиса:
Add-Windows Feature FS-NFS-Service
В испытательной среде имеется каталог, к которому необходимо открыть совместное использование — Е : shares. Ниже описаны шаги, которые понадобится ­полнить в графическом пользовательском интерфейсе.
1. Откройте диспетчер серверов и перейлите к роли File and Storage Services.
2. Щелкните на папке Shares (Общие ресурсы), т.к. мы собираемся работать с
общими ресурсами. Появится область управления Shares (Общие ресурсы).
как показано на рис. 12.63.
3. В области Shares выберите в раскрывающемся меню Tasks (Задачи) пункт New
Share (Создать общий ресурс). Запустится мастер создания общего ресурса
(New Share Wizard), окно которого представлено на рис. 12.64.
4. Выберите в списке File share profile (Профиль общего файлового ресурса) эле­мент NFS Share — Quick (Общий ресурс NFS — Быстрый).
5. Выберите свой сервер. В нашей испытательной среде им будет SSOl.
6. На экране Share Location (Местоположение общего ресурса) выберите переключатель Туре а custom path (Введите специальный путь) и введите путь к
общему ресурсу. В нашей испытательной среде это е : shares (рис. 12.65).

7. Введите имя общего ресурса. В нашей испытательной среде им будет shares
(рис. 12.66). Выбор подходящего механизма аутентификации сильно зависит от
среды, с которой вы интегрируетесь. В рассматриваемом случае мы не включа­
ли клиент Linux для аутентификации KerЬeros, поскольку это автономный кли­
ент. Как показано на рис. 12.67, мы отметили флажки No Server Authentication
(AUTH_SYS) (Нет аутентификации на сервере (AUTH_SYS)) и ЕпаЫе unmapped
user access (Включить доступ неотображенных пользователей).

Бригада разработчиков, занимающаяся хранилищем в Мicrosoft, опубликовала циклподробных статей, которые вы должны прочитать, если хотите получить дополни­тельные сведения о конфигурации и отображении удостоверений:
http: //Ыogs . technet . com/Ь/filecaЬ/archive/2012/10/09/nfs-identitymapping­ in-windows-server-2 012 . aspx
8. На экране Share Permissions (Разрешения для общего ресурса) щелкните на
кнопке Add (Добавить). В открывшемся диалоговом окне Add Permissions
(Добавление разрешений) выберите переключатель All Machines (Все машины)
и в списке Language encoding (Языковая кодировка) укажите ANSI. В спис­
ке Share permissions (Разрешения для общего ресурса) выберите Read / Write
(Чтение / Запись), как показано на рис. 12.68.
9. На экране Specify permissions to control access (Указание разрешений для
управления доступом) удостоверьтесь в том, что учетная запись Everyone (Все)
существует и ей назначен уровень доступа Full Control (Полный доступ), как
показано на рис. 12.69.

Рис. 12.69. Разрешения для управления доступом
10. Подтвердите выбранные установки и щелкните на кнопке Create (Создать),
чтобы создать новый общий ресурс NFS.
1 1 . Удостоверьтесь в успешном завершении создания и щелкните на кнопке Close (Закрыть).

Подключение к общему ресурсу NFS со стороны клиента

В нашей испытательной среде развернут дистрибутив Linux Mint. По умолчанию
мы имеем возможность подключения к общему ресурсу, но при попытке обзора
общего ресурса или создания на нем каталога возникают разнообразные ошибки.
Наряду со многими другими дистрибутивами, Linux Mint требует установки пакета nfs-cornmon, прежде чем можно будет читать из общего ресурса NFS. Для установ­ки этого пакета выполните перечисленные далее шаги.
1. Введите в терминальном окне следующую команду:
sudo apt-get install nfs-common
Это установит необходимые элементы, чтобы позволить просматривать общий
ресурс. Теперь вы можете смонтировать общий ресурс, ранее созданный на
тестовом сервере Windows.
2. Введите в терминальном окне следующую команду:
sudo mount -t nfs 192 . 168 . 0 . 1 : /Shares /mnt/share
Команда ничего не выводит; вместо этого вы должны перейти в каталог или
указанную точку монтирования (/rnnt/share). Ниже приведены объяснения
этого синтаксиса.

• sudo — выполнение от имени суперпользователя (привилегированное ны­
полнение определенных задач).
• mount — используется для монтирования различных типов файловых сис­
тем.
• -t nfs — д11 я монтирования файловой системы NFS.
• 1 92 . 168 . О . 1 : /Shares — удаленный обший ресурс, который должен быть
смонтирован.
• /пmt/share — локальная точка монтирования.
3. Перейлите к общему ресурсу, введя следуюшую команду:
cd /mnt/share
4. Теперь просмотрите содержимое каталога с помощью такой команды:
На машине с Windows Server вы создали файл по имени Readme . t x t.
После вво­да команды ls вы должны увидеть этот файл.
Файл Readme . txt просто взят для примера; попробуйте поместить на общий ресурс в среде Windows Server собствен­ные файлы и затем введите команду ls на клиентской машине Linux.

Дедупликация: диск и сеть

В Windows Server 2012 в качестве встроенного средства хранения появилась
дедупликация данных (Data Deduplication). Дедупликация данных — это более эффек­
тивный способ хранения данных. С постоянно растущей потребностью в хранилище
в облачных технологиях вы леrко можете себе представить объем хранящихся дуб­лированных файлов.
Даже дома зачастую имеется несколько копий файлов ISO иливиртуальных жестких дисков д11я хранилища USB и серверов.
Каждый такой файл занимает 3-7 Гбайт. Из-за хранения множества копий и отсутствия продуманной библиотечной системы понапрасну расходуется много пространства хранения.
Это простой пример, но он поднимает другой вопрос: все файлы имеют похожие
части и все они занимают место.
Согласитесь, что бьuю бы замечательно, если бы су­ществовала возможность идентификации таких общих порций, создания единствен­ной главной ссылки на диске и затем указания на нее из всех других файлов, которые имеют эту общую порцию’! Дедупликация данных предоставляет эту возможность.
Дедупликация данных в Windows применяет концепцию под названием храни­
лище фрагментов (chunk store).
Файл разделяется на фрагменты переменных разме­ров, обычно между 32 Кбайт и 1 28 Кбайт; в среднем фрагмент имеет размер около
64 Кбайт. Такие фрагменты сжимаются и помещаются в хранилище фрагментов.
Каждый фрагмент хранится в контейнере фрагментов, который растет в размерах до 1 Гбайт, прежде чем будет создан новый контейнер. Просмотреть хранилище фраг­ментов и его контейнеры можно в корне тома, в папке по имени System VolumeInformation (Системная информация о томе). no умолчанию эта папка заблоки­рована д11 я просмотра только от имени учетной записи System (Система), так что вы должны получить права владения ею и удостовериться, что у учетной записи System остается к ней полный доступ. Точка повторной обработки (reparse point) заменяет нормальный файл. При доступе к файлу точка повторной обработки пока­зывает, где хранятся данные, и восстанавливает файл (рис. 12. 70).

Рис. 1 2. 70. Дедупликация данных в действии
Хотя компонент Data Deduplication по умолчанию не устанавливается, он спро­
ектирован так, чтобы легко развертываться. Он также разработан с нулевым воз­действием на пользователей; в сущности, пользователи даже ничего не заметят.
Включить Data Deduplication на любом из основных томов данных можно с мини­
мальным влиянием на производительность.
Компонент спроектирован так, чтобы
не пересекаться с файлами, которые являются новыми или в которые в текущий
момент производится запись.
Компонент будет ожидать и каждый час проверять,
не появились ли файлы, пригодные для дедупликации.
Вы можете изменить график
этого процесса, приведя его в соответствие с нуждами компании.
Выяснение пригодности к дедупликации начинается с файлов, которые сущест­
вуют более трех дней (эту настройку можно изменить), при этом из процесса всегда исключаются файлы с размером меньше 32 Кбайт, файлы с расширенными атрибу­тами или зашифрованные файлы. Если у вас есть другие файлы, которые вы не хо­тите подвергать процессу дедупликации, это также поддается конфигурированию.
Дедупликация происходит также п сетевом трафике. К отправляемому или полу­
чаемому трафику производится доступ с целью выяснения, может ли в отношении
него быть проведена дедуплИкация, потенциально сокращая объем этого трафика.
В отличие от дедупликации хранилища, график или тип данных для сетевой дедуп­ликации изменять нельзя.
Тем не менее, есть несколько моментов, о которых следует знать перед тем, как продолжить. Дедупликация поддерживается только на томах NTFS, и ее невозмож­но выполнить на загрузочном или системном диске. В Windows Seiver 201 2 она не
может использоваться с томами CSV, живыми виртуальными машинами или базами
данных SQL.
Так чего же нового версия Windows Seiver 201 2 R2 привнесла в дедупликацию
данных? Основное внимание было сосредоточено на разрешении дедупликации для
живых виртуальных машин. Все верно; вы можете выполнять дедупликацию файлов
VHD и VНDX, которыми пользуются живые виртуальные машины. Главным обра­
зом, вы можете применять ее в сценариях VDI (Virtual Desktop lnfrastructure — инф­раструктура виртуальных рабочих столов), с дальнейшей ориентацией на удаленное хранилище. Благодаря таким улучшениям, дедупликацию данных можно проводить
в среде VDI. Также полезно отметить, что хотя она не поддерживается для других виртуализированных рабочих нагрузок, не существует каких-то специальных блоки­рующих средств, препятствующих ее включению. Как всегда, результаты не могут быть гарантированными.
Это удивительная технология, встроенная в Windows Seiver, которая обеспечит
значительную экономию объема хранилища. Далее мы посмотрим, как ее конфи­
гурировать.

Д,ля начала понадобится добавить компонент Data Deduplication. Это можно сде­лать с помощью PowerShell. Синтаксис выглядит следующим образом:
Add-WindowsFeature FS-Data-Deduplication
Затем его можно конфигурировать через диспетчер серверов или PowerShell.

конфигурирование дедvпликации данных с помощью диспетчера серверов

Первым мы рассмотрим метод с диспетчером серверов.
1. Откройте диспетчер серверов, щелкните на File and Storage Services и выбери­
те папку Volumes (Тома).
2. Щелкните правой кнопкой мыши на томе, для которого требуется сконфи­
гурировать дедупликацию данных, и выберите в контекстном меню пункт

Рис. 12. 71 . Конфигурирование дедупликации данных
3. Выберите в раскрывающемся списке Data deduplication (Дедупликация данных)
элемент General purpose file server (Файловый сервер общего назначения).
Обратите внимание на еще один элемент, Virtual Desktop lnfrastructure (VDI)
server (Сервер инфраструктуры виртуальных рабочих столов (VDI)), показан­
ный на рис. 12.72. Щелкните на кнопке ОК.
Далее необходимо решить, сколько должны просуществовать файлы, прежде
чем они будут обработаны механизмом дедупликации. Это значит, что меха­
низм не будет оказывать воздействие на вновь созданные файлы в течение
указанного периода времени.

4. В нашем примере оставьте период в 3 дня.
При желании позже это значение можно изменить (рис. 1 2.73).
Кроме того, на этом экране можно выбрать любые файловые расширения,
которые должны быть исключены из процесса дедупликации.
Например, мо­жет быть нежелательно подвергать дедупликации базу данных SQL или Access.
Чтобы указать в поле несколько расширений, разделяйте их запятыми.
Напри­мер, если вы хотите исключить файлы баз данных SQL и файлы баз данных
Active Directory (ntds . di t), то должны ввести в поле md.f ,dit.

5. Исключите файловые расширения, как показано на рис. 12.73.
Исключение файла — это хорошо, но в организации могут существовать пап­
ки, которые являются очень чувствительными, и по этой причине не должны
подвергаться дедупликации.
Они могут иметь общие фрагменты, но вы не мо­жете идти на риск повреждения диска на месте хранилища фрагментов, чтопотенциально могло бы затронуть информацию. Разумеется, это весьма мало­вероятный сценарий, но он просто демонстрирует возможность исключения папки с чувствительной информацией.
6. В этом случае мы исключим папку Е : shares, т.к. в ней ранее был создан
об­щий ресурс NFS.
Мы не на 100% уверены в том, что именно здесь будет храниться, поэтому не
хотим брать на себя риск, не проведя дальнейшее исследование.
В начале этой главы говорилось о том, что механизм дедупликации имеет фо­
новый процесс, который по умолчанию запускается каждый час. На рис. 12.73
видно, что есть также опция для изменения этого графика запуска.
7. Щелкните на кнопке Set Deduplication Schedule (Установить график дедупли­
кации). Откроется диалоговое окно с набором флажков (рис. 12.74).
По умолчанию флажок ЕnаЫе background optimization (Включить оптимиза­
цию фоновой обработки) отмечен, но можно также отметить флажок ЕnаЫе
throughput optimization (Включить оптимизацию пропускной способности), что
инициирует задачу оптимизации при обработке больших объемов данных.
В Microsoft утверждают, что пропускная способность дедупликации составляет
приблизительно 2 Тбайт данных на том в 24-часовой период на единственном
томе. Если томов несколько, работа на них может выполняться параллельно.

8. В рассматриваемом примере оставьте график в том виде, как есть.
Когда вы просмотрите том в диспетчере серверов, то обнаружите столбцы
Deduplication Rate (Доля дедупликации), содержащий процентное значение,
и Deduplication Savings (Экономия от дедупликации), содержащий значение в
байтах (рис. 12.75) .

конфигурирование дедупликации данных с помощью PowerShell

А теперь мы покажем, как работать с дедупликацией в PowerShell. На рис. 12.76
можно видеть доступные командЛеты PowerShel.
Рис. 1 2. 76. Командлеты PowerShell, предназначенные для дедупликации
1. Чтобы включить дедупликацию дЛЯ тома, воспользуйтесь следующим синтак­
сисом:
EnaЬle-DedupVolume Е :
Вывод показан на рис. 12.77.
Теперь, когда известно, что дедупликация включена, вы хотите выяснить, ка­кую экономию она обеспечивает.
На томах в нашей испытательной среде недостаточно много информации, что­
бы провести дедупликацию, поэтому все значения на рис. 12.78 оказываются
нулевыми, но это не просто так.

Рис. 12.78. Вывод из командлета Get-DeDupStatus
В конфигурации мы исключили Е : shares, т.к. мы не на 100% уверены в
том, что именно здесь будет храниться, и поскольку это общий ресурс NFS
для Linux, мы не хотим рисковать. (С практической точки зрения тип клиента
не играет никакой роли; все прозрачно.
) Внутрь Е : shares мы скопировали ISО-образ Win2012R2 _ Preview, имеющий размер около 4 Гбайт. Мы созда­ли дополнительную папку Е : TestData и скопировали в нее два ISО-образа Win2012R2 _Preview под разными именами, а также создали папку Technical,которая содержит документы с технической информацией (рис. 12.79).
Помните, что несмотря на копирование данных, мы должны подождать три
дня, прежде чем они включатся в дедупликацию?
Но мы не хотим ждать на­столько долго, поэтому воспользуемся командлетом Start-DedupJob, чтобыускорить процесс.

6. Теперь сравните вывод на рис. 12.83 с выводом на рис. 12.84, когда командr1ет
Get-DedupJob завершил работу.
В нашей испытательной среде мы сэкономили 4,64 Гбайт, что великолепно,
т.к. объем хранилища недостаточен.

оптимизация завершена
7. Попробуйте запустить командлет Get-DeDupVolume для получения разного
вывода.
8. В качестве дополнительного упражнения удалите папку Е : Shares из списка
исключений и снова запустите задание оптимизации.
Сколько пространства освободилось теперь?
9. Наконец, щелкните правой кнопкой мыши на папке Е : TestData и выбери­
те в контекстном меню пункт Properties
(Свойства).
На рис. 12.85 показано диалоговое окно
свойств папки TestData в нашей испы­
тательной среде. Обратили внимание на
разницу между значениями Size (Размер)
и Size оп disk (Размер на диске)?
Итак, вы увидели дедупликацию в дейс­
твии. Но куда делись данные?
10. Запустите командлет Get -DedupMeta
data, чтобы просмотреть информацию о
хранилище фрагментов, о котором шла
речь в начале раздела. Вывод из команд­
лета представлен на рис. 12.86.
Как было показано на рис. 1 2.81, в плани­
ровщике задач имеются еще два задания, ко­
торые запускаются на еженедельной основе.
Давайте посмотрим, что это за задания. Начнем

По умолчанию задание GarbageCol lect ion сконфигурировано на запуск
еженедельно, но при необходимости его можно инициировать вручную. Задание
GarbageCol lection очищает хранилище фрагментов, удаляя неиспользуемые
фрагменты, что освобождает дисковое пространство. Вы увидите, что это очень важ­ное задание.
Чтобы вручную инициировать сборку мусора, запустите командлет Start­
DedupJob следующим образом:
Start-DeDupjob -Туре GarbageCollection -volurne Е :
Это поставит задание в очередь на выполнение во время простоя системы; в качестве альтернативы можно принудительно ускорить его выполнение в планировщике задач.
ДОПОЛНИТЕЛЬНОЕ УПРАЖНЕНИЕ
Удалите все файлы ISO, которые бьщи задействованы в примере, и очистите корзи­ну. Запустите задание оптимизации, а затем и задание сборки мусора. После завер­шения этих заданий просмотрите размер хранилища фрагментов с применением ко­мандлета Get-DedupMetadata. Ниже показано, что размер хранилища фрагментов
в результате уменьшился.

Проверка томов на предмет повреждений

Последним аспектом, относящимся к дедупликации, является проверка томов на
предмет повреждений. Как несложно себе представить, чем больше общих данных
обнаруживается в файлах, тем в большей степени будет расти хранилище фрагмен­
тов, и тем больше точек повторной обработки будет существовать на диске.
Предположим, что сектор диска, где располагается часть фрагмента, оказался
поврежденным. Возникает риск потери сотен, а то и тысяч файлов. Хотя это редкое
явление, особенно если вы дополнительно пользуетесь технологиями обеспечения
отказоустойчивости, возможность его возникновения все же существует. Механизм
дедупликации предлагает несколько специальных встроенных проверок, которые
предотвращают такую ситуацию.
Например, дедупликация вводит избыточность для критически важных мета­
данных; она также предоставляет избыточность для фрагментов с самым частым
обращением (если к фрагменту производится доступ более 100 раз, он становится
горячей точкой). Дедупликация записывает в журнал ьный файл детали о любом
повреждении, и позже за счет использования заданий очистки анализирует этот
журнал и делает соответствующие исправления.
Исправления могут производиться с применением резервной копии при обраще­
нии к критически важным метаданным или горячей точке. Если дедупликация вы­
полнялась в отношении пространства хранения с зеркальным отображением, то для
исправления фрагмента она может использовать зеркальные данные.
Подобно заданиям оптимизации и сборки мусора, задания очистки запускаются
по установленному графику, который можно настроить на более частое выполнение,
чем по умолчанию один раз в неделю.
Запустить задание с помощью PowerShell можно следующим образом:
Start-DeDupJob -Туре Scrubbing -Volume Е :
Это инициирует задание верификаuии дпя диска Е : , но проверяться будут толь­
ко записи в журнальном файле повреждений.
Чтобы проверить целостность всего дедуплиuированного тома, введите такую ко­
манду:
Start-DeDupJon -Ту р е Scrubbing -Volume Е : -full
Для просмотра результатов очистки запустите программу просмотра событий
(Event Yiewer). Весь вывод задания очистки хранится в узле Event ViewerApplications
and Services LogsMicrosoftWindowsDeduplicationScrubЬing (Просмотр событий
Журналы приложений и служб Microsoft Windows Дедупликация Очистка).
Журнал очистки можно видеть на рис.

Windows Storage Server — специальная редакция ОС Windows Server, которую используют в файловых хранилищах. Эту редакцию распространяют только Embedded/IoT дистрибьюторы Microsoft, а приобрести могут производители и сборщики систем хранения и других специализированных систем.  

В отличие от «классических» редакций Standard и Datacenter, этому продукту не нужны лицензии клиентского доступа CAL, поэтому это более экономный вариант для использования на файловых серверах хранения.

Компания Кварта Технологии продолжает оказывать услуги по настройке операционных систем, созданием образов ОС на заказ и помогать с настройкой промышленного тиражирования образов. Более подробнаяя информация доступна на соответствующей странице.

Редакции и сроки доступности и поддержки

Выпуск

Поддержка до

Купить можно до

Windows Storage Server 2008 and 2008 R2

закончилась 2023

Windows Storage Server 2012 R2

2023

недоступна

Windows Storage Server 2016

2027

31.12.2023

Windows Server IoT 2019 for Storage

09.06.2029 

09.06.2029

Windows Server IoT 2022 for Storage

2031 

2031

Значимые нововведения в Storage Server 2022

Служба миграции хранилища

Усовершенствования службы миграции хранилища в Windows Server 2022 упрощают перенос хранилища на Windows Server или в Azure из большего количества источников. Вот функции, которые доступны при запуске оркестратора Storage Migration Server на Windows Server 2022:

  • Перенесите локальных пользователей и группы на новый сервер.
  • Миграция хранилища из отказоустойчивых кластеров, миграция в отказоустойчивые кластеры и миграция между автономными серверами и отказоустойчивыми кластерами.
  • Перенести хранилище с сервера Linux, использующего Samba.
  • Упростите синхронизацию перенесенных общих ресурсов в Azure с помощью службы «Синхронизация файлов».
  • Переходите на новые сети, такие как Azure.
  • Миграция серверов NetApp CIFS с массивов NetApp FAS на серверы и кластеры Windows.

Регулируемая скорость восстановления хранилища

Регулируемая пользователем скорость восстановления хранилища — это новая функция в Storage Spaces Direct, которая предлагает больший контроль над процессом повторной синхронизации данных, выделяя ресурсы либо для восстановления копий данных (отказоустойчивость), либо для запуска активных рабочих нагрузок (производительность). Это помогает повысить доступность и позволяет более гибко и эффективно обслуживать кластеры.

Кэш шины хранения с дисковыми пространствами на автономных серверах

Кэш шины хранения теперь доступен для автономных серверов. Это может значительно улучшить производительность чтения и записи, сохраняя при этом эффективность хранения и низкие эксплуатационные расходы. Подобно его реализации для Storage Spaces Direct, эта функция связывает вместе более быстрые носители (например, NVMe или SSD) с более медленными носителями (например, HDD) для создания уровней. Часть более быстрого уровня мультимедиа зарезервирована для кеша.

Сравнение Windows Storage Server 2016-2022

Возможности Windows Storage Server 2016 Windows Server IoT 2019 Windows Server IoT 2022
Workgroup Standard Storage Workgroup Storage Standard Storage Workgroup Storage Standard
Core based licensing        
Client Access License (CAL)            
Maximum #CPU 1 2 1 n/a 1 n/a
Virtual Machine Rights   2   2   2
# Users 50 Unlimited 50 Unlimited 50 Unlimited
NVMe-enabled hardware      
# Disks 6 Unlimited 6 Unlimited 6 Unlimited
External Serial Attached SCSI (SAS) interconnect      
Maximum Memory 32 GB 24 TB 24 TB 24 TB 48 TB 48 TB
Hardware RAID
Concurrent SMB Connections 250 Unlimited Unlimited Unlimited Unlimited Unlimited
File Sharing (SMB&NFS)
Online Backup
DFS Replication
Storage Replica        
File Classification Infrastructure
File Server Resource Manager
Domain Join
Shared Block Storage (iSCSI Target + Boot)
OEM Customizable Out of Box Experience
Storage Spaces
Storage Spaces Direct/Volume Replication            
Deduplication      
BranchCache — Hosted Cache      
Clustering (Including AD/DNS)      
Simplified Cluster Setup      
Networking Infra (DHCP, DNS & WINS)      

Доступные редакции Windows Storage Server

Для приобретения доступны две редакции. Сравнение ниже.

Windows Storage Server Workgroup Standard
Maximum # CPU and VM rights 1 + 0 2 + 2
Maximum Memory 32 GB Unlimited
# Disks 6 Unlimited
hardware RAID Yes Yes
Concurrent SMB Connections 250 Unlimited
# Users 50 Unlimited
File sharing (SMB & NFS) Yes Yes
Online Backup Yes Yes
DFS-Replication Yes Yes
File Classification Infrastructure (FCI) Yes Yes
File Server Resourse Manager (FSRM) Yes Yes
Domain Join Yes Yes
Shared block storage (iSCSI Target + Boot) Yes Yes
OEM Customizable Out of Box Experience Yes Yes
Storage Spaces Yes Yes
Deduplication No Yes
BranchCache — Hosted Cache No Yes
Virtualization No Host + 2 VM
Clustering (including AD/DNS) No Yes
Simplified Cluster Setup No Yes
Networking infra (DHCP, DNS & WINS) No Yes
Storage Spaces Direct and Volume Replication No No
AD Roles Including Domain Controller (RODS) No No
Active Directory (Domain Controller, Certificate
Services, Federation Services, Rights Managment)
No No
Application Server, Network Policy, Remote
Desktop Broker, WDS and Fax Server
No No

Системные требования Windows Storage Server

Процессор 2 ГГц
Оперативная память 2 ГБ
Свободное метсо на диске 8 ГБ

Записки IT специалиста

Технический блог специалистов ООО»Интерфейс»

Настройка iSCSI-хранилища в Windows Server 2012 R2

Продолжая тему создания систем высокой доступности, в данном материале мы рассмотрим настройку iSCSI-хранилищ в современной версии серверных ОС от Microsoft. Мы не будем повторяться и снова обсуждать общие вопросы, поэтому, если вы только начинаете работать с iSCSI, то настоятельно рекомендуем ознакомиться с вступительной частью к нашему предыдущему материалу.

Широкое распространение виртуализации и потребности в создании отказоустойчивых систем даже при небольших внедрениях заставили компанию Microsoft пересмотреть свое отношение к доступным из коробки ролям Windows Server и политике лицензирования. Если раньше iSCSI Target предлагался только в редакции Windows Storage Server, то начиная с Server 2008 R2 он стал доступен в виде отдельно устанавливаемого компонента, а с выходом Windows Server 2012 закономерно стал частью ОС.

Для установки роли Cервера цели iSCSI запустите Мастер добавления ролей и компонентов, затем последовательно разверните пункты Файловые службы и службы хранилища — Файловый службы и службы iSCSI и укажите одноименную роль.

Перезагрузки сервера не требуется и по завершении работы мастера можно сразу переходить к настройке сервера целей. Для этого в левом меню Диспетчера серверов выберите Файловые службы и службы хранилища и перейдите в раздел iSCSI.

Для создания нового виртуального диска щелкните соответствующую ссылку или выберите соответствующий пункт из меню Задачи, откроется Мастер создания виртуальных дисков iSCSI, который в первую очередь попросит вас указать расположение хранилища.

Помните, что производительность дисковой подсистемы хранилища должна соответствовать предполагаемым нагрузкам, также вы должны обеспечить серверу цели достаточную пропускную способность сетевых интерфейсов. Мы рекомендуем выделять для сети хранения данных (SAN) отдельную сеть, не связанную с сетью предприятия.

Следующим шагом укажите имя и размер создаваемого диска. Windows Server 2012 поддерживает новый формат виртуальных дисков — VHDX, а также динамически расширяемые диски. Если доступные ранее диски фиксированного размера резервировали дисковое пространство хранилища сразу при создании, то динамически расширяемые диски увеличивают размер согласно реально записанным в них данным. Это позволяет существенно экономить дисковое пространство хранилища, нарезая виртуальные диски с запасом.

Не рекомендуется данный тип дисков для систем с высокой дисковой активностью, так как за счет возможной фрагментации и операций по приращению размера диска производительность будет ниже, чем у дисков фиксированного размера. В тоже время динамически расширяемые диски неплохо подходят для файловых хранилищ, резервного копирования и т.п. задачам, где в первую очередь требуется хранение данных, а не скорость доступа к ним.

Еще один поддерживаемый тип дисков — разностный, когда все изменения пишутся не на исходный виртуальный диск, а на вновь созданный, к использованию в производственных средах не рекомендуется ввиду существенно более низкой производительности, но может оказаться полезным при отладке и разного рода экспериментах, когда надо иметь возможность быстро откатиться к исходному состоянию.

Созданный виртуальный диск можно назначить как уже существующей цели (таргету), так и создать новый, в этом случае просто укажите имя цели, IQN будет сформирован автоматически.

Затем потребуется указать инициаторы, которым будет разрешен доступ к этой цели. IQN инициатора можно посмотреть на клиенте, для этого откройте Панель управления — Администрирование — Инициатор iSCSI, на вопрос об автоматическом запуске службы ответьте утвердительно.

IQN ткущего инициатора можно посмотреть на закладке Конфигурация:

Но можно поступить проще, перейдите на закладку Конечные объекты и выполните Быстрое подключение к Cерверу цели, подключиться по понятным причинам не получится, но IQN инициализатора останется в кэше сервера.

Вернемся на сервер и нажав кнопку Добавить выберем IQN инициатора из кэша, для современных систем вы также можете получить IQN инициатора выполнив подключение к нему по IP-адресу или имени хоста:

На остальных шагах оставляем значения по умолчанию, после чего работа мастера будет завершена, виртуальный диск создан и назначен соответствующей цели. Теперь следует подключить созданный диск к целевой системе. Можно воспользоваться функцией быстрого подключения, тогда все диски цели будут подключены с параметрами по умолчанию, что не всегда правильно. Поэтому перейдите на закладку Обнаружение и нажмите кнопку Обнаружить портал:

Возвращаемся на закладку Конечные объекты и выполняем ручное подключение найденных дисков, при этом, нажав на кнопку Дополнительно, можно самостоятельно настроить параметры подключения, например, выбрать сетевой адаптер, обслуживающий сеть SAN.

Если вам потребуется изменить параметры подключения уже подключенного объекта, то его следует отключить и подключить заново. После выполнения всех этих действий подключенное устройство будет обнаружено системой как еще один локальный диск и последующая работа с ним ничем не отличается от работы с обычным жестким диском.

Источник

Windows Server 2012

Введение

По прошествии четырех лет разработки, 4 сентября 2012 года, Microsoft объявила о доступности новой версии Windows Server — Microsoft Windows Server 2012.

Исторически операционные системы линейки Windows Server — это ОС, предназначенные для управления аппаратным обеспечением серверов, обладающие требуемыми для этого функциональными особенностями. Также эти серверные ОС содержат специализированные службы (программные компоненты), предназначенные для организации, мониторинга и управления ИТ-инфраструктурой предприятия, начиная от управления адресным пространством протокола IP и учетными записями пользователей и заканчивая организацией отказоустойчивых сетевых сервисов.

Если мы посмотрим на ИТ-инфраструктуру предприятий образца 10-летней давности, то в большом количестве случаев увидим т. н. модель «on-premise», когда серверное аппаратное обеспечение приобреталось предприятиями в собственность, на каждом сервере разворачивался экземпляр операционной системы, настраивались ее комплектные службы, устанавливалось прочее программное обеспечение, реализующее дополнительную функциональность. В этой классической модели ИТ-инфраструктуры предприятия взаимодействие, как правило, строилось по схеме клиент—сервер, причем под клиентом в подавляющем большинстве случаев понимался ПК. То есть клиентский ПК, как устройство, на сетевом уровне взаимодействовал через локальную сеть с сервером, а на уровне приложений некое клиентское приложение взаимодействовало с соответствующим серверным.

В то же время, сейчас в индустрии мы видим трансформацию этой модели в модель «подключенных устройств и непрерывных сервисов». Всё большее количество пользователей работает со всё более и более возрастающим количеством разнообразнейших подключенных к интернету устройств: смартфонами, планшетами, ноутбуками, настольными ПК и даже «умными» телевизорами. На стороне «серверов» предприятия пользователи ожидают уже не просто серверных приложений, взаимодействующих с единственным их устройством, но непрерывно, 24×7×365, функционирующих сервисов: «облачных», умных, надежных, быстрых, соответствующим образом обрабатывающих и умеющих синхронизировать данные между всеми устройствами. То есть нужна серверная операционная система, которая позволила бы строить такие сервисы. Растет и количество данных: в реляционных БД, текстовых документах и электронных таблицах накапливается все большее количество информации.

В условиях такой трансформации Microsoft поставила перед собой цель выпустить настоящую «облачную» операционную систему — платформу масштаба уже не единичного сервера, но центра обработки данных (ЦОД) с единообразными подходами и инструментами для управления и разработки приложений в частном, партнерском, глобальном облаке и гибридных вариантах. По аналогии с тем, как Microsoft перепридумала клиентскую ОС Windows, серьезному переосмыслению подверглась и парадигма серверной ОС Windows Server.

Ключевыми строительными блоками здесь являются Windows Server 2012, Windows Azure и System Center 2012 SP1.

Говоря «облачная операционная система», Microsoft понимает под этим четыре группы требований к серверной ОС:

  1. Преобразование ЦОД. Необходимо иметь возможность взять все ресурсы ЦОД (хранение, сеть, вычислительные мощности), разделить их между облачными службами, обеспечить возможность высокой загрузки (эффективного использования) этих ресурсов. Нужно иметь возможность гибкого масштабирования, то есть для любой конкретной службы необходимо иметь возможность выделения ей дополнительных ресурсов, но только на то время, когда они ей нужны. Необходимо иметь возможность строить инфраструктуру, работающую в режимах always-up и always-on (всегда включено и всегда доступно). Необходимо иметь возможность автоматизирования задач по управлению ЦОД посредством API и порталов самообслуживания.
  2. Необходимо иметь возможность размещения современных приложений поверх такой инфраструктуры. Нужно иметь большой набор работающих служб, позволяющих строить социальные, мобильные приложения и приложения для обработки сверхбольших массивов данных, т. е. поддержать все современные тренды. Предприятиям необходимо иметь гибкость в инструментарии, в среде разработки, чтобы быстро строить эти приложения. Необходимо иметь быстрый цикл разработки, который объединял бы разработчиков и управленцев.
  3. Microsoft ставил перед собой задачу поддержать тенденцию BYOD (bring your own device = приноси свое собственное устройство) на предприятиях, в то же время обеспечивая необходимые контроль и управление со стороны ИТ-службы.
  4. Необходимо было поддержать возможности по обработке и хранению любых массивов данных с любой парадигмой хранения: как SQL, так и NoSQL, совместно обрабатывать данные предприятия и данные из внешних структурированных источников, создавая новые возможности.

Результатом явилось построение облачной операционной системы и платформы. Новая ОС может быть развернута в своем ЦОД, можно использовать ее как услугу из партнерского ЦОД или из глобальной Windows Azure; при этом обеспечивается единый подход к виртуализации, инфраструктуре управления, инфраструктуре разработки приложений, управлению данными и сервисами идентификации.

Однако новая ОС несет множество новаций и усовершенствований и для тех, кто не планирует переселяться в облака 😉

Редакции и лицензирование в линейке Windows Server 2012

Обычно вопросы лицензирования, редакций и их ограничений у всех производителей — одни из самых непростых. В линейке Windows Server 2012 структура упрощена и унифицирована по сравнению с предыдущим поколением.

В линейке Windows Server 2012 доступны 4 редакции.

Редакция Основное предназначение Основные особенности Модель лицензирования Цена на условиях «Open No Level (NL) ERP»
Datacenter (Датацентр) Частные и гибридные виртуализованные среды высокой плотности Полнофункциональный Windows Server. В цену входит возможность запускать неограниченное количество виртуализованных экземпляров на одном физическом сервере Цена устанавливается за физические процессоры + лицензии клиентского доступа (приобретаются отдельно) $4,809 за два физических процессора (количество ядер и потоков не ограничено). При использовании на более чем двухпроцессорных серверах требуется приобретение дополнительных лицензий
Standard (Стандарт) Невиртуализованные или виртуализованные среды низкой плотности Полнофункциональный Windows Server. В цену входит возможность запускать два виртуализованных экземпляра на одном физическом сервере Цена устанавливается за физические процессоры + лицензии клиентского доступа (приобретаются отдельно) $882 за два физических процессора (количество ядер и потоков не ограничено). При использовании на более чем двухпроцессорных серверах и/или более чем двух виртуализованных экземпляров требуется приобретение дополнительных лицензий
Essentials Для малого бизнеса Ограниченная функциональность Windows Server. В цену не входит возможность запускать дополнительные виртуализованные экземпляры. Максимально 25 пользователей. Максимально два физических процессора (количество ядер и потоков не ограничено) Цена устанавливается за редакцию сервера, дополнительные пользовательские лицензии оплачивать не нужно $501
Foundation Экономичная редакция Ограниченная функциональность Windows Server. В цену не входит возможность запускать дополнительные виртуализованные экземпляры. Максимально 15 пользователей. Максимально один физический процессор (количество ядер и потоков не ограничено) Цена устанавливается за редакцию сервера, дополнительные пользовательские лицензии оплачивать не нужно Распространяется только с оборудованием

Ранее входившие в линейку редакции Windows Small Business Server (SBS), Windows Home Server более развиваться не будут, так как, по наблюдениям Microsoft, целевые аудитории этих продуктов (домашние пользователи, малый бизнес) все чаще выбирают облачные службы для решения своих задач, например таких, как организация электронной почты и совместной работы и резервного копирования, вместо развертывания собственной инфраструктуры.

Также ранее входившие в линейку редакции Enterprise, High-Performance Computing (HPC) и Web Server в новом поколении недоступны.

Важным изменением является то, что функционально редакции Datacenter и Standard не отличаются — теперь можно строить кластеры высокой доступности и отказоустойчивые кластеры, имея лицензию на Standard.

Платформа виртуализации (Hyper-V)

Поскольку виртуализация — краеугольный камень облачных сред, много нового появилось именно в этой области.

Принята во внимание необходимость больших компаний и облачных провайдеров лучше управлять их ЦОДами, учитывая потребление ресурсов: вычислительных, хранения, сети.

Масштабируемость

Если предприятию было недостаточно мощности решений виртуализации предыдущего поколения, то Windows Server 2012 может быть выходом, так как Hyper-V 3-й версии поддерживает:

  • до 320 логических процессоров на физический сервер и до 64 процессоров в виртуальной машине;
  • до 4 ТБ оперативной памяти на физический сервер и до 1 ТБ памяти в виртуальной машине;
  • в виртуальной машине поддерживается жесткий диск объемом до 64 ТБ;
  • кластеры Hyper-V с количеством узлов до 64 и до 8000 виртуальных машин на кластер до 1024 машин на узел.

Мне представляется, что лишь очень небольшая часть всех возможных нагрузок, исполняющихся на серверах архитектуры x86-64, не может быть виртуализована, учитывая эти ограничения.

Live Migration

Live Migration (живая миграция) — возможность переноса виртуальных машин между физическими серверами без перерыва в предоставлении сервисов клиентам — с появлением Windows Server 2012 стала возможна более чем для одной виртуальной машины одновременно. Фактически количество виртуальных машин, одновременно вживую мигрирующих между хостами, зависит от мощности оборудования. При использовании новой версии протокола SMB, SMB3 (см. ниже), и агрегировании высокопроизводительных сетевых интерфейсов (NIC teaming) можно одновременно переносить 120 виртуальных машин.

Также, благодаря поддержке размещения виртуальных жестких дисков на общих папках по протоколу SMB3, стало возможным выполнять Live Migration без использования разделяемого кластерного хранилища (CSV = clustered shared volume).

Microsoft говорит о появлении возможности миграции типа «shared-nothing», т. е. при наличии только Ethernet-кабеля.

Сетевые возможности

Выполнены существенные усовершенствования и в сетевой инфраструктуре Hyper-V. Если в физическом хосте виртуализации будут установлены серьезные сетевые адаптеры, с большим количеством возможностей на аппаратном уровне, например IPSec Offload, то с большой вероятностью, применив Hyper-V 3, все эти «вкусности» удастся получить и внутри виртуальных машин.

Виртуальный коммутатор, управляющий работой сетевых адаптеров виртуальных машин, серьезным образом переработан. Основным усовершенствованием является новая открытая архитектура, которая позволяет сторонним производителям использовать документированные API для написания своих расширений, реализующих функциональность инспекции и фильтрации пакетов, проприетарных протоколов свитчинга, фаерволла и систем определения вторжений.

В настоящее время уже выпущено одно решение, использующее упомянутую архитектуру — виртуальный свитч Cisco Nexus 1000V.

Вместе с тем, даже без применения сторонних решений виртуальный свитч стал мощнее — например, появилась возможность управлять полосой пропускания отдельных виртуальных машин.

Другие механизмы Hyper-V

Также усовершенствованы многие другие механизмы: Hyper-V стал лучше поддерживать NUMA; появился новый формат виртуальных жестких дисков VHDX, поддерживающий жесткие диски формата native 4K и диски большого размера; улучшен механизм Dynamic Memory — добавлена опция Minimum Memory, позволяющая гипервизору забирать память у виртуальных машин, если для запуска нужной ее недостаточно. Стало возможным делать инкрементальные резервные копии работающих виртуальных машин.

Сетевая подсистема

В ОС Windows Server 2012 переписана реализация стека протоколов TCP/IP. Основным протоколом сейчас считается IPv6, в то время как IPv4 на внутреннем программном уровне обрабатывается как подмножество IPv6.

На приоритетное использование IPv6 нацелена и реализация многих протоколов более высокого уровня и сервисов — не стоит удивляться, когда при наличии возможности работы и IPv6, и IPv4 будет выбран именно IPv6. Например, служба разрешения доменных имен DNS в первую очередь пытается получить именно IPv6-адрес узла.

Остановимся на некоторых особенностях IPv6:

  • первое, что упоминается всеми — большее адресное пространство, что позволит наделить собственным уникальным во вселенной IPv6-адресом ≈3,4·10 38 узлов. Вместе с тем, существующие правила выделения IPv6-адресов, учитывающие их структуру, предписывают выделять каждому обратившемуся за собственным блоком IPv6-адресов предприятию подсеть /64, т. е. предприятие получает возможность выдать своим серверам, клиентским ПК и устройствам 2 64 уникальных глобально маршрутизируемых IPv6-адресов — в 2 32 раза больше, чем было во всем вместе взятом IPv4-адресном пространстве Интернета;
  • возможность выдать каждому узлу сети (каждому устройству) собственный глобально маршрутизируемый IPv6-адрес сделает гораздо более простой работу сервисов, которые должны из Интернета инициативно доставлять сообщения адресатам внутри корпоративных (да и домашних) сетей — в основном это различные приложения сегмента унифицированных коммуникаций: мессенджеры, коммуникаторы и т. п. Культурный шок: PAT (NAT) — больше нет! Для клиентских же приложений отпадет необходимость постоянно поддерживать открытую через PAT (NAT) TCP-сессию, а для сервера, соответственно, держать их тысячи/десятки тысяч;
  • IPv6 позволяет снизить нагрузку и, соответственно, требования к сетевому оборудованию, особенно это будет заметно на высоконагруженном провайдерском оборудовании: из стандарта убрана фрагментация, не нужно считать контрольные суммы, длина заголовков — фиксирована;
  • в IPv6 включена обязательная поддержка узлами технологии IPSec. В настоящее время существует большое количество протоколов, разработанных на заре Интернета, к каждому из которых пришлось позже разрабатывать и стандартизовать безопасные аналоги — некие уникальные для каждого протокола «обертки» (HTTP/HTTPS, FTP/SFTP и т. п.). IPv6 позволит уйти от этого «зоопарка» и унифицированно защищать соединение двух узлов на 3-м уровне сетевой модели для любого протокола;
  • IPv6 потенциально создает возможность роуминга мобильных устройств между беспроводными сетями различных операторов (Wi-Fi, 3G, 4G и т. д.) без разрыва сессий клиентского ПО, например голосового трафика SIP-клиентов.

В частности, такая входящая в Windows Server технология, как DirectAccess, позволяет организовать защищенный удаленный доступ клиентского компьютера в корпоративную локальную сеть прозрачно для пользователя. Со стороны пользователя нет необходимости использовать какие-либо VPN-клиенты или подключения. DirectAccess, будучи единственный раз настроен, в дальнейшем работает прозрачно для пользователя.

С технологической стороны, DirectAccess — это реализация IPSec VPN на базе IPv6 компании Microsoft. (Это не значит, что он не будет работать поверх транспортных сетей IPv4.)

Кстати, в Windows Server 2012 стало возможным не развертывать PKI, если клиенты DirectAccess — Windows 8.

В сетях Microsoft для доступа к ресурсам файл-сервера применяются протоколы SMB (Server Message Block). Уже довольно давно мы работаем с протоколом версии 2, а в Windows Server 2012 вошла новая редакция — SMB 3.0.

На самом деле, протокол SMB 3.0 необходимо рассматривать не в контексте сетевой подсистемы, а в контексте подсистемы хранения данных — и позже мы увидим почему.

В контексте же сетевой подсистемы можно сказать, что SMB 3.0 заточен под современные быстрые локальные гигабитные сети — при его использовании оптимизировано управление протоколом транспортного уровня TCP в таких сетях, учитывается возможность применения т. н. jumbo-фреймов Ethernet. Заточен он также и для применения IPv6.

Подсистема хранения

На крупных предприятиях при построении ИТ-инфраструктур часто применяются специализированные решения для хранения данных, за счет чего достигается определенный уровень гибкости: полка с дисками может использоваться одновременно несколькими серверами, емкость гибко по необходимости распределяется между ними.

В то же время, такие специализированные решения достаточно дороги и в приобретении, и в последующем обслуживании. Администрирование и поддержка этих устройств и интерфейсов (например, Fiber Channel) требуют от администраторов соответствующих знаний и навыков.

При проектировании Windows Server 2012 в Microsoft ставили перед собой задачу реализовать в серверной ОС функциональность, которая позволит предоставить приложениям, таким как SQL Server и Hyper-V, тот же уровень надежности подсистемы хранения, что и специализированные решения, используя относительно недорогие («неумные») дисковые массивы. Причем, для унификации задач администрирования, реализация даже не применяет блочные протоколы (такие как iSCSI), а работает в варианте с обычными файл-серверными протоколами, такими как SMB.

Достигнуто это было в основном двумя механизмами — применением Storage Spaces и протокола SMB3.

Таким образом, SMB 3.0 научили:

  • максимально использовать возможности «умных» полок, если таковые уже приобретены: использовать технологии Offloaded Data Transfer (ODX), когда сервер только отдает команду полке на перемещение файлов, а полка это сверхбыстро внутри себя делает и возвращает серверу результат выполнения;
  • открывать более одной TCP-сессии для копирования файла на сетевых картах, поддерживающих RSS (receive side scaling);
  • использовать более одной сетевой карты одновременно для увеличения производительности: если два сервера Windows Server 2012 (или Windows 8) имеют по две сетевые карты, то скорость копирования вырастет;
  • использовать более одной сетевой карты одновременно для обеспечения отказоустойчивости: если два сервера Windows Server 2012 (или Windows 8) имеют по две сетевые карты и одна из них откажет, то процесс копирования не остановится, а завершится успешно;
  • обеспечивать работу Continuously Available File Server — настоящего отказоустойчивого кластера файл-серверов*.

* Здесь необходимо сделать лирическое отступление. Термин Windows Server Failover Clustering достаточно давно неправильно перевели как «отказоустойчивый кластер». На самом деле это высокодоступный кластер. То есть сервис, оказываемый клиенту конкретным узлом кластера, в случае нештатного выхода этого узла из строя, прервется. Далее, без вмешательства администратора, сервис поднимется на другом узле кластера и продолжит обслуживать клиентов. Ущерб конкретному клиенту, получившему отказ в обслуживании на короткое время, зависит от используемого сервиса и стадии сессии, на которой произошел отказ.

Так вот, новый Continuously Available File Server — это тот самый настоящий «отказоустойчивый файл-сервер», то есть такое устройство кластера, выполняющего роль файл-сервера, при котором отказ узла, обслуживающего конкретного клиента в данный момент времени (например, клиент может копировать большой файл с сервера на локальный диск), не повлечет перерыва в обслуживании для этого клиента — файл на клиента продолжит отдавать другой узел кластера.

Storage Spaces

Storage Spaces — новый механизм, появившийся в Windows Server 2012.

Его ключевая «фишка» — дать возможность организовать высокодоступную и масштабируемую инфраструктуру хранения по значительно более низкой совокупной стоимости владения (TCO), чем специализированные сторадж-решения.

Идея, реализованная этим механизмом — следующая. Есть сервер под управлением Windows Server 2012. У него есть DAS (directly attached storage) — может быть, в форме дисков SATA или SAS, находящихся в корпусе, а может быть, в виде внешних дисковых полок, подключенных по интерфейсу SAS. Полкам не нужно обеспечивать никакой расширенной обработки, то есть не нужно реализовывать алгоритмы RAID, достаточно отдать JBOD — просто набор дисков, то есть полка в данном случае — это просто железка с блоком питания, салазками и интерфейсом SAS.

В механизме Storage Spaces определяются т. н. Storage Pools — базовые логические строительные блоки системы хранения. Они включают один или несколько физических дисков. На уровне Storage Pool один из дисков может быть назначен как диск, находящийся в горячем резерве — он будет автоматически задействован тогда, когда один из рабочих дисков, входящих в Storage Pool, выйдет из строя.

Далее, внутри Storage Pool, определяются виртуальные диски. Виртуальный диск может быть собран в одном из трех режимов:

  1. Простой (Simple) — данные будут распределены между физическими дисками, увеличивая производительность, но уменьшая надежность (некий аналог RAID0);
  2. Зеркало (Mirror) — данные будут продублированы на двух или трех дисках, увеличивая надежность, но неэффективно используя емкость (некий аналог RAID1);
  3. Четность (Parity) — данные и блоки четности будут распределены по дискам, представляя компромиссное решение между первыми двумя режимами (некий аналог RAID5).

Виртуальные диски могут быть собраны с фиксированным размером на физическом диске либо потреблять место из Storage Pool по мере сохранения данных, до определенного для диска размера.

После создания виртуального диска ОС предлагает создать на нем раздел ОС, под который можно отвести все или часть пространства виртуального диска, отформатировать раздел и присвоить ему букву диска. То есть можно сказать, что механизм Storage Spaces формирует виртуальные жесткие диски, логически расположенные между «железом» и «Управлением дисками» (Disk Manager).

В чем же преимущество по сравнению со старым добрым софтовым RAID, работающим в Windows NT с незапамятных времен?

Неверное, самым большим отличием будет являться возможность создать виртуальные диски объемом больше, чем нижележащие диски с учетом режима. Например, определив Storage Pool, включающий три жестких диска по 16 ГБ, можно создать в нем виртуальный диск размером 120 ГБ. По мере того, как диск будет заполняться данными и доступная емкость физических жестких дисков будет заканчиваться, можно добавить в Storage Pool новые физические диски, не меняя ничего на уровне раздела и данных.

Отдельно хотелось бы сказать о производительности решения. Мы понимаем, что на определенном уровне архитектуры Storage Spaces представляют собой софтовую организацию RAID-массива. Софтовая — совсем не значит медленная или плохая. Например, реализация Intel Matrix RAID, несмотря на то что «снаружи» она выглядит как аппаратная, на самом деле для обсчета старших уровней RAID использует ресурсы ЦП. Необходимо полноценно тестировать производительность различных решений, и желательно не абстрактными синтетическими тестами, а тестами, имитирующими или представляющими собой реальную нагрузку.

Что же касается переносимости Storage Spaces между серверами — то она есть, без проблем. Если боевой сервер «упал», то можно подключить жесткие диски к новому и импортировать существующую конфигурацию Storage Spaces.

За счет новых технологий Storage Spaces и SMB3, в числе прочего, может быть собрана следующая архитектура:

Два Hyper-V-хоста обеспечивают режим высокой доступности для исполняющихся на них виртуальных машин. Виртуальные жесткие диски и конфигурация виртуальных машин хранятся на выделенной в совместное использование по протоколу SMB3 папке. Папка, в свою очередь, выделена непрерывно доступным файл-сервером (отказоустойчивым кластером), состоящим из двух серверов, в каждом из которых расположены два SAS HBA (хост-адаптера), каждый из которых соединен с двумя идентичными коробками дисков). На файл-серверах настроены «зеркальные» Storage Spaces, а на соответствующих дисках организовано разделяемое кластерное хранилище (CSV). То есть подсистема хранения вообще не имеет единой точки отказа, и собрана она при этом исключительно средствами Microsoft Windows Server 2012.

Дедупликация данных

Практически стандартной является ситуация, когда каждому сотруднику предприятия на файл-сервере выделена личная папка. Диск файл-сервера, как правило, организован на отказоустойчивом RAID-массиве, осуществляется регулярное резервное копирование, правами на доступ к личной папке обладает только сотрудник. Таким образом, и информация, и интересы предприятия эффективно защищены.

Иногда встречаются вариации схемы: средствами ОС Windows на файл-сервер перенаправлены папки «Мои документы» и «Рабочий стол». То есть сотрудник пользуется этими папками как обычно, а физически они расположены на файл-сервере.

Теперь представим ситуацию, когда в общей папке появляется некий файл, представляющий интерес для нескольких сотрудников. Например, презентация нового продукта. Или фотографии с корпоративного мероприятия. Довольно скоро множественные копии этих файлов оказываются растащены по личным папкам. Конечно, на файл-сервере место занимает каждый экземпляр файла.

В такой ситуации может проявить себя новый механизм Windows Server 2012 — механизм дедупликации данных.

Будучи задействованным для конкретного тома, Windows Server 2012 начинает по определенному расписанию анализировать том на наличие блоков (не файлов, а блоков), содержащих идентичные данные, и обеспечивать их хранение в единственном экземпляре. Конечно, для пользователя это совершенно незаметно.

Расположив два идентичных по содержимому файла на диске, получаем следующую картину до и после дедупликации:

Механизм дедупликации не поддерживает ReFS и данные, защищенные EFS; не обрабатываются файлы менее 32 КБ и файлы с расширенными атрибутами (extended attributes), тома Cluster Shared Volumes и системные тома.

Новая файловая система — ReFS

Новая файловая система доступна только в Windows Server 2012. Хотя она остается совместимой с NTFS на уровне API, для нее действует целый ряд ограничений:

  • не поддерживается шифрование NTFS;
  • не поддерживается сжатие NTFS;
  • не поддерживается на системных томах.

В ReFS для хранения информации о файлах используется структура т. н. «бинарного дерева», что позволяет быстро находить требуемую информацию. В ней не используется механизм «журналирования» NTFS, а реализован другой принцип транзакционности. ReFS хранит расширенную информацию о файлах, например контрольные суммы с возможностью коррекции считанных исходных данных файла, что помогает предотвратить ошибки типа «bit rotting».

CHKDSK

Утилита CHKDSK, отвечающая за проверку логической целостности файловой системы и ранее требовавшая эксклюзивного доступа к диску (отмонтирования тома), в Windows Server 2012 научилась работать в фоне. То есть, например, если большой диск с данными SQL Server требуется проверить CHKDSK, то после перезагрузки сервер запускается, SQL стартует и начинает обслуживать клиентов, а в фоне работает CHKDSK.

Динамический контроль доступа

В предыдущих поколениях Windows Server разграничение на доступ к ресурсам файл-сервера строилось на механизме списков контроля доступа (ACL) на ресурсах и включении учетной записи пользователя в группы.

При наличии большого количества файл-серверов, ресурсов на них и обширного штата пользователей работа по администрированию доступа становилась трудоемкой. Представим ситуацию, когда есть:

  1. несколько регионов продаж;
  2. несколько уровней допуска к информации внутри подразделений продаж;
  3. несколько типов документов по степени конфиденциальности;
  4. предусматривается возможность доступа с нескольких категорий устройств: доверенных и недоверенных.

Дизайн становится непростым. Для пользовательских учеток возникают группы вида «G-Sales-RUS-High_Clearance-…». Учесть же требования п.4 вообще не представляется возможным. При этом отметим, что мы в какой-то части дублируем свою же работу: если для учетной записи пользователя в Active Directory мы уже исправно заполняем «Регион», то мы же сами потом и должны включить его учетку в группу «G-Sales-RUS-…».

В таких сценариях и появляется поле для деятельности динамического контроля доступа. Идея заключается в том, что файл-сервер при принятии решения о предоставлении доступа к ресурсу (файлу, папке) сможет учитывать определенные атрибуты пользователя и устройства, источником которых является Active Directory. Например, предоставлять доступ только в том случае, если Страна учетки пользователя = Россия или Германия, Департамент = Финансы, и Тип_Устройства, с которого пользователь пытается получить доступ = Управляемое. То есть для администраторов задача по сведению пользовательских учеток в группы в некоторых сценариях может быть значительно упрощена. Сам пользователь придет за доступом к ресурсу файл-сервера, уже имея набор определенных реквизитов, взятых из Active Directory. А на ресурсе значения этих реквизитов могут быть собраны в логические выражения.

Для развертывания, в числе прочего, требуется функциональный уровень леса не ниже Windows Server 2003 и хотя бы один домен-контроллер на Windows Server 2012, а также файл-сервер на Windows Server 2012. Клиентами могут быть Windows 7.

Особенно интересными могут быть сценарии, когда динамический контроль доступа работает в связке с инфраструктурой классификации файлов (FCI). В этом случае на файлы автоматически в зависимости от их содержимого могут быть установлены расширенные атрибуты типа «УровеньДоступа = КонфиденциальнаяИнформация», а доступ можно настроить, например, только группе «G_Managers» департамента «Управляющая компания».

RDP 8 / RemoteFX второго поколения

Интересные изменения произошли в протоколе удаленных рабочих столов — RDP — с выходом RDP 8.

Если посмотреть на историю вопроса, мы увидим, что на заре существования по протоколу RDP передавались команды GDI — графического интерфейса Windows, которые исполнялись (отрисовывались) на удаленном терминале.

Постепенно протокол эволюционировал, обрастал различными типами, способами и методами кодирования и передачи заданий на отрисовку.

В Windows Server 2008 R2 была представлена концепция RemoteFX, в которой идеология полностью поменялась. С RemoteFX RDP-сервер фактически отрисовывал все сам, брал готовый фрейм-буфер, кодировал одним кодеком и отдавал на клиента.

Теперь в RDP8 вошел RemoteFX, если так можно выразиться, второго поколения. Теперь фрейм-буфер анализируется, для различных участков экрана (графика, статичные изображения, анимация и видео) выбираются разные кодеки, участки кодируются и по отдельности отдаются на клиента. Для изображений применяется прогрессивный рендеринг, то есть изображение в низком разрешении клиент увидит мгновенно, а детали догрузятся так быстро, как это позволит пропускная способность канала.

RemoteFX первого поколения работал только в том случае, если RDP-хост был развернут в виде виртуальной машины Hyper-V и в системе работал совместимый видеоадаптер, реализующий DirectX 10-й версии. Сейчас эти требования ушли: и визуальная часть, и проброс USB-устройств будут работать на RDP-хосте, развернутом прямо на железе, без виртуализации, и не имеющем видеоадаптера с DirectX 10. (Проброс USB-устройств позволяет работать в терминальной сессии любым USB-устройствам, подключенным к клиентскому терминалу, например лицензионным USB-ключикам — проброс осуществляется на уровне передачи данных по протоколу USB.)

RDP8/RemoteFX2 научился подстраиваться под особенности канала связи, используя адаптивные кодеки. То есть при подключении по локальной сети видео будет воспроизводиться в отличном качестве, но и на тонком WAN-канале что-то да будет видно 😉

RDP8 поддерживает multi-touch и жесты, благодаря чему, например, на Microsoft Surface можно устанавливать RDP-соединение до сервера и использовать x86-приложения. В RDP-клиенте есть удаленный курсор, помогающий попадать пальцами по контролам Desktop-интерфейса.

Появился и новый API, который позволяет приложениям использовать адаптирующиеся под пропускную способность канала кодеки. Например, в сценарии развертывания пользовательских ПК как виртуальных машин (т. н. VDI) клиент унифицированных коммуникаций, работающий в терминальной сессии и получающий аудио- и видеопотоки от RDP-клиента, может использовать преимущества RDP8. В настоящее время используется клиентом Lync 2013.

Клиент RDP8 с поддержкой всей новой функциональности уже сейчас доступен для Windows 7.

Режимы Server Core / Minimal Server Interface

Свершилось: режим Server Core в Windows Server 2012 является основным рекомендуемым режимом установки и использования Windows Server. Преимущества такого подхода известны давно: меньше размер на диске, меньше требования к ресурсам (что особенно важно при высокой плотности виртуальных машин на физическом хосте), меньшая поверхность атак и обслуживания (сервер начинает таскать на себя меньше патчей). Кстати, из Server Core можно удалить компонент WoW64, позволяющий исполняться 32-битному коду, превратив Windows Server в настоящую чистую на 100% 64-битную ОС 😉

Интересно, что между Server Core и Server with a GUI теперь находится некий промежуточный вариант, который нельзя выбрать при установке, но в который можно попасть при переходе от одного из двух основных вариантов к другому — т. н. «Minimal Server Interface», включающий Microsoft Management Console (MMC), Server Manager, и подмножество Control Panel.

Вместе с тем, в Windows Server 2012 можно переключаться между режимами Server Core, Minimal Server Interface и Server with a GUI в любое время после установки (в процессе эксплуатации), так что интересным представляется сценарий установки Server with a GUI, настройки сервера и последующего перехода к Server Core.

Для дополнительной экономии места на диске в Windows Server 2012 стало возможным после установки и настройки сервера полностью удалить бинарные файлы тех ролей и функциональности, которые остались незадействованными.

Администрирование

Новый Server Manager

В Windows Server 2012 появился новый Server Manager. Из интересного: можно управлять сразу несколькими серверами, выполняя на них однотипную операцию.

В интерфейсе появился список задач администрирования. Например, после установки DHCP-сервера для администратора устанавливается задача его настройки — выделения диапазонов и пр.

Личные впечатления: приятная неожиданность — пожалуй, это первый Server Manager, который не был сразу же закрыт и у которого не выключалась опция автозагрузки.

PowerShell

PowerShell в Windows Server 2012 существенно расширен: добавились более 2400 (!) командлетов. PowerShell де-факто стал стандартом на управление из командной строки. Всей функциональностью — возможно, за крайне небольшим исключением — можно управлять через PowerShell.

Такой подход не может не радовать. Мы можем вспомнить зоопарк из комплектных утилит командной строки, Support Tools, Resource Kit, специальных утилит, которые техподдержка Microsoft писала сама для себя, и прочего, каждая со своим собственным синтаксисом и возможностью совместного использования только через разбор текстового вывода одной и подачей на вход другой.

Почувствуйте разницу: единообразный синтаксис, передача объектов между командлетами, удаленное управление через стандартизованный интерфейс WS-Management.

Интересно: некоторые утилиты, например netsh, предупреждают, что их функциональность в следующих версиях Windows Server может быть изъята, и советуют переходить на PowerShell для решения задач автоматизации управления.

Заключение

В Windows Server 2012 действительно много новой интересной функциональности. Основные изменения сосредоточены в областях виртуализации, подсистемы хранения, сетях. Моменты, показавшиеся автору наиболее интересными, затронуты в статье.

Вместе с тем, о чем-то мы даже не упомянули: например, о нововведениях в подсистеме печати, VDI, IIS, BranchCache, DHCP…

Скачать пробную версию Windows Server 2012 можно здесь.

Если Вам интересно примерить возможности Windows Server 2012 к инфраструктуре своего предприятия — пишите, будет интересно пообщаться.

Источник

Системное администрирование, Хранение данных, Виртуализация


Рекомендация: подборка платных и бесплатных курсов системных администраторов — https://katalog-kursov.ru/

Итак, вы только что закончили восстанавливать систему после сбоя. К счастью, на этот раз обошлось — сервисы, слава богу, поднялись. Но ваш босс недоволен — требует «сделать выводы и принять меры». Очевидно, настало время задуматься о том, как жить дальше. Возможно стоит пересмотреть существующие подходы к построению инфраструктуры и предпринять шаги к обеспечению отказоустойчивости вашей продакшн-системы.

Дисклеймер: заранее прощу прощения у специалистов по SAN и благородного хабрасообщества за некоторые вольности и упрощения, допущенные мной при подготовке материала. Он рассчитан на тех, кто пока еще не знаком с технологиями хранения данных, заложенными в Windows Server 2012 R2, а также тех, кто не имеет возможности развернуть у себя полноценную сеть хранения данных на базе FC или iSCSI.

С чего же начать? Рискну предположить, что для решения проблемы отказоустойчивости требуется две вещи:

  1. Хороший план.
  2. Деньги (смета).

Строго говоря, есть еще и третий пункт – «прямые руки», но его обсуждение выходит за рамки данной статьи.

С деньгами все понятно. Что касается плана, то нам необходимо разработать такую архитектуру, чтобы в следующий раз, когда случится сбой (а он обязательно случится!), система устояла. Тут придется сделать небольшое отступление. Дело в том, что в современной терминологии есть несколько устоявшихся понятий, которые часто путают между собой. Вот они:

Высокая доступность (High Availability, HA) — способность минимизировать как запланированные, так и незапланированные простои. То есть, мы (читай — заказчик) заранее соглашаемся с тем, что в случае сбоя, понадобится некоторое разумное время для переключения на резервное оборудование и запуск на нем «упавших» сервисов. Разрыв соединения при этом неизбежен. Типичный пример: кластер Hyper-V.

Отказоустойчивовсть (Fault Tolerance, FT) — способность сохранять работоспособность в случае отказа одного или нескольких компонентов. Это когда сбой произошел, но никто, кроме админа, его не заметил. Или, когда мы отключаем один из узлов, чтобы провести на нем плановое обслуживание (например, установку обновлений), а второй узел в это время берет на себя всю нагрузку. Соединение не рвется, приложения доступны, только немного увеличивается время отклика. Типичный пример: RAID 1-го уровня.

Катастрофоустойчивость — способность относительно быстро запустить сервис в случае глобальных катаклизмов. Это когда рухнуло все и сразу. В качестве глобальных катаклизмов, любят приводить в пример ураганы, цунами и наводнения. Однако, в реалиях нашей страны гораздо более вероятным представляется отключение электричества в ЦОД-е: локальное (экскаватор кабель задел) или веерное, а также затопление подвальных помещений. Пример: резервный ЦОД.

Почему важна терминология? Да потому, что перечисленные задачи принципиально разные. Соответственно, и подходы к их решению должны быть разными. Прежде всего, мы должны определиться, что именно хотим получить: высокую доступность, отказоустойчивость или катастрофоустойчивость.

В контексте данной статьи будем обсуждать только один из трех пунктов, а именно, отказоустойчивость. Справедливости ради, надо отметить, что реальная необходимость в ней возникает не часто. В самом деле, большинство заказчиков вполне готовы мириться с небольшими, прописанными в SLA, простоями в обмен на существенную экономию денежных средств за счет отказа от непомерно дорогих «сверхнадежных» решений. К примеру, если у пользователей на несколько минут подвиснет Excel, это не станет большой проблемой для бизнеса – скорее поводом немного размяться и выпить кофе. Однако, есть и такие сервисы, которые крайне чувствительны даже к небольшому разрыву сетевого соединения. Например, СУБД и гипервизоры. Если Hyper-V потеряет связь со своими виртуальными жесткими дисками, на которых запущены виртуальные машины, это может привести к печальным последствиям. Также и SQL — внезапная потеря сервером своих баз может надолго занять интересным делом DB-админа.

Итак, мы решили, что будем строить отказоустойчивое решение. Другими словами, необходимо убрать возможные точки отказа на всех существующих уровнях: серверном, сетевом и уровне хранения данных. Чем это достигается? Конечно, дублированием всего, чего только можно: серверов, сетевых интерфейсов, каналов передачи данных и, конечно, дисковой подсистемы. Тут перед нашими глазами встает светлый образ SAN. Действительно, что может быть лучше для обеспечения отказоустойчивости, чем старый добрый аппаратный FC SAN? Так-то оно так… Только есть у этого решения один убийственный недостаток. Цена. Стоимость подобной системы начинается с семизначных чисел. А верхний предел практически не ограничен. Поэтому, ее нельзя просто взять и купить – как минимум, придется забюджетировать.

Кроме того, закупая дорогущее железо, мы попадаем в серьезную зависимость от вендора, поскольку совместимость с его оборудованием сторонних производителей далеко не гарантируется. Ну и масштабирование таких систем может потребовать значительных временных затрат. Ведь дорогие комплектующие никто на складе не держит – их надо заказывать и ждать неделями, а то и месяцами. А босс требует «здесь и сейчас». И чтобы все работало «как часы». И чтобы с минимальными затратами!

Где же выход? Неужели светлым мечтам о SAN-е не суждено сбыться? Подождите… А что вообще такое SAN? По сути, это просто способ разделения ресурсов высокопроизводительных устройств хранения данных между серверами на блочном уровне. Когда-то давно классические файберные сети SAN были практически безальтернативной технологией там, где требовалась исключительная производительность, отказоустойчивость и масштабируемость. Скорость FC на порядок превышала типичный Ethernet с его 100 Mb/s.

Но со временем появились сетевые адаптеры 1 и 10 Gbit Ethernet, возникли программные и аппаратные технологии увеличения пропускной способности сети (NIC teaming, сжатие данных и т.д.), что несколько снизило преимущества FC и привело к взрывному росту популярности интерфейса iSCSI. Что касается отказоустойчивости и масштабируемости, то и тут случился прогресс. К примеру, появились варианты реализации SAN на базе хранилищ с интерфейсом SAS, который, вообще говоря, изначально предназначался для прямого подключения хранилища к серверу – DAS. Дело в том, что интерфейс SAS, помимо высоких скоростей (6-12 Gbit/s), обладает еще одним существенным преимуществом – очень малыми задержками (latency). Это весьма важно для высоконагруженных хостов, вроде Hyper-V.

А что у нас есть, кроме SAN? А кроме SAN есть только NAS. Если сравнивать SAN и NAS, то главным отличием первого от второго является работа на блочном уровне. Хост-система может создавать на SAN логические разделы, форматировать их и использовать как обычные локальные жесткие диски. NAS же работает на уровне файловой системы и использует протоколы передачи файлов, такие как SMB или CIFS. Поэтому NAS, конечно, дешево и просто, но о-о-очень медленно. А потому, для высоконагруженных продакшн-систем бесперспективно.

А нельзя ли как-то совместить высокую скорость и надежность SAN с простотой реализации и доступностью NAS? Что, если часть функционала SAN попробовать реализовать программно? Видимо как-то-так рассуждали инженеры одной скромной компании из Рэдмонда, когда готовили к выходу на рынок свою новую технологию. В итоге, у них действительно получилось нечто, по формальным признакам напоминающее SAN. Но при этом в несколько раз дешевле. Нам предлагают использовать весьма недорогие и доступные комплектующие для приготовления изысканного блюда под названием «Scale-Out File Server», т.е. масштабируемый файловый сервер. Слово «масштабируемый», на мой взгляд, не совсем точно отражает суть, поскольку, в первую очередь, сервер получился отказоустойчивым.

Итак, сегодня будем готовить «Суп из SAN» на основе технологий Microsoft Windows Server 2012 R2.
В качестве ингредиентов, нам понадобятся:

  • серверы без дисков (только небольшие «зеркала» под систему) — 2 шт.;
  • недорогая дисковая полка JBOD с двумя SAS интерфейсами – 1 шт.;
  • HDD SAS – не менее 10 шт. (лучше – больше);
  • SSD SAS – хотя бы 2 шт.;
  • сетевые адаптеры 1-10 GBit (лучше – с поддержкой RDMA) – 2-4 шт.;

В качестве приправы, будем использовать рекомендованный набор специй: Storage Spaces, Tiering, SMB Direct, SMB Multichannel, CSV. Время приготовления: 1-1,5 часа при наличии опыта или 1-2 дня без такового.

Немного теории

В Windows Server 2012 и Windows 8 появилась интересная технология под названием «Дисковые пространства» (Storage Spaces). Предназначена она для абстрагирования от физического уровня дисковой подсистемы. По сути — это драйвер операционной системы, расположенный после менеджера разделов и перед менеджером томов, который позволяет виртуализировать блочное хранилище, скрывая его от операционной системы. Достигается это группировкой физических дисков в пулы и созданием на основе пулов виртуальных дисков (LUN-ов в терминологии SAN). Таким образом, все приложения будут иметь дело именно с виртуальными дисками, даже не подозревая, из чего они состоят. Но постойте… Опять виртуальные диски? Ведь эта технология под именем «динамических дисков» была реализована Microsoft (точнее, лицензирована у Veritas) аж в 2000 г. — в составе Windows 2000! Опять нам пытаются всучить залежалый товар?

Все не так просто… В отличие от динамических дисков, дисковые пространства — технология гораздо более умная, в чем мы убедимся позже. А пока уточним термины:

Пулы носителей (Storage Pools) — коллекция физических дисков, которая позволяет объединять диски, гибко увеличивать емкость и делегировать администрирование.

Дисковые пространства (Storage Spaces) — виртуальные диски, созданные из свободного пространства в пуле носителей. К атрибутам дисковых пространств относятся уровень устойчивости, уровни хранилища, фиксированная подготовка и точный административный контроль.

Кластеризованные дисковые пространства (Clustered Storage Spaces) – те же дисковые пространства, размещенные на общем хранилище — то, что нам надо!

Как создать виртуальный диск? В нашем случае, для начала, нужно объединить в пул физические SAS диски — HDD и SSD. Вообще говоря, объединять в пулы можно диски с разными интерфейсами: SATA, SCSI и даже USB. Но для развертывания отказоустойчивого кластера (Scale-Out File Server) подходят только диски с интерфейсом SAS. Объединение дисков в пул не представляет каких-либо сложностей и делается с помощью мастера буквально в два клика. Разумеется, на объединяемых дисках не должно быть никаких разделов, либо их придется удалить. Объединив диски в пулы, мы их сгруппируем. Но еще надо объяснить операционной системе, что с ними делать дальше. Теперь можно создать из дискового пула виртуальный жесткий диск (LUN). Технология Storage Spaces позволяет создавать 3 варианта виртуальных жестких дисков, подобных RAID-уровням:

  • Simple (аналог RAID0) – рекомендуется только для тестов;
  • Mirroring (аналог RAID1) – рекомендуется для рабочих нагрузок;
  • Parity (аналог RAID5) – рекомендуется для формирования разделов с архивами данных.

Как и в аппаратных RAID, можно оставить один или два диска в горячем резерве (Hot Spare). Перечисленные возможности представлены в графическом интерфейсе по умолчанию. Однако, если этого мало, с помощью командлетов PowerShell можно получить и более хитрые комбинации, соответствующие, к примеру, RAID уровня 10.

Позвольте, скажет читатель, если это программный RAID, он ведь должен работать медленнее аппаратного! И будет совершенно прав. Да, медленнее. Но насколько? Тут все не так однозначно. Во-первых, как показывает практика, скорость дисков легко компенсируется их количеством. Поэтому, разница в производительности будет тем менее заметна, чем больше дисков мы объединим в пул. Для промышленного применения рекомендуется использовать от 12 дисков. Во-вторых, в Windows Server 2012 R2 появилась одна замечательная фича: объединение в один пул дисков SSD и HDD с формированием т.н. «гибридного пула» (Tiered Storage). В этом случае система сама будет отслеживать и перемещать на быстрые SSD диски наиболее часто используемые данные (помните я говорил, что система умная!). Причем, перемещение «горячих» данных на SSD происходит поблочно, а не на уровне файлов. Более того, с помощью командлетов PowerShell можно явно указать, какие файлы необходимо разместить на SSD, а какие — на HDD. И в-третьих, Storage Spaces поддерживают т.н. «кэш обратной записи» (WriteBack Cache). При кратковременных всплесках операций записи система перехватывает данные и размещает их в специальной области на SSD. Таким образом сглаживается падение производительности при внезапных пиковых нагрузках. Все вместе — большое кол-во дисков, гибридный пул и кэш обратной записи – способно существенно поднять быстродействие системы, сведя к минимуму негативный эффект от программного RAID. Что касается экономии свободного места на дисках, то в Storage Spaces поддерживается такая привычная для SAN технология, как Thin Provisioning – для более экономного распределения дисковых ресурсов. Справедливости ради, заметим, что пока она несовместима с гибридным пулом – придется выбрать что-нибудь одно.

Итак, средствами Storage Spaces мы можем обеспечить отказоустойчивость на уровне СХД. Теперь поднимемся на уровень выше. Серверы необходимо объединить в кластер. Эта возможность появилась у Microsoft уже достаточно давно. Однако, ранее такой кластер можно было назвать лишь высокодоступным (вспоминаем терминологию). И только с выходом Windows Server 2012 появилась возможность сделать его по-настоящему отказоустойчивым. Называется эта фича «Scale-Out File Server». Тут будет уместно напомнить, что файловые кластеры могут работать в одном из двух режимов:

  • «Active — Passive»; отработка отказа с прерыванием сервиса – failover.
  • «Active — Active»; прозрачная отработка отказа – transparent failover.

В первом случае только один из узлов активный – именно с ним происходит обмен данными, а второй находится в ожидании. В случае отказа первого узла, второй принимает на себя всю нагрузку. Однако, при этом происходит неизбежный разрыв соединения и прерывание в работе сервиса. Именно по такому принципу работает файловый кластер в Windows Server 2008 R2. Во втором случае оба узла активны и способны одновременно принимать данные от клиентов. В случае отказа одного из узлов, потери SMB-сессии не происходит, соответственно, работа приложений не прерывается. Эта технология появилась только в версии Windows Server 2012.

Но чтобы такая одновременная работа с хранилищем стала возможной, потребовалась очередная технология под названием Cluster Shared Volume (CSV). Если не вдаваться в подробности, это логический том, специальным образом подготовленный для одновременной работы с несколькими узлами в составе кластера.

А что на сетевом уровне? Здесь у Microsoft припасено сразу несколько приятных сюрпризов. Первый – это SMB Direct поверх технологии RDMA. Если говорить упрощенно, это технология прямого доступа к памяти через сетевой интерфейс, без накладных расходов на использование центрального процессора. При включении данной фичи сетевые адаптеры фактически начинают работать на скорости интерфейса, обеспечивая высокую пропускную способность и чрезвычайно быстрый отклик на сетевые запросы, что дает огромный выигрыш в производительности для таких рабочих нагрузок, как Hyper-V и SQL Server. Скажем так, работа с удаленным файловым сервером становится похожа на работу с локальным хранилищем. И хотя сетевые адаптеры с поддержкой RDMA пока еще достаточно дороги, их стоимость непрерывно снижается (на момент написания данной статьи составляет около 20 т.р.).

Второй сюрприз называется SMB Multichannel. Если на потребителе нагрузки (например, SQL Server) и на принимающей стороне (файловый кластер) установлено по два сетевых адаптера, то между клиентом и сервером создается многоканальное SMB-подключение. Это означает, что если, к примеру, по сети копируется файл и в процессе копирования что-то происходит с одним из сетевых адаптеров, это не приводит к прерыванию процесса – файл продолжает копироваться, как ни в чем не бывало. Чтобы убедиться в наличии SMB Multichannel, запустите командлет PowerShell: Get-SmbMultichannelConnection. Вы увидите, что-то вроде этого:

Как видно, соединение установлено при помощи сразу двух сетевых интерфейсов.

Наконец, в протоколе SMB 3.0 проведена оптимизация работы балансировки нагрузки между узлами. Как раз для конфигурации Scale-Out File Server.

Ну а теперь, когда мы кратко пробежались по технологиям, самое время перейти к практике. Для упрощения задачи будем строить двухузловой кластер, хотя ничто не мешает поднять отказоустойчивый файловый кластер, имеющий до 8 узлов. Опишем порядок действий с самого начала и приступим к его выполнению.

Подготовительные работы

Итак, берем дисковую полку в режиме JBOD. Набиваем ее дисками, хотя бы два из которых должны быть SSD. У корзины должно быть два SAS-экспандера, по два разъема на каждом. Через них подключаем корзину к двум серверам, желательно одинаковым. Для этой цели вполне подойдут простые одноюнитовые серверы. На серверах в качестве контроллеров устанавливаем обычные SAS HBA.

Далее по пунктам:

  1. Устанавливаем на каждый сервер ОС Windows Server 2012 R2.
  2. Настраиваем сетевые подключения, устанавливаем обновления, вводим серверы в домен.
  3. Добавляем роль Файловый сервер на каждом сервере.
  4. На одном из серверов открываем консоль Диспетчер отказоустойчивости кластеров.
  5. С помощью мастера создаем стандартный кластер с отработкой отказа (Failover Cluster).
  6. Создаем новый пул: Хранилище -> Пулы -> Создать новый пул.
  7. Добавляем в пул SSD и HDD диски, при необходимости указываем параметры доступа.
  8. Создаем виртуальный диск: Пул –> правый клик –> Новый виртуальный диск.
  9. С помощью мастера задаем тип дисковой подсистемы (Mirror).
  10. C помощью мастера создаем том на диске, присваиваем букву, форматируем в NTFS.
  11. Создаем общий кластерный том (CSV): Выбираем нужный диск -> Добавить в общие тома кластера.
  12. Задаем роль: Роли -> Настроить роль -> Файловый сервер -> Масштабируемый файловый сервер.
  13. Чтобы не ждать, сбрасываем кэш распознавателя DNS (ipconfig /flushdns).
  14. Выбираем роль -> Добавить общий файловый ресурс -> Общий ресурс SMB –> Профиль приложений.
  15. Указываем расположение общего ресурса, даем ему название.

Все. Конечным итогом наших усилий стало создание файловой шары, расположенной по стандартному UNC-пути, типа: \ScaleOutFSShare. Теперь можем размещать на ней критические файловые ресурсы, такие как виртуальные жесткие диски Hyper-V или базы данных SQL сервера. Таким образом, мы получили готовую сеть хранения данных. Принципиальное отличие ее от традиционных SAN состоит в том, что для подключения используется протокол SMB 3.0, а не какой-то из блочных протоколов (iSCSI/FC), что в определенном смысле является даже преимуществом. У кого-то может возникнуть желание развернуть роль Hyper-V прямо на кластерном сервере, разместив виртуальные диски на общем хранилище. Придется огорчить. К сожалению, такая конфигурация пока не поддерживается. Для ролей Hyper-V и SQL Server необходимо поднимать отдельные серверы, которые будут работать с нашей СХД по SMB-протоколу.

Осталось подвести итоги…

Отказоустойчивость

Обеспечивается на всех уровнях: хранения данных, серверов, сетевого взаимодействия.

Производительность

Будет зависеть от нескольких факторов. В типичном случае сопоставима с производительностью решений на базе iSCSI. А в случае задействования всех имеющихся возможностей, включая технологию RDMA, пропускная способность СХД окажется даже выше, чем при FC-подключении (до 56 GBit/s).

Масштабируемость

На уровне дисковой подсистемы обеспечивается простым добавлением дисков или каскадированием хранилищ JBOD. На уровне серверов – добавлением узлов в кластер. На сетевом уровне – добавлением сетевых адаптеров, объединением их в группы (NIC teaming) или заменой их на другие, с большей пропускной способностью.

Безопасность

Дисковые пулы можно контролировать с помощью списков контроля доступа (ACL), а также делегировать полномочия администраторам. Управление хранилищами может быть полностью интегрировано с ADDS.

Стоимость

Очевидно, что даже при использовании всех возможностей, заложенных в данную технологию, стоимость готового решения будет в несколько раз ниже традиционного SAN.

А как же недостатки? Разумеется, они тоже имеются. К примеру, СХД и серверы нельзя разнести на значительное расстояние, как в случае FC или iSCSI. Нельзя выстроить сложную топологию. Коммутаторы SAS – пока еще редкость. Кроме того, SAS не поддерживает аппаратную репликацию – ее придется реализовывать программными средствами. Поэтому, описанная выше концепция – не панацея, а всего лишь альтернатива традиционным СХД. Если у вас уже есть развернутый аппаратный SAN, это ни коим образом не повод от него отказываться. Железо должно отрабатывать вложенные в него деньги. Но если вы пока еще только задумываетесь об архитектуре будущей системы хранения данных, имеет смысл рассмотреть и данный вариант, как вполне обоснованный с инженерной и экономической точек зрения. Ну и напоследок хотелось бы отметить, что «суп из SAN» можно сварить не только на технологиях Microsoft. Если у вас имеется хранилище с интерфейсом iSCSI, можете воспользоваться такими продуктами, как StarWind iSCSI SAN, VMware Virtual SAN, Openfiler, FreeNAS, Open-E DSS V6 и т.п.

Приятного аппетита!
При подготовке статьи были использованы материалы портала Microsoft Virtual Academy.

Арсен Азгальдов, dpandme@gmail.com

Эта демонстрация возможностей обновленной системы хранения в Windows Server 2012 R2 на примере небольшой лаборатории ставит целю показать на практике применение одной из самых интересных и ожидаемых возможностей Windows Server 2012 R2: Storage Tiering.

В лаборатории принимали участие:

1 хост WS 2012R2, 2 «обычных» SATA диска 7200, и 1  не менее «обычный» SSD.

t0-1

Итак, давайте приступим:

Для целей демонстрации я разделю пространство SSD на части, создав несколько VHD файлов:

# создадим 4 VDH диска которые будут располагаться на VHD

1..4 | % { New-VHD -Path c:VMSVMA_SSD_$_.VHDX -Fixed –Size 5GB}

t0

# монтируем их

Mount-VHD C:VMS*

# и посмотрим, что получилось

$pooldisks = Get-PhysicalDisk | ? {$_.CanPool –eq $true }

$pooldisks

t1

Получилось 2 HDD и 4 VHD.

#Создадим Storage pool

New-StoragePool -StorageSubSystemFriendlyName *Spaces* -FriendlyName TieredPool1 -PhysicalDisks $pooldisks

t2

Пометим диски для удобства

Get-PhysicalDisk | Where Size -EQ 5368709120 | Set-PhysicalDisk -MediaType SSD # 5GB VHDs

Get-PhysicalDisk | Where Size -EQ 499289948160 | Set-PhysicalDisk -MediaType HDD # 500GB HDs

#Посмотреть размер и выставить нужный можно, подглядев размер, который может отличаться в ваших условиях

(Get-PhysicalDisk).Size

t3

Далее, соберем новый Storage Pool, используя Storage Tiering:

t4

t5

t6

t7

Настройки мастера примем по умолчанию, разве что дав имя пулу, и выберем максимальный объем занимаемого пространства. Создав пул, создадим NTFS том на нем, и приступим к тесту.

Поскольку цель статьи — ознакомление с возможностями и созданием ST, особых методик тестирования я сегодня не предлагаю, и попробую ограничиться простым наглядным тестом, CrystalDiskMark:t8- tier

Этот тест был выполнен на созданном нами пуле из 2-х HDD 500 и синтетических VHD.

В ваших условиях, конечно, цифры могут сильно отличаться.

А вот этот тест был выполнен ранее, на Storage pool из  2-х HDD без применения Storage Tiering:

t9- jbod

Разница весьма заметна при случайных чтении/записи, и благодаря Storage Tiering вы сможете существенно повысить быстродействие своих дисковых систем.

Напоследок, немного тайного знания:

-Как рассказать Windows Server что мои файлы должны быть постоянно «горячими», и забираться с SSD?

Можно это сделать вот так:

Set-FileStorageTier -FilePath <PATH> -DesiredStorageTier $tier_ssd

И отменить сделанную настройку так:

Clear-FileStorageTier –FilePath <PATH>

— Как можно «разогревать» кэш, управлять им?

Проверим статус заданий по оптимизации

Get-ScheduledTask -TaskName *Tier*  | FT –AutoSize

Get-ScheduledTask -TaskName *Tier*  | Get-ScheduledTaskInfo

И запустим задания вручную

Get-ScheduledTask -TaskName «Storage Tiers Optimization» | Start-ScheduledTask

Get-ScheduledTask -TaskName «Storage Tiers Optimization» | Get-ScheduledTaskInfo

Полезные ссылки:

http://technet.microsoft.com/en-us/library/dn454976.aspx

http://blogs.technet.com/b/josebda/archive/2013/08/28/step-by-step-for-storage-spaces-tiering-in-windows-server-2012-r2.aspx

Также, обратите внимание на статью базы знаний — KB2980661 из Накопительного пакета обновлений в августе 2014 для Windows RT 8.1, Windows 8.1, и Windows Server 2012 R2 (KB2975719),
в которой представлены обновленные счетчики производительности.

Понравилась статья? Поделить с друзьями:
  • Windows server task scheduler перезагрузка сервера
  • Windows server storage spaces 4 диска powershell
  • Windows server std 2019 64b rus 1pk 16 core
  • Windows server std 2012 rus r2 oem
  • Windows server standard core 2019 лицензия