Windows storage server 2012 storage spaces

Доброго времени суток! Сегодня хотелось бы немного поговорить о новой фиче в Windows Server 2012 — Storage Spaces или Пространства Данных. По сути это некоторы...

Доброго времени суток!

Сегодня хотелось бы немного поговорить о новой фиче в Windows Server 2012 — Storage Spaces или Пространства Данных.

По сути это некоторый механизм виртуализации дисковой подсистемы, который абстрагирует нас от физического уровня дисковой подсистемы. Однако, более интересным вариантом реализации данного механизма являются Кластеризованные Пространства Данных (Clustered Storage Spaces). Давайте более подробно рассмотрим способ настройки данного механизма.

Предварительные Требования

Для начала разберемся с теми необходимыми условиями нашего «дано» для осуществления процесса настройки.
Итак:

1) Для создания Storage Spaces в режиме Failover Cluster необходимо минимум 3 физических диска, объем которых не менее 4 Гб для каждого диска.
2) Все диски внутри Storage Pools должны обязательно быть Serial Attached SCSI (SAS) — независимого от того, будут ли эти диски напрямую подключены к системе, есть ли между ОС и дисками какая-либо прослойка в виде RAID-контроллеров и прочих дисковых подсистем или нет.
3) Все физические диски, которые будут состоять в кластеризованном пуле должны успешно пройти тест на валидацию в Failover Clustering. Для того чтобы это сделать необходимо открыть Failover Cluster Manager — cluadmin.msc и выбрать опцию Validate Cluster.

4) Кластеризованное пространство данных должно использовать фиксированный тип предоставления ресурсов (речь идет о типе vhd(x)-диска, который используется для Storage Spaces).
5) Поддерживаются простые (simple) и зеркальные (mirror) типы Storage Spaces — тип с контролем честности (parity) не поддерживается.
6) Диски которые используются в отказоустойчивом пуле должны быть выделенными. Это значит что они не могут быть использованы в составе других пулов, только в одном-единственном.
7) Storage spaces которые отформатированы в формате ReFS не могут быть добавлены в общий том кластера (CSV).

Как настроить — пошаговая инструкция

1) Добавьте роль File Services и инструментарий File Services Role Administration Tools на все узлы кластера в Failover Cluster.
2) Откройте консоль управления Failover Cluster Manager (cluadmin.msc).
3) В левой части панели раскройте пункт Storage, правый щелчок по Pools и выберите пункт создания нового пула New Storage Pool. Далее вы увидите мастер настройки New Storage Pool Wizard.

4) Задайте имя для Storage Pool и выберите дисковую подсистему доступную для кластера и нажмите Next.

5) Выберите физические диски в разделе Physical Disks для нового пула (помните про требования!!!) и подтвердите создание пула. Пул будет добавлен в кластер переведен в активное состояние (Online).

6) Следующий шаг — создание виртуального диска или пространства данных, который будет проассоциирован с нашим пулом. В Failover Cluster Manager выберите интересующий storage pool, который будет обеспечивать виртуальный диск. Правый щелчок и пункт New Virtual Disk — наш выбор!

7) Далее будет запущен мастер создания виртуального жесткого диска New Virtual Disk Wizard. Выберите сервер и пул для виртуального диска и нажмите Next. Обратите внимание на то, что в списке серверов будет указан узел, который размещает пул.

8) Укажите имя виртуального диска и его описание. Нажмите Next.

9) Выберите тип дисковый подсистемы — Простой (Simple) или Зеркальный (Mirror). Помним, что вариант Четность (Parity) не поддерживается для кластерной реализации.

10) Укажите размер виртуального диска и нажмите Next. После подтверждения, диск будет создан. Если вы не сняли галочку с чек-бокса, то далее будет запущен мастер создания тома (New Volume Wizard).

11) Задайте правильную связку «Сервер-Диск» для вашей конфигурации и нажмите Next.

12) Укажите размер тома и нажмите Next.

13) Также вы можете назначить букву для нового тома — далее нажмите Next.

14) Выберите тип файловой системы (мы помним что для нашей задачи подходит только NTFS) и нажмите Next для подтверждения параметров. Новый том будет создан поверх виртуального диска и предоставлен кластеру во владение.

15) Ну что же, наше кластерное пространство успешно создано! Теперь поверх него можно размещать кластеризованные нагрузки. Для того чтобы просмотреть свойства пула зайдите в Failover Cluster Manager.



Любителям PowerShell

Ну и на последок.
Все то же самое, но без GUI)))

1. Создать нового пространства

a. Выбрать физические диски и добавить в пул

$phydisk = Get-PhysicalDisk –CanPool $true | Where BusType -eq «SAS”

b. Получение дисковой подсистемы для пула

$stsubsys = Get-StorageSubsystem

c. Создание нового пула

$pool = New-StoragePool -FriendlyName TestPool -StorageSubsystemFriendlyName $stsubsys.FriendlyName -PhysicalDisks $phydisk -ProvisioningTypeDefault Fixed

d. Добавление диска для горячей замены (Hot Spare)
$hotSpareDisk = Get-PhysicalDisk –CanPool $true |Out-GridView -PassThru

Add-PhysicalDisk -StoragePoolFriendlyName TestPool -PhysicalDisks $hotSpareDisk -Usage HotSpare

2. Создание пространства данных поверх ранее созданного пула

a. $newSpace = New-VirtualDisk –StoragePoolFriendlyName TestPool –FriendlyName space1 -Size (1GB) -ResiliencySettingName Mirror

3. Инициализация, разметка и форматирование ранее созданного пространства данных

a. $spaceDisk = $newSpace | Get-Disk

b. Initialize-Disk -Number $spaceDisk.Number -PartitionStyle GPT

c. $partition = New-Partition -DiskNumber $spaceDisk.Number -DriveLetter $driveletter -size $spaceDisk.LargestFreeExtent

d. Format-Volume -Partition $partition -FileSystem NTFS

4. Добавление пространства данных в кластер

a. $space = Get-VirtualDisk -FriendlyName space1

b. Add-ClusterDisk $space

На этом вроде бы все. Остается добавить, что если вы хотите узнать побольше про новые возможности Windows Server 2012, то мы приглашаем всех на IT Camps, которые будут проходить в Москве. Расписание вы найдетездесь.
И не забывайте про очень полезный ресурс — виртуальную академию Майкрософт

Веселых ИТ-приключений!

С уважением,
Георгий А. Гаджиев
Эксперт по информационной инфраструктуре
Корпорация Майкрософт

Storage Spaces — новый компонент Server 2012 (и клиента Windows 8), в нем воплощен свежий взгляд разработчиков на хранилище данных и способы его администрирования. Физические диски, обеспечивающие хранение данных, абстрагируются от процесса запроса новых томов, теперь именуемых пространствами (space). Технология Storage Spaces автоматически выполняет все необходимые действия для восстановления избыточности данных в случае отказа диска, при наличии достаточного количества физических дисков

Джон Сэвилл (jsavill@windowsitpro.com) — директор по технической инфраструктуре компании Geniant, имеет сертификаты CISSP, Security and Messaging MCSE для Windows Server 2003 и звание MVP

Базовые возможности файловой системы Windows Server не сильно изменились со времени выпуска первых версий Windows NT. В Windows 2000 появились динамические диски; выше стали надежность и производительность файловой системы NTFS; понемногу изменялись файловые службы, как и протокол Server Message Block (SMB), но революционных переворотов не было. В диспетчере File Server Resource Manager (FSRM) усовершенствованы экранирование, квоты, функции отчетов и классификации, но базовые возможности файловой системы и способы использования файловых служб остались прежними.

Когда речь заходит о файловых службах, я вспоминаю о сервере для хранения документов Microsoft Word и PowerPoint. Если от сервера требуется высокая готовность, его можно ввести в состав кластера, и тогда в каждый момент времени общий файловый ресурс будет предоставлен одним сервером. Отказоустойчивые тома можно создать на динамическом диске с использованием зеркалирования Windows (RAID 1) или чередования с контролем четности (RAID 5). Однако ИТ-администраторам приходится вручную выбирать диски и выполнять любые действия по устранению неполадок. Более того, расширенные функции, такие как гибкая подстройка (thin provisioning — своевременное выделение серверу только необходимого пространства памяти) и удобное добавление памяти к пулу, в котором можно создавать тома, просто невозможны без использования отдельной сети хранения SAN или устройства хранения, подключенного к сети, NAS. Все должно измениться с выходом новой версии Windows Server, Windows Server 2012 (ранее известной под условным названием Windows Server 8).

Использование Storage Spaces

ИТ-администраторы и даже конечные пользователи нередко нуждаются в отказоустойчивом хранилище данных. В других случаях требуется защитить информацию иными способами. Можно открыть оснастку Disk Management консоли управления Microsoft MMC, проверить физические диски, при необходимости преобразовать их в динамические, а затем создать том, соответствующий вашим требованиям. Если том должен увеличиваться, можно предусмотреть возможность его расширения (в зависимости от физических дисков), но нельзя добавлять диски к существующему тому, что позволило бы легко масштабировать хранилище данных. Для малых и средних предприятий и даже крупных компаний с мелкими удаленными филиалами (они обладают всего парой серверов и в них нельзя экономично разместить SAN или NAS) подготовка решения хранения данных для служб — целая проблема. Следующие в списке — опытные пользователи настольных компьютеров, которым тоже трудно организовать данные на внутренних дисках и дисках, подключенных через USB.

.

Первый шаг — создание пула носителей, состоящего из нескольких физических дисков, которые связываются друг с другом и могут быть использованы технологией Storage Spaces. В пулы носителей можно объединять диски, подключенные через интерфейсы USB, Serial ATA (SATA) и Serial Attached SCSI (SAS), в конфигурации Just a Bunch of Disks (JBOD). В отсутствие аппаратной поддержки высокой доступности, например RAID, в технологии Storage Spaces приняты меры для обеспечения отказоустойчивости. Накопители, подключаемые через интерфейс USB, особенно удобны для настольных компьютеров; в серверах применяются накопители SATA и SAS. Кроме того, технология Storage Spaces полностью поддерживает совместное использование SAS. Дисковое устройство можно подключить к нескольким компьютерам в кластере, и пространство Storage Space на совместно используемых накопителях SAS будет доступно всем узлам в кластере и может применяться как часть томов Cluster Shared Volumes (CSV). При использовании внешнего дискового устройства технология Storage Spaces поддерживает протокол SCSI Enclosure Services (SES), предупреждающий об отказах внешних хранилищ данных. Например, можно инициировать уведомление о неисправном диске, если Storage Spaces обнаруживает неполадки на физическом диске.

Вместе со Storage Spaces можно задействовать другие технологии, такие как шифрование Microsoft BitLocker Drive Encryption. Когда создается новый пул носителей, диски, добавляемые в него, исчезают из оснастки Disk Management консоли MMC; эти диски виртуализуются и применяются исключительно функцией Storage Space. О состоянии диска в пуле носителей можно узнать из File and Storage Services в диспетчере Server Manager (на сервере Windows 8) или с помощью панели управления Storage Spaces (на клиенте Windows 8). В данной статье рассматривается использование Storage Spaces на сервере с Server Manager и Windows PowerShell, но вся функциональность доступна и на клиенте. Единственное различие в том, что на клиентах для управления вместо Server Manager применяется программа Storage Spaces.

Запустите Server Manager. Убедитесь, что нужный сервер добавлен к списку серверов в экземпляре Server Manager (см. врезку «Управление Windows Server 2012»), затем откройте File and Storage Services. Выберите целевой сервер из вкладки Servers, после чего перейдите на вкладку Storage Pools, на которой показана информация о существующих пулах носителей и дисков, которые могут быть задействованы в пуле носителей. Это диски и системные диски, на которых не содержится никаких томов. Эти неиспользованные диски показаны в пространстве Primordial Storage Space и являются строительными блоками, из которых формируются пулы носителей и Storage Spaces, как показано на экране 1. Для создания пула носителей выполните следующие действия.

1. Из меню Tasks выберите пункт New Storage Pool, чтобы запустить мастер New Storage Pool Wizard.

2. Введите имя и необязательное описание нового пула носителей и нажмите кнопку Next.

3. На следующем экране выберите физические диски, которые будут добавлены в новый пул. Также выберите способ выделения дисков (по умолчанию Data Store). Можно выделять диски как часть виртуальных дисков, которые будут созданы позднее, или оставить в качестве горячего резерва, как показано на экране 2. Нажмите кнопку Next.

4. На экране появится подтверждение. Нажмите кнопку Create, чтобы завершить создание пула носителей.

Дистанционное управление с помощью Server Manager
Экран 1. Дистанционное управление с помощью Server Manager
Добавление и выделение дисков новым пулам носителей
Экран 2. Добавление и выделение дисков новым пулам носителей

Теперь пул носителей доступен. Следующий шаг — создать виртуальные диски в пуле носителей. Затем можно будет сформировать на этих дисках тома, доступные для использования операционной системой.

В Storage Spaces появилась функция, ранее доступная только при использовании внешних решений хранения данных, таких как сети SAN и устройства NAS: своевременное выделение серверу только необходимого пространства памяти. В процессе создания виртуального диска рассматривается две возможности. Первая — создать диск как фиксированный (выделено все пространство для размера виртуального диска). Вторая — забирать пространство для диска из пула только по мере необходимости. В этом случае можно создать виртуальный диск гораздо большего размера, чем фактически доступное хранилище. Это не означает, что удастся сохранить больше данных, чем вмещает выделенное для пула пространство. Но тома обычно со временем наполняются. Можно создать «тонкий» диск на 10 Тбайт, с которым связан лишь 1 Тбайт физического пространства; когда объем данных увеличится и приблизится к 1 Тбайт, можно физически увеличить пул еще на 1 Тбайт, просто подключив дополнительные диски. Когда объем данных будет приближаться к 2 Тбайт, можно вновь расширить хранилище на 1 Тбайт, добавив диски и т.д. Если добавлять физические диски до заполнения виртуального диска, проблем не возникает. Можно запрограммировать уведомления о достижении предельных значений пула носителей, и у администратора будет время, чтобы добавить нужное пространство.

Создавая виртуальный диск, необходимо лишь знать, в каком пуле носителей разместить диск. Информация о физических дисках не требуется и даже в явном виде недоступна. Цель Storage Spaces — создавать виртуальные диски по мере необходимости. Чтобы создать виртуальный диск, выполните следующие действия.

1. Выберите пул носителей, в котором будет создан новый виртуальный диск. В разделе Virtual Disks укажите задачу New Virtual Disk.

2. Подтвердите правильность выбора сервера и пула носителей на соответствующей странице мастера и нажмите кнопку Next.

3. Дайте имя и введите необязательное описание нового виртуального диска, а затем нажмите кнопку Next.

4. Выберите структуру хранилища, которая может быть простой (избыточность данных отсутствует и данные разделяются между многими дисками), зеркальной (данные дублируются на дополнительных дисках) или с проверкой четности (данные распределены по нескольким дискам, но благодаря контролю четности защищены в случае отказа диска). До появления Storage Spaces эти конфигурации были известны как RAID 0, RAID 1 и RAID 5. Из-за различий в реализации эти обозначения не употребляются в Storage Spaces. Сделайте выбор и нажмите кнопку Next.

5. Выберите тип подготовки (Thin или Fixed), а затем нажмите кнопку Next.

6. Укажите размер диска. Если выбран тонкий тип, можно указать размер, превосходящий доступное физическое свободное пространство. Нажмите кнопку Next.

7. Отображается подтверждение; нажмите кнопку Create.

Созданный виртуальный диск будет доступен в Server Manager и оснастке Disk Management консоли MMC, где можно создать тома и отформатировать диск для файловой системы. Действительный размер пространства, используемого виртуальным диском в пуле носителей, виден в Server Manager (или в панели управления Storage Spaces на клиенте).

Управлять Storage Spaces можно и с помощью PowerShell. Например, создать новый пул носителей с тремя физическими дисками можно с использованием следующих команд:

$phyDisks = Get-PhysicalDisk
$storSub = Get-StorageSubSystem
New-StoragePool -FriendlyName «Stuff» -PhysicalDisks
$phyDisks[0], -
$phyDisks[1], $phyDisks[2] -StorageSubSystemFriendlyName
$storSub.FriendlyName
Команды для создания виртуальных дисков в пуле:
New-VirtualDisk -StoragePoolFriendlyName «Stuff»
-ResiliencySettingName Mirror -Size 10TB -Provisioningtype
Thin -FriendlyName «Data1»
New-VirtualDisk -StoragePoolFriendlyName «Stuff»
-ResiliencySettingName Parity -Size 10TB -Provisioningtype
Thin -FriendlyName «Data2»

Чтобы получить сведения о виртуальном диске, можно вывести результаты команды Get-VirtualDisk в виде списка. Например, можно задействовать следующую команду, чтобы получить информацию о числе копий данных для зеркала и состоянии операции:

PS C: > Get-VirtualDisk -FriendlyName Data1 | fl

На экране 3 показан небольшой фрагмент результатов.

Результат выполнения команды Get-VirtualDisk
Экран 3. Результат выполнения команды Get-VirtualDisk

SMB: лучше чем раньше

В следующей статье я подробнее расскажу о новых протоколах хранения данных в Windows 8. Но чтобы показать огромные преимущества Server 2012 как платформы файловых служб, необходимо коротко рассказать об использовании новых томов, готовых к работе со Storage Spaces.

SMB уже давно используется в Windows в качестве предпочтительного протокола для дистанционного доступа к файлам. В Server 2012 появилась версия SMB 2.2. На первый взгляд, отличия от SMB 2.1 в Server 2008 невелики, но на самом деле как производительность, так и возможности протокола SMB значительно увеличились.

Общая производительность SMB существенно возросла, и доступ к данным через SMB практически равноценен прямому доступу к хранилищу. Такой доступ стал возможным благодаря нескольким изменениям, в том числе протоколу SMB Multi-Channel, обеспечивающему установку нескольких TCP-соединений через несколько сетевых адаптеров в одном сеансе SMB. Благодаря этому изменению становится возможным объединение пропускной способности адаптеров, поскольку удается использовать несколько сетевых адаптеров и процессоров для сетевой обработки, если задействованы функция ReceiveSide Scaling (RSS) и несколько сетевых адаптеров. Этот прием также срабатывает для совместной работы сетевой платы Server 2012 (да, в Server 2012 предусмотрено решение для совместной работы сетевой платы!). Также значительно повысилась доступность общих файловых ресурсов с отказоустойчивой кластеризацией в новом режиме Active-Active, включающем том CSV, доступный всем узлам кластера. Несколько узлов в кластере могут одновременно использовать CSV для важных рабочих нагрузок, таких как виртуальные машины Hyper-V, сохраненных на общем файловом ресурсе, или даже базы данных Microsoft SQL Server. Такое совместное использование файлов в режиме Active-Active исключает простои и потерю дескрипторов в случае переключения ресурсов.

Помимо SMB, Server 2012 располагает iSCSI в качестве ролевой службы, как часть File Services в службах File and Storage Services. После установки этой службы сервер Server 2012 может функционировать как цель iSCSI, обеспечивая доступ к хранилищу как с файлового уровня (с использованием SMB), так и блочного уровня (с использованием iSCSI). Цели iSCSI на сервере обычно представляют собой виртуальные жесткие диски (VHD), и возможна полная конфигурация доступа и служб проверки подлинности.

Проблема Chkdsk

Есть еще одна проблема, связанная с применением файловых служб Windows Server, в частности NTFS, с очень большими томами и множеством файлов. Для устранения некоторых неполадок необходимо воспользоваться утилитой Chkdsk. Chkdsk очень успешно выполняет свои функции, но на это уходит много времени: приходится проверить все содержимое диска, а затем внести исправления, которые (в силу особенностей устройства и быстродействия дисков) могут занять много времени (дни для больших томов со многими файлами). В результате том отключается от сети на время устранения неполадок. Наряду с соображениями по восстановлению данных после аварии, это одна из причин, по которой часто размеры томов NTFS ограничивают: чтобы Chkdsk могла завершить работу за приемлемый период (то есть несколько часов).

Новая файловая система Resilient File System (ReFS), которая начнет более широко использоваться в будущих версиях Windows, должна уменьшить вероятность порчи данных. Собственно NTFS становится более устойчивой, благодаря возможностям самовосстановления, но иногда приходится использовать Chkdsk. В Windows 8 раз и навсегда устранены все препятствия для запуска Chkdsk даже на самых больших томах.

Chkdsk работает медленно. Как уже отмечалось, программа анализирует весь диск и все его содержимое в поисках неисправностей, для чего требуется время. После того, как найдены неисправности (которые затрагивают очень малое число файлов), Chkdsk устраняет их. Операции устранения ошибок занимают очень мало времени (измеряемое секундами). Проблема в том, что Chkdsk переводит том в автономный режим, и его данные становятся недоступными на время проверки и устранения ошибок.

В Server 2012 процесс Chkdsk разделен на две части. В первой выполняется проверка диска и данных, поиск неисправностей. Если ошибка найдена, то она отмечается как требующая исправления. Существенное отличие заключается в том, что во время длительной проверки том остается в сети, так как на данном этапе исправления не вносятся. После завершения проверки, если нужно исправить ошибку, Chkdsk запускается в режиме spotfix, в котором том переводится в автономный режим для устранения неполадок. Том находится в автономном режиме лишь несколько секунд вместо часов или дней. Процесс проверки отделен от процесса исправления ошибок. Для запуска Chkdsk используются две команды. Первая занимает много времени, поскольку выполняет проверку, но не влияет на доступность тома. Вторая команда переводит том в автономный режим или вызывает перезагрузку.

Chkdsk /scan J:
Chkdsk /spotfix J:

Можно использовать следующие команды PowerShell:

Repair-Volume -Scan D
Repair-Volume -SpotFix D

Если применяется CSV, то простои при операции spotfix исключены. Дело в том, что CSV добавляет еще один промежуточный уровень между диском и способом доступа. Кроме того, CSV может приостановить операции ввода-вывода примерно на 20 секунд. Поэтому когда выполняется действие spotfix, CSV лишь приостанавливает ввода-вывод для тома, пока он переведен в автономный режим и подвергается исправлениям. Таким образом, пользователи тома CSV испытывают лишь легкую задержку доступа; им не приходится работать в автономном режиме или терять дескрипторы файлов.

Мощное решение хранения данных

Функциональность Storage Spaces в сочетании с iSCSI и SMB 2.2 обеспечивает мощное решение хранения данных как для серверов, так и для настольных компьютеров. А если принять во внимание наличие других технологий, таких как новая функция дедупликации данных, то область применения для платформы файловых служб Windows значительно расширяется.

Управление Windows Server 2012

«Возможности многих, простота одного» — таков подход к управлению в следующей версии Windows Server, Windows Server 2012. Даже в условиях виртуализации управление серверами выполняется в основном через подключение к операционной системе для управления удаленным рабочим столом, или поочередным дистанционным подключением к каждому серверу через Server Manager. В Server 2012 все операции управления можно и нужно выполнять дистанционно. После установки инструментария Remote Server Administration Tools for Server 2012 на клиентском компьютере Windows 8 запустите Server Manager и создайте группы серверов, которыми предстоит управлять как единым целым. С помощью представлений панели мониторинга (см. экран A) не составляет труда обнаружить неполадки на любом сервере в группе и одновременно произвести действия над несколькими серверами. Это не означает, что Server Manager нельзя запускать локально на серверах. Но по мере оптимизации процессов управление одиночными серверами становится не самым рациональным подходом. Все чаще вместо полных экземпляров используется Server Core, и приходится управлять дистанционно или задействовать Windows PowerShell для всех операций администрирования.

Server Manager
Экран A. Server Manager

Назад    Главная
 

Содержание

  • 1 Storage Spaces в Windows Server 2012
    • 1.1 Характеристики типов обеспечения отказоустойчивости.
      • 1.1.1 Простой (Simple)
      • 1.1.2 Зеркалирование (Mirror)
      • 1.1.3 Контроль четности (Parity)
    • 1.2 Настройка Storage Spaces

Storage Spaces или Пространства Данных — новая функция, которая появилась в Windows Server 2012, представляет собой механизм виртуализации дисковой подсистемы, что в свою очередь обеспечивает высокую доступность и масштабируемость решений хранения данных, как для отдельного сервера, так и кластера северов. Storage Spaces позволяет объединить несколько физических дисков в один логический, упрощая администрирование и обеспечивая защиту от потерь информации.

Схематично процесс создания Storage Spaces можно представить следующим образом:

  1. Создание одного или нескольких пулов (Pools).
  2. Создание одного или нескольких виртуальных дисков (Storage Spaces).
  3. Создание одного или нескольких логических томов.

Из возможностей Storage Spaces можно отметить следующие:

Упорядочивание физических дисков в пулы, которые можно легко расширять. При этом логический размер пула может быть больше чем суммарный объем всех физических дисков благодаря использованию технологии thin provisioning, которая позволяет выделить столько места на виртуальном томе, сколько необходимо, а физические диски добавлять по мере необходимости без каких-либо дополнительных настроек. Причем, типы и размер дисков в одном пуле могут быть разными.
Обеспечения отказоустойчивости за счет использования технологий зеркалирования и хранения информации о четности по аналогии RAID1 и RAID5, а также поддержка горячего резервирования «Hot Spare».
Для организации Storage Spaces необходимо выполнить ряд требований:

  • Операционная система Windows Server 2012 или Windows 8.
  • Диски SATA или SAS, можно в массиве JBOD. На адаптерах RAID (если используются) все функции RAID должны быть отключены

Некоторые ограничения, с которыми придется столкнуться при настройке Storage Spaces:

  • Storage Spaces не могут использоваться для загрузки операционной системы.
  • Не поддерживаются iSCSI и Fibre-chanel.

Характеристики типов обеспечения отказоустойчивости.

Простой (Simple)

  • Данные чередуются на физических дисках.
  • Увеличивается емкость диска и пропускная способность.
  • Данный тип не дает отказоустойчивости.

Можно использовать для высоконагруженных систем, где потеря данных не критична или надежность обеспечивается другими методами.

Зеркалирование (Mirror)

  • Данные сохраняются на двух или трех физических дисках (для функционирования необходимо минимум два диска для защиты выхода из строя одного из дисков или минимум пять дисков для защиты выхода из строя одновременно двух дисков).
  • Надежность повышается, но уменьшается объем диска.
  • Скорость передачи данных выше, чем при контроле четности.

Используется технология Dirty Region Tracking (DRT) для отслеживания изменений на дисках в пуле. Когда система возобновляет работу после внеплановой остановки, DRT приводит данные на дисках в соответствие относительно дуг друга.

Контроль четности (Parity)

  • Повышение надежности по сравнению с простой (Simple) реализацией.
  • Отказоустойчивость повышается благодаря ведению журнала.
  • Необходимо минимум три диска для защиты выхода из стоя хотя бы одного диска.

Настройка Storage Spaces

Далее рассмотрим настройку Storage Spaces на примере. В качестве исходных данных, у нас есть сервер с установленной Windows Server 2012 и четыре физических диска. На одном из дисков установлена операционная система. Для обеспечения отказоустойчивости выберем тип зеркалирование на двух дисках, третий диск назначим Hot Spare.

1).В навигационной панели Server Manager выберите File and Storage Services.

2).Далее в панели выберите Storage Pools.

1010-01.png

3).В панели STORAGE POOLS выберите TASKS и затем выберите New Storage Pool.

4).В окне Before you begin нажмите Next.

1010-02.png

5).В окне Specify a storage pool name and subsystem введите название пула, так же можно добавить описание. Выберите группу доступных физических дисков и нажмите Next.

1010-03.png

6).В окне Select physical disks for the storage pool выберете три диска для включения в storage pool, третий диск назначим в качестве Hot Spare.

1010-04.png

7).В окне Confirm selections проверьте правильность настроек и нажмете Create.

8).По окончании процесса отобразиться окно View results. Нажмите Close.

9).В панели VIRTUAL DISKS выберите TASKS, затем нажмите New Virtual Disk.

10).В окне Before you begin нажмите Next.

1010-05.png

11).В окне Select the storage pool выберите нужный storage pool и нажмите Next.

1010-06.png

12).В окне Specify the virtual disk name введите название виртуального диска и при желании его описание и нажмите Next.

1010-07.png

13).В окне Select the storage layout выберете тип Mirror.

1010-08.png

14).Далее предлагается выбрать тип виртуального диска Thin или Fixed. При выборе Thin Provisioning пространство выделяется по мере необходимости, размер диска можно выбрать больше, чем доступно на физических дисках. При выборе Fixed размер виртуального диска остается фиксированным. Выберем тип Fixed.

1010-09.png

15).В окне Specify the size of the virtual disk выберете Maximum size.

16).В окне Confirm selections проверьте правильность настроек и нажмете Create.

17).По окончании процесса отобразиться окно View results. Нажмите Close. После создания виртуального диска он будет представлен в диспетчере устройств на равне с обычными дисками.

1010-10.png

18).Далее создадим новый том. Для этого в панели VIRTUAL DISKS выберете правой кнопкой нужный виртуальный диск,

1010-11.png

далее выберете меню New Volume.

19).В окне Before you begin нажмите Next.

1010-11.png

20).В окне Select the server and disk выберете нужный сервер и диск и нажмите Next.

1010-12.png

21). В окне Specify the size of the volume выберите размер нового тома и нажмите Next.

1010-13.png

22). В окне Assign to a drive letter or folder назначьте букву тома и нажмите Next.

1010-14.png

23). В окне Select file system settings оставьте все по умолчанию.

24). В окне Confirm selections проверьте правильность настроек и нажмете Create.

25). По окончании процесса отобразиться окно View results. Нажмите Close.

1010-15.png

26). Для того, что бы убедиться, что логический том создан, в Server Manager откройте окно Volumes.

Представим ситуацию, когда один из физических дисков вышел из строя. В окне VIRTUAL DISKS напротив виртуального диска появляется восклицательный знак в желтом треугольнике.

Если в системе присутствует физический диск, отмеченный под горячую замену (Hot Spare), система помечет вышедший из строя диск как Failed и заменяет его на диск Hot Spare. Диск Hot Spare становиться частью виртуального диска, сам виртуальный диск в момент восстановления находится в статусе In Service.

Максим Иванов (mivanov@etegro.com)


This topic discusses common questions about Storage Spaces on Windows Server 2012 R2, Windows Server 2012, Windows 8.1, and Windows 8. For basic info about Storage Spaces, see
Storage Spaces Overview. For design info, see
Software-Defined Storage Design Considerations Guide. For performance information, see

Storage Spaces — Designing for Performance.

Table of Contents

  • How can I manage Storage Spaces?
  • What are the recommended configuration limits?
  • What are the best uses of simple, mirror, and parity spaces?
  • What types of drives can I use with Storage Spaces?
  • What types of storage arrays can I use with Storage Spaces?
    • Enclosure Awareness Support — Tolerating an Entire Enclosure Failing
    • What are the resiliency levels provided by Enclosure Awareness?
  • What types of storage spaces can I use with a failover cluster?
  • What properties can I change after creating a storage space?
  • How does Windows let me know of a disk failure?
  • How does Storage Spaces respond to errors on physical disks?
  • What information will Storage Spaces put in the Event log?
  • How do I replace a physical disk?
  • What are columns and how does Storage Spaces decide how many to use?
    • Example 1: A Two-Column Simple Space
    • Example 2: A Three-Column Parity Space
    • Example 3: A Two-Column Two-Way Mirror Space
    • Controlling the Number of Columns
  • Why do I have a low capacity warning even though I still have unused pool capacity?
    • A two column, two-way mirror space that uses thin provisioning in a four disk pool
  • How do I increase pool capacity?
  • What happens to Storage Spaces when moving physical disks between servers?
  • How do I check Storage Spaces resiliency health in a failover cluster?
  • How do I know repairing a storage space starts and successfully completes?
  • What happens if I run out of physical capacity on a thinly provisioned storage space?
  • See Also

How can I manage Storage Spaces?

There are three ways to manage Storage Spaces and associated storage pools and drives:

  • The Storage Spaces item in Control Panel Available in Windows 10, Windows 8.1 and Windows 8, you can use the Storage Spaces item in Control Panel to easily create and maintain storage spaces and their associated storage
    pools. The Storage Spaces item in Control Panel provides simple but powerful control over tasks a user might want to perform.
  • The File and Storage Services section of Server Manager Available in Windows Server, you can use Server Manager to create and manage storage spaces (also referred to as virtual disks) and their associated storage pools
    on the Storage Spaces subsystem as well as on non-Microsoft storage subsystems. Server Manager provides support for performing all of the tasks administrators commonly perform with Storage Spaces.
  • The Storage module in Windows PowerShell Available in Windows and Windows Server, you can use the cmdlets included in the Storage module to create and manage storage spaces (also referred to as virtual disks) and their
    associated storage pools on the Storage Spaces subsystem as well as on non-Microsoft storage subsystems. Windows PowerShell provides comprehensive support for managing Storage Spaces.

What are the recommended configuration limits?

The following are the recommended configuration limits for Storage Spaces:

For clustered storage pools:

  • Up to 80 physical disks in a clustered storage pool (to allow time for the pool to fail over to other nodes)
  • Up to four storage pools per cluster

For non-clustered storage pools:

  • Up to 240 physical disks in a non-clustered Windows Server 2012 R2 storage pool (4 x 60 disk JBOD); you can, however, have multiple pools of 240 disks
  • In Windows Server 2012, you can have up to 160 physical disks in a storage pool; you can, however, have multiple pools of 160 disks.

For both clustered and non-clustered pools:

  • Up to 480 TB of capacity in a single storage pool
  • Up to 64 storage spaces in a single storage pool
  • Up to 10 TB per virtual disk when using persistent VSS snapshots and the Volsnap VSS system provider

What are the best uses of simple, mirror, and parity spaces?

Storage Spaces offers simple spaces, mirror spaces, and parity spaces, each with unique characteristics.

  • Simple spaces are designed for increased performance when resiliency isn’t very important. They are best suited for temporary data, such as video rendering files, image editor scratch files, and intermediary compiler object files. Simple
    spaces require a minimum of one physical disk.
  • Mirror spaces are designed for increased performance and increased resiliency. Two-way mirror spaces can tolerate one disk failure and three-way mirror spaces can tolerate two disk failures. They are well suited to storing a broad range
    of data, from a general-purpose file share to a VHD library. When a mirror space is formatted with the Resilient File System (ReFS), Windows offers automatic data integrity maintenance. This is a layer of resiliency is above and beyond the resiliency achieved
    from maintaining multiple data copies to tolerate drive failure. 

    Mirror spaces require at least two disks (per tier if you use storage tiers) to protect you from a single disk failure. To protect
    a virtual disk from two simultaneous disk failures, you need at least three disks (per tier), with a minimum of five disks total in the pool to maintain pool metadata. 

  • Parity spaces are designed for capacity efficiency and increased resiliency. Parity spaces are best suited for archival data and streaming media, such as music and videos. This storage layout requires at least three disks to protect you
    from a single disk failure and at least seven disks to protect you from two disk failures.

For details on how to design mirror and parity spaces for maximum reliability and performance, including how to use journal disks to improve parity write performance, see the
Software-Defined Storage Design Considerations Guide.

 Note
Storage Spaces cannot be used to directly host the Windows startup disk or page file (though virtual hard disks can be safely stored in a storage space). Storage Spaces is not a disaster recovery or data replication solution,
nor is it a substitute for regular backups.

What types of drives can I use with Storage Spaces?

You can use commodity drives attached via Serial-Attached SCSI (SAS), Serial ATA (SATA), PCI-Express, M.2, U.2, or USB. Storage layers that abstract the physical disks are not compatible with Storage Spaces. This includes VHDs and pass-through disks in a
virtual machine, and storage subsystems that layer a RAID implementation on top of the physical disks. iSCSI and Fibre Channel controllers are not supported by Storage Spaces.

RAID adapters, if used, must be in non-RAID mode with all RAID functionality disabled. Such adapters must not abstract the physical disks, cache data, or obscure any attached devices including enclosure services provided by attached just-a-bunch-of-disks
(JBOD) devices. Storage Spaces is compatible only with RAID adapters that support completely disabling all RAID functionality.

 Note
Consumers can use USB drives with Storage Spaces, though USB 2 drives might not offer a high level of performance. A single USB 2 hard drive can saturate the bandwidth available on the shared USB bus, limiting performance
when multiple drives are attached to the same USB 2 controller. When using USB 2 drives, plug them directly into different USB controllers on your computer, do not use USB hubs, and add USB 2 drives to a separate storage pool used only for storage spaces that
do not require a high level of performance.

What types of storage arrays can I use with Storage Spaces? 

Storage arrays that provide direct connectivity to the physical disks they house and do not layer RAID implementations or abstract the disks in any way are compatible with Storage Spaces. Such arrays are also known as Just a Bunch of Disks (JBOD).

For Storage Spaces to identify disks by slot and leverage the array’s failure and identify/locate lights, the array must support SCSI Enclosure Services (SES) version 3. For a list of compatible arrays, see the

Windows Server Hardware Catalog.

Enclosure Awareness Support — Tolerating an Entire Enclosure Failing

To support deployments that require an added level of fault tolerance, Storage Spaces supports associating each copy of data with a particular JBOD enclosure. This capability is known as enclosure awareness. With enclosure awareness, if one enclosure fails
or goes offline, the data remains available in one or more alternate enclosures. 

To use enclosure awareness with Storage Spaces, your environment must meet the following requirements:

  • JBOD storage enclosures must support SCSI Enclosure Services (SES).
  • Storage spaces must use the mirror resiliency type if you’re using Windows Server 2012:
    • To tolerate one failed enclosure with two-way mirrors, you need three compatible storage enclosures.
    • To tolerate two failed enclosures with three-way mirrors, you need five compatible storage enclosures.

What are the resiliency levels provided by Enclosure Awareness?

The following table lists the maximum simultaneous fault tolerance of solutions that have enclosure awareness enabled:

Resiliency type Three enclosures Four enclosures

Simple

Not supported

Not supported

Two-way Mirror

1 enclosure; or 1 disk*

1 enclosure; or 1 disk*

Three-way Mirror

1 enclosure + 1 disk*; or 2 disks*

1 enclosure + 1 disk*;

or 2 disks*

Single Parity

Not supported

Not supported

Dual Parity

Not supported

1 enclosure + 1 disk*;

or 2 disks*

* per pool

What types of storage spaces can I use with a failover cluster?

Storage Spaces on Windows Server 2012 R2 supports creating a clustered storage pool when using mirror spaces, parity spaces, and simple spaces. Windows Server 2012 doesn’t support parity spaces on clustered storage pools. To cluster Storage Spaces, your
environment must meet the following requirements:

  • All storage spaces in the storage pool must use fixed provisioning.
  • Two-way mirror spaces must use three or more physical disks.
  • Three-way mirror spaces must use five or more physical disks.
  • Parity spaces are supported on Windows Server 2012 R2, but not Windows Server 2012.
  • All physical disks in a clustered pool must be connected via SAS.
  • All physical disks must support persistent reservations and pass the failover cluster validation tests.

Note: The SAS JBOD must be physically connected to all cluster nodes which will use the storage pool.  Direct attached storage that is not connected to all cluster nodes is not usable for clustered pools with Storage Spaces.

What properties can I change after creating a storage space?

Upon creating a storage space, certain fundamental properties are locked in place. These fundamental properties include the provisioning type (thin or fixed), the resiliency type (simple, mirror, or parity), the number of columns the storage space striping
requires, and the striping interleave.

After creating a storage space, you can change properties that do not affect fundamental characteristics, such as the size of the storage space and its name.

How does Windows let me know of a disk failure?

When a disk failure occurs, Windows displays information on the disk failure in the following locations:

  • The taskbar
  • The Action Center
  • The Storage Spaces Item in Control Panel (on Windows 8.1 and Windows 8)
  • The Storage Pools section of the File and Storage Services role in Server Manager (on Windows Server)
  • The Windows PowerShell cmdlet Get-PhysicalDisk

How does Storage Spaces respond to errors on physical disks?

Physical disks often experience errors of varying severity, from errors that the disk can transparently recover from, without interruption or data loss; to errors that are catastrophic and can cause data loss. For more information, see

How Storage Spaces responds to errors on physical disks.

What information will Storage Spaces put in the Event log?

To help with administration, Storage Spaces will log certain events in the Event log. For more information on the events logged by Storage Spaces, see the following:

  • Storage Spaces Event 100
  • Storage Spaces
    Event 102
  • Storage Spaces Event 103
  • Storage Spaces Event 104
  • Storage Spaces Event 200
  • Storage Spaces Event 201
  • Storage Spaces Event 202
  • Storage Spaces Event 203
  • Storage Spaces Event 300
  • Storage Spaces Event 301
  • Storage Spaces Event 302
  • Storage Spaces
    Event 303
  • Storage Spaces Event 304
  • Storage Spaces Event 306
  • Storage Spaces
    Event 307
  • Storage Spaces
    Event 308

How do I replace a physical disk?

If you are using the Storage Spaces item in Control Panel, replacing a physical disk is as simple as clicking the command to remove the old disk. After that, you can immediately disconnect the disk. In the background, Storage Spaces leverages resiliency
to reconstruct your data. Disk removal has three prerequisites:

  • All storage spaces that depend on the disk are resilient and healthy (removing the disk will not succeed if a simple space depends on the disk).   You can discover which storage spaces depend on a physical disk by piping the Get-PhysicalDisk
    cmdlet to Get-VirtualDisk. For example:

    Get-PhysicalDisk -FriendlyName PhysicalDisk1 | Get-VirtualDisk

    You can check the resiliency and health of your storage spaces by using the Get-VirtualDisk cmdlet. A storage space is resilient when ResiliencySettingName is either Mirror or Parity and healthy when HealthStatus is Healthy.   

  • The pool has at least as much unused capacity on other disks as the amount of data the old disk hosts. This ensures that the storage spaces can be reconstructed with a replacement disk. If the usage type of the disk is manual, then the
    storage spaces that depend on the disk must have sufficient unused capacity on other disks in their list of disks they can use. In both cases, the unused capacity must be on disks that do not already host an extent of the same stripe as the old disk. This
    can be satisfied by first adding the new disk to the pool, and, if applicable, adding it to the storage spaces’ lists of disks that they can use.

     Tip
    You can check for unused capacity on disks the affected storage spaces are not using by subtracting AllocatedSize from Size, as reported by the Get-PhysicalDisk command.
  • If the pool is clustered, removing the disk would not cause the pool to have fewer than three disks, if the pool does not contain any three-way mirror spaces, or fewer than five disks, if the pool contains a three-way mirror space.

If you are using Windows PowerShell, you must perform following procedure to remove the old disk, assuming that you meet the prerequisites for removing a physical disk.

Removing a physical disk by using Windows PowerShell

  1. Open a Windows PowerShell session as an administrator.

  2. Type the following command, replacing <diskname> with the friendly name of the disk:

    Set-PhysicalDisk -FriendlyName <diskname> -Usage Retired

    If the pool is clustered, you will need to run this command on the cluster node which has the cluster resource for the pool online.

  3. Type the following command for each storage space that depended on the old disk, replacing <virtualdiskname> with the friendly name of the storage space:

    Repair-VirtualDisk -FriendlyName <virtualdiskname>

    If the pool is clustered, run this command on the cluster nodes that have the individual storage spaces’ cluster resource online and then run it again on the cluster node that has the pool’s cluster resource online.

  4. Prior to performing step 5, you must wait for all active repair jobs to complete. To monitor the status of repair jobs, type the following command:

  5. Type the following command:

    Remove-PhysicalDisk -FriendlyName <diskname> 

    The above command did not work in my Windows Server 2012 R2 Essentials.

    You have to do this in 2 steps. First give the disk to be removed a name and then remove;

    example;

    PS C:> $PDToRemove = Get-PhysicalDisk -Friendlyname "PhysicalDisk25"

    PS C:> Remove-PhysicalDisk -PhysicalDisks $PDToRemove -StoragePoolFriendlyName "DemoPool"

  6. Physically disconnect the old disk.

What are columns and how does Storage Spaces decide how many to use?

Besides offering resiliency to drive failures, Storage Spaces also offers increased performance by striping data across multiple disks. Storage Spaces describes a
stripe via two parameters, NumberOfColumns and
Interleave
.

  • A stripe represents one pass of data written to a storage space, with data written in multiple stripes (passes).
  • Columns correlate to underlying physical disks across which one stripe of data for a storage space is written.
  • Interleave represents the amount of data written to a single column per stripe.

The NumberOfColumns and Interleave parameters, which are accessible via Windows PowerShell or WMI, determine the width of the stripe (stripe_width = NumberOfColumns * Interleave). The stripe width determines how much data
and parity (in the case of parity spaces) Storage Spaces writes across multiple disks to increase performance available to apps.

Example 1: A Two-Column Simple Space

A simple example is a two-column simple space, which offers striping with no resiliency.

For the first stripe of data in this example, Storage Spaces writes 256 KB (the default Interleave value) to the first disk (column) in the storage pool, then 256 KB of data to the second disk in the pool. This yields a stripe width of 512 KB (2 columns
* 256 KB interleave).

Example 2: A Three-Column Parity Space

Another example is a three-column parity space (with a 256 KB stripe interleave), the simplest form of a parity space.

For the first stripe of data in this example, Storage Spaces writes 256 KB of data to the first disk (column), 256 KB of data to the second disk, and 256 KB of parity to the third disk. This yields a stripe size of 768 KB (3 columns * 256 KB of interleave).
As more data is written to the parity space, it rotates the column for the parity information among all three disks.

Example 3: A Two-Column Two-Way Mirror Space

Another example is a two-column two-way mirror space. Mirror spaces add a layer of data copies below the stripe, which means that a two-way mirror space duplicates each individual column’s data onto two disks.

For the first stripe of data in this example, Storage Spaces writes 256 KB of data to the first column, which is written in duplicate to the first two disks. For the second column of data, Storage Spaces writes 256 KB of data to the second column, which
is written in duplicate to the next two disks. The column-to-disk correlation of a two-way mirror is 1:2; for a three-way mirror, the correlation is 1:3.

Controlling the Number of Columns

You can control the number of columns and the stripe interleave when creating a new storage space by using the Windows PowerShell cmdlet
New-VirtualDisk with the NumberOfColumns and
Interleave
parameters.

Each type of storage space has a minimum number of stripe columns which translates to a minimum number of physical disks, given their column-to-disk correlation (below).

Resiliency type

Minimum number of columns

Column-to-disk correlation

Minimum number of disks

Maximum column count 

Simple (no resiliency)

1

1:1

1

 N/A

Two-way mirror

1

1:2

2

 N/A

Three-way mirror

1

1:3

5

 N/A

Single Parity

3

1:1

3

Dual Parity  7 1:1 7 17

Due to striping, a storage space simultaneously allocates capacity from as many disks as its stripe requires. Therefore, when increasing pool capacity, you can usually achieve optimal pool capacity utilization when you add disks in multiples of the number
of disks the storage space needs. For example, adding disks in multiples of four might provide optimal capacity utilization for a pool comprised of two-column, two-way mirror spaces (2 columns + 2 data copies = 4 disks per stripe).

Note Storage Spaces in Windows Server 2012 R2 and earlier by default uses the largest column count possible given the number of disks you have and the resiliency type you select. This is useful for environments with a small number of disks
where you want to maximize performance and don’t have to replace disks very often. However, in environments with a large number of disks, use a column count number one less than the maximum. This allows Storage Spaces to automatically repair virtual disks
following a disk failure or after you retire a disk.

Why do I have a low capacity warning even though I still have unused pool capacity?

Storage Spaces provides advance notification of thinly provisioned storage spaces when the storage pool does not have enough capacity spread among a sufficient number of disks to continue to write new data. The default warning point is 70% capacity utilization.
To learn when Storage Spaces will generate a warning, consider the following example.

A two column, two-way mirror space that uses thin provisioning in a four disk pool

Two of the disks have 1TB capacity and two have 2TB capacity. Because a two column, two-way mirror space needs four disks (number_of_disks = NumberOfColumns * NumberOfDataCopies), it will evenly consume all four disks as it writes new data. When capacity
utilization of the two 1TB disks reaches 70%, Storage Spaces will warn of a low capacity condition. Even though the entire pool has 3.2TB free capacity, the thinly provisioned space will soon not be able to write any more data because the 1TB disks are nearly
fully consumed.

You can easily keep individual storage spaces’ low capacity warning synchronized with each other and with the pool by following the guidance in the next section, “How do I increase pool capacity?” from the moment of creating the pool and through all subsequent
expansions of the pool.

How do I increase pool capacity?

Storage Spaces can usually use the additional capacity from even a single additional drive. However, for optimal capacity utilization, consider the number of columns your storage spaces have and add disks in multiples of that number.

For example, consider a pool which has a four-column simple space, a one-column, two-way mirror space, and an eight-column parity space. The four-column simple space suggests you expand pool capacity in sets of four disks. The one-column, two-way mirror
space suggests you expand pool capacity in sets of two disks (for mirror spaces, you have to multiple the number of columns by the number of copies). The eight-column parity space suggests you expand pool capacity in sets of eight disks. In this example, you
would want to expand pool capacity in sets of eight disks as eight is a common multiple of the number of columns of each of the storage spaces in the pool.

What happens to Storage Spaces when moving physical disks between servers?

Storage Spaces records information about pools and storage spaces on the physical disks that compose the storage pool. Therefore, your pool and storage spaces are preserved when you move an entire storage pool and its physical disks from one computer to
another.

Windows Server 2012 starts storage that could potentially be shared with a cluster in a safe state. For Storage Spaces, that means the first time Windows connects to a storage pool, the pool starts as read-only and the storage spaces will start in a detached
state. To access your data, you must set the storage pool to read-write and then attach the storage spaces.

These steps do not apply to Windows 8 – storage pools start as read-write and storage spaces start as attached.

How do I check Storage Spaces resiliency health in a failover cluster?

The health of each storage space is available only from the cluster node that has the cluster resource for the storage space in the online state. Use Failover Cluster Management to discover which node has the cluster resource for a storage space in the online
state. Then use the Storage Pools section of the File and Storage Services role in Server Manager to view the health of the appropriate storage space.

You can also use the Get-VirtualDisk cmdlet on the node that has the cluster resource online to retrieve the storage space’s properties. The resiliency health of the storage space is noted in the storage space’s properties. To view the health status of a
storage pool, use the Get-StoragePool cmdlet on the cluster node that has the cluster resource for the pool in the online state.

How do I know repairing a storage space starts and successfully completes?

For the repair operation to complete successfully, the pool must have at least as much unused capacity as data to be repaired. If the storage space has a list of disks to use, then the unused capacity must reside on those disks. Unused capacity must reside
on disks which do not already host an extent of the stripe to be repaired. Because repair happens over time, this requirement must be continuously fulfilled for a successful repair completion.

For a quick check on whether repair is successfully progressing, use the Get-VirtualDisk cmdlet to look at the storage space’s
OperationalStatus. While repair is successfully progressing, OperationalStatus will be
In Service. When repair successfully completes, OperationalStatus is
OK. If repair is unable to continue, OperationalStatus returns to
Degraded.

What happens if I run out of physical capacity on a thinly provisioned storage space?

Since the storage space is thinly provisioned, allocation of new capacity occurs as needed.  Once capacity is exhausted, there is no room to properly manage files on the storage space and there is a risk of data loss due to file corruption.  To protect against
that, Windows takes the storage space offline – removing the storage space from the view of anything that was writing and thereby keeping your files safe.  Once the pool has more drives, you can bring the storage space back online and continue running.

When additional drives are not immediately available, you can try to just bring the storage space back online and get to your files until additional drives are available.  However, sometimes applications, or the file system itself, may continue writing once
the storage space is online.  If that happens, then Windows’ safety measures will again protect your files by taking the storage space offline.

If additional drives are not immediately available and the storage space cannot remain online, then can still get to your files by using PowerShell to temporarily make your storage space read-only.

Get-VirtualDisk –Friendlyname name_of_your_space | Get-Disk | Set-Disk –IsReadOnly $true

Get-VirtualDisk –Friendlyname name_of_your_space | Get-Disk | Set-Disk –IsOffline $false

If you do that, then you will want to switch your storage space back to read-write once your storage pool has additional drives.  You can use PowerShell to do that as well.

Get-VirtualDisk –Friendlyname name_of_your_space | Get-Disk | Set-Disk –IsOffline $true

Get-VirtualDisk –Friendlyname name_of_your_space | Get-Disk | Set-Disk –IsReadOnly $false

Get-VirtualDisk –Friendlyname name_of_your_space | Get-Disk | Set-Disk –IsOffline $false

 

Finally, if you do not add more drives to the storage pool (the control panel will tell you the minimum number of drives to add), then Windows will protect the files which are already on the storage space by taking the storage space offline.  Adding new
drives to the storage pool provides the additional capacity the storage space needs.  You will be able to bring your storage space back online and continue to copy new files into it.


See Also

  • File and Storage Services
  • Storage Spaces Overview
  • Storage Management Overview
  • Modifying a Storage Pool that has a Read-Only Configuration
  • Provide cost-effective storage for Hyper-V workloads by using Windows Server (2012 R2)
  • Provide cost-effective storage for Hyper-V workloads by using Windows Server: planning and design guide
    (2012 R2)

Posted: February 25th, 2015

Storage Spaces is a storage virtualization technology developed by Microsoft and introduced with Windows 8 and Windows Server 2012. It allows to create and manage logical volumes running on a pool – Storage Pool – of physical disks.

We’ve already showed how you can create and manage a Storage Space on Windows 8.1. It’s time to show you how to do the same on Windows Server 2012 / 2012 R2.

You can find the Storage Services control panel opening the Server Manager. Click on File and Storage Services:

Storage Spaces on Windows Server 2012

Here we are:

Storage Spaces on Windows Server 2012

Create the Storage Pool

Open the Storage Pools tab, click on the drop-down menu on the upper-right corner and select New Storage Pool:

Storage Spaces on Windows Server 2012

A configuration Wizard will appear. Go on and specify the name of the Pool:

Storage Spaces on Windows Server 2012

Storage Spaces on Windows Server 2012

Select the disks you want to use for your pool:

Storage Spaces on Windows Server 2012

Confirm and the Pool will be created:

Storage Spaces on Windows Server 2012

Storage Spaces on Windows Server 2012

Create the Virtual Disk

We have a Storage Pool but no logical disk that runs on it. Windows Server will launch a new configuration Wizard to create one:

Storage Spaces on Windows Server 2012

Select the Storage Pool where you want to put your Virtual Disk:

Storage Spaces on Windows Server 2012

Give it a name:

Storage Spaces on Windows Server 2012

Choose the Storage Layout. With two disks use Mirror – a sort of virtual RAID 1 – while with more drives we suggest to use the Parity mode. Don’t use the Simple mode because it’s unsafe for your data:

Storage Spaces on Windows Server 2012

Enabling Thin Provisioning, your Virtual Disk will use only the space effectively occupied by the Virtual Disk:

Storage Spaces on Windows Server 2012

Specify the size (it can be greater than the underlying Storage Pool):

Storage Spaces on Windows Server 2012

And even the Virtual Disk is done:

Storage Spaces on Windows Server 2012

Storage Spaces on Windows Server 2012

Create the Volume

The last step is to create the Volume. A quite simple step.

Storage Spaces on Windows Server 2012

Select the Disk:

Storage Spaces on Windows Server 2012

Choose the volume size:

Storage Spaces on Windows Server 2012

Select the drive letter:

Storage Spaces on Windows Server 2012

Select the file system. We suggest ReFS for data storage:

Storage Spaces on Windows Server 2012

Confirm and the volume will be created:

Storage Spaces on Windows Server 2012

Storage Spaces on Windows Server 2012

Finally, you’re ready to use your Storage Pool:

Storage Spaces on Windows Server 2012

Share:

Facebook

Twitter

Linkedin

Tags: Microsoft Windows

Содержание

Что нового в хранилище Windows Server 2012 R2?
Многоуровневые пространства хранения
Кеш с обратной записью
Распараллеленное восстановление
Низкоуровневое усовершенствование: встроенная поддержка секторов 4 КБайт
Поддержка UEFI BIOS позволяет работать с дисками GPT
Утилита снкdsк стала более интеллектуальной
Онлайновое самолечение
Онлайновая верификация
Онлайновая идентификация и ведение журналов
Точное и быстрое исправление
Пространства хранения в Wiпdows Server 2012 R2
Повторное использование технологии из облачных служб Microsoft
Предоставление SАN-подобных возможностей посредством инструментов управления Microsoft
Создание пространствах хранения
Создание пула
Ограничения пулов хранения
Просмотр устройств в инструменте Disk Management
Работа с пулом хранения в PowerShell
Выделение пространств а пула под виртуальный диск
Демонстрация настройки многоуровневого хранения с помощью PowerShell
iSCSI в пространствах имен
Добавление целевой службы iSCSI
Подключение к виртуальному диску iSCSI со стороны клиента
Общие ресурсы NFS
Где используется общий ресурс NFS
Быстрая настройка общего ресурса NFS
Подключение к общему ресурсу NFS со стороны клиента
Дедупликация: диск и сеть
Конфигурирование дедупликации данных с помощью диспетчера серверов
Конфигурирование дедупликации данных с помощью PowerShell
Проверка томов на предмет повреждений

Администраторы, которые имели возможность поработать какое-то время с
пространствами хранения (Storage Spaces) в Windows Server 2012, наверняка по
достоинству оценят изменения, внесенные в Windows Server 2012 R2. Но прежде чем приступить к их обсуждению, давайте ознакомимся с краткой сводкой п Storage Spaces, предназначенной для тех, кто не еще не имел дела с этим средством.
Средство Storage Spaces было представлено в Windows Server 2012 как встроенный компонент. Вспомните, что это не RAID, но кое-что новое, что было спроектиро­вано для полноценного корпоративного использования.
Базовая функция Storage Spaces заключается в том, чтобы дать возможность взять просто группу дисков Uust а bunch of disks — JBOD) и сконфигурировать их в пуле. Отсюда вы можете созда­вать виртуальные диски (действительное пространство хранения) и тома с устойчи­востью к отказам разнообразных уровней. Такой тип конфигурации обеспечивает высокую гибкость.
Представьте себе отсутствие обязательства инвестировать в крупную дорогос­
тоящую сеть хранения данных (storage area network — SAN) или в специальное
обучение, которое администраторы должны были бы пройти, чтобы конфигури­
ровать и обслуживать эту сеть. Основной целью Storage Spaces является предостав­
ление рентабельного решения для хранилища с непрерывным доступом к данным.
Пространства хранения и пулы спроектированы с возможностью увеличения по
запросу.

Ниже приведен список лишь некоторых возможностей в Storage Spaces, входя-
щих в состав Windows Server 2012:
• оперативная настройка;
• устойчивость к отказам (зеркальное отображение и контроль по четности);
• интеллектуальное исправление ошибок;
• поддержка множества владельцев;
• интеграция с CSV для возможности обработки масштабированных сценариев.
В этой главе вы изучите следующие темы:
• создание пула хранения на виртуальном диске;
• создание дополнительного хранилища на виртуальном диске;
• применение приемов дедупликации для сокрашения размера файлов.

Что нового в хранилище Windows Server 2012 R2?

Поскольку эта книга посвяшена Windows Server 2012 R2, мы покажем, что нового
пояnилось в хранилище. Разработчики из Microsoft включили в Storage Spaces тех­нологию, которую ранее можно было nстретить только в дорогостоящих массивах хранения. Эта технология подробно рассматривается в последующих разделах.

Многоуровневые пространства хранения

В современном мире хранилищ существует несколько классификаций дисков, в
том числе последовательная расширенная технология подключения (Serial Advance
Technology Attachment — SATA), последовательно присоединенное SСSl-устройство (Serial Attached SCSI — SAS), твердотельный накопитель (Solid State Drive — SSD) и оптоволоконный канал (Fibre Channel). Выбор правильного типа хранилища для ра­боты очень важен. Например, если вам необходим файловый сервер, то SSD не яв­ляется удачным выбором. Накопители SSD были спроектированы для обеспечения
высокой скорости, но не емкости, и в связи с тем, что файловые серверы обычно нуждаются в емкости, а не скорости, в этом случае намного лучше может подойти диск SATA, который проектировался для большей емкости, нежели скорости.
В Windows Server 201 2 R2 можно иметь максимум два уровня хранения, в сущнос­ти, быстрый уровень и медленный уровень. На быстром уровне автоматически ис­пользуется SSD, а на меменном — SATA. По-настоящему хорошо здесь то, что ад­министратор не должен решать заранее, где размещать данные.
Службы управления
уровнями хранения (Storage Тiers Manageшent Service) автоматически проанализиру­ет данные на дисках в срезах по 1 Мбайт. Она имеет две категории для назначения:
горячие точки (hot spot) и холодные точки (cold spot). Горячие точки — это об.1асти данных, доступ к которым производится часто; здесь выдвигается предположение о том, что поскольку это активные данные, они являются своего рода «горячей те­мой». Холодные точки представляют собой противоположность: данные, доступ к которым осуществляется нечасто. После анализа горячие точки будут переведены
на уровень SSD, а любые идентифицированные холодные точки будут назначены
уровню SATA.

По умолчанию анализ происходит ежедневно в 1 :00, но вы можете сконфигури­
ровать это по своему усмотрению (рис. 1 2. l ). Но если файл нуждается в нахожде­нии на быстром уровне все время, администратор может «закрепить» такой файл на этом уровне.

Рис. 12.1 . Служба Storage Tiers Management в планировщике задач

Кеш с обратной записью

Под кешем с обратной записью понимается способ записи данных на диск.
Данные сначала записываются в кеш, и будут храниться в нем до тех пор, пока их не потребуется перезаписать; в этот момент они сбрасываются на диск и фиксиру­ются. В общем случае запись и хранение данных в кеше обеспечивает лучшую про­изводительность и рассматривается как еще один тип памяти. Если приложение записывает в кеш, оно может быстро-освободить свой обработчик ввода-вывода и возвратиться к выполнению других задач. Определенным рабочим нагрузкам тра­диционно не нравится кеширование с обратной записью, потому что когда прило­жение записывает данные, они должны быть записаны на диск во избежание разру­шения. Например, Hyper-V требует сквозной записи. Многоуровневое хранилище
может применяться в сочетании с виртуальным диском (в этом случае не с файломVHD/VHDX, имеющим отношение к Hyper-Y и виртуальным машинам, а вирту­
альным диском с точки зрения Storage Spaces), чтобы поглощать любые выбросы в операциях записи. Быстрый уровень затем может использоваться для преодоления выброса и разрешения Hyper-V применять кеширование с обратной записью.

Распараллеленное восстановление

В случае отказа диска в традиционном массиве RAID, при наличии горячего ре­
зерва (диск, который может немедленно принять работу отказавшего диска в масси­
ве RAID), этот горячий резерв вступает в игру и массив RAID начнет воссоздание данных на отказавшем диске. Во время воссоздания влияние на производительность дисковой подсистемы неизбежно, т.к. все данные записываются на единственный диск. Процесс распараллеленного восстановления в Storage Spaces несколько отли­чается. Если диск отказывает, оставшиеся работоспособные диски, которые имеют подходящую емкость, получают права владения данными, сохраненными на отка­завшем диске, и будут обслуживать запросы от пользователей по всем доступнымнакопителям.
Поскольку теперь помощь оказывают все диски, влияние на произ­водительность отсутствует. Процесс восстановления может задействовать горячий резерв или же администратор может заменить отказавший диск новым, который в
фоновом режиме постепенно возвратится в пространство хранения.

низкоуровневое усовершенствование: встроенная поддержка секторов
4 Кбайт

Первоначально жесткие диски использовали формат 512 байтов на сектор, и это
налагало ограничения на размер и производительность хранилища.
Учитывая пос­тоянно растущие потребности в емкости и скорости, назрела необходимость в из­менениях, и в течение всего нескольких лет стандартом стали диски с секторами 4 Кбайт.
Тем не менее, программное обеспечение (такое как утилиты файловой сис­темы, операционные системы и механизмы баз данных) не обязательно быстро под­хватили это изменение. Большинство производителей устройств поставляли диски с секторами 4 Кбайт, но в целях совместимости эмулировали 512-байтовые секторы.
Очевидно, это сопровождается некоторыми накладными расходами, поскольку сек­тор 4 Кбайт целиком считывается в память, модифицируется и затем записывается
обратно. Так как происходит определенная степень манипулирования, имеется так­же мияние на производительность, которое в данном случае вполне приемлемо.
Благодаря встроенной поддержке секторов 4 Кбайт, индустрия хранения данных
больше не эмулирует 5 12-байтовые секторы, а это значит, что влияние на произво­дительность устранено.
В следующем списке перечислены некоторые приложения и сценарии, которые
становятся доступными при поддержке секторов 4 Кбайт:
• возможность установки Windows на диск с секторами 4 Кбайт и загрузки с него
без необходимости в эмуляции (собственный диск 4 Кбайт);
• ноuый файловый формат VHDX;
• полная поддержка Hyper-V;
• резервное копирование Windows;
• полная поддержка со стороны файловой системы New Technology File System
(NTFS);
• полная поддержка со стороны новой файловой системы ReFS (Resilient File
System — отказоустойчивая файловая система);
• полная поддержка со стороны Storage Spaces;
• полная поддержка со стороны средства Windows Defender (Защитник Windows);
• поддержка входящих приложений.

Поддержка UEFI BIOS позволяет работать с дисками GPT

Главные загрузочные записи (masteг boot гecord — MBR) — это спеuиальные об­
ласти, расположенные в начале разделенного пространства на диске. Они содержат информацию о внутренней структуре разделов и связанный загрузочный код, ко­торый позволяет операционной системе запуститься. Запись MBR хранит свой ад­рес блока в 32-битном формате. Первоначально диск с 5 12-байтовыми секторами и адресом блока в 32 бита был ограничен объемом 2 Тбайт. Вполне очевидно, что это больше не является приемлемым. Таким образом, индустрия двигается в сторону секторов 4 Кбайт, и теперь диски обладают максимальной емкостью 16 Тбайт. Все выглядит так, как будто мы достигли цели, но с учетом современной инфраструкту­ры мы можем иметь дело с петабайтами данных, поэтому терабайты вряд ли спра­вятся с этим.
Таблица разделов GUID (GUID Partition ТаЫе — GPT) предоставляет 64-битную
структуру адресаuии. На диске с 512-байтовыми секторами можно иметь 9,4 Збайт
(9 444 732 965 739 290 426 880) данных. В настоящее время GPT поддерживает мак­симальный размер диска и раздела, равный 8 Збайт.
Если вы приготовились преобразовать свои диски в GРТ, то вы совершенно пра­
вы! Но будьте осторожны; не все операционные системы поддерживают загрузку из разделов GPT, используя стандартную систему BIOS. Ознакомьтесь с материалом по следующей ссьтке:
http : / / ru . wi kipedia . org/wiki /Taблицa_paздeлoв_GUID
Унифицированный расширяемый интерфейс прошивки (Unified ExtensiЬle Firmware
lnterface — UEFI) спроектирован как прямая замена унаследованной системы BIOS.
По существу он делает ту же самую работу, но добавляет такую функuиональность, как диагностика и восстановление компьютеров с развернутыми операционными системами. Интерфейс UEFI разработан для поддержки загрузки из разделов GPT, и Windows SeIVer 2012 R2 полностью поддерживает UEFI BIOS.

Утилита снКDsк стала более интеллектуальной

На протяжении многих лет утилита снкоsк была одним из главных инструмен­
тов. Она входила в состав многочисленных поколений DOS и Windows, и замеча­
тельно видеть этот инструмент модернизированным.
Одной из крупнейших проблем, с которыми сталкивалась утилита снкоsк до ее
модернизации, была ее прямая связь с количеством файлов внутри тома.
Большее число файлов требовало большего времени на ее выполнение. Еще одна причиняв­шая постоянное беспокойство сложность заключалась в том, что когда снкоsк об­наруживала проблему, она обычно размонтировала том, повторно все сканировала, обнаруживала проблему снова и только затем ее исправляла. Несложно представить, что на крупных томах это занимало длительное время, а при современной культуре постоянной готовности простой попросту неприемлем.
Код инструмента CHKDSK был модернизирован, и модель работоспособности
NTFS также была перепроектирована. Мы обсудим эти модернизации далее, но
они, в сущности, бьuш обусловлены тем, что утилита снкоsк с прежними возмож­
ностями больше не была нужна.

онлайновое самолечение

Хотя эта возможность файловой системы NTFS существовала со времен Windows
Vista, количество проблем, которые она способна обнаружить и исправить, зна­
чительно увеличилось. В свою очередь, это снизило фактическую потребность в
снкоsк, поскольку большинство проблем удавалось решить с помощью онлайново­
го самолечения. Поддерживая самолечение, том не обязан переходить в отключен­ное состояние.

Онлайновая верификация

В Windows Server 201 2 действительное повреждение можно подтвердить. Иногда
ошибки возникают из-за проблем с памятью, но это не обязательно означает пов­реждение диска. Теперь, благодаря онлайновой верификации, вы можете акти­
визировать проверку. Для выполнения этой проверки драйвер файловой системы
запускает новую службу под названием Spot Yerifieг (Точечный верификатор), как показано на рис. 12.2. Она функционирует в фоновом режиме и не оказывает влия­ния на производительность системы.

Онлайновая идентификация и ведение журналов

После обнаружения реальной проблемы запускается онлайновое сканирование
файловой системы. Это сканирование рассчитано на выполнение в сочетании с
операционной системой и будет запускаться только во время простоя системы или в период ее низкой загрузки. Найденная проблема фиксируется в журнале для после­дующего автономного исправления.

точное и быстрое исправление

Поскольку в журнале была зафиксирована информация о местах возникнове­
ния проблем, вам не придется заново сканировать всю файловую систему в начале автономного процесса. По существу это означает, что когда вы переведете том в автономный режим для исправления ошибок, такой процесс займет секунды, а не потенциально часы. Быстрое исправление называется Spotfix.
Если вы применяете общие тома кластера (Custer Shared Volume — CSV), никакого простоя не будет, и тома оказываются постоянно готовыми.
Благодаря этим новым усовершенствованиям, исполняющая среда CHKDSK
больше не зависит от количества файлов, а только от числа повреждений данных.
Учитывая возможность исправления настолько многих проблем в онлайновом ре­жиме (при постоянно онлайновом томе CSV), утилита снкоsк становится менее
востребованной. На рис. 12.3 показаны новые опции, которые доступны в снкоsк.

Рис. 12.З. Новые олции CHKDSK
Новыми опциями являются /scan, / forceofflinefix, /perf, /spotfix,
/sdcleanup и /offlinescanandfix. Как видите, они напрямую относятся к опи­
санной ранее новой модели работоспособности.
В этот момент мы должны подчеркнуть, что еще одной целью модернизации
снкоsк была необходимость сделать так, чтобы пользователи оставались инфор­
мированными о любом повреждении.
Частично причина заключалась в том, что­бы прекратить интенсивные запуски снкоsк для верификации файловой системы со стороны пользователей и администраторов; теперь в этом просто нет нужды.
Система использует центр действий (Action Center), включенный в Windows, что­бы уведомлять пользователя или администратора о разрушении данных в файловойсистеме и рекомендовать какое-то действие. На рис. 12.4 представлены результаты примера онлайнового сканирования.

Пространства хранения в Windows Server 2012 R2

Концепция пространств хранения (Storage Spaces) в Windows Server 201 2 R2 по
существу совпадает с той, которая была воплощена в Windows Server 2012 и обсужда­лась в начале этой главы. Исключениями являются упомянутые ранее новые средс­тва, которые сейчас будут рассмотрены более подробно.

повторное использование технологии из облачных служб Microsoft

В Microsoft запускают множество облачных служб. Наверняка вы слышали о
Windows Azure или Office 365. Представьте себе все уроки, которые в Microsoft из­влекли во время развертывания, настройки и выполнения ежедневных операций в этих средах.
Также подумайте о том, что если бы Microsoft пришлось приобрести многомиллионные сети хранения, чтобы справиться с постоянно растущей потреб­ностью в наличии хранилища в облачных средах, то насколько они были бы урезан­ными в контексте облачной среды.
Все накопленные знания разработчики из Microsoft применяют к выпускаемым
новым технологиям, в том числе и к Storage Spaces. Они нуждались в рентабельном способе увеличения хранилища и поддержке основных возможностей, присущих се­тям хранения данных, вот почему и появилась технология Storage Spaces. По мере развития облачных служб вы будете наблюдать улучшения в Storage Spaces наподобие тех, что вы видели между выпусками Windows Server 2012 и Windows Server 2012 R2.

Предоставление SАN-подобных возможностей

посредством инструментов управления Microsoft
Одной из по-настоящему интересных особенностей технологий компании
Microsoft является знакомый интерфейс, предлагаемый для управления ее програм­мными продуктами. Обычно доступны два варианта: графический пользовательскийинтерфейс и PowerShell.
Применение графического пользовательского интерфейса
Несмотря на то что консоль управления Microsoft (Microsoft Management
Console — М МС) — традиционная консоль для большинства оснасток управления — по-прежнему существует, большая часть средств внутри Windows Server 2012
R2 управляется через диспетчер серверов (Server Manager), окно которого показано на рис. 1 2.6. Область Storage Pools (Пулы хранения) по умолчанию включена на всех системах и может быть найдена в виде подкомпонента роли
Рис. 12.6. Роль File апd Storage Services в диспетчере серверов
Выбрав элемент меню File апd Storage Services, вы увидите все связанные с ним опции, в том числе и Storage Pools (рис. 12.7). Щелчок на Storage Pools приводит к отображению основной конфигурации (рис. 12.8) .

Рис. 12.В. Конфигурация компонента Storage Pools
Окно с основной конфигурацией делится на три главных области.

• Storage Pools (Пулы хранения). Эта область содержит раздел под названием
Storage Spaces (Пространства хранения), в котором перечислено пространство
Primordial (Первичное). По умолчанию все диски, которые не наз1-1ачены друго­му пулу, назначаются пулу Primordial. Поработав с пространствами хранения, вы заметите, что пул Primordial перестанет отображаться после того, как все диски окажутся назначенными.
Как видите, пока что другие назначенные или сконфигурированные пулы от­
сутствуют. В правом верхнем углу этой области, в раскрывающемся меню Tasks
(Задачи), имеется опция для создания нового пула хранения. Мы этим зай­
мемся далее в главе, так что пока не думайте о ней. На пуле Primordia можно
щелкнуть правой кнопкой мыши и просмотреть его свойства.
• Virtual Disks (Виртуальные диски). В области Virtual Disks представлены тома,которые вы будете создавать внутри пула хранения. Вспомните, что это не
файл VHD или VHDX. Внутри пула Primordial создать виртуальный диск не­
возможно; сначала должен быть создан пул хранения.
• Physical Disks (Физические диски). Физические диски — это диски, которые
доступны пространствам хранения для назначения пулам хранения. В каждый
момент времени диск может быть назначен только одному пулу.
Если вы щел­кнете правой кнопкой мыши на диске в этом списке, то в открывшемся кон­текстном меню вы получите опцию переключения (включения/выключения) индикатора устройства (переключение индикаторов устройств помогает привыяснении, какие диски работают в массиве физического хранилища); это бу­дет работать, только если используемое хранилище является совместимым сослужбами корпусов SCSI (SCSI Encosure Services — SES). Службы SES также функционируют, когда устройство терпит отказ, и взаимодействуют с компо­нентом Storage Spaces, чтобы уведомить администратора о том, что произошло.

Использование PowerShell
Как уже упоминалось, DЛЯ быстрой настройки Storage Spaces можно применять
команDЛеты PowerShell. Некоторые администраторы при обслуживании серверов
предпочитают работать в среде командной строки. Лично нам нравится смешанный
ПОДХОД.
В Windows Server 201 2 R2 имеется новый модуль PowerShell по имени Storage,
который содержит все команDЛеты PowerShell, необходимые DЛЯ работы с компо­
нентом Storage Spaces.
В Wiпdows Server 201 2 и последующих версиях модуль PowerShel автоматичес­
ки импортируется, когда вы пытаетесь вызвать команД11ет, который является час­тью этого модуля. Чтобы просмотреть команД11еты, доступные в модуле Storage, откройте окно PowerShell с повышенными полномочиями и введите get-command
-module Storage. В Windows Server 201 2 R2 доступны 102 команDЛета, правда, не все они относятся к пулу хранения.
К счастью, вы уже знакомы с PowerShel и понимаете его структуру «глагол/су­
ществительное». Если вы определяете, какие команDЛеты имеют отношение к тому, что было показано на рис. 1 2.8, это значит, что вы ищете команDЛеты, связанные
с физическими дисками, виртуальными дисками и пулами хранения. Чтобы уп­
ростить идентификацию команД11етов DЛЯ каждого аспекта, введите get-command
*StoragePool* l where { $_. modulename -eq «Storage» } и проанализируйте
результат. На рис. 12.9 показан ожидаемый вывод; каждый команDЛет имеет собс­твенный набор опций, которые можно просмотреть с помощью команды get-help имя_ коиандлета .
Рис. 12.9. Командлеты из модуля Storage
Мы не собираемся вдаваться здесь в особые подробности, но продемонстриру­
ем вывод из пары команDЛетов. Например, введите get-storagepool и изучите
вывод. Теперь введите get-storagepool 1 fl * и обратите внимание на разницу.
FL — это псевдоним PowerShell DЛЯ Format-List, а опция * определяет, какие
свойства необходимо отобразить, в данном случае — все свойства. Вывод показан на рис. 12.10. Повторите такие же команды DЛЯ команDЛетов get-physicaldisk и
get-virtualdisk и просмотрите их вывод.

Создание пространства хранения

Storages Spaces является исключительно мощным компонентом, и, как упомина­
лось ранее, пространства хранения привносят множество преимуществ в организа­цию. Их также легко конфигурировать. Никакого специализированного обучения DЛЯ этого не требуется.

Рис. 1 2.10. Пример вывода из командлета get-storagepool
На следуюших нескольких страницах мы обсудим процесс создания пространс­
тва хранения и покажем, насколько в действительности это легко делается. Общий процесс выглядит следующим образом.
1. Получение свободных физических дисков.
2. Создание пулов хранения.
3. Создание виртуальных дисков.
Мы продемонстрируем создание пула хранения с помощью графического поль­
зовательского интерфейса и PowerShell. Однако сначала необходимо кратко предста­вить испытательную среду. Мы имеем одиночный сервер с несколькими физичес­кими дисками, двумя дисками SAS по 100 Гбайт, двумя дисками SAS по 1 50 Гбайт и одним диском SATA объемом 300 Гбайт.

Соэдание пула

При создании пула хранения вы должны решить, какие физические диски назна­
чить этому пулу. Важно думать в терминах того, какой пул будет использоваться, и,
с учетом наличия теперь средства многоуровневого хранения, какой тип дисков дол­жен стать частью пула. Чтобы создать пул, выполните перечисленные ниже шаги.
1. Откройте диспетчер серверов и выберите в меню File (Файл) пункт Storage
Services (Службы хранения).
2. Выберите элемент Storage Pools (Пулы хранения).
3. Щелкните правой кнопкой мыши на пуле Primordial и выберите в контекс­
тном меню пункт New Storage Pool (Создать пул хранения), как показано на
рис. 12. 1 1 . Откроется мастер создания пула хранения (New Storage Pool Wizard).
Рис. 1 2.1 1 . Создание нового лула хранения 4. Щелкните на кнопке Next (Далее), чтобы пропустить экран приветствия. 655 5. На экране Storage Pool Name (Имя пула хранения), приведенном на рис. 12.12, вы должны назначить пулу хранения имя; в данном случае Test. При желании можно добавить описание. В нижней половине окна вы увидите, что для доступного дискового пула при­ меняется пул Primordial. Далее потребуется выбрать физические диски в пуле. 6. В этом примере выберите все диски (рис. 12.13). Обратите внимание на возможность выбора дисков АТА и SAS. На рис. 12.14 представлены опции Allocation (Выделение): Automatic (Автоматическое), Hot Spare (Горячая замена) или Manual (Ручное).
Рис. 12.12. Именование пула хранения

Рис. 12.14. Опции выделения дисков

7. В данном примере используется выделение Automatic. Для продолжения
щелкните на кнопке Next.

При выделении дисков вы можете иметь в пуле множество горячих замен, но не
должны смешивать диски, выделяемые вручную и автоматически. Выбор опции
Automatic на этом экране будет автоматически балансировать пул между горячими заменами и полезной емкостью.
Назначив опцию выделения диска, вы не сможете изменить ее с ручного на
автоматическое внутри графического пользовательского интерфейса, но може­
те сделать это в PowerShel. На рис. 12. 1 5 показан пример идентификации и
изменения типа выделения диска.
8. Наконец, как и со всеми мастерами, вы получаете шанс пересмотреть выбран­
ные опции, прежде чем фиксировать изменение (рис. 12.16). Щелкните на
кнопке Create (Создать), когда будете удовлетворены выбранными вариантами.
Появится экран с индикатором хода работ, на котором после создания пула бу­
дет отображено состояние Completed (Завершено), как показано на рис. 12.17.
Поздравляем, вы создали свой первый пул!

Ограничения пулов хранения

Как и со всеми технологиями, пулам хранения присущи некоторые ограничения,
и хотя эта технология является мощной, она, безусловно, не может быть оптималь­ной абсолютно во всех ситуациях. Имея это в виду, давайте взглянет на ее ограни­чения.
• Жесткий диск должен иметь объем lO Гбайт или больше.
• В пространстве хранения невозможно развернуть загрузочную систему.
• Любые диски, предназначенные для добавления в пул хранения, не должны
быть разбиты на разделы или сформатированы. Все данные на таких дисках
будут утрачены.
• В случае использования контроля по четности требуются три диска, при двух­
стороннем зеркальном отображении — два диска, а при трехстороннем зер­
кальном отображении — три и более дисков.
• Все диски в пуле должны иметь одинаковый размер сектора (4 Кбайт/512е или
512). 512е, или 512 Emulatioп (эмуляция 512-байтового сектора), позволяет
производителям выпускать диски с секторами 4 Кбайт и обеспечивать совмес­
тимость с программным обеспечением, которое не модернизировано для вос­
приятия секторов 4 Кбайт.
• Диски Fibre Channel и iSCSI в пуле хранения не поддерживаются.
+ Все хранилище должно быть совместимо с драйвером storport . sys.
Для проверки этого применяется список совместимости оборудования
Microsoft (Microsoft Hardware Compatibllity List), доступный по следующе­
му URL: http : / /www . microsoft . сот/ ru-ru/windows/ compatibil i t у/
compatcenter /home. (Если ваше оборудование находится в этом списке сов­
местимости, то оно будет работать с драйвером storport . sys.)
+ Если виртуальный диск должен использоваться в кластере с обходом отказа,
на таком виртуальном диске должна быть развернута файловая система NTFS.

Просмотр устройств в инструменте Disk Management

В сущности, пул хранения представляет собой логический контейнер дпя дисков.
Например, в нашей демонстрационной среде имеется несколько дисков, готовых
для назначения в пул хранения. На экране Disk Management (Управление дисками), показанном на рис. 12. 1 8, можно видеть все перечисленные ранее физические дис­ки до их назначения в пул.
После добавления дисков в пул хранения мы обновляем Disk Managemeпt. Как
видно на рис. 12.19, они перестали отображаться. Диск 1 по-прежнему остался, т.к. он является диском операционной системы, поэтому он должен быть всегда, и вы никогда не будете иметь возможность включить его в пространство хранения. Куда делись диски’? Вспомните, что пул хранения является контейнером. Чтобы снова увидеть тома в Disk Management, понадобится создать nиртуальные диски.
Рис. 1 2. 19. После добавления в пул хранения диски больше не отображаются в Disk Management

Работа с пулом хранения в PowerShell

Ранее мы упоминали, что все задачи, выполняемые в графическом пользователь­ ском интерфейсе, могут быть сделаны посредством PowerShell. Сейчас мы покажем, как создать пул хранения с применением PowerShell. 1. Сначала необходимо найти доступные диски. Воспользуйтесь командлетом Get-PhysicalDisk для получения списка всех дисков в системе. На рис. 12.20 показан результат для рассматриваемого примера. 2. Взгляните на свойство CanPool. Когда его значение равно True, этот диск мо­ жет быть помещен в пул хранения. 3. Отфильтруйте физические диски, которые можно помещать в пул, и сохра­ните результаты в переменной для дальнейшего применения с помощью еле . ­ дующего синтаксиса:
Рис. 12.20. Отображение доступных физических дисков
4. Идентифицируйте подсистему хранения, с которой имеете дело, и снова со­
храните результат в переменной, но в этом случае вы заинтересованы только в
свойстве FriendlyName (рис. 12.21).
Используйте приведенный ниже синтаксис для захвата значения свойства
FriendlyName подсистемы хранения:
$storagesystem = (get-storagesubsystem) . friendlyname
Теперь можно создать пул хранения.

Рис. 12.21 . Командлет Get-StorageSubsystem
5. Используйте следующий синтаксис для создания пула:
New-storagepool -friendlyname TestPool -StorageSubSystemFriendlyName
$storagesystem -physicaldisks $drivestopool
Дружественное имя для пула (указываемое в -friendlyname ) может быть лю­
бой желаемой строкой. Показанный синтаксис создаст пул по имени TestPool
и добавит в него диски (рис. 12.22).
Рис. 12.22. Вывод в PowerShell при создании нового пула хранения
6. Теперь примените командлет Get-StoragePool для получения более подроб­
ной информации о пуле:
Пример вывода можно видеть на рис. 12.23; обратите внимание на объем дета­
лей, которые предоставляет PowerShell по сравнению с графическим пользова­
тельским интерфейсом.

Выделение пространства пула под виртуальный диск

С самого начала этой главы мы прояснили, что когда ссьшаемся на виртуальный
диск в связи с пространством хранения, то не имеем в виду файл VН ОХ для вир­туальной машины. На самом деле, до тех пор, пока вы не поместите виртуальную машину в пространство хранения или не используете ее в качестве целевого храни­лища iSCSI, вы нигде не увидите файла VHD.

Рис. 1 2.23. Вывод из командлета Get-StoragePool
Виртуальные диски — это диски, которые выделяются из пула хранения. Ранее
мы созданали пул для физических дисков и показали, что с точки зрения инстру­мента Disk Management все диски исчезали, поскольку они стали принадлежать пулухранения. Для того чтобы использовать какое-то пространство, содержащееся внутри пула хранения, вы должны создать виртуальный диск. Он не связан напрямую с физическим диском в пуле хранения, но является представителем порции про­странства, выделяемого из пула хранения. То, каким образом эта порция обретает существование, зависит опций, которые мы обсудим далее.
Одной из замечательных характеристик виртуализации в целом является возмож­ность максимизации использования оборудования. Например, ранее многие орга­низации имели по одному серверу на роль, что было расточительством, но теперь на одном сервере можно удерживать несколько ролей, которые полностью изолиро­ваны друг от друга. Надеемся, что на этом этапе вы уже знакомы с виртуализацией.
Похожая концепция существует в пулах хранения и виртуальных дисках.
Как было указано, пулы хранения — это по сущест­ву логические контейнеры для набора физических дис­ков, которые вы хотите объединить. Виртуальные диски будут представлены серверу для применения в качес­тве тома. При наличии трех физических дисков по 500 Гбайт, скомбинированных в пул хранения, имеется по­тенциально 1 ,5 Тбайт пространства (рис. 12.24).
Довольно неплохо. (Мы пока не принимаем во вни­мание избыточность, т.к. это будет объясняться позже.)
Теперь системный администратор получает запрос от бригады, занимающейся новым приложением, которым Пул хранения

Рис. 12.24. Выделениепула хранения

требуется 2 Тбайт пространства. Тем не менее, когда системный администратор пе­ресматривает прогнозируемый рост, он понимает, что 2 Тбайт не нужны авансом, что хорошо, поскольку в бюджете не предусмотрены расходы на приобретение до­полнительных дисков. Знакомая история? Вопрос в том, как разрешить проблему.
Одним из первых выборов, которые вы делаете при создании виртуальных дис­
ков, касается типа настройки — фиксированной или тонкой.
• Fixed provisioning (Фиксированная настройка). При фиксированной настрой­
ке, если вы запрашиваете 2 Тбайт, то для настройки должно быть доступно
2 Тбайт емкости.
• Thin provisioning (Тонкая настройка). Диски с тонкой настройкой использу­
ют только то, что нужно в данный момент. Это замечательно! В предыдущем
примере бригада, занимающаяся приложением, считает, что у них есть запро­
шенная емкость 2 Тбайт, но в действительности задействовано только доля от
2 Тбайт (рис. 12.25).
Фиксированная настройка
Е м кость 1 Тбайт
Требуется 1 Тбайт
Используется 1 Тбайт
Тонкая настройка
Е мкость 1 Тбайт
Требуется 1 Тбайт
Используется 200 Гбайт
Рис. 1 2.25. Диски с фиксированной или тонкой настройкой
УПРАВЛЕНИЕ ДИСКАМИ С ТОНКОЙ НАСТРОЙКОЙ
Диски с тонкой настройкой могут приводить к невосполнимому распределению ре­
сурсов и должны управляться. Понадобится создать оповещения, чтобы обеспечить
мониторинг свободного пространства, остающегося в пуле и на виртуальном дис­
ке. Меньше всего хотелось бы получить перебой в работе из-за перегрузки ресурсов.
При корректном применении диски с тонкой настройкой могут помочь системным
администраторам уменьшить стоимость хранения, но по-прежнему удовлетворять
нуждам потребителей.
Определение компоновки диска
Далее необходимо принять решение относительно компоновки виртуального
диска. Доступны три вида компоновки с разной отказоустойчивостью.
• Simple (Простая). При такой компоновке данные разделяются на полосы по
всем дискам в пуле. Эта компоновка не является отказоустойчивой. В случае
сбоя диска все данные теряются.
ХРАНИЛИЩЕ WINDOWS 2012 R2 663
• Mirror (Зеркальное отображение). Зеркальное отображение данных дублирует их
на разных дисках; это дает максимальную отказоустойчивость, но оказывает
значительное влияние на объем пространства, которое потенциально может ис­
пользоваться. Чтобы защититься от одиночного дискового отказа, понадобится
иметь в пуле хранения, по меньшей мере, два физических диска; для обработки
двух дисковых отказов физических дисков должно быть минимум пять.
• Parity (Контроль по четности). Контроль по четности по существу записыва­
ет данные в полосы на всех дисках, но также производит запись информации
о четности, что позволяет восстанавливать данные в случае отказа диска. Это
обеспечивает великолепную отказоустойчивость и производительность. Для
обработки одиночного дискового отказа понадобится, по меньшей мере, три
физических диска.
На рис. 12.26 показано визуальное представление различных компоновок, до­
ступных для применения. Части, помеченные как «Полоса данных (простая компо­
новка)», говорят о том, что данные записываются по всем дискам. В случае частей,
помеченных как «Зеркало», если данные записываются на один диск в 4-дисковом
зеркале, то они будут записываться также и на второй диск. Наконец, в частях, ко­
торые помечены как «Контроль данных по четности», данные записываются по
всем дискам и сопровождаются информацией о четности, что позволит проводить
восстановление при отказе.
——- —
Контроль данных по четности
Рис. 1 2.26. Компоновки виртуальных дисков
Создание виртуального диска в графическом пользовательском интерфейсе
Следующий шаг заключается в создании виртуального диска. Все виртуальные
диски проще всего создавать внутри консоли Storage Pools (Пулы хранения) диспет­
чера серверов (рис. 12.27).
1 . В области Virtual Disks (Виртуальные диски), находящейся в левой нижней
части окна консоли, выберите в раскрывающемся меню Tasks (Задачи) пункт
New Virtual Disk (Создать виртуальный диск), как показано на рис. 12.28.
2. Щелкните на кнопке Next (Далее) на экране приветствия мастера создания
виртуального диска (New Virtual Disk Wizard).
Как показано на рис. 12.29, вы должны выбрать пул хранения, в котором не­
обходимо создать виртуальный диск. В рассматриваемом примере мы собира­
емся использовать пул TestPool.

3. Выберите пул хранения и щелкните на кнопке Next.
Виртуальному диску понадобится назначить имя. Можно также ввести описа­
ние, для чего предназначен этот виртуальный диск.
4. В данном примере мы назвали диск File _ Vdisk, как показано на рис. 12.30, и
указали в описании, что он применяется для файлового хранилища.
Следующий шаг связан с выбором компоновки хранения (рис. 12.31). Доступ­
ны три варианта: Simple (Простая), Mirror (Зеркальное отображение) и Parity
(Контроль по четности).

Рис. 12.30. Ввод имени и описания для виртуального диска
5. Для этого примера выберите Simple и щелкните на кнопке Next.
665
Теперь необходимо выбрать тип настройки. Как показано на рис. 12.32, до­
ступны два варианта: Thin (Тонкая) и Fixed (Фиксированная).
6. Для рассматриваемого примера выберите тип настройки Thin, т.к. требуется
максимизировать пространство в пуле хранения.
Сейчас нужно принять решение относительно размера виртуального диска.
Поскольку для него выбрана тонкая настройка, теоретически можно ввести
любое значение.

Рис. 1 2.32. Выбор типа настройки для виртуального диска
7. Пул хранения имеет емкость около 400 Гбайт, поэтому м ы назначим вирту­
альному диску 500 Гбайт (рис. 12.33). Для продолжения щелкните на кнопке
Next.
8. Наконец, просмотрите произведенный выбор и подтвердите его, щелкнув на
кнопке Create (Создать).
9. Просмотрите информацию на экране Results (Результаты) и удостоверьтесь,
что все завершено (рис. 12.34). Щелкните на кнопке Close (Закрыть), чтобы
закрыть окно мастера.

Рис. 1 2.33. Установка размера виртуального диска

Рис. 1 2.34. Экран Results мастера после создания нового виртуального диска
Дополнительное УПРАЖНЕНИЕ

Загляняте сейчас в инструмент Disk Management, и вы увидите, что неожиданно по­явилось!
Создание виртуального диска в PowerShell
Первым делом, давайте воспользуемся PowerShell для просмотра виртуального
диска, который был создан в предыдущем примере с применением графического
пользовательского интерфейса.

На рис. 12.35 демонстрируется применение команмета Get-VirtualDisk мя
измечения всей информации о созданных виртуальных дисках. Как видите, был со­здан только один виртуальный диск емкостью 500 Гбайт.

Рис. 1 2.35. Вывод из командлета Get-VirtualDisk
Чтобы создать новый виртуальный диск, необходимо воспользоваться команд­
летом New-VirtualDisk. Но прежде чем делать это, вы должны узнать дружест­
венное имя пула хранения. Помните ли вы команду мя получения дружественного имени пула хранения?
Имея дружественное имя, выполните следующие шаги.
l . С помощью показанного ниже синтаксиса сохраните дружественное имя пула
хранения в переменной:
$sp = (get-storagepool) . friendlynarne
Следующий шаг заключается в создании виртуального диска, но сначала
взгляните на полный синтаксис команды:
New-VirtualDisk -StoragePoolFriendlyNarne $sp [l]
-ResiliencySettingNarne Sirnple -Size 500GB -FriendlyNarne TestVdisk
-ProvisioningType Thin -NurnberofDataCopies 1 -NurnЬerofColumns 2
Как видите, на выбор доступно несколько больше опций. Далее приведены их
краткие описания.
• ResiliencySettingName. Эквивалент опций компоновки хранения Simple,
Mirror, Pari ty.
• NumЬerofDataCopies. Количество копий данных, которые необходимо
хранить; эта опция напрямую связана с ResiliencySettingName. Если вы
выбрали Simple, например, то NumЬerofDatacopies может быть только 1.
В случае выбора Mirror значением NumЬerofDataCopies будет как минимум
2, в зависимости от объема дискового пространства, имеющегося в системе.
• NumЬerofColumns. Прямо связано с количеством дисков, которые вы хо­
тите использовать. Пул хранения может иметь сотни дисков, но вам может
требоваться разделение на полосы, зеркальное отображение или приме­
нение контроля по четности, скажем, только мя пяти дисков. Эта опция
позволяет сделать выбор. Она также связана с ResiliencySettingName и
NumЬerofDa taCopies.
Значения, установленные дЛЯ NumЬerofDataCopies и NumЬerofColumns, от­
носятся к выбранным опциям. Например, если необходимо зеркально отобра­
зить данные, мы увеличиваем значение NumЬerofDataCopies, и если требует­
ся охватить виртуальным диском несколько физических дисков, то мы увели­
чиваем NumЬerofColumns. В этом случае нужна только одна копия данных и
запись данных на два диска.
2. С помощью опции $ sp [ 1] мы выбираем один элемент из всех пулов хранения,
захваченных командой get-storagepool. Например, при наличии пяти пулов
хранения команда get-storagepool возвратит все пять, поэтому $sp [ 1 ] поз­
воляет выбрать пул хранения с номером 2 из пяти захваченных. Счетчик начи­
нается с О, так что первый пул хранения можно извлечь как $ sp [ О J .
В испытательной среде определено несколько пулов хранения. Если просто
указать $sp, команда сообщит об ошибке, поскольку она попытается вставить
(в этом случае) дружественные имена двух пулов хранения.
На рис. 12.36 демонстрируется пример запуска только что разобранной команды.

Рис. 12.37. Пользовательский интерфейс Storage Spaces с созданным
ранее виртуальным диском

Рис. 12.38. Соэдание нового тома из виртуального диска
Рис. 12.39. Выбор сервера и виртуального диска
4. В этом примере мы оставляем стандартный размер 500 Гбайт с тонкой на­
стройкой (рис. 12.40).
Далее, как вы поступили бы с нормальным диском, выберите букву диска или
папку, в которой необходимо смонтировать том.

7. В поле Volume Label (Метка тома) введите Test _ Volume и щелкните на кнопке
Next.
8. Подтвердите выбранные опции и щелкните на кнопке Create (Создать).
9. На экране Results (Результаты), показанном на рис. 12.43, удостоверьтесь в
том, что все задачи имеют состояние Completed (Завершена), и щелкните на
кнопке Close (Закрыть).
1 О. Откройте проводник Windows и обратите внимание на появление нового тома
Рис. 1 2.45, Вывод командлета get-disk
3. Для перевода их в онлайновое состояние вы будете применять командлет
set-disk.
4. Чтобы перевести все диски в онлайновое состояние за один раз, используя
предыдущий синтаксис с фильтрацией отключенных дисков, вывод можно на­
править по конвейеру командлету set-disk.
Ниже показан синтаксис, а на рис. 12.46 — результаты выполнения:
Get-disk l where { $ . operationalstatus -eq «Offline» } l set-disk
-isoffline $false
Рис. 12.46. Перевод всех дисков в онлайновое состояние с помощью PowerShell

демонстрация настройки многоуровневого хранения с помощью PowerShell

Мы рассмотрели создание пула хранения, виртуального диска и томов для использования в среде.
В начале главы упоминалось об уровнях хранения. Они могут предоставить огромные преимущества среде, поскольку позволяют разделять хра­нилище и обеспечивать возврат платежей на основе ресурсов, которые требуются конечным пользователям.
По сути дела, если конечные пользователи требуют вы­сокоскоростного хранилища, вы можете выделить его и выставлять соответствую­щие счета на оплату;
в противном случае вы можете выделить для обслуживания их потребностей хранилище низкого уровня. Если ваша компания делает возврат платежей, то это пойдет на пользу всем конечным пользователям, т.к. пространс­тва хранения будут автоматически перемещать данные с более частым доступом, на быстрый уровень хранения, а данные, к которым обращаются редко — на медлен­ный уровень хранения.
Поскольку вы уже знакомы с консолью Storage Spaces (Пространства хранения),
вы заметите, что внутри пользовательского интерфейса отсутствует место для кон­фигурирования пулов хранения. Это средство может быть сконфигурировано только через PowerShell.
Мы уже создали пул хранения по имени TestPool, так что давайте применять
его в качестве дружественного имени.

Как уже говорилось, в Windows Server 2012 R2 можно создавать только два уров­ня хранения. Система распознает носители двух типов — твердотельный накопитель
(Soid State Drive — SSD) и жесткий диск (Hard Disk Drive — HDD).
Запустив в испытательной среде командлет PowerShell под названием get­
physicaldisk, мы получим вывод, показанный на рис. 12.47.
Рис. 1 2.47. Пример вывода командлета get-physicaldisk при создании уровней
хранения
Создание пулов SSD и HDD
Вы видите, что в среде присутствуют устройства SSD и H DD. А теперь мы со­
здадим уровни хранения. В рассматриваемом примере мы собираемся создать два
уровня (что также является максимальным поддерживаемым количеством) и затем
создадим виртуальный диск, который будет вьщелен по уровням. Далее мы разобьем диск на разделы и сформатируем.
Ниже показан синтаксис использования командлета New-StorageTier для со­
здания пула SSD. Мы должны сохранить его в переменной для дальнейшего приме­нения:
$ssdtier = new-storagetier -StoragePoolFriendlyNarne «TestPool»
-FriendlyNarne SSD_Tier -Mediatype SSD
Для создания уровня Н Н D используется следующий синтаксис:
$hddtier = new-storagetier -StoragePoolFriendlyNarne «TestPool»
-FriendlyNarne HDD_Tier -Mediatype HDD
Далее потребуется добавить виртуальный диск и привязать его к уровням хра­
нения. Предугадывая вопрос, можно ли переназначить существующий виртуальный
диск уровню хранения, ответим — нет, нельзя.
Имея это в виду, мы создадим новый виртуальный диск, который будет привязан
к нашим уровням хранения. Вот какой синтаксис применяется:
New-VirtualDisk -StoragePoolFriendlyNarne TestPool -FriendlyNarne
Tiered_VDisk -StorageTiers @ ($ssdtier, $hddtier) -StorageTierSizes
@ (lOGB, SOGB) -ResiliencySettingNarne Sirnple
На рис. 12.48 показан вывод после успешного создания диска.
Рис. 12.48. Вывод после успешного создания диска внутри уровней хранения

Большинство опций должны выглядеть знакомыми по созданию виртуального
диска ранее в главе. Тем не менее, есть две опции, которые связаны с созданием виртуального диска внутри уровня хранения.
• StorageTiers @ ($ssdtier, $hddtier) . Указывает используемые уровни. Это
не хеш-таблица, так что будьте внимательны и не применяйте фигурные скобки.
Мы сохранили уровни в отдельных переменных для простоты ссылки на них.
• StorageTierSizes @ (lOGВ, SOGВ) . Указывает размер каждого уровня и ссы­
лается в порядке, установленном в опции -StorageTier. Как вы заметили на
рис. 12.48, общий размер составляет 60 Гбайт, т.е. 10 Гбайт + 50 Гбайт.
Отсюда вам необходимо создать том, как это делалось ранее для хранения дан­
ных. Мы покажем быстрый трюк в PowerShell, которым можно воспользоваться
для создания на диске тома 20 Гбайт и его форматирования в единственной строке.
Ниже приведен синтаксис:
Get-VirtualDisk 1 Get-Disk 1 New-Partition -Size 20GB
-AssignDriveLetter 1 Format-Volume -Force -confirm:$false
Вывод команды представлен на рис. 12.49. Теперь вы можете перейти на диск по
его букве и скопировать файл.

Рис. 1 2.49. Соэдание нового раздела и его форматирование в PowerShell
Выделите время на просмотр свойств только что созданного виртуального диска.
На рис. 12.50 обратите внимание, каким образом разделилась емкость из-за того,
что мы разнесли этот виртуальный диск по двум уровням .

Использование кеша с обратной записью

А теперь мы покажем, как использовать одно из последних крупных средств тех­
нологии Storage Spaces в Windows Server 2012 R2 — кеша с обратной записью. Как и
с уровнями хранения, ero не получится включить через графический пользователь­
ский интерфейс; это должно делаться в PowerShell. Вспомните, кеш с обратной за­
писью может поспособствовать в ускорении работы приложений, т.к. запись в кеш
является быстрой и не требует ожидания, пока хранилище зафиксирует запись.
Возьмите команду PowerShell, которая применялась для построения предыдущего
уровня хранения, и модифицируйте имя и опции StorageTierSizes. Затем добавь­
те опцию -WriteCacheSize с настройкой размера; в данном случае необходим раз­
мер кеша с обратной записью, равный 2 Гбайт:
New-VirtualDisk -StoragePoolFriendlyName TestPooll -FriendlyName
Tiered _ VDisk -StorageTiers @ ($ssdtier, $hddtier) -StorageTierSizes @
(20GB, 70GB) -ResiliencySettingName Simple -WriteCacheSize 2GB
Итак, вы создали виртуальный диск, который будет использовать уровни хране­
ния и имеет включенный кеш с обратной записью.
Оптимизация уровней хранения
Последний аспект, который мы обсуждали об уровнях хранения в начале этой
главы, заключается в том, что каЖдую ночь в 1:00 запускается задание, повторно на­значающее приоритеты хранилищу и перемещающее данные на быстрый уровень вместо медленного.
В планировщике задач выберите папку Task Scheduler LibraryMicrosoftWindows
Storage Tiers Management (Библиотека планировщика задач Microsoft Windows
Управление уровнями хранения). Планировщик задач отображает задачу под на­
званием Storage Tiers Optimization (Оптимизация уровней хранения), показанный на
рис. 12.51. При необходимости вы можете изменить задачу или запустить ее вручную.

Рис. 1 2.51 . Задача Storage Tiers Optimization

iSCSI в пространствах имен

Лространства имен чрезвычайно полезны для обеспечения масштабируемого и
надежного хранилища. Подумайте о сумме, которую компании пришrюсь бы вло­
жить для получения уже обрисованных возможностей. Что было бы действительно
полезно сейчас — это объединение всей мощной технологии хранения с iSCSI, что­
бы позволить удаленным системам (таким как файловые серверы, почтовые систе­
мы, кластеры виртуализации и т.п.) также получить выигрыш от этих средств.
iSCSI требует конфигурирования нескольких элементов, чтобы они предоставля­
ли удаленным машинам номера логических устройств (logical unit numЬer — LUN).
Для начала мы объясним несколько элементов, образующих iSCSI с точки зрения
хает-сервера и удаленного сервера, которые необходимо знать, чтобы понять рас­сматриваемый далее пример.
• Целевой сервер iSCSI. Лозволяет инициаторам iSCSI создавать подключение к
целевой службе, в свою очередь, предстамяющей диск VHD, который распо­
ложен на томе uелевоrо сервера. Для операционной системы целевого сервера
это выглядит как файл VНD. Вы можете сконфигурировать контроль доступа,
чтобы соответствующим образом защитить диск.
• Виртуальный диск iSCSI. Виртуальный диск iSCSI в этом случае является дейс­
твительным диском VHD, когда просматривается на целевом сервере, но с
точки зрения клиента или инициатора он выглядит как диск, который может
быть переведен в онлайновое или отключенное состояние и имеет созданные
на нем тома.
• Инициатор iSCSI. Инициатор — это клиентское программное обеспечение,
применяемое для подключения к целевому серверу и доступа к каким угодно
виртуальным дискам iSCSI, которые бьши предстамены и к которым автори­
зован доступ.
В наши дни эта технология является обычным явлением в большинстве компа­
ний, и она позволяет создавать кластеры для бизнес-потребностей всех видов. Ранее нам приходилось использовать сервер Windows с целевым сервером iSCSI для со­здания кластера Hyper-V, предназначенного для функционирования в производс­твенной сети. В следующем разделе мы разберем пример настройки целевой службы iSCSI, создания виртуального диска и его представления удаленной системе.

добавление целевой службы iSCSI

По умолчанию целевая служба iSCSI не включена. Вы должны добавить ее с по­
мощью PowerShell. Синтаксис для добавления компонента Windows под названием
iSCSI Target Seiver выглядит так:
Add-windows feature fS-iSCS ITarget-Server -IncludeManagementTools
После добавления компонента серверу может потребоваться перезагрузка, поэто­
му удостоверьтесь в том, что имеете возможность завершить установку.
Компонент iSCSI Target Seiver является частью роли File and Storage Services, а это :значит, что его можно администрировать в консоли диспетчера серверов под у­лом File and Storage Services, как показано на рис. 12.52.

Рис. 12. 52. Управление целевым сервером iSCSI

Создание виртуального диска iSCSt

На рис. 1 2.52 видно, что есть две основных области: iSCSI Virtual Disks (Вирту­альные диски iSCSI) и iSCSI Targets (Цели iSCSI). Как уже упоминалось, цель бу­дет представлять виртуальные диски iSCSI, которые были созданы. (Не путайте их с виртуальными дисками в пространствах хранения. Они отличаются; виртуальные диски iSCSI на целевом сервере выглядят как файлы VHD.)
Чтобы продемонстрировать это, давайте создадим виртуальный диск iSCSI. В на­
шем примере мы будем использовать диск Е, созданный ранее из многоуровневого
пула хранения. Не беспокойтесь, если вы его не настроили; все, что вам необходи­мо — это диск и папка для сохранения файла YHD, который будет создан.
1 . В центре области iSCSI Virtual Disks (Виртуальные диски iSCSI), показанной
на рис. 12.52, щелкните на ссылке То create an iSCSI virtual disk, start the New
iSCSI Virtual Disk Wizard (Чтобы создать виртуальный диск iSCSI, запустите
мастер создания виртуального диска iSCSI (New iSCSI Yirtual Disk Wizard)).
2. Выберите целевой сервер в списке Server (Сервер) и том, где должен хранить­
ся виртуальный диск iSCSI. В данном примере диском будет Е : (рис. 12.53).
3. Предоставьте виртуальному диску iSCSI описательное имя; например, если он
предназначен для кластера Hyper-V, введите VМCluster_Vdisk. Обратите вни­
мание на путь, отображающийся на экране iSCSI Virtual Disk Name (Имя вир­
туального диска iSCSI), который показан на рис. 12.54.
4. Укажите размер виртуального диска; в настоящем примере введите 50 GВ.
Обратите внимание на опции; можно выбрать настройку всего пространства
за один раз (Fixed (Фиксированный)), настройку динамически расширяемого
диска ( Dynamically Expanding (Динамическое расширение)) или применение
разностного диска ( Differencing (Разностный)). Если вы имели дело с Hyper-Y,
то опции должны быть вам хорошо знакомы.
5. В данном случае выберите Dynamically Expanding.

Полезно отметить, что вы должны соблюдать крайнюю осторожность, выбирая между опциями Fixed, Dynamically Expanding и Differencing. Выбор неподходящего типа диска окажет значительное влияние на производительность. В качестве эмпиричес­кого правила, если вы не уверены и не знаете тип рабочей нагрузки, который в ко­нечном итоге будет использовать этот диск, выбирайте вариант Fixed.

6. Поскольку это новый сервер и пока что целевые серверы iSCSI отсутствуют,
вы должны выбрать переключатель New iSCSI target (Новая цель iSCSI), как
показано на рис. 12.55.
7. Укажите имя для цели iSCSI; в этом примере введите VМCluster_Target
(рис. 12.56). Далее понадобится сконфигурировать доступ к созданному вир­
туальному диску iSCSI. Вы можете авторизовать специфичные инициаторы на
основе их имен IQN или DNS, IР-адресов или МАС-адресов.
IQN (iSCSI qualified name — определенное имя iSCSI) является автоматичес­
ки сгенерированным именем. В серверах Microsoft оно всегда имеет формат
iqn . 1991-0 6 . com.microsoft :имя_cepвepa.

8. На экране Access Servers (Серверы доступа) мастера щелкните на кнопке Add
(Добавить). Откроется диалоговое окно Add initiator ID (Добавление идентифи­
катора инициатора), представленное на рис. 12.57.
Если вы знакомы с технологией iSCSI, то заметите новую опцию дЛЯ Win­
dows Server 2012 и последующих версий. Когда определенное имя инициато­
ра iSCSI не известно, его можно запросить у удаленного сервера. (IQN — это
просто соглашение об именовании дЛЯ iSCSI, которое соответствует форма­
ту имени машины; обычно оно следует такому формату: iqn. 1991-05 . сот .
microsoft : serverOl . contoso . com.)
В прошлом при развертывании iSCSI мы отдавали предпочтение именам IQN,
потому что они не меняются, если только не изменяется имя самой машины.
Другие варианты, как было описано ранее, обладают возможностью легкого
изменения в среде, и если вы представляете номера LUN удаленным машина­
ми, то не хотите, чтобы это происходило.
9. Как показано на рис. 12.57, выберите переключатель Select from the initiator
cache оп the target server (Выбрать из кеша инициатора на целевом сервере).
Далее можно запросить аутентификацию дЛЯ номера LUN с применением
СНАР (Challenge-Handshake Authentication Protocol (протокол аутентификации
по методу «вызов-приветствие») — это протокол аутентификации мя управле­
ния доступом к ресурсам). В рассматриваемом примере мы это проигнорируем.
1О. Наконец, пересмотрите все настройки и щелкните на кнопке Create (Создать)

Хотите создать новый виртуальный диск для iSCSI в PowerShell и представить его цели? Ниже приведены примеры командлетов, которые можно применять.
1 . Создайте виртуальный диск посредством командлета New-iSCSIVirtualDisk.
Вот пример:
New-IscsiVirtualDisk -path e : newdisk.vhdx -SizeBytes 20GB
-Cornputernarne SSOl
2. Добавьте этот виртуальный диск к цели с помощью командлета Add­
IscsiVirtualDiskTargetMapping.
Вот пример:
Add-IscsiVirtualDiskTargetMapping -TargetNarne VМcluster-Target
-path e : newdisk. vhdx
Дело сделано!

подключение к виртуальному диску iSCSI со стороны клиента

Вы настроили целевой сервер iSCSI и новый виртуальный диск, но они не ис­
пользуются до тех пор, пока клиент не подключится к соответствующему номеру
LUN. Вспомните, что если вы настроили списки доступа, то будете иметь возмож­ность подключения к LUN только из указанной машины.
1. Выберите в меню Tools (Сервис) диспетчера серверов пункт iSCSI lnitiator
(Инициатор iSCSI), как показано на рис. 12.58.
Откроется диалоговое окно iSCSI lnitiator Properties (Свойства инициатора iSCSI).
2. Чтобы следовать нашему примеру, введите 192 . 168 . о .1 в поле Target (Цель) и
щелкните на кнопке Quick Connect (Быстро подключиться), как показано на
рис. 12.59.
Откроется диалоговое окно Quick Connect (Быстрое подключение), которое
проверяет, что состоянием является Connected (Подключено). Это гарантирует
видимость номера LUN и корректность настройки правил доступа (рис. 12.60).
Для продолжения щелкните на кнопке Done (Готово).
3. Перейдите на вкладку Volumes and Devices (Тома и устройства) и щелкните на
кнопке Auto Configure (Сконфигурировать автоматически), как показано на
рис. 12.61 . Область Volume List (Список томов) автоматически заполнится томами, которые представляются клиенту.

Рис. 1 2.61 . Вкладка Volumes and Devices
4. Наконец, в окне диспетчера серверов внутри узла Rle and Storage Services (Службы файлов и хранилища) щелкните на папке VolumesqDisks (ТомаqДиски).
На рис. 12.62 видно, что появились два новых диска, для которых в столбце Bus Туре (Тип шины) указано iSCSI. Теперь они готовы к форматированию и созданию стандартных томов.

Общие ресурсы NFS

Сетевая файловая система (Network File System — NFS) позволяет совместно ис­
пользовать файлы между сервером Windows и машинами с платформой Unix/Linux
посредством протокола NFS Protocol. В Windows Server 201 2 бы.1и внесены следую­
щие усовершенствования.
• Поддержка NFS версии 4.1. Это включает упрошенный доступ через брандма­
уэры, протокол RPCSEC_GSS для расширенной безопасности, согласование
безопасности клиентов и серверов, семантика файлов Windows и Unix, улуч­
шенная поддержка для кластеризированных файловых серверов и дружествен­
ные к WAN составные процедуры.
• Улучшенная производительность. Никакой дополнительной настройки не тре­
буется, т.к. за счет применения нового встроенного протокола RPC-XDR вы
должны получить оптимальную производительность в готовом виде.
• Более простое управление.
Задачи управления выполняются с помощью
PowerShell и унифиuированного графического пользовательского интерфейса в
диспетчере серверов. Порт протокола RPC под номером 2049 упрощает конфи­
гурирование брандмауэров.
Еще одним усовершенствованием является улучшен­ное отображение удостоверений, к тому же появился новый поставщик WMlv2.
• Усовершенствования, касающиеся высокой rотовности NFSvЗ. Теперь улучшены
показатели времени обхода отказа с новыми настроенными путями обхода от­
казов для каждого физического дискового ресурса. Это ускоряет обход отказа
для клиентов N FS.

Где используется общий ресурс NFS

Файловая система N FS применяется в средах, где существует требование нали­
чия общих файловых ресурсов в среде со смесью операционных систем (таких как
Windows и Unix/Linux).
Б.1агодаря усовершенствованиям в Windows Server 2012, вы теперь можете одновременно представлять общий ресурс с помощью NFS и SMB.
Обычное использование этого можно обнаружить в ряде гипервизоров от независимых разработчиков, в которых общие ресурсы Windows Server 2012 NFS приме­няются в качестве хранилищ данных для шаблонов и образов ISO.

Быстрая настройка общего ресурса NFS

Ниже мы покажем, как настроить общий ресурс NFS. Так как мы обычно спе­
шим, давайте воспользуемся PowerShell. Добавьте службу NFS в Windows с помощью следующего синтаксиса:
Add-Windows Feature FS-NFS-Service
В испытательной среде имеется каталог, к которому необходимо открыть совместное использование — Е : shares. Ниже описаны шаги, которые понадобится ­полнить в графическом пользовательском интерфейсе.
1. Откройте диспетчер серверов и перейлите к роли File and Storage Services.
2. Щелкните на папке Shares (Общие ресурсы), т.к. мы собираемся работать с
общими ресурсами. Появится область управления Shares (Общие ресурсы).
как показано на рис. 12.63.
3. В области Shares выберите в раскрывающемся меню Tasks (Задачи) пункт New
Share (Создать общий ресурс). Запустится мастер создания общего ресурса
(New Share Wizard), окно которого представлено на рис. 12.64.
4. Выберите в списке File share profile (Профиль общего файлового ресурса) эле­мент NFS Share — Quick (Общий ресурс NFS — Быстрый).
5. Выберите свой сервер. В нашей испытательной среде им будет SSOl.
6. На экране Share Location (Местоположение общего ресурса) выберите переключатель Туре а custom path (Введите специальный путь) и введите путь к
общему ресурсу. В нашей испытательной среде это е : shares (рис. 12.65).

7. Введите имя общего ресурса. В нашей испытательной среде им будет shares
(рис. 12.66). Выбор подходящего механизма аутентификации сильно зависит от
среды, с которой вы интегрируетесь. В рассматриваемом случае мы не включа­
ли клиент Linux для аутентификации KerЬeros, поскольку это автономный кли­
ент. Как показано на рис. 12.67, мы отметили флажки No Server Authentication
(AUTH_SYS) (Нет аутентификации на сервере (AUTH_SYS)) и ЕпаЫе unmapped
user access (Включить доступ неотображенных пользователей).

Бригада разработчиков, занимающаяся хранилищем в Мicrosoft, опубликовала циклподробных статей, которые вы должны прочитать, если хотите получить дополни­тельные сведения о конфигурации и отображении удостоверений:
http: //Ыogs . technet . com/Ь/filecaЬ/archive/2012/10/09/nfs-identitymapping­ in-windows-server-2 012 . aspx
8. На экране Share Permissions (Разрешения для общего ресурса) щелкните на
кнопке Add (Добавить). В открывшемся диалоговом окне Add Permissions
(Добавление разрешений) выберите переключатель All Machines (Все машины)
и в списке Language encoding (Языковая кодировка) укажите ANSI. В спис­
ке Share permissions (Разрешения для общего ресурса) выберите Read / Write
(Чтение / Запись), как показано на рис. 12.68.
9. На экране Specify permissions to control access (Указание разрешений для
управления доступом) удостоверьтесь в том, что учетная запись Everyone (Все)
существует и ей назначен уровень доступа Full Control (Полный доступ), как
показано на рис. 12.69.

Рис. 12.69. Разрешения для управления доступом
10. Подтвердите выбранные установки и щелкните на кнопке Create (Создать),
чтобы создать новый общий ресурс NFS.
1 1 . Удостоверьтесь в успешном завершении создания и щелкните на кнопке Close (Закрыть).

Подключение к общему ресурсу NFS со стороны клиента

В нашей испытательной среде развернут дистрибутив Linux Mint. По умолчанию
мы имеем возможность подключения к общему ресурсу, но при попытке обзора
общего ресурса или создания на нем каталога возникают разнообразные ошибки.
Наряду со многими другими дистрибутивами, Linux Mint требует установки пакета nfs-cornmon, прежде чем можно будет читать из общего ресурса NFS. Для установ­ки этого пакета выполните перечисленные далее шаги.
1. Введите в терминальном окне следующую команду:
sudo apt-get install nfs-common
Это установит необходимые элементы, чтобы позволить просматривать общий
ресурс. Теперь вы можете смонтировать общий ресурс, ранее созданный на
тестовом сервере Windows.
2. Введите в терминальном окне следующую команду:
sudo mount -t nfs 192 . 168 . 0 . 1 : /Shares /mnt/share
Команда ничего не выводит; вместо этого вы должны перейти в каталог или
указанную точку монтирования (/rnnt/share). Ниже приведены объяснения
этого синтаксиса.

• sudo — выполнение от имени суперпользователя (привилегированное ны­
полнение определенных задач).
• mount — используется для монтирования различных типов файловых сис­
тем.
• -t nfs — д11 я монтирования файловой системы NFS.
• 1 92 . 168 . О . 1 : /Shares — удаленный обший ресурс, который должен быть
смонтирован.
• /пmt/share — локальная точка монтирования.
3. Перейлите к общему ресурсу, введя следуюшую команду:
cd /mnt/share
4. Теперь просмотрите содержимое каталога с помощью такой команды:
На машине с Windows Server вы создали файл по имени Readme . t x t.
После вво­да команды ls вы должны увидеть этот файл.
Файл Readme . txt просто взят для примера; попробуйте поместить на общий ресурс в среде Windows Server собствен­ные файлы и затем введите команду ls на клиентской машине Linux.

Дедупликация: диск и сеть

В Windows Server 2012 в качестве встроенного средства хранения появилась
дедупликация данных (Data Deduplication). Дедупликация данных — это более эффек­
тивный способ хранения данных. С постоянно растущей потребностью в хранилище
в облачных технологиях вы леrко можете себе представить объем хранящихся дуб­лированных файлов.
Даже дома зачастую имеется несколько копий файлов ISO иливиртуальных жестких дисков д11я хранилища USB и серверов.
Каждый такой файл занимает 3-7 Гбайт. Из-за хранения множества копий и отсутствия продуманной библиотечной системы понапрасну расходуется много пространства хранения.
Это простой пример, но он поднимает другой вопрос: все файлы имеют похожие
части и все они занимают место.
Согласитесь, что бьuю бы замечательно, если бы су­ществовала возможность идентификации таких общих порций, создания единствен­ной главной ссылки на диске и затем указания на нее из всех других файлов, которые имеют эту общую порцию’! Дедупликация данных предоставляет эту возможность.
Дедупликация данных в Windows применяет концепцию под названием храни­
лище фрагментов (chunk store).
Файл разделяется на фрагменты переменных разме­ров, обычно между 32 Кбайт и 1 28 Кбайт; в среднем фрагмент имеет размер около
64 Кбайт. Такие фрагменты сжимаются и помещаются в хранилище фрагментов.
Каждый фрагмент хранится в контейнере фрагментов, который растет в размерах до 1 Гбайт, прежде чем будет создан новый контейнер. Просмотреть хранилище фраг­ментов и его контейнеры можно в корне тома, в папке по имени System VolumeInformation (Системная информация о томе). no умолчанию эта папка заблоки­рована д11 я просмотра только от имени учетной записи System (Система), так что вы должны получить права владения ею и удостовериться, что у учетной записи System остается к ней полный доступ. Точка повторной обработки (reparse point) заменяет нормальный файл. При доступе к файлу точка повторной обработки пока­зывает, где хранятся данные, и восстанавливает файл (рис. 12. 70).

Рис. 1 2. 70. Дедупликация данных в действии
Хотя компонент Data Deduplication по умолчанию не устанавливается, он спро­
ектирован так, чтобы легко развертываться. Он также разработан с нулевым воз­действием на пользователей; в сущности, пользователи даже ничего не заметят.
Включить Data Deduplication на любом из основных томов данных можно с мини­
мальным влиянием на производительность.
Компонент спроектирован так, чтобы
не пересекаться с файлами, которые являются новыми или в которые в текущий
момент производится запись.
Компонент будет ожидать и каждый час проверять,
не появились ли файлы, пригодные для дедупликации.
Вы можете изменить график
этого процесса, приведя его в соответствие с нуждами компании.
Выяснение пригодности к дедупликации начинается с файлов, которые сущест­
вуют более трех дней (эту настройку можно изменить), при этом из процесса всегда исключаются файлы с размером меньше 32 Кбайт, файлы с расширенными атрибу­тами или зашифрованные файлы. Если у вас есть другие файлы, которые вы не хо­тите подвергать процессу дедупликации, это также поддается конфигурированию.
Дедупликация происходит также п сетевом трафике. К отправляемому или полу­
чаемому трафику производится доступ с целью выяснения, может ли в отношении
него быть проведена дедуплИкация, потенциально сокращая объем этого трафика.
В отличие от дедупликации хранилища, график или тип данных для сетевой дедуп­ликации изменять нельзя.
Тем не менее, есть несколько моментов, о которых следует знать перед тем, как продолжить. Дедупликация поддерживается только на томах NTFS, и ее невозмож­но выполнить на загрузочном или системном диске. В Windows Seiver 201 2 она не
может использоваться с томами CSV, живыми виртуальными машинами или базами
данных SQL.
Так чего же нового версия Windows Seiver 201 2 R2 привнесла в дедупликацию
данных? Основное внимание было сосредоточено на разрешении дедупликации для
живых виртуальных машин. Все верно; вы можете выполнять дедупликацию файлов
VHD и VНDX, которыми пользуются живые виртуальные машины. Главным обра­
зом, вы можете применять ее в сценариях VDI (Virtual Desktop lnfrastructure — инф­раструктура виртуальных рабочих столов), с дальнейшей ориентацией на удаленное хранилище. Благодаря таким улучшениям, дедупликацию данных можно проводить
в среде VDI. Также полезно отметить, что хотя она не поддерживается для других виртуализированных рабочих нагрузок, не существует каких-то специальных блоки­рующих средств, препятствующих ее включению. Как всегда, результаты не могут быть гарантированными.
Это удивительная технология, встроенная в Windows Seiver, которая обеспечит
значительную экономию объема хранилища. Далее мы посмотрим, как ее конфи­
гурировать.

Д,ля начала понадобится добавить компонент Data Deduplication. Это можно сде­лать с помощью PowerShell. Синтаксис выглядит следующим образом:
Add-WindowsFeature FS-Data-Deduplication
Затем его можно конфигурировать через диспетчер серверов или PowerShell.

конфигурирование дедvпликации данных с помощью диспетчера серверов

Первым мы рассмотрим метод с диспетчером серверов.
1. Откройте диспетчер серверов, щелкните на File and Storage Services и выбери­
те папку Volumes (Тома).
2. Щелкните правой кнопкой мыши на томе, для которого требуется сконфи­
гурировать дедупликацию данных, и выберите в контекстном меню пункт

Рис. 12. 71 . Конфигурирование дедупликации данных
3. Выберите в раскрывающемся списке Data deduplication (Дедупликация данных)
элемент General purpose file server (Файловый сервер общего назначения).
Обратите внимание на еще один элемент, Virtual Desktop lnfrastructure (VDI)
server (Сервер инфраструктуры виртуальных рабочих столов (VDI)), показан­
ный на рис. 12.72. Щелкните на кнопке ОК.
Далее необходимо решить, сколько должны просуществовать файлы, прежде
чем они будут обработаны механизмом дедупликации. Это значит, что меха­
низм не будет оказывать воздействие на вновь созданные файлы в течение
указанного периода времени.

4. В нашем примере оставьте период в 3 дня.
При желании позже это значение можно изменить (рис. 1 2.73).
Кроме того, на этом экране можно выбрать любые файловые расширения,
которые должны быть исключены из процесса дедупликации.
Например, мо­жет быть нежелательно подвергать дедупликации базу данных SQL или Access.
Чтобы указать в поле несколько расширений, разделяйте их запятыми.
Напри­мер, если вы хотите исключить файлы баз данных SQL и файлы баз данных
Active Directory (ntds . di t), то должны ввести в поле md.f ,dit.

5. Исключите файловые расширения, как показано на рис. 12.73.
Исключение файла — это хорошо, но в организации могут существовать пап­
ки, которые являются очень чувствительными, и по этой причине не должны
подвергаться дедупликации.
Они могут иметь общие фрагменты, но вы не мо­жете идти на риск повреждения диска на месте хранилища фрагментов, чтопотенциально могло бы затронуть информацию. Разумеется, это весьма мало­вероятный сценарий, но он просто демонстрирует возможность исключения папки с чувствительной информацией.
6. В этом случае мы исключим папку Е : shares, т.к. в ней ранее был создан
об­щий ресурс NFS.
Мы не на 100% уверены в том, что именно здесь будет храниться, поэтому не
хотим брать на себя риск, не проведя дальнейшее исследование.
В начале этой главы говорилось о том, что механизм дедупликации имеет фо­
новый процесс, который по умолчанию запускается каждый час. На рис. 12.73
видно, что есть также опция для изменения этого графика запуска.
7. Щелкните на кнопке Set Deduplication Schedule (Установить график дедупли­
кации). Откроется диалоговое окно с набором флажков (рис. 12.74).
По умолчанию флажок ЕnаЫе background optimization (Включить оптимиза­
цию фоновой обработки) отмечен, но можно также отметить флажок ЕnаЫе
throughput optimization (Включить оптимизацию пропускной способности), что
инициирует задачу оптимизации при обработке больших объемов данных.
В Microsoft утверждают, что пропускная способность дедупликации составляет
приблизительно 2 Тбайт данных на том в 24-часовой период на единственном
томе. Если томов несколько, работа на них может выполняться параллельно.

8. В рассматриваемом примере оставьте график в том виде, как есть.
Когда вы просмотрите том в диспетчере серверов, то обнаружите столбцы
Deduplication Rate (Доля дедупликации), содержащий процентное значение,
и Deduplication Savings (Экономия от дедупликации), содержащий значение в
байтах (рис. 12.75) .

конфигурирование дедупликации данных с помощью PowerShell

А теперь мы покажем, как работать с дедупликацией в PowerShell. На рис. 12.76
можно видеть доступные командЛеты PowerShel.
Рис. 1 2. 76. Командлеты PowerShell, предназначенные для дедупликации
1. Чтобы включить дедупликацию дЛЯ тома, воспользуйтесь следующим синтак­
сисом:
EnaЬle-DedupVolume Е :
Вывод показан на рис. 12.77.
Теперь, когда известно, что дедупликация включена, вы хотите выяснить, ка­кую экономию она обеспечивает.
На томах в нашей испытательной среде недостаточно много информации, что­
бы провести дедупликацию, поэтому все значения на рис. 12.78 оказываются
нулевыми, но это не просто так.

Рис. 12.78. Вывод из командлета Get-DeDupStatus
В конфигурации мы исключили Е : shares, т.к. мы не на 100% уверены в
том, что именно здесь будет храниться, и поскольку это общий ресурс NFS
для Linux, мы не хотим рисковать. (С практической точки зрения тип клиента
не играет никакой роли; все прозрачно.
) Внутрь Е : shares мы скопировали ISО-образ Win2012R2 _ Preview, имеющий размер около 4 Гбайт. Мы созда­ли дополнительную папку Е : TestData и скопировали в нее два ISО-образа Win2012R2 _Preview под разными именами, а также создали папку Technical,которая содержит документы с технической информацией (рис. 12.79).
Помните, что несмотря на копирование данных, мы должны подождать три
дня, прежде чем они включатся в дедупликацию?
Но мы не хотим ждать на­столько долго, поэтому воспользуемся командлетом Start-DedupJob, чтобыускорить процесс.

6. Теперь сравните вывод на рис. 12.83 с выводом на рис. 12.84, когда командr1ет
Get-DedupJob завершил работу.
В нашей испытательной среде мы сэкономили 4,64 Гбайт, что великолепно,
т.к. объем хранилища недостаточен.

оптимизация завершена
7. Попробуйте запустить командлет Get-DeDupVolume для получения разного
вывода.
8. В качестве дополнительного упражнения удалите папку Е : Shares из списка
исключений и снова запустите задание оптимизации.
Сколько пространства освободилось теперь?
9. Наконец, щелкните правой кнопкой мыши на папке Е : TestData и выбери­
те в контекстном меню пункт Properties
(Свойства).
На рис. 12.85 показано диалоговое окно
свойств папки TestData в нашей испы­
тательной среде. Обратили внимание на
разницу между значениями Size (Размер)
и Size оп disk (Размер на диске)?
Итак, вы увидели дедупликацию в дейс­
твии. Но куда делись данные?
10. Запустите командлет Get -DedupMeta
data, чтобы просмотреть информацию о
хранилище фрагментов, о котором шла
речь в начале раздела. Вывод из команд­
лета представлен на рис. 12.86.
Как было показано на рис. 1 2.81, в плани­
ровщике задач имеются еще два задания, ко­
торые запускаются на еженедельной основе.
Давайте посмотрим, что это за задания. Начнем

По умолчанию задание GarbageCol lect ion сконфигурировано на запуск
еженедельно, но при необходимости его можно инициировать вручную. Задание
GarbageCol lection очищает хранилище фрагментов, удаляя неиспользуемые
фрагменты, что освобождает дисковое пространство. Вы увидите, что это очень важ­ное задание.
Чтобы вручную инициировать сборку мусора, запустите командлет Start­
DedupJob следующим образом:
Start-DeDupjob -Туре GarbageCollection -volurne Е :
Это поставит задание в очередь на выполнение во время простоя системы; в качестве альтернативы можно принудительно ускорить его выполнение в планировщике задач.
ДОПОЛНИТЕЛЬНОЕ УПРАЖНЕНИЕ
Удалите все файлы ISO, которые бьщи задействованы в примере, и очистите корзи­ну. Запустите задание оптимизации, а затем и задание сборки мусора. После завер­шения этих заданий просмотрите размер хранилища фрагментов с применением ко­мандлета Get-DedupMetadata. Ниже показано, что размер хранилища фрагментов
в результате уменьшился.

Проверка томов на предмет повреждений

Последним аспектом, относящимся к дедупликации, является проверка томов на
предмет повреждений. Как несложно себе представить, чем больше общих данных
обнаруживается в файлах, тем в большей степени будет расти хранилище фрагмен­
тов, и тем больше точек повторной обработки будет существовать на диске.
Предположим, что сектор диска, где располагается часть фрагмента, оказался
поврежденным. Возникает риск потери сотен, а то и тысяч файлов. Хотя это редкое
явление, особенно если вы дополнительно пользуетесь технологиями обеспечения
отказоустойчивости, возможность его возникновения все же существует. Механизм
дедупликации предлагает несколько специальных встроенных проверок, которые
предотвращают такую ситуацию.
Например, дедупликация вводит избыточность для критически важных мета­
данных; она также предоставляет избыточность для фрагментов с самым частым
обращением (если к фрагменту производится доступ более 100 раз, он становится
горячей точкой). Дедупликация записывает в журнал ьный файл детали о любом
повреждении, и позже за счет использования заданий очистки анализирует этот
журнал и делает соответствующие исправления.
Исправления могут производиться с применением резервной копии при обраще­
нии к критически важным метаданным или горячей точке. Если дедупликация вы­
полнялась в отношении пространства хранения с зеркальным отображением, то для
исправления фрагмента она может использовать зеркальные данные.
Подобно заданиям оптимизации и сборки мусора, задания очистки запускаются
по установленному графику, который можно настроить на более частое выполнение,
чем по умолчанию один раз в неделю.
Запустить задание с помощью PowerShell можно следующим образом:
Start-DeDupJob -Туре Scrubbing -Volume Е :
Это инициирует задание верификаuии дпя диска Е : , но проверяться будут толь­
ко записи в журнальном файле повреждений.
Чтобы проверить целостность всего дедуплиuированного тома, введите такую ко­
манду:
Start-DeDupJon -Ту р е Scrubbing -Volume Е : -full
Для просмотра результатов очистки запустите программу просмотра событий
(Event Yiewer). Весь вывод задания очистки хранится в узле Event ViewerApplications
and Services LogsMicrosoftWindowsDeduplicationScrubЬing (Просмотр событий
Журналы приложений и служб Microsoft Windows Дедупликация Очистка).
Журнал очистки можно видеть на рис.

Понравилась статья? Поделить с друзьями:
  • Windows sonic for headphones что это
  • Windows storage server 2012 r2 essentials скачать
  • Windows sonic for headphones стоит ли включать
  • Windows storage server 2012 r2 and windows server 2012
  • Windows storage server 2008 r2 standard скачать