Как проверить версию cuda windows 10

Is there any quick command or script to check for the version of CUDA installed? I found the manual of 4.0 under the installation directory but I'm not sure whether it is of the actual installed v...

Other respondents have already described which commands can be used to check the CUDA version. Here, I’ll describe how to turn the output of those commands into an environment variable of the form «10.2», «11.0», etc.

To recap, you can use

nvcc --version

to find out the CUDA version.
I think this should be your first port of call.
If you have multiple versions of CUDA installed, this command should print out the version for the copy which is highest on your PATH.

The output looks like this:

nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2020 NVIDIA Corporation
Built on Thu_Jun_11_22:26:38_PDT_2020
Cuda compilation tools, release 11.0, V11.0.194
Build cuda_11.0_bu.TC445_37.28540450_0

We can pass this output through sed to pick out just the MAJOR.MINOR release version number.

CUDA_VERSION=$(nvcc --version | sed -n 's/^.*release ([0-9]+.[0-9]+).*$/1/p')

If nvcc isn’t on your path, you should be able to run it by specifying the full path to the default location of nvcc instead.

/usr/local/cuda/bin/nvcc --version

The output of which is the same as above, and it can be parsed in the same way.

Alternatively, you can find the CUDA version from the version.txt file.

cat /usr/local/cuda/version.txt

The output of which

CUDA Version 10.1.243

can be parsed using sed to pick out just the MAJOR.MINOR release version number.

CUDA_VERSION=$(cat /usr/local/cuda/version.txt | sed 's/.* ([0-9]+.[0-9]+).*/1/')

Note that sometimes the version.txt file refers to a different CUDA installation than the nvcc --version. In this scenario, the nvcc version should be the version you’re actually using.

We can combine these three methods together in order to robustly get the CUDA version as follows:

if nvcc --version 2&> /dev/null; then
    # Determine CUDA version using default nvcc binary
    CUDA_VERSION=$(nvcc --version | sed -n 's/^.*release ([0-9]+.[0-9]+).*$/1/p');

elif /usr/local/cuda/bin/nvcc --version 2&> /dev/null; then
    # Determine CUDA version using /usr/local/cuda/bin/nvcc binary
    CUDA_VERSION=$(/usr/local/cuda/bin/nvcc --version | sed -n 's/^.*release ([0-9]+.[0-9]+).*$/1/p');

elif [ -f "/usr/local/cuda/version.txt" ]; then
    # Determine CUDA version using /usr/local/cuda/version.txt file
    CUDA_VERSION=$(cat /usr/local/cuda/version.txt | sed 's/.* ([0-9]+.[0-9]+).*/1/')

else
    CUDA_VERSION=""

fi

This environment variable is useful for downstream installations, such as when pip installing a copy of pytorch that was compiled for the correct CUDA version.

python -m pip install 
    "torch==1.9.0+cu${CUDA_VERSION/./}" 
    "torchvision==0.10.0+cu${CUDA_VERSION/./}" 
    -f https://download.pytorch.org/whl/torch_stable.html

Similarly, you could install the CPU version of pytorch when CUDA is not installed.

if [ "$CUDA_VERSION" = "" ]; then
    MOD="+cpu";
    echo "Warning: Installing CPU-only version of pytorch"
else
    MOD="+cu${CUDA_VERSION/./}";
    echo "Installing pytorch with $MOD"
fi

python -m pip install 
    "torch==1.9.0${MOD}" 
    "torchvision==0.10.0${MOD}" 
    -f https://download.pytorch.org/whl/torch_stable.html

But be careful with this because you can accidentally install a CPU-only version when you meant to have GPU support.
For example, if you run the install script on a server’s login node which doesn’t have GPUs and your jobs will be deployed onto nodes which do have GPUs. In this case, the login node will typically not have CUDA installed.

В нем перейдите на вкладку справки и выберите Информация о системе. В нем есть следующий раздел компонентов. В том, что под NVCUDA. DLL показывает NVIDIA CUDA 10.2.

3 способа проверить версию CUDA

  1. Пожалуй, самый простой способ проверить файл. Запустите cat /usr/local/cuda/version.txt. …
  2. Другой способ — использовать команду пакета cuda-toolkit nvcc. Простой запуск nvcc –version. …
  3. Другой способ — с помощью установленной вами команды nvidia-smi драйвера NVIDIA. Просто запустите nvidia-smi.

10 сред. 2020 г.

Какая версия CUDA у меня Windows?

Проверить наличие графического процессора с поддержкой CUDA можно в разделе «Адаптеры дисплея» в диспетчере устройств Windows. Здесь вы найдете название производителя и модель вашей видеокарты. Если у вас есть карта NVIDIA, указанная на http://developer.nvidia.com/cuda-gpus, этот графический процессор поддерживает CUDA.

Как узнать, установлена ​​ли Cuda?

Проверить установку CUDA

  1. Проверьте версию драйвера, просмотрев: / proc / driver / nvidia / version:…
  2. Проверьте версию CUDA Toolkit. …
  3. Проверьте выполнение заданий CUDA GPU, скомпилировав образцы и выполнив программы deviceQuery или bandwidthTest.

Как обновить драйверы Cuda для Windows 10?

  1. Шаг 1. Проверьте программное обеспечение, которое вам нужно установить. …
  2. Шаг 2. Загрузите Visual Studio Express. …
  3. Шаг 3. Загрузите CUDA Toolkit для Windows 10.…
  4. Шаг 4. Загрузите исправления CUDA для Windows 10. …
  5. Шаг 5: Загрузите и установите cuDNN. …
  6. Шаг 6. Установите Python (если у вас его еще нет)…
  7. Шаг 7: Установите Tensorflow с поддержкой графического процессора.

Какую версию Cuda мне следует установить?

Для этих графических процессоров CUDA 6.5 должна работать. Начиная с CUDA 9. x, старые графические процессоры CUDA с вычислительными возможностями 2. x также не поддерживаются.

Как проверить версию драйвера Nvidia?

О: Щелкните правой кнопкой мыши на рабочем столе и выберите Панель управления NVIDIA. В меню панели управления NVIDIA выберите «Справка»> «Информация о системе». Версия драйвера указана в верхней части окна «Подробности». Для более опытных пользователей вы также можете получить номер версии драйвера из Диспетчера устройств Windows.

Cuda только для Nvidia?

В отличие от OpenCL, графические процессоры с поддержкой CUDA доступны только от Nvidia.

Поддерживает ли мой графический процессор CUDA?

CUDA-совместимая графика

Чтобы проверить, есть ли на вашем компьютере графический процессор NVIDA и включен ли он CUDA: Щелкните правой кнопкой мыши на рабочем столе Windows. Если во всплывающем диалоговом окне вы видите «Панель управления NVIDIA» или «Дисплей NVIDIA», значит, в компьютере установлен графический процессор NVIDIA. Нажмите «Панель управления NVIDIA» или «Дисплей NVIDIA» во всплывающем диалоговом окне.

Где устанавливается Cuda?

По умолчанию CUDA SDK Toolkit устанавливается в / usr / local / cuda /. Драйвер компилятора nvcc устанавливается в / usr / local / cuda / bin, а 64-разрядные библиотеки времени выполнения CUDA устанавливаются в / usr / local / cuda / lib64.

Как узнать версию Cudnn?

Посмотреть версию cuda, cudnn, ubuntu

Проверьте версию cudnn cat / usr / local / cuda / include / cudnn. h | grep CUDNN_MAJOR -A 2 3. Проверьте версию unbuntu cat / etc / issue 4.

Как запустить образец Cuda?

Перейдите в каталог nbody образцов CUDA. Откройте файл решения nbody Visual Studio для установленной вами версии Visual Studio. Откройте меню «Сборка» в Visual Studio и нажмите «Создать решение». Перейдите в каталог сборки образцов CUDA и запустите образец nbody.

Что такое Cuda и Cudnn?

Библиотека NVIDIA CUDA® Deep Neural Network (cuDNN) — это библиотека примитивов для глубоких нейронных сетей с ускорением на GPU. … Это позволяет им сосредоточиться на обучении нейронных сетей и разработке программных приложений, а не тратить время на низкоуровневую настройку производительности графического процессора.

Что такое Cuda 11?

Резюме. CUDA 11 предоставляет базовую среду разработки для создания приложений для архитектуры NVIDIA Ampere GPU и мощных серверных платформ на базе NVIDIA A100 для AI, анализа данных и рабочих нагрузок HPC, как для локальных (DGX A100), так и для облачных (HGX A100) развертывания.

Как запустить графический процессор Tensorflow?

Шаги:

  1. Удалите старый тензорный поток.
  2. Установите tenorflow-gpu pip install tensorflow-gpu.
  3. Установите видеокарту Nvidia и драйверы (вероятно, у вас уже есть)
  4. Загрузите и установите CUDA.
  5. Загрузите и установите cuDNN.
  6. Проверяем простой программой.

23 мар. 2019 г.

Как установить драйверы CUDA?

  1. Подключитесь к виртуальной машине, на которую вы хотите установить драйвер.
  2. Установите последний пакет ядра. При необходимости эта команда также перезагружает систему. …
  3. Если система перезагрузилась на предыдущем шаге, повторно подключитесь к экземпляру.
  4. Обновите Zypper. sudo zypper refresh.
  5. Установите CUDA, в который входит драйвер NVIDIA. sudo zypper установить cuda.

Содержание

  1. Русские Блоги
  2. Как проверить версию Windows CUDA
  3. Как получить версию cuda?
  4. 11 ответов:
  5. Как получить версию cuda?
  6. 32 ответа
  7. Включение ядер NVIDIA CUDA в программах
  8. Этап 1: Установка ПО
  9. Этап 2: Включение CUDA
  10. 1. IntroductionпѓЃ
  11. 1.1. System RequirementsпѓЃ
  12. 1.2. About This DocumentпѓЃ
  13. 2. Installing CUDA Development ToolsпѓЃ
  14. 2.1. Verify You Have a CUDA-Capable GPUпѓЃ
  15. 2.2. Download the NVIDIA CUDA ToolkitпѓЃ
  16. 2.3. Install the CUDA SoftwareпѓЃ
  17. 2.3.1. Uninstalling the CUDA SoftwareпѓЃ
  18. 2.4. Using Conda to Install the CUDA SoftwareпѓЃ
  19. 2.4.1. Conda OverviewпѓЃ
  20. 2.4.2. InstallationпѓЃ
  21. 2.4.3. UninstallationпѓЃ
  22. 2.4.4. Installing Previous CUDA ReleasesпѓЃ
  23. 2.5. Use a Suitable Driver ModelпѓЃ
  24. 2.6. Verify the InstallationпѓЃ
  25. 2.6.1. Running the Compiled ExamplesпѓЃ
  26. 3. Pip WheelsпѓЃ
  27. 4. Compiling CUDA ProgramsпѓЃ
  28. 4.1. Compiling Sample ProjectsпѓЃ
  29. 4.2. Sample ProjectsпѓЃ
  30. 4.3. Build Customizations for New ProjectsпѓЃ
  31. 4.4. Build Customizations for Existing ProjectsпѓЃ
  32. 5. Additional ConsiderationsпѓЃ
  33. 6. NoticesпѓЃ
  34. 6.1. NoticeпѓЃ
  35. 6.2. OpenCLпѓЃ
  36. 6.3. TrademarksпѓЃ

Русские Блоги

Как проверить версию Windows CUDA

Недавно я начал изучать некоторые проблемы компьютерного зрения, связанные с обработкой изображений (следуйте за учителем, чтобы расширить свой кругозор)

Первый — установить anaconda Окружающая среда (это просто)

Затем учитель попросил использовать pytorch в качестве нашего инструмента обучения, поэтому перейдите на официальный сайт, чтобы проверить соответствующую версию pytorch:

Нам нужно только самостоятельно выбрать соответствующую систему, загрузить используемые инструменты, версию python и номер версии CUDA, а затем мы сможем получить соответствующие команды для загрузки и установки.

Я столкнулся с проблемой в это время, Что такое CUDA?

CUDA (Compute Unified Device Architecture), производитель видеокартNVIDIAВычислительная платформа запущена. CUDA ™ — универсальныйПараллельные вычисленияАрхитектура, позволяющаяGPUУмеет решать сложные вычислительные задачи. Он содержит CUDAАрхитектура набора команд(ISA) И механизм параллельных вычислений внутри графического процессора. (Приведенное выше объяснение взято из записи Baidu)

Понять, что такое CUDA, Так какой у меня номер версии CUDA? (Два метода перечислены ниже, мне только что удалось использовать первый метод, просто посмотрите на первый напрямую)

(1) Нажмите win + Q, войдите в панель управления, затем просмотрите маленький значок, щелкните панель управления NVIDIA:

Щелкните Справка на панели управления NVIDIA, а затем щелкните Информация о системе в нижнем левом углу:

Щелкните компонент: Здесь отображается ваша информация CUDA! ! !

(2) Второй способ:

Откройте CMD, введите nvcc —version

(Я знаю, что не добавил путь к пути, но, Я искал диск C и нашел его! ! ! У меня нет этого файла ∑ (っ ° Д °;) っ Бля, его больше нет! ! ! ! Я не понимаю действия гнева. . . . . Если кто-нибудь знает, где сейчас находится папка, оставьте сообщение и дайте мне знать, спасибо! ! ! ! )

(Путь поиска в Интернете: C: Program Files NVIDIA GPU Computing Toolkit CUDA)

Если статья неправильная, дайте мне совет! ! ! Спасибо (* ^ ▽ ^ *)

Источник

Как получить версию cuda?

есть ли быстрая команда или скрипт для проверки версии установленного CUDA?

Я нашел руководство 4.0 в каталоге установки, но не уверен, является ли фактическая установленная версия таковой или нет.

11 ответов:

как Джаред упоминает в комментарии, из командной строки:

дает версию компилятора CUDA (которая соответствует версии инструментария).

из кода приложения вы можете запросить версию API среды выполнения с помощью

или версия API драйвера с

как указывает Даниэль, deviceQuery-это пример приложения SDK, который запрашивает выше, а также возможности устройства.

как другие отмечают, вы также можете проверить содержание version.txt использование (например, на Mac или Linux)

однако, если установлена другая версия инструментария CUDA, отличная от той, которая связана с /usr/local/cuda , это может сообщить о неточной версии, если другая версия находится ранее в вашем PATH чем выше, так что используйте с осторожностью.

$ cat /usr/local/cuda/version.txt или $ cat /usr/local/cuda-8.0/version.txt

иногда папка называется «Cuda-version».

если ничего из вышеперечисленного не работает, попробуйте перейти $ /usr/local/ И найдите правильное имя вашей папки Cuda.

результат должен быть похож на: CUDA Version 8.0.61

Если вы установили CUDA SDK, вы можете запустить «deviceQuery», чтобы увидеть версию CUDA

вы можете найти CUDA-Z полезным, вот цитата с их сайта:

» эта программа родилась как пародия на другие Z-утилиты, такие как CPU-Z и GPU-Z. CUDA-Z показывает некоторую базовую информацию о графических процессорах с поддержкой CUDA и GPGPUs. Он работает с картами nVIDIA Geforce, Quadro и Tesla, чипсетами ION.»

на вкладке поддержка есть URL для исходного кода: http://sourceforge.net/p/cuda-z/code/ и загрузка на самом деле не установщик, а сам исполняемый файл (без установки, так что это «быстро»).

эта утилита предоставляет множество информации, и если вам нужно знать, как она была получена, есть источник посмотреть. Есть и другие утилиты, подобные этой, которые вы можете искать.

после установки CUDA можно проверить версии по: nvcc-V

Я установил как 5.0, так и 5.5, поэтому он дает

инструменты компиляции Cuda, выпуск 5.5, V5. 5,0

эта команда работает как для Windows, так и для Ubuntu.

кроме упомянутых выше, ваш путь установки CUDA (если он не был изменен во время установки) обычно содержит номер версии

делать which nvcc должны дать путь, и это даст вам версию

PS: Это быстрый и грязный способ, приведенные выше ответы более элегантны и приведут к правильной версии со значительными усилиями

сначала вы должны найти, где установлен Cuda.

Если это установка по умолчанию, такие как здесь расположение должно быть:

в этой папке должен быть файл

открыть этот файл в любом текстовом редакторе или выполнять:

можно узнать cuda версия, введя следующее в терминале:

кроме того, можно вручную проверьте версию, сначала выяснив каталог установки с помощью:

а то cd в этот каталог и проверьте версию CUDA.

Я получаю /usr / local — нет такого файла или каталога. Хотя nvcc -V дает

для версии cuDNN:

используйте следующее, чтобы найти путь для cuDNN:

затем используйте это, чтобы получить версию из файла заголовка,

используйте следующее, чтобы найти путь для cuDNN:

затем используйте это, чтобы сбросить версию из файла заголовка,

Источник

Как получить версию cuda?

Есть ли какая-нибудь быстрая команда или скрипт, чтобы проверить версию установленной CUDA?

Я нашел руководство 4.0 в каталоге установки, но я не уверен, является ли оно действующей установленной версией или нет.

32 ответа

Как упоминает Джаред в комментарии, из командной строки:

дает версию компилятора CUDA (которая соответствует версии инструментария).

Из кода приложения вы можете запросить версию API времени выполнения с помощью

или версия API драйвера с

Как указывает Даниэль, deviceQuery — это пример приложения SDK, которое запрашивает вышеупомянутое, а также возможности устройства.

Как отмечают другие, вы также можете проверить содержимое version.txt используя (например, на Mac или Linux)

Однако, если установлена ​​другая версия инструментария CUDA, отличная от той, что приведена по ссылке /usr/local/cuda , это может сообщить о неточной версии, если другая версия ранее в вашем PATH чем выше, поэтому используйте с осторожностью.

На Ubuntu Cuda V8:

Если ваш пробег

Вы должны найти версию CUDA в верхнем правом углу вывода команды. По крайней мере, я обнаружил, что вывод для CUDA версии 10.0, например,

Для версии CUDA:

Для версии cuDNN:

Используйте следующую команду, чтобы найти путь для cuDNN:

Затем используйте это, чтобы получить версию из файла заголовка,

Используйте следующую команду, чтобы найти путь для cuDNN:

Затем используйте это для выгрузки версии из файла заголовка,

Используйте следующую команду, чтобы проверить установку CUDA с помощью Conda:

И следующая команда для проверки версии CUDNN, установленной conda:

Если вы хотите установить / обновить CUDA и CUDNN через CONDA, используйте следующие команды:

В качестве альтернативы вы можете использовать следующие команды для проверки установки CUDA:

Если вы используете tensorflow-gpu через пакет Anaconda (вы можете проверить это, просто открыв Python в консоли и проверьте, показывает ли Python по умолчанию Anaconda, Inc. при запуске, или вы можете запустить какой python и проверить местоположение), затем вручную установка CUDA и CUDNN, скорее всего, не сработает. Вместо этого вам придется обновляться через conda.

Если вы хотите установить CUDA, CUDNN или tensorflow-gpu вручную, вы можете ознакомиться с инструкциями здесь https://www.tensorflow.org/install/gpu

$ cat /usr/local/cuda/version.txt или же $ cat /usr/local/cuda-8.0/version.txt

Иногда папка называется «Cuda-версия».

Если ничего из вышеперечисленного не работает, попробуйте $ /usr/local/ И найдите правильное имя вашей папки Cuda.

Вывод должен быть похож на: CUDA Version 8.0.61

Другие респонденты уже описали, какие команды можно использовать для проверки версии CUDA. Здесь я опишу, как преобразовать вывод этих команд в переменную среды вида «10.2», «11.0» и т. Д.

Напомним, вы можете использовать

чтобы узнать версию CUDA. Я думаю, это должен быть ваш первый порт захода. Если у вас установлено несколько версий CUDA, эта команда должна распечатать версию для копии, которая является самой высокой в ​​вашем PATH.

Результат выглядит так:

Мы можем передать этот вывод через sed, чтобы выбрать только номер версии выпуска MAJOR.MINOR.

Если nvcc отсутствует на вашем пути, вы сможете запустить его, указав вместо этого полный путь к местоположению nvcc по умолчанию.

Вывод такой же, как указано выше, и его можно проанализировать таким же образом.

Кроме того, вы можете найти версию CUDA в файле version.txt.

На выходе из которых

можно проанализировать с помощью sed, чтобы выбрать только номер версии выпуска MAJOR.MINOR.

Обратите внимание, что иногда файл version.txt относится к инсталляции CUDA, отличной от nvcc —version . В этом случае версия nvcc должна быть той версией, которую вы действительно используете.

Мы можем объединить эти три метода вместе, чтобы надежно получить версию CUDA следующим образом:

Эта переменная среды полезна для последующих установок, например, когда pip устанавливает копию pytorch, которая была скомпилирована для правильной версии CUDA.

Точно так же вы можете установить версию pytorch для процессора, когда CUDA не установлен.

Но будьте осторожны с этим, потому что вы можете случайно установить версию только для ЦП, когда хотели иметь поддержку графического процессора. Например, если вы запускаете сценарий установки на узле входа в систему сервера, который не имеет графических процессоров, хотя ваши задания будут развернуты на узлах, которые имеют графические процессоры. В этом случае на узле входа обычно не будет установлен CUDA.

Источник

Включение ядер NVIDIA CUDA в программах

Этап 1: Установка ПО

Перед тем как активировать вычислительные мощности ядер CUDA, необходимо установить специальное программное обеспечение от компании-производителя.

    Перейдя по предложенной выше ссылке, выберите операционную систему – «Windows» (наш пример) или «Linux».

На этом инсталляция средств работы с CUDA закончена.

Этап 2: Включение CUDA

Включить рассматриваемую технологию разом для всех программ не получится – необходимо её выбирать либо перед началом работы, либо в процессе, либо перед непосредственно вычислением. Использование данного средства покажем на примере программы Adobe After Effects последней версии.

  1. Запустите Афтер Эффектс и выберите пункты «Файл»«Создать»«Создать проект».
  2. После создания проекта снова воспользуйтесь элементом «Файл», только на этот раз укажите «Настройки проекта».
  3. На вкладке «Рендеринг и эффекты видео» в меню «Использовать» должен быть пункт «Ускорение Mercury с использованием ГП (CUDA)» – выберите его и нажмите «ОК».

В других приложениях данная технология активируется подобным образом.

Источник

1. IntroductionпѓЃ

CUDA В® is a parallel computing platform and programming model invented by NVIDIA. It enables dramatic increases in computing performance by harnessing the power of the graphics processing unit (GPU).

CUDA was developed with several design goals in mind:

Provide a small set of extensions to standard programming languages, like C, that enable a straightforward implementation of parallel algorithms. With CUDA C/C++, programmers can focus on the task of parallelization of the algorithms rather than spending time on their implementation.

Support heterogeneous computation where applications use both the CPU and GPU. Serial portions of applications are run on the CPU, and parallel portions are offloaded to the GPU. As such, CUDA can be incrementally applied to existing applications. The CPU and GPU are treated as separate devices that have their own memory spaces. This configuration also allows simultaneous computation on the CPU and GPU without contention for memory resources.

CUDA-capable GPUs have hundreds of cores that can collectively run thousands of computing threads. These cores have shared resources including a register file and a shared memory. The on-chip shared memory allows parallel tasks running on these cores to share data without sending it over the system memory bus.

This guide will show you how to install and check the correct operation of the CUDA development tools.

1.1. System RequirementsпѓЃ

To use CUDA on your system, you will need the following installed:

A CUDA-capable GPU

A supported version of Microsoft Windows

A supported version of Microsoft Visual Studio

The next two tables list the currently supported Windows operating systems and compilers.

Cross (x86_32 on x86_64)

Windows Server 2022

Windows Server 2019

Windows Server 2016

32-bit compilation native and cross-compilation is removed from CUDA 12.0 and later Toolkit. Use the CUDA Toolkit from earlier releases for 32-bit compilation. CUDA Driver will continue to support running existing 32-bit applications on existing GPUs except Hopper. Hopper does not support 32-bit applications. Ada will be the last architecture with driver support for 32-bit applications.

MSVC Version 193x

Visual Studio 2022 17.0

MSVC Version 192x

Visual Studio 2019 16.x

MSVC Version 191x

Visual Studio 2017 15.x (RTW and all updates)

* Support for Visual Studio 2015 is deprecated in release 11.1.

Support for running x86 32-bit applications on x86_64 Windows is limited to use with:

CUDA Runtime (cudart)

CUDA Math Library (math.h)

1.2. About This DocumentпѓЃ

This document is intended for readers familiar with Microsoft Windows operating systems and the Microsoft Visual Studio environment. You do not need previous experience with CUDA or experience with parallel computation.

Basic instructions can be found in the Quick Start Guide. Read on for more detailed instructions.

The setup of CUDA development tools on a system running the appropriate version of Windows consists of a few simple steps:

Verify the system has a CUDA-capable GPU.

Download the NVIDIA CUDA Toolkit.

Install the NVIDIA CUDA Toolkit.

Test that the installed software runs correctly and communicates with the hardware.

2.1. Verify You Have a CUDA-Capable GPUпѓЃ

You can verify that you have a CUDA-capable GPU through the Display Adapters section in the Windows Device Manager. Here you will find the vendor name and model of your graphics card(s). If you have an NVIDIA card that is listed in https://developer.nvidia.com/cuda-gpus, that GPU is CUDA-capable. The Release Notes for the CUDA Toolkit also contain a list of supported products.

The Windows Device Manager can be opened via the following steps:

Open a run window from the Start Menu

The NVIDIA CUDA Toolkit is available at https://developer.nvidia.com/cuda-downloads. Choose the platform you are using and one of the following installer formats:

Network Installer: A minimal installer which later downloads packages required for installation. Only the packages selected during the selection phase of the installer are downloaded. This installer is useful for users who want to minimize download time.

Full Installer: An installer which contains all the components of the CUDA Toolkit and does not require any further download. This installer is useful for systems which lack network access and for enterprise deployment.

The CUDA Toolkit installs the CUDA driver and tools needed to create, build and run a CUDA application as well as libraries, header files, and other resources.

Download Verification

The download can be verified by comparing the MD5 checksum posted at https://developer.download.nvidia.com/compute/cuda/12.0.0/docs/sidebar/md5sum.txt with that of the downloaded file. If either of the checksums differ, the downloaded file is corrupt and needs to be downloaded again.

2.3. Install the CUDA SoftwareпѓЃ

Before installing the toolkit, you should read the Release Notes, as they provide details on installation and software functionality.

The driver and toolkit must be installed for CUDA to function. If you have not installed a stand-alone driver, install the driver from the NVIDIA CUDA Toolkit.

The installation may fail if Windows Update starts after the installation has begun. Wait until Windows Update is complete and then try the installation again.

Graphical Installation

Install the CUDA Software by executing the CUDA installer and following the on-screen prompts.

Silent Installation

The installer can be executed in silent mode by executing the package with the -s flag. Additional parameters can be passed which will install specific subpackages instead of all packages. See the table below for a list of all the subpackage names.

Table 1. Windows Operating System Support in CUDA 12.0 пѓЃ Table 3. Possible Subpackage Names пѓЃ

Toolkit Subpackages (defaults to C:Program FilesNVIDIA GPU Computing ToolkitCUDAv12.0)

CUDA Profiler API.

CUDA Runtime libraries.

Extracts information from cubin files.

The CUDA Profiling Tools Interface for creating profiling and tracing tools that target CUDA applications.

The CUDA cu++ filt demangler tool.

Prebuilt demo applications using CUDA.

CUDA HTML and PDF documentation files including the CUDA C++ Programming Guide, CUDA C++ Best Practices Guide, CUDA library documentation, etc.

Extracts information from standalone cubin files.

NVML development libraries and headers.

Tool for collecting and viewing CUDA application profiling data from the command-line.

Prunes host object files and libraries to only contain device code for the specified targets.

NVRTC runtime libraries.

NVTX on Windows.

Compute Sanitizer API.

cuBLAS runtime libraries.

cuFFT runtime libraries.

cuRAND runtime libraries.

cuSOLVER runtime libraries.

cuSPARSE runtime libraries.

NPP runtime libraries.

Installs the Nsight Visual Studio Edition plugin in all VS.

Installs CUDA project wizard and builds customization files in VS.

Installs the CUDA_Occupancy_Calculator.xls tool.

The NVIDIA Display Driver. Required to run CUDA applications.

For example, to install only the compiler and driver components:

Use the -n option if you do not want to reboot automatically after install or uninstall, even if reboot is required.

Extracting and Inspecting the Files Manually

Sometimes it may be desirable to extract or inspect the installable files directly, such as in enterprise deployment, or to browse the files before installation. The full installation package can be extracted using a decompression tool which supports the LZMA compression method, such as 7-zip or WinZip.

Once extracted, the CUDA Toolkit files will be in the CUDAToolkit folder, and similarily for CUDA Visual Studio Integration. Within each directory is a .dll and .nvi file that can be ignored as they are not part of the installable files.

Accessing the files in this manner does not set up any environment settings, such as variables or Visual Studio integration. This is intended for enterprise-level deployment.

2.3.1. Uninstalling the CUDA SoftwareпѓЃ

All subpackages can be uninstalled through the Windows Control Panel by using the Programs and Features widget.

2.4. Using Conda to Install the CUDA SoftwareпѓЃ

This section describes the installation and configuration of CUDA when using the Conda installer. The Conda packages are available at https://anaconda.org/nvidia.

2.4.1. Conda OverviewпѓЃ

The Conda installation installs the CUDA Toolkit. The installation steps are listed below.

2.4.2. InstallationпѓЃ

To perform a basic install of all CUDA Toolkit components using Conda, run the following command:

2.4.3. UninstallationпѓЃ

To uninstall the CUDA Toolkit using Conda, run the following command:

2.4.4. Installing Previous CUDA ReleasesпѓЃ

All Conda packages released under a specific CUDA version are labeled with that release version. To install a previous version, include that label in the install command such as:

Some CUDA releases do not move to new versions of all installable components. When this is the case these components will be moved to the new label, and you may need to modify the install command to include both labels such as:

This example will install all packages released as part of CUDA 11.3.0.

2.5. Use a Suitable Driver ModelпѓЃ

On Windows 10 and later, the operating system provides two driver models under which the NVIDIA Driver may operate:

The WDDM driver model is used for display devices.

The Tesla Compute Cluster (TCC) mode of the NVIDIA Driver is available for non-display devices such as NVIDIA Tesla GPUs and the GeForce GTX Titan GPUs; it uses the Windows WDM driver model.

TCC is enabled by default on most recent NVIDIA Tesla GPUs. To check which driver mode is in use and/or to switch driver modes, use the nvidia-smi tool that is included with the NVIDIA Driver installation (see nvidia-smi -h for details).

Keep in mind that when TCC mode is enabled for a particular GPU, that GPU cannot be used as a display device.

NVIDIA GeForce GPUs (excluding GeForce GTX Titan GPUs) do not support TCC mode.

2.6. Verify the InstallationпѓЃ

Before continuing, it is important to verify that the CUDA toolkit can find and communicate correctly with the CUDA-capable hardware. To do this, you need to compile and run some of the included sample programs.

2.6.1. Running the Compiled ExamplesпѓЃ

The version of the CUDA Toolkit can be checked by running nvcc -V in a Command Prompt window. You can display a Command Prompt window by going to:

Start > All Programs > Accessories > Command Prompt

CUDA Samples are located in https://github.com/nvidia/cuda-samples. To use the samples, clone the project, build the samples, and run them using the instructions on the Github page.

To verify a correct configuration of the hardware and software, it is highly recommended that you build and run the deviceQuery sample program. The sample can be built using the provided VS solution files in the deviceQuery folder.

This assumes that you used the default installation directory structure. If CUDA is installed and configured correctly, the output should look similar to Figure 1.

Figure 1. Valid Results from deviceQuery CUDA Sample пѓЃ

The exact appearance and the output lines might be different on your system. The important outcomes are that a device was found, that the device(s) match what is installed in your system, and that the test passed.

If a CUDA-capable device and the CUDA Driver are installed but deviceQuery reports that no CUDA-capable devices are present, ensure the deivce and driver are properly installed.

Running the bandwidthTest program, located in the same directory as deviceQuery above, ensures that the system and the CUDA-capable device are able to communicate correctly. The output should resemble Figure 2.

Figure 2. Valid Results from bandwidthTest CUDA Sample пѓЃ

The device name (second line) and the bandwidth numbers vary from system to system. The important items are the second line, which confirms a CUDA device was found, and the second-to-last line, which confirms that all necessary tests passed.

If the tests do not pass, make sure you do have a CUDA-capable NVIDIA GPU on your system and make sure it is properly installed.

To see a graphical representation of what CUDA can do, run the particles sample at

3. Pip WheelsпѓЃ

NVIDIA provides Python Wheels for installing CUDA through pip, primarily for using CUDA with Python. These packages are intended for runtime use and do not currently include developer tools (these can be installed separately).

Please note that with this installation method, CUDA installation environment is managed via pip and additional care must be taken to set up your host environment to use CUDA outside the pip environment.

Prerequisites

To install Wheels, you must first install the nvidia-pyindex package, which is required in order to set up your pip installation to fetch additional Python modules from the NVIDIA NGC PyPI repo. If your pip and setuptools Python modules are not up-to-date, then use the following command to upgrade these Python modules. If these Python modules are out-of-date then the commands which follow later in this section may fail.

You should now be able to install the nvidia-pyindex module.

If your project is using a requirements.txt file, then you can add the following line to your requirements.txt file as an alternative to installing the nvidia-pyindex package:

Procedure

Install the CUDA runtime package:

Optionally, install additional packages as listed below using the following command:

Metapackages

The following metapackages will install the latest version of the named component on Windows for the indicated CUDA version. “cu12” should be read as “cuda12”.

These metapackages install the following packages:

4. Compiling CUDA ProgramsпѓЃ

The project files in the CUDA Samples have been designed to provide simple, one-click builds of the programs that include all source code. To build the Windows projects (for release or debug mode), use the provided *.sln solution files for Microsoft Visual Studio 2015 (deprecated in CUDA 11.1), 2017, 2019, or 2022. You can use either the solution files located in each of the examples directories in

4.1. Compiling Sample ProjectsпѓЃ

The bandwidthTest project is a good sample project to build and run. It is located in https://github.com/NVIDIA/cuda-samples/tree/master/Samples/1_Utilities/bandwidthTest.

If you elected to use the default installation location, the output is placed in CUDA Samplesv12.0binwin64Release . Build the program using the appropriate solution file and run the executable. If all works correctly, the output should be similar to Figure 2.

4.2. Sample ProjectsпѓЃ

The sample projects come in two configurations: debug and release (where release contains no debugging information) and different Visual Studio projects.

A few of the example projects require some additional setup.

These sample projects also make use of the $CUDA_PATH environment variable to locate where the CUDA Toolkit and the associated .props files are.

The environment variable is set automatically using the Build Customization CUDA 12.0.props file, and is installed automatically as part of the CUDA Toolkit installation process.

CUDA 12.0 .props file Install Directory

Visual Studio 2015 (deprecated)

C:Program Files (x86)MSBuildMicrosoft.Cppv4.0V140BuildCustomizations

Visual Studio 2017

Visual Studio 2019

C:Program Files (x86)Microsoft Visual Studio2019ProfessionalMSBuildMicrosoftVCv160BuildCustomizations

Visual Studio 2022

C:Program FilesMicrosoft Visual Studio2022ProfessionalMSBuildMicrosoftVCv170BuildCustomizations

You can reference this CUDA 12.0.props file when building your own CUDA applications.

4.3. Build Customizations for New ProjectsпѓЃ

When creating a new CUDA application, the Visual Studio project file must be configured to include CUDA build customizations. To accomplish this, click File-> New | Project… NVIDIA-> CUDA->, then select a template for your CUDA Toolkit version. For example, selecting the “CUDA 12.0 Runtime” template will configure your project for use with the CUDA 12.0 Toolkit. The new project is technically a C++ project (.vcxproj) that is preconfigured to use NVIDIA’s Build Customizations. All standard capabilities of Visual Studio C++ projects will be available.

To specify a custom CUDA Toolkit location, under CUDA C/C++, select Common, and set the CUDA Toolkit Custom Dir field as desired. Note that the selected toolkit must match the version of the Build Customizations.

A supported version of MSVC must be installed to use this feature.

4.4. Build Customizations for Existing ProjectsпѓЃ

When adding CUDA acceleration to existing applications, the relevant Visual Studio project files must be updated to include CUDA build customizations. This can be done using one of the following two methods:

Open the Visual Studio project, right click on the project name, and select Build Dependencies > Build Customizations…, then select the CUDA Toolkit version you would like to target.

Alternatively, you can configure your project always to build with the most recently installed version of the CUDA Toolkit. First add a CUDA build customization to your project as above. Then, right click on the project name and select Properties. Under CUDA C/C++, select Common, and set the CUDA Toolkit Custom Dir field to $(CUDA_PATH) . Note that the $(CUDA_PATH) environment variable is set by the installer.

While Option 2 will allow your project to automatically use any new CUDA Toolkit version you may install in the future, selecting the toolkit version explicitly as in Option 1 is often better in practice, because if there are new CUDA configuration options added to the build customization rules accompanying the newer toolkit, you would not see those new options using Option 2.

If you use the $(CUDA_PATH) environment variable to target a version of the CUDA Toolkit for building, and you perform an installation or uninstallation of any version of the CUDA Toolkit, you should validate that the $(CUDA_PATH) environment variable points to the correct installation directory of the CUDA Toolkit for your purposes. You can access the value of the $(CUDA_PATH) environment variable via the following steps:

Open a run window from the Start Menu.

Select the Advanced tab at the top of the window.

Click Environment Variables at the bottom of the window.

Files which contain CUDA code must be marked as a CUDA C/C++ file. This can done when adding the file by right clicking the project you wish to add the file to, selecting Add New Item, selecting NVIDIA CUDA 12.0CodeCUDA C/C++ File, and then selecting the file you wish to add.

For advanced users, if you wish to try building your project against a newer CUDA Toolkit without making changes to any of your project files, go to the Visual Studio command prompt, change the current directory to the location of your project, and execute a command such as the following:

5. Additional ConsiderationsпѓЃ

Now that you have CUDA-capable hardware and the NVIDIA CUDA Toolkit installed, you can examine and enjoy the numerous included programs. To begin using CUDA to accelerate the performance of your own applications, consult the CUDAВ C Programming Guide, located in the CUDA Toolkit documentation directory.

A number of helpful development tools are included in the CUDA Toolkit or are available for download from the NVIDIA Developer Zone to assist you as you develop your CUDA programs, such as NVIDIA В® Nsightв„ў Visual Studio Edition, and NVIDIA Visual Profiler.

For technical support on programming questions, consult and participate in the developer forums at https://developer.nvidia.com/cuda/.

6. NoticesпѓЃ

6.1. NoticeпѓЃ

This document is provided for information purposes only and shall not be regarded as a warranty of a certain functionality, condition, or quality of a product. NVIDIA Corporation (“NVIDIA”) makes no representations or warranties, expressed or implied, as to the accuracy or completeness of the information contained in this document and assumes no responsibility for any errors contained herein. NVIDIA shall have no liability for the consequences or use of such information or for any infringement of patents or other rights of third parties that may result from its use. This document is not a commitment to develop, release, or deliver any Material (defined below), code, or functionality.

NVIDIA reserves the right to make corrections, modifications, enhancements, improvements, and any other changes to this document, at any time without notice.

Customer should obtain the latest relevant information before placing orders and should verify that such information is current and complete.

NVIDIA products are sold subject to the NVIDIA standard terms and conditions of sale supplied at the time of order acknowledgement, unless otherwise agreed in an individual sales agreement signed by authorized representatives of NVIDIA and customer (“Terms of Sale”). NVIDIA hereby expressly objects to applying any customer general terms and conditions with regards to the purchase of the NVIDIA product referenced in this document. No contractual obligations are formed either directly or indirectly by this document.

NVIDIA products are not designed, authorized, or warranted to be suitable for use in medical, military, aircraft, space, or life support equipment, nor in applications where failure or malfunction of the NVIDIA product can reasonably be expected to result in personal injury, death, or property or environmental damage. NVIDIA accepts no liability for inclusion and/or use of NVIDIA products in such equipment or applications and therefore such inclusion and/or use is at customer’s own risk.

NVIDIA makes no representation or warranty that products based on this document will be suitable for any specified use. Testing of all parameters of each product is not necessarily performed by NVIDIA. It is customer’s sole responsibility to evaluate and determine the applicability of any information contained in this document, ensure the product is suitable and fit for the application planned by customer, and perform the necessary testing for the application in order to avoid a default of the application or the product. Weaknesses in customer’s product designs may affect the quality and reliability of the NVIDIA product and may result in additional or different conditions and/or requirements beyond those contained in this document. NVIDIA accepts no liability related to any default, damage, costs, or problem which may be based on or attributable to: (i) the use of the NVIDIA product in any manner that is contrary to this document or (ii) customer product designs.

No license, either expressed or implied, is granted under any NVIDIA patent right, copyright, or other NVIDIA intellectual property right under this document. Information published by NVIDIA regarding third-party products or services does not constitute a license from NVIDIA to use such products or services or a warranty or endorsement thereof. Use of such information may require a license from a third party under the patents or other intellectual property rights of the third party, or a license from NVIDIA under the patents or other intellectual property rights of NVIDIA.

Reproduction of information in this document is permissible only if approved in advance by NVIDIA in writing, reproduced without alteration and in full compliance with all applicable export laws and regulations, and accompanied by all associated conditions, limitations, and notices.

THIS DOCUMENT AND ALL NVIDIA DESIGN SPECIFICATIONS, REFERENCE BOARDS, FILES, DRAWINGS, DIAGNOSTICS, LISTS, AND OTHER DOCUMENTS (TOGETHER AND SEPARATELY, “MATERIALS”) ARE BEING PROVIDED “AS IS.” NVIDIA MAKES NO WARRANTIES, EXPRESSED, IMPLIED, STATUTORY, OR OTHERWISE WITH RESPECT TO THE MATERIALS, AND EXPRESSLY DISCLAIMS ALL IMPLIED WARRANTIES OF NONINFRINGEMENT, MERCHANTABILITY, AND FITNESS FOR A PARTICULAR PURPOSE. TO THE EXTENT NOT PROHIBITED BY LAW, IN NO EVENT WILL NVIDIA BE LIABLE FOR ANY DAMAGES, INCLUDING WITHOUT LIMITATION ANY DIRECT, INDIRECT, SPECIAL, INCIDENTAL, PUNITIVE, OR CONSEQUENTIAL DAMAGES, HOWEVER CAUSED AND REGARDLESS OF THE THEORY OF LIABILITY, ARISING OUT OF ANY USE OF THIS DOCUMENT, EVEN IF NVIDIA HAS BEEN ADVISED OF THE POSSIBILITY OF SUCH DAMAGES. Notwithstanding any damages that customer might incur for any reason whatsoever, NVIDIA’s aggregate and cumulative liability towards customer for the products described herein shall be limited in accordance with the Terms of Sale for the product.

6.2. OpenCLпѓЃ

OpenCL is a trademark of Apple Inc. used under license to the Khronos Group Inc.

6.3. TrademarksпѓЃ

NVIDIA and the NVIDIA logo are trademarks or registered trademarks of NVIDIA Corporation in the U.S. and other countries. Other company and product names may be trademarks of the respective companies with which they are associated.

© Copyright 2009-2022, NVIDIA Corporation & Affiliates. All rights reserved. Last updated on Dec 08, 2022.

Источник

Adblock
detector

Table 4. CUDA Visual Studio .props locations пѓЃ

Содержание

  1. Как узнать версию cuda на видеокарте
  2. Узнаём версию драйверов
  3. Способ 1: GPU-Z
  4. Способ 2: Панель управления NVIDIA
  5. Способ 3: Системные средства
  6. Заключение
  7. Как получить версию cuda?
  8. 11 ответов:

Как узнать версию cuda на видеокарте

Своевременное обновление драйвера видеокарты — залог её оптимальной и качественной работы. Для того, чтобы узнать какая версия драйвера установлена на вашем компьютере (ноутбуке) и требуется ли его обновление, необходимо проделать несколько простых манипуляций. Предлагаем два варианта: первый подойдет только для пользователей видеокарт от NVIDIA, второй подойдет также и для тех, кто использует AMD (ATI) Radeon.

1. Кликаем правой кнопкой мыши в пустое место рабочего стола. В открывшемся окне выбираем пункт «Панель управления NVIDIA», как показано на рисунке.

В открывшейся панели управления в левом нижнем углу находим ссылку «Информация о системе», нажимаем её.

В новом окне мы видим всю информацию о нашей графической системе, и в самой первой строке находится версия установленного драйвера.

2. Для любителей поэкспериментировать предлагаем еще один простой способ. Он также подойдет для пользователей видеокарт от AMD (ATI) Radeon.

Комбинацией клавиш Win+R открываем меню «Выполнить». Вводим команду «dxdiag» и нажимаем «OK».

Перед нами откроется большое окно под названием «Средство диагностики DirectX». Здесь выбираем меню «Экран» и в правой колонке видим полную информацию о нашем драйвере.

Надеемся, мы помогли вам найти ответ на вопрос «как узнать версию драйвера видеокарты». Напомним, что вы всегда можете скачать последнюю версию драйверов для мобильных видеокарт на нашем сайте.


Для оптимальной производительности видеокарт от NVIDIA необходимо регулярно обновлять программное обеспечение. Перед выполнением данной процедуры желательно узнать версию драйверов, уже установленных на компьютере. Операция довольно простая.

Узнаём версию драйверов

Получить данные о версии установленного ПО для видеоадаптера от НВИДИА можно с помощью сторонних средств, приложения от производителя или задействованием системного инструментария.

Способ 1: GPU-Z

Разработчики утилиты CPU-Z выпускают также средство GPU-Z, которое показывает параметры установленной в компьютере графической карты, в том числе и сведения об установленных драйверах.

  1. Утилита поставляется в портативном виде – достаточно воспользоваться исполняемым файлом.

После запуска найдите в главном окне строку «Driver Version» – все нужные сведения о ПО видеоадаптера находятся там.


Первые 10 цифр представляют собой непосредственно версию драйверов, а цифры в скобках после надписи «NVIDIA» – релизный номер пакета.

Дату релиза драйвера можно узнать в поле «Driver Date».


Как видим, с помощью ГПУ-З получить требуемую информацию очень просто. Единственным недостатком этого решения, хотя и не самым критичным, является отсутствие русского языка.

Способ 2: Панель управления NVIDIA

В комплекте с драйверами для «зелёной» видеокарты обычно идёт панель управления драйверами – программное средство настройки тех или иных параметров GPU, с помощью которого также можно узнать версию установленного ПО.

  1. На «Рабочем столе» найдите пустое место, наведите на него курсор и кликните правой кнопкой мыши. Появится контекстное меню, в котором выберите пункт «Панель управления NVIDIA».

После запуска средства воспользуйтесь меню «Справка», в котором выберите пункт «Информация о системе».

В окошке со сведениями найдите строки «Версия драйвера» и «Тип драйвера». В первой можно узнать точный номер версии, а во второй — вариант комплектации пакета ПО.

Способ 3: Системные средства

Требуемую информацию также можно получить из некоторых системных оснасток – средства диагностики DirectX, окна сведений о системе или «Диспетчера устройств».

Средство диагностики DirectX
Графическое API ДиректИкс зависит от аппаратных и программных характеристик видеокарты, поэтому всегда отображает версию установленных драйверов.

    Откройте инструмент «Выполнить» (клавиши Win+R), затем впишите в него команду dxdiag и нажмите «ОК».

После запуска средства перейдите на вкладку «Экран» (компьютеры с CPU без встроенного видеоядра) или «Преобразователь» (ПК с вмонтированными в процессор GPU или ноутбуки с гибридными системами).

Найдите блок «Драйверы». Информация о номере пакета и дате его выпуска содержится в строках «Версия» и «Дата» соответственно.

Сведения о системе
Во все актуальные версии Виндовс встроено средство отображения данных о системе, которое умеет также отображать версии присутствующих в системе драйверов, в том числе и для видеокарт. Им мы и воспользуемся.

    Повторите первый шаг предыдущей инструкции, только сейчас прописывайте команду msinfo32 .

Откройте ветку «Компоненты» и выберите пункт «Дисплей».

Найдите строку «Версия драйвера» – отображаемый в ней номер и есть версия установленных драйверов.

«Диспетчер устройств»
Также требуемую информацию можно получить в «Диспетчере устройств».

    Снова воспользуемся окном «Выполнить» — вводите код devmgmt.msc .

Найдите в списке оборудования раздел «Видеоадаптеры» и открывайте его. Далее выделите пункт, соответствующий вашей видеокарте NVIDIA, кликните по нему правой кнопкой мыши, и выберите вариант «Свойства».

В «Свойствах» перейдите на вкладку «Драйвер». Позиция «Версия драйвера» укажет номер версии ПО, а «Дата разработки» – дату его релиза.

Все системные инструменты не отображают номер релиза драйверов, что можно назвать недостатком этого способа.

Заключение

Таким образом мы рассмотрели несколько вариантов получения сведений о версии драйверов для видеокарт NVIDIA. Как видим, более полную информацию можно получить либо сторонними средствами, либо через панель управления видеокартой.

Отблагодарите автора, поделитесь статьей в социальных сетях.

B: Могу ли я найти драйвер для более раннего продукта и где?
O: Да. Вы можете воспользоваться Опцией номер 2 для автоматического поиска драйвера для вашего продукта или выбрать “Предыдущие модели” в Типе продукта в Опции номер 1.

B: Где я могу найти более ранние или бета версии драйверов?
O: На главной странице закачки драйверов, выберите Бета версии и драйверы из архива в меню Дополнительное ПО и драйверы.

B: Как узнать, с какой версией драйвера я работаю?
O: Нажмите правую клавишу мыши на рабочем столе и выберите Панель управления NVIDIA. В меню Панели управления NVIDIA выберите Помощь > Информация о системе. Версия драйвера указана в верхней части окна Детали. Более продвинутые пользователи могут узнать версию драйвера из Мастера управления оборудованием Windows. Нажмите правую кнопку мыши на графическом устройстве во вкладке адаптеры дисплея и выберите Свойства. Выберите вкладку Драйвер и узнайте версию драйвера. Последние 5 цифр являются номером версии драйвера NVIDIA.

B: После того, как я нажал Согласен и Скачать, я должен выбрать Запустить или Сохранить?
O: Ваш выбор зависит от ваших предпочтений. Если вы хотите сохранить драйвер и использовать его позже или на другом ПК, то стоит выбрать Сохранить. Если вы хотите скачать и тут же начать использовать драйвер, то необходимо выбрать Запустить.

B: Нужно ли сперва удалить более ранний драйвер?
O: Нет. Ранее перед установкой следовало удалить предыдущий драйвер. Сегодня мы рекомендуем установку нового драйвера поверх более раннего. Это позволит вам управлять любыми текущими настройками и профилями Панели управления NVIDIA.

B: Я бы хотел вернуться к предыдущей версии драйвера. Как это сделать?
O: Если вы установили новый драйвер поверх старого, просто сделайте откат к более ранней версии драйвера. Инструкции вы найдете тут: Опция 2: Откат к предыдущему драйверу.

Как получить версию cuda?

есть ли быстрая команда или скрипт для проверки версии установленного CUDA?

Я нашел руководство 4.0 в каталоге установки, но не уверен, является ли фактическая установленная версия таковой или нет.

11 ответов:

как Джаред упоминает в комментарии, из командной строки:

дает версию компилятора CUDA (которая соответствует версии инструментария).

из кода приложения вы можете запросить версию API среды выполнения с помощью

или версия API драйвера с

как указывает Даниэль, deviceQuery-это пример приложения SDK, который запрашивает выше, а также возможности устройства.

как другие отмечают, вы также можете проверить содержание version.txt использование (например, на Mac или Linux)

однако, если установлена другая версия инструментария CUDA, отличная от той, которая связана с /usr/local/cuda , это может сообщить о неточной версии, если другая версия находится ранее в вашем PATH чем выше, так что используйте с осторожностью.

$ cat /usr/local/cuda/version.txt или $ cat /usr/local/cuda-8.0/version.txt

иногда папка называется «Cuda-version».

если ничего из вышеперечисленного не работает, попробуйте перейти $ /usr/local/ И найдите правильное имя вашей папки Cuda.

результат должен быть похож на: CUDA Version 8.0.61

Если вы установили CUDA SDK, вы можете запустить «deviceQuery», чтобы увидеть версию CUDA

вы можете найти CUDA-Z полезным, вот цитата с их сайта:

» эта программа родилась как пародия на другие Z-утилиты, такие как CPU-Z и GPU-Z. CUDA-Z показывает некоторую базовую информацию о графических процессорах с поддержкой CUDA и GPGPUs. Он работает с картами nVIDIA Geforce, Quadro и Tesla, чипсетами ION.»

на вкладке поддержка есть URL для исходного кода: http://sourceforge.net/p/cuda-z/code/ и загрузка на самом деле не установщик, а сам исполняемый файл (без установки, так что это «быстро»).

эта утилита предоставляет множество информации, и если вам нужно знать, как она была получена, есть источник посмотреть. Есть и другие утилиты, подобные этой, которые вы можете искать.

после установки CUDA можно проверить версии по: nvcc-V

Я установил как 5.0, так и 5.5, поэтому он дает

инструменты компиляции Cuda, выпуск 5.5, V5. 5,0

эта команда работает как для Windows, так и для Ubuntu.

кроме упомянутых выше, ваш путь установки CUDA (если он не был изменен во время установки) обычно содержит номер версии

делать which nvcc должны дать путь, и это даст вам версию

PS: Это быстрый и грязный способ, приведенные выше ответы более элегантны и приведут к правильной версии со значительными усилиями

сначала вы должны найти, где установлен Cuda.

Если это установка по умолчанию, такие как здесь расположение должно быть:

в этой папке должен быть файл

открыть этот файл в любом текстовом редакторе или выполнять:

можно узнать cuda версия, введя следующее в терминале:

кроме того, можно вручную проверьте версию, сначала выяснив каталог установки с помощью:

а то cd в этот каталог и проверьте версию CUDA.

Я получаю /usr / local — нет такого файла или каталога. Хотя nvcc -V дает

для версии cuDNN:

используйте следующее, чтобы найти путь для cuDNN:

затем используйте это, чтобы получить версию из файла заголовка,

используйте следующее, чтобы найти путь для cuDNN:

затем используйте это, чтобы сбросить версию из файла заголовка,

Содержание

  1. How to get the CUDA version?
  2. 26 Answers 26
  3. Как получить версию cuda?
  4. 11 ответов:
  5. Как получить версию CUDA?
  6. Как Узнать Версию Cuda Windows 10
  7. How to get the CUDA version?
  8. 22 Answers 22
  9. Как узнать версию cuda на видеокарте
  10. Установка rCUDA
  11. Какую версию CUDA выбрать
  12. О технологии многопотоковых вычислений CUDA в видеокартах компании Nvidia
  13. Влияет ли на хешрейт версия CUDA, установленная на компьютере?
  14. Программа для проверки наличия CUDA нуждается в CUDA
  15. Другие решения
  16. CUDA и удаленный GPU
  17. Получение rCUDA
  18. Запуск демона rCUDA на сервере
  19. Установка Tensorflow с поддержкой CUDA, cuDNN и GPU в Windows 10
  20. Шаг 1: Проверьте программное обеспечение, которое вам нужно установить
  21. Шаг 2: Загрузите Visual Studio Express
  22. Visual Studio является обязательным условием для CUDA Toolkit
  23. Выбор и загрузка Visual Studio Express
  24. Установка Visual Studio Express
  25. Шаг 3: Загрузите CUDA Toolkit для Windows 10
  26. Шаг 4: Загрузите исправления CUDA для Windows 10
  27. Шаг 5: Загрузите и установите cuDNN
  28. Шаг 6: Установите Python (если у вас его еще нет)
  29. Шаг 7: Установите Tensorflow с поддержкой GPU
  30. Шаг 8: Тестовая установка TensorFlow и его доступ к GPU
  31. Выводы

How to get the CUDA version?

Is there any quick command or script to check for the version of CUDA installed?

I found the manual of 4.0 under the installation directory but I’m not sure whether it is of the actual installed version or not.

26 Answers 26

As Jared mentions in a comment, from the command line:

From application code, you can query the runtime API version with

or the driver API version with

As Daniel points out, deviceQuery is an SDK sample app that queries the above, along with device capabilities.

As others note, you can also check the contents of the version.txt using (e.g., on Mac or Linux)

You can also get some insights into which CUDA versions are installed with:

which will give you something like this:

Given a sane PATH, the version cuda points to should be the active one (10.2 in this case).

NOTE: This only works if you are willing to assume CUDA is installed under /usr/local/cuda (which is true for the independent installer with the default location, but not true e.g. for distributions with CUDA integrated as a package). Ref: comment from @einpoklum.

d3eFg

q8vkw

You should find the CUDA Version on the top right corner of the comand’s output. At least I found that output for CUDA version 10.0 e.g., 0iIOs

oUK7k

For CUDA version:

For cuDNN version:

Use following to find path for cuDNN:

Then use this to get version from header file,

Use following to find path for cuDNN:

Then use this to dump version from header file,

CFPkp

Use the following command to check CUDA installation by Conda:

And the following command to check CUDNN version installed by conda:

If you want to install/update CUDA and CUDNN through CONDA, please use the following commands:

Alternatively you can use following commands to check CUDA installation:

If you are using tensorflow-gpu through Anaconda package (You can verify this by simply opening Python in console and check if the default python shows Anaconda, Inc. when it starts, or you can run which python and check the location), then manually installing CUDA and CUDNN will most probably not work. You will have to update through conda instead.

If you want to install CUDA, CUDNN, or tensorflow-gpu manually, you can check out the instructions here https://www.tensorflow.org/install/gpu

Uh1Qo

Sometimes the folder is named «Cuda-version».

Output should be similar to: CUDA Version 8.0.61

sLIrP

If you have installed CUDA SDK, you can run «deviceQuery» to see the version of CUDA

Other respondents have already described which commands can be used to check the CUDA version. Here, I’ll describe how to turn the output of those commands into an environment variable of the form «10.2», «11.0», etc.

To recap, you can use

to find out the CUDA version. I think this should be your first port of call. If you have multiple versions of CUDA installed, this command should print out the version for the copy which is highest on your PATH.

The output looks like this:

We can pass this output through sed to pick out just the MAJOR.MINOR release version number.

If nvcc isn’t on your path, you should be able to run it by specifying the full path to the default location of nvcc instead.

The output of which is the same as above, and it can be parsed in the same way.

Alternatively, you can find the CUDA version from the version.txt file.

The output of which

can be parsed using sed to pick out just the MAJOR.MINOR release version number.

We can combine these three methods together in order to robustly get the CUDA version as follows:

This environment variable is useful for downstream installations, such as when pip installing a copy of pytorch that was compiled for the correct CUDA version.

Similarly, you could install the CPU version of pytorch when CUDA is not installed.

But be careful with this because you can accidentally install a CPU-only version when you meant to have GPU support. For example, if you run the install script on a server’s login node which doesn’t have GPUs and your jobs will be deployed onto nodes which do have GPUs. In this case, the login node will typically not have CUDA installed.

Источник

Как получить версию cuda?

есть ли быстрая команда или скрипт для проверки версии установленного CUDA?

Я нашел руководство 4.0 в каталоге установки, но не уверен, является ли фактическая установленная версия таковой или нет.

11 ответов:

как Джаред упоминает в комментарии, из командной строки:

дает версию компилятора CUDA (которая соответствует версии инструментария).

из кода приложения вы можете запросить версию API среды выполнения с помощью

или версия API драйвера с

как указывает Даниэль, deviceQuery-это пример приложения SDK, который запрашивает выше, а также возможности устройства.

как другие отмечают, вы также можете проверить содержание version.txt использование (например, на Mac или Linux)

иногда папка называется «Cuda-version».

результат должен быть похож на: CUDA Version 8.0.61

Если вы установили CUDA SDK, вы можете запустить «deviceQuery», чтобы увидеть версию CUDA

вы можете найти CUDA-Z полезным, вот цитата с их сайта:

» эта программа родилась как пародия на другие Z-утилиты, такие как CPU-Z и GPU-Z. CUDA-Z показывает некоторую базовую информацию о графических процессорах с поддержкой CUDA и GPGPUs. Он работает с картами nVIDIA Geforce, Quadro и Tesla, чипсетами ION.»

на вкладке поддержка есть URL для исходного кода: http://sourceforge.net/p/cuda-z/code/ и загрузка на самом деле не установщик, а сам исполняемый файл (без установки, так что это «быстро»).

эта утилита предоставляет множество информации, и если вам нужно знать, как она была получена, есть источник посмотреть. Есть и другие утилиты, подобные этой, которые вы можете искать.

после установки CUDA можно проверить версии по: nvcc-V

Я установил как 5.0, так и 5.5, поэтому он дает

инструменты компиляции Cuda, выпуск 5.5, V5. 5,0

эта команда работает как для Windows, так и для Ubuntu.

кроме упомянутых выше, ваш путь установки CUDA (если он не был изменен во время установки) обычно содержит номер версии

делать which nvcc должны дать путь, и это даст вам версию

PS: Это быстрый и грязный способ, приведенные выше ответы более элегантны и приведут к правильной версии со значительными усилиями

сначала вы должны найти, где установлен Cuda.

Если это установка по умолчанию, такие как здесь расположение должно быть:

в этой папке должен быть файл

открыть этот файл в любом текстовом редакторе или выполнять:

можно узнать cuda версия, введя следующее в терминале:

кроме того, можно вручную проверьте версию, сначала выяснив каталог установки с помощью:

а то cd в этот каталог и проверьте версию CUDA.

для версии cuDNN:

используйте следующее, чтобы найти путь для cuDNN:

затем используйте это, чтобы получить версию из файла заголовка,

используйте следующее, чтобы найти путь для cuDNN:

затем используйте это, чтобы сбросить версию из файла заголовка,

Источник

Как получить версию CUDA?

Есть ли какая-нибудь быстрая команда или скрипт, чтобы проверить версию установленной CUDA?

Я нашел руководство 4.0 в каталоге установки, но я не уверен, является ли оно действующей установленной версией или нет.

Как упоминает Джаред в комментарии, из командной строки:

Из кода приложения вы можете запросить версию API времени выполнения с помощью

или версия драйвера API с

Как отмечают другие, вы также можете проверить содержимое version.txt использования (например, на Mac или Linux)

Вы должны найти версию CUDA в верхнем правом углу вывода команды. По крайней мере, я обнаружил, что вывод для CUDA версии 10.0, например, 0iIOs

Для версии CUDA:

Для версии cuDNN:

Используйте следующее, чтобы найти путь для cuDNN:

Затем используйте это, чтобы получить версию из файла заголовка,

Используйте следующее, чтобы найти путь для cuDNN:

Затем используйте это для выгрузки версии из файла заголовка,

Иногда папка называется «Cuda-версия».

Вывод должен быть похож на: CUDA Version 8.0.61

Используйте следующую команду, чтобы проверить установку CUDA от Conda:

И следующая команда для проверки версии CUDNN, установленной conda:

Если вы хотите установить / обновить CUDA и CUDNN через CONDA, пожалуйста, используйте следующие команды:

В качестве альтернативы вы можете использовать следующие команды для проверки установки CUDA:

Если вы используете tenorflow-gpu через пакет Anaconda (это можно проверить, просто открыв Python в консоли и проверив, показывает ли Python по умолчанию Anaconda, Inc. при запуске, или вы можете запустить какой Python и проверить местоположение), затем вручную установка CUDA и CUDNN, скорее всего, не будет работать. Вам придется обновить через Conda вместо этого.

Источник

Как Узнать Версию Cuda Windows 10

How to get the CUDA version?

Is there any quick command or script to check for the version of CUDA installed?
I found the manual of 4.0 under the installation directory but I’m not sure whether it is of the actual installed version or not.

22 Answers 22

As Jared mentions in a comment, from the command line:
(or /usr/local/cuda/bin/nvcc —version ) gives the CUDA compiler version (which matches the toolkit version).

From application code, you can query the runtime API version with
or the driver API version with

As Daniel points out, deviceQuery is an SDK sample app that queries the above, along with device capabilities.
As others note, you can also check the contents of the version.txt using (e.g., on Mac or Linux)

However, if there is another version of the CUDA toolkit installed other than the one symlinked from /usr/local/cuda, this may report an inaccurate version if another version is earlier in your PATH than the above, so use with caution.

On Ubuntu Cuda V8:
You can also get some insights into which CUDA versions are installed with:

which will give you something like this:
Given a sane PATH, the version cuda points to should be the active one (10.2 in this case).

NOTE: This only works if you are willing to assume CUDA is installed under /usr/local/cuda (which is true for the independent installer with the default location, but not true e.g. for distributions with CUDA integrated as a package). Ref: comment from @einpoklum.

kak uznat versiyu 6F7D3B

You should find the CUDA Version on the top right corner of the comand’s output. At least I found that output for CUDA version 10.0 e.g., kak uznat versiyu 713A0E5

For CUDA version:

For cuDNN version:

Use following to find path for cuDNN:
Then use this to get version from header file,

Use following to find path for cuDNN:
Then use this to dump version from header file,

If you’re getting two different versions for CUDA on Windows — Different CUDA versions shown by nvcc and NVIDIA-smi

kak uznat versiyu 5F1B1

kak uznat versiyu 86737

Use the following command to check CUDA installation by Conda:
And the following command to check CUDNN version installed by conda:

If you want to install/update CUDA and CUDNN through CONDA, please use the following commands:
Alternatively you can use following commands to check CUDA installation:

If you are using tensorflow-gpu through Anaconda package (You can verify this by simply opening Python in console and check if the default python shows Anaconda, Inc. when it starts, or you can run which python and check the location), then manually installing CUDA and CUDNN will most probably not work. You will have to update through conda instead.

На вкладке «Дополнительные драйверы» в разделе «Программное обеспечение и обновления» выберите проприетарный драйвер NVIDIA (390 для CUDA 9) sudo apt update && sudo apt установите nvidia-cuda-toolkit или установите его из центра программного обеспечения ubuntu. Как Узнать Версию Cuda

Как узнать версию cuda на видеокарте

Так вот, чтобы использовать всю мощь вашей графической карты необходимо выполнение следующих условий:

Эти ядра умеют считать, как и обычные процессоры CPU, но делают это немножко по другому.

Установка rCUDA

cd /NVIDIA_CUDA-8.0_Samples/1_Utilities/deviceQuerymake EXTRA_NVCCFLAGS=—cudart=shared Установка CUDA

Какую версию CUDA выбрать

Запуск демона rCUDA на сервере. Настройка клиента

Теперь попробуем что-то поинтереснее. Протестируем реализацию скалярного произведения векторов с использованием разделяемой памяти и синхронизации («Технология CUDA в примерах» Сандерс Дж. Кэндрот Э. 5.3.1).

Видеокарты производства компании Nvidia пользуются заслуженной славой в области проведения надежных высокопроизводительных вычислений. Благодаря наличию аппаратных возможностей технологии CUDA, «зеленые карты» показывают отличные результаты и при майнинге на большинстве алгоритмов консенсуса PoW.

О технологии многопотоковых вычислений CUDA в видеокартах компании Nvidia

Видеокарты производства компании Nvidia пользуются заслуженной славой в области проведения надежных высокопроизводительных вычислений.

Влияет ли на хешрейт версия CUDA, установленная на компьютере?

Использование новых драйверов Nvidia обычно сопряжено с увеличением требований к аппаратному обеспечению и часто влечет рост потребления видеопамяти, что не всегда положительно сказываются на производительности видеокарт при майнинге.

Это особенно проявляется в быстродействии и потреблении видеопамяти при майнинге на алгоритме Ethash DaggerHashimoto.

Приложения CUDA используются для обработки видео и аудио, моделирования физических эффектов, в процессе разведки месторождений нефти и газа, проектировании различных изделий, медицинской визуализации и научных исследованиях, в разработке вакцин от болезней, в том числе COVID-19, физическом моделировании и других областях.

Программа для проверки наличия CUDA нуждается в CUDA

есть NVIDIA GPU или нет.

Другие решения

Я думаю, что лучший способ сделать это по-старому, рассмотреть возможность проверки этого простая веб-страница и вы получите гораздо более надежный ответ.

Если библиотека времени выполнения присутствует, попытайтесь использовать ее для перечисления устройств.

Я отправил приложение на второй компьютер, и приложение не запустилось — диалоговое окно показало, что cudart.dll не был найден. Я хочу проверить, присутствует ли CUDA, и для этого требуется CUDA

rCUDA (Remote CUDA) — фреймворк, реализующий CUDA API, позволяющий использовать удаленную видеокарту. Находится в работоспособной бета-версии, доступен только под Linux. Основная цель rCUDA — полная совместимость с CUDA API, вам не нужно никак модифицировать свой код, достаточно задать специальные переменные среды.

CUDA и удаленный GPU

Находится в работоспособной бета-версии, доступен только под Linux.

Получение rCUDA

Запуск демона rCUDA на сервере

Для этого можно скачать его с официального сайта или использовать репозиторий. Что такое rCUDA

Я постараюсь рассмотреть в этой статье такое решение, как фреймворк rCUDA (Remote CUDA), который поможет, когда Nvidia видеокарта есть, но установлена не в той машине, на которой предполагается запуск CUDA приложений. Тем, кому это интересно, добро пожаловать под кат.

Источник

Установка Tensorflow с поддержкой CUDA, cuDNN и GPU в Windows 10

Дата публикации Apr 3, 2019

ВЧасть 1В этой серии я рассказал о том, как вы можете модернизировать аппаратное обеспечение своего ПК, добавив в него видеокарту, совместимую с CUDA Toolkit, например графический процессор Nvidia. В этой части 2 рассматривается установка CUDA, cuDNN и Tensorflow в Windows 10. В данной статье предполагается, что на вашем компьютере уже установлен CUDA-совместимый графический процессор; но если у вас этого еще нет,Часть 1из этой серии поможет вам настроить аппаратное обеспечение, готовое к этим шагам.

Шаг 1: Проверьте программное обеспечение, которое вам нужно установить

Шаг 2: Загрузите Visual Studio Express

Visual Studio является обязательным условием для CUDA Toolkit

Visual Studio требуется для установки Nvidia CUDA Toolkit (это обязательное условиеВот). Если вы попытаетесь загрузить и установить CUDA Toolkit для Windows без предварительной установки Visual Studio, вы получите сообщение, показанное на рис. 1.

0 913302 181242

Выбор и загрузка Visual Studio Express

На момент написания этой статьи самой последней версией Visual Studio (которая является бесплатной) является Visual Studio Express Community Version 2017, показанная на рис. 2. Предыдущие версии Visual Studio можно бесплатно получить, присоединившись к «Visual Studio Dev Essentials”И затем ищите нужную версию Visual Studio.

0 591372 988297

Установка Visual Studio Express

После того, как вы загрузили Visual Studio Express, его установка проста. На рис. 3 показан исполняемый файл, который вы получаете в качестве загрузки.

0 825233 407159

Когда вы нажимаете опцию «сохранить файл» на рис. 3, появляется окно на рис. 4, где вы можете установить параметры установки (или просто оставить их, как они есть по умолчанию, как я).

0 518609 921182

Во время установки Visual Studio предложит вам whetherхочу продолжить без нагрузки». Я нажал «продолжить», поскольку не собирался использовать рабочие нагрузки вообще.

0 206473 253855

Может потребоваться перезагрузка компьютера после установки Visual Studiod

Эти шаги установки CUDA основаны наРуководство по установке Nvidia CUDA для Windows, Набор инструментов CUDA (бесплатный) можно загрузить с веб-сайта NvidiaВот,

На момент написания по умолчанию предлагается версия CUDA Toolkit версии 10.0, как показано на рис. 6. Однако вам следует проверить, какую версию CUDA Toolkit вы выбрали для загрузки и установки, чтобы обеспечить совместимость с Tensorflow (в будущемШаг 7этого процесса). Когда вы идете наВеб-сайт Tensorflow, последняя доступная версия Tensorflow (1.12.0) требуетCUDA 9.0не CUDA 10.0. Чтобы найти CUDA 9.0, вам нужно перейти к «Legacy Releases» в нижней правой части рисунка 6.

0 577029 317099

Шаг 3.1: Загрузка CUDA 9.0 из архива инструментария CUDA

0 523133 588274

Шаг 3.2: Установка CUDA 9.0

CUDA 9.0 поставляется как базовая установка и четыре патча; Сначала необходимо установить базовую версию CUDA 9.0, а затем патчи. Варианты базовой установки, которые я выбрал, показаны на рис. 8.

0 126549 296534

Запуск только что загруженного базового установщика приведет к появлению окна CUDA Setup Package, как показано на рисунке 9.

0 507950 735252

0 43719 187649

Рис. 11 дает возможность выбрать место установки; Я выбрал расположение по умолчанию, которое для CUDA:

0 802725 155190

На рисунке 12 ниже показаны установки CUDA, основанные на Visual Studio, ранее установленной вШаг 1,

0 392879 171453

Нажатие «Далее» в окне, показанном на рис. 12 выше, дает окно окончательной установки, показанное как рис. 13 ниже, где установщик NVIDIA отмечен как завершенный.

0 79778 119732

Шаг 4: Загрузите исправления CUDA для Windows 10

На момент написания этой книги было четыре патча CUDA (а также базовый установщик), так что давайте пойдем и загрузим их. Они показаны на фиг.14.

0 732524 114088

Шаг 5: Загрузите и установите cuDNN

После установки базового установщика CUDA 9.0 и его четырех исправлений следующим шагом будет поиск совместимой версии CuDNN. Основываясь на информации на веб-сайте Tensorflow, для поддержки Tensorflow с графическим процессором требуется версия cuDNN по адресуминимум 7,2,

Шаг 5.1: Загрузка cuDNN

Для того, чтобыскачать CuDNNВы должны зарегистрироваться, чтобы стать участником программы разработчиков NVIDIA (которая бесплатна).

0 364266 275885

Когда вы создаете учетную запись, входите в систему и заполняете некоторые другие необходимые сведения о том, почему вы используете учетную запись, вы получаете страницу загрузки, показанную на рис. 16.

0 373097 485054

Шаг 5.2: Распаковка файлов cuDNN и копирование в папки CUDA

В приведенных ниже инструкциях я ссылаюсь на путь к папке «C: Users жо Documents cuDNN_downloads »(Упоминается чуть выше) как« », Такой, что zip-файл теперь находится в пути:

В разархивированных подкаталогах папки cuDNN находятся три файла, которые нужно скопировать в каталоги CUDA Toolkit. Это cudnn64_7.dll, cudnn.h и:

1. cudnn64_7.dll

cudnn64_7.dll можно найти по следующему пути в загруженных файлах cuDNN:

Предполагая, что вы установили CUDA 9.0 по пути по умолчанию (как я сделал вШаг 2.3), а именно следующий путь по умолчанию:

Вы можете скопироватьcudnn64_7.dllфайл прямо в папку CUDAбункерПуть к папке (примечание: вам не нужно создавать какие-либо новые подпапки):

2. cudnn.h

Как и в случае с файлом cudnn64_7.dll, приведенным выше, после загрузки и разархивирования папки cuDNN файл заголовкаcudnn64.hможно найти в пути:

Опять же, предполагая, что вы установили CUDA 9.0 в путь по умолчанию, как я сделал вШаг 2.3скопироватьcudnn.hнепосредственно в папку CUDA по следующему пути (новые подпапки не нужны):

3. cudnn.lib

.Lib файлcudnn.libможно найти в загруженном пути cuDNN:

Скопируйте cudnn.lib непосредственно в папку CUDA по следующему пути:

Шаг 5.3: Проверка того, что переменные среды CUDA установлены в Windows

Наконец,инструкции на нвидииубедитесь, что вы ранее установили переменную среды CUDA следующим образом:

В Windows 10 переменные среды можно найти, выбрав:

Панель управления->Система и безопасность->система->Расширенные настройки системы,

Откроется окно «Свойства системы» (рис. 17), в котором следует выбрать кнопку «Переменные среды».

0 301970 7290

Когда появится окно «Переменные среды», в «системных переменных» (в нижней половине окна) нажмите «Путь» и нажмите кнопку «Изменить». Появится новое окно под названием «Редактировать переменную среды», как показано на рисунке 18 ниже.

0 909125 420035

Шаг 6: Установите Python (если у вас его еще нет)

Теперь, когда CUDA и cuDNN установлены, пришло время установить Python для последующей установки Tensorflow. На момент написания самой последней доступной версии Python 3 является Python 3.7, ноВерсии Python 3, необходимые для Tensorflow: 3.4, 3.5 или 3.6, Python 3.6 можно загрузить для Windows 10 сВот, Когда вы запустите установщик Python для окон, появится окно настройки на Рис. 19.

0 862548 576606

Из вариантов, показанных на рис. 19 выше, во время установки Python я решил выбрать все из них. Эти параметры полезны: установщик Python «pip» используется наШаг 7.2этого руководства по установке Tensorflow. Кроме того, я использую IDE (интегрированную среду разработки для написания и запуска кода Python) под названием «IDLE» вШаг 8,

В «Расширенных настройках» (показанных на Рис. 20 ниже) я выбрал установку Python для всех пользователей (которая не была отмечена по умолчанию); это дает более полезную системную установку.

0 474629 377876

Шаг 7: Установите Tensorflow с поддержкой GPU

Tensorflowпредоставляет инструкциидля проверки правильности добавления каталогов установки CUDA, cuDNN и (необязательно: CUPTI) в переменные среды PATH. Поскольку три файла cuDNN были скопированы в подпапки CUDA, я не обновил существующий путь переменных среды CUDA.

Шаг 7.1: вызов командной строки с правами администратора

На этом этапе выполняется общесистемная установка Tensorflow, а не установка для каждого пользователя. Общесистемная установка Tensorflow требует прав администратора, поэтому, соответственно, командная строка должна запускаться с правами администратора.

Откройте командную строку, запустив ‘CMD’В строке поиска, а затем щелкните правой кнопкой мыши в командной строке, чтобы выбрать« Запуск от имени администратора ». Это открывает Администратор: Командная строка, как показано на рисунке 21.

0 647909 815833

Шаг 7.2: Общесистемная установка Tensorflow через Python pip

После открытия командной строки общесистемная команда установки для Tensorflow с поддержкой GPU выглядит следующим образом:

Команда «pip3» (в отличие от «pip») требуется, так как установка выполняется в Python 3. Выполнение этой команды в командной строке показано на рисунке 22.

0 969557 625645

Результирующий вывод команды показан на рисунке 23, и, если все пойдет по плану, в конечном итоге должно появиться сообщение, подтверждающее, что Tensorflow был успешно установлен.

0 937861 848249

Шаг 8: Тестовая установка TensorFlow и его доступ к GPU

Перейдите в меню «Пуск» в Windows и найдите среду IDE с именем «idle», которая будет установлена ​​как часть вашей установки на python, если вы выбрали, как я сделал вШаг 6, Окно Python должно появиться с надписьюОболочка Python 3.6.x, По приглашению (обозначается как «>>>») импортируйте пакет Tensorflow. Это проверит, что Tensorflow был установлен (как вы можете импортировать его). Команда для оболочки IDLE для импорта пакета tenorflow выглядит следующим образом:

Чтобы проверить поддержку CUDA для вашей установки Tensorflow, вы можете запустить в командной строке следующую команду:

Наконец, чтобы убедиться, что графический процессор доступен для Tensorflow, вы можете протестировать, используя встроенную служебную функцию в TensorFlow, как показаноВот:

Требуется несколько минут, чтобы вернуть результат из этого; когда он закончен, он возвращаетсяПравда, а затем приглашение>>>`появляется снова. Импортирование тензорного потока и эти тесты показаны на рис. 24 в оболочке Python IDLE.

0 25110 941851

Выводы

Это были шаги, которые я предпринял для установки Visual Studio, CUDA Toolkit, CuDNN и Python 3.6, и все с конечной целью установки Tensorflow с поддержкой GPU в Windows 10. На сегодняшний день моя работа по машинному обучению и глубокому обучению на основе GPU была в Linux Машины с Ubuntu; к тому же, большая часть онлайновой поддержки сообщества машинного обучения фокусируется на Ubuntu

Для машинного обучения основным недостатком использования Windows является то, что необходимо создавать больше объектов из исходного кода (например, используяCmake), чем в Linux, а также для установки дополнительного программного обеспечения для процессов сборки, таких как Visual Studio. Например, если бы выустановить Caffe2в Windows нет встроенных двоичных файлов, и сборка Windows находится в тестовом и бета-режиме. Я установил CUDA и cuDNN на Windows 10 более любопытно, чем что-либо еще, просто чтобы посмотреть, насколько это было просто (или иначе).

Как я намекал вЧасть 1Теперь, когда CUDA, cuDNN и Tensorflow успешно установлены в Windows 10, и я проверил доступ Tensorflow к графическому процессору, я собираюсь смести всю операционную систему Windows 10, чтобы произвести новую установку Ubuntu 18.04 LTS. Эта новая установка Ubuntu будет рассмотрена в части 3 этой серии.

Эта статья также была опубликованаВотв моем собственном блоге.

Источник

Here you will learn how to check NVIDIA CUDA version in 3 ways: nvcc from CUDA toolkit, nvidia-smi from NVIDIA driver, and simply checking a file. Using one of these methods, you will be able to see the CUDA version regardless the software you are using, such as PyTorch, TensorFlow, conda (Miniconda/Anaconda) or inside docker.

Prerequisite

You should have NVIDIA driver installed on your system, as well as Nvidia CUDA toolkit, aka, CUDA, before we start. If you haven’t, you can install it by running sudo apt install nvidia-cuda-toolkit.

What is CUDA?

CUDA is a general parallel computing architecture and programming model developed by NVIDIA for its graphics cards (GPUs). Using CUDA, PyTorch or TensorFlow developers will dramatically increase the performance of PyTorch or TensorFlow training models, utilizing GPU resources effectively.

In GPU-accelerated technology, the sequential portion of the task runs on the CPU for optimized single-threaded performance, while the computed-intensive segment, like PyTorch technology, runs parallel via CUDA at thousands of GPU cores. When using CUDA, developers can write a few basic keywords in common languages such as C, C++ , Python, and implement parallelism.

Method 1 — Use nvcc to check CUDA version

If you have installed the cuda-toolkit software either from the official Ubuntu repositories via sudo apt install nvidia-cuda-toolkit, or by downloading and installing it manually from the official NVIDIA website, you will have nvcc in your path (try echo $PATH) and its location will be /usr/bin/nvcc (by running which nvcc).

nvcc command from the cuda toolkit package 1

To check CUDA version with nvcc, run

nvcc --version

You can see similar output in the screenshot below. The last line shows you version of CUDA. The version here is 10.1. Yours may vary, and can be either 10.0, 10.1, 10.2 or even older versions such as 9.0, 9.1 and 9.2. After the screenshot you will find the full text output too.

Use nvcc version to check cuda version

vh@varhowto-com:~$ nvcc --version
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2019 NVIDIA Corporation
Built on Sun_Jul_28_19:07:16_PDT_2019
Cuda compilation tools, release 10.1, V10.1.243

What is nvcc?

nvcc is the NVIDIA CUDA Compiler, thus the name. It is the key wrapper for the CUDA compiler suite. For other usage of nvcc, you can use it to compile and link both host and GPU code.

Check out nvcc‘s manpage for more information.

Method 2 — Check CUDA version by nvidia-smi from NVIDIA Linux driver

The second way to check CUDA version is to run nvidia-smi, which comes from downloading the NVIDIA driver, specifically the NVIDIA-utils package. You can install either Nvidia driver from the official repositories of Ubuntu, or from the NVIDIA website.

nvidia smi command from nvidia util package

$ which nvidia-smi
/usr/bin/nvidia-smi
$ dpkg -S /usr/bin/nvidia-smi
nvidia-utils-440: /usr/bin/nvidia-smi

To check CUDA version with nvidia-smi, directly run

nvidia-smi

You can see similar output in the screenshot below. The version is at the top right of the output. Here’s my version is CUDA 10.2. You may have 10.0, 10.1 or even the older version 9.0 or 9.1 or 9.2 installed.

Importantly, except for CUDA version. There are more details in the nvidia-smi output, driver version (440.100), GPU name, GPU fan percentage, power consumption/capability, memory usage, can also be found here. You can also find the processes which use the GPU at the moment. This is helpful if you want to see if your model or system is using GPU such as PyTorch or TensorFlow.

Use nvidia smi to check cuda version

Here is the full text output:

vh@varhowto-com:~$ nvidia-smi
Tue Jul 07 10:07:26 2020
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 440.100 Driver Version: 440.100 CUDA Version: 10.2 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 1070 Off | 00000000:01:00.0 On | N/A |
| 31% 48C P0 35W / 151W | 2807MiB / 8116MiB | 1% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 1582 G /usr/lib/xorg/Xorg 262MiB |
| 0 2481 G /usr/lib/xorg/Xorg 1646MiB |
| 0 2686 G /usr/bin/gnome-shell 563MiB |
| 0 3244 G …AAAAAAAAAAAACAAAAAAAAAA= --shared-files 319MiB |
+-----------------------------------------------------------------------------+

What is nvidia-smi?

nvidia-smi (NVSMI) is NVIDIA System Management Interface program. It is also known as NVSMI. nvidia-smi provides monitoring and maintenance capabilities for all of tje Fermi’s Tesla, Quadro, GRID and GeForce NVIDIA GPUs and higher architecture families. For most functions, GeForce Titan Series products are supported with only little detail given for the rest of the Geforce range.

NVSMI is also a cross-platform application that supports both common NVIDIA driver-supported Linux distros and 64-bit versions of Windows starting with Windows Server 2008 R2. Metrics may be used directly by users via stdout, or stored via CSV and XML formats for scripting purposes.

For more information, check out the man page of nvidia-smi.

Method 3 — cat /usr/local/cuda/version.txt

cat /usr/local/cuda/version.txt

Note that if you install Nvidia driver and CUDA from Ubuntu 20.04’s own official repository this approach may not work.

cat usr local cuda version.txt

Time Needed : 5 minutes

There are basically three ways to check CUDA version. One must work if not the other.

  1. Perhaps the easiest way to check a file

    Run cat /usr/local/cuda/version.txt

    Note: this may not work on Ubuntu 20.04cat usr local cuda

  2. Another method is through the cuda-toolkit package command nvcc.

    Simple run nvcc --version. The cuda version is in the last line of the output.Use nvcc version to check cuda version

  3. The other way is from the NVIDIA driver’s nvidia-smi command you have installed.

    Simply run nvidia-smi. The version is in the header of the table printed.Use nvidia smi to check cuda version

Понравилась статья? Поделить с друзьями:
  • Как пробросить видеокарту в virtualbox windows
  • Как проверить аккумулятор на компьютере windows 10
  • Как проверить версию bios на windows 11
  • Как проапгрейдить windows home до windows pro
  • Как проверить админские права windows 10