User Guide
Running pip
pip is a command line program. When you install pip, a pip
command is added
to your system, which can be run from the command prompt as follows:
.. tab:: Unix/macOS .. code-block:: shell python -m pip <pip arguments> ``python -m pip`` executes pip using the Python interpreter you specified as python. So ``/usr/bin/python3.7 -m pip`` means you are executing pip for your interpreter located at ``/usr/bin/python3.7``.
.. tab:: Windows .. code-block:: shell py -m pip <pip arguments> ``py -m pip`` executes pip using the latest Python interpreter you have installed. For more details, read the `Python Windows launcher`_ docs.
Installing Packages
pip supports installing from PyPI, version control, local projects, and
directly from distribution files.
The most common scenario is to install from PyPI using :ref:`Requirement
Specifiers`
.. tab:: Unix/macOS .. code-block:: shell python -m pip install SomePackage # latest version python -m pip install SomePackage==1.0.4 # specific version python -m pip install 'SomePackage>=1.0.4' # minimum version
.. tab:: Windows .. code-block:: shell py -m pip install SomePackage # latest version py -m pip install SomePackage==1.0.4 # specific version py -m pip install 'SomePackage>=1.0.4' # minimum version
For more information and examples, see the :ref:`pip install` reference.
Basic Authentication Credentials
This is now covered in :doc:`topics/authentication`.
netrc Support
This is now covered in :doc:`topics/authentication`.
Keyring Support
This is now covered in :doc:`topics/authentication`.
Using a Proxy Server
When installing packages from PyPI, pip requires internet access, which
in many corporate environments requires an outbound HTTP proxy server.
pip can be configured to connect through a proxy server in various ways:
- using the
--proxy
command-line option to specify a proxy in the form
scheme://[user:passwd@]proxy.server:port
- using
proxy
in a :ref:`config-file` - by setting the standard environment-variables
http_proxy
,https_proxy
andno_proxy
. - using the environment variable
PIP_USER_AGENT_USER_DATA
to include
a JSON-encoded string in the user-agent variable used in pip’s requests.
Requirements Files
«Requirements files» are files containing a list of items to be
installed using :ref:`pip install` like so:
.. tab:: Unix/macOS .. code-block:: shell python -m pip install -r requirements.txt
.. tab:: Windows .. code-block:: shell py -m pip install -r requirements.txt
Details on the format of the files are here: :ref:`requirements-file-format`.
Logically, a Requirements file is just a list of :ref:`pip install` arguments
placed in a file. Note that you should not rely on the items in the file being
installed by pip in any particular order.
In practice, there are 4 common uses of Requirements files:
-
Requirements files are used to hold the result from :ref:`pip freeze` for the
purpose of achieving :doc:`topics/repeatable-installs`. In
this case, your requirement file contains a pinned version of everything that
was installed whenpip freeze
was run... tab:: Unix/macOS .. code-block:: shell python -m pip freeze > requirements.txt python -m pip install -r requirements.txt
.. tab:: Windows .. code-block:: shell py -m pip freeze > requirements.txt py -m pip install -r requirements.txt
-
Requirements files are used to force pip to properly resolve dependencies.
pip 20.2 and earlier doesn’t have true dependency resolution, but instead simply uses the first
specification it finds for a project. E.g. ifpkg1
requires
pkg3>=1.0
andpkg2
requirespkg3>=1.0,<=2.0
, and ifpkg1
is
resolved first, pip will only usepkg3>=1.0
, and could easily end up
installing a version ofpkg3
that conflicts with the needs ofpkg2
.
To solve this problem, you can placepkg3>=1.0,<=2.0
(i.e. the correct
specification) into your requirements file directly along with the other top
level requirements. Like so:pkg1 pkg2 pkg3>=1.0,<=2.0
-
Requirements files are used to force pip to install an alternate version of a
sub-dependency. For example, supposeProjectA
in your requirements file
requiresProjectB
, but the latest version (v1.3) has a bug, you can force
pip to accept earlier versions like so:ProjectA ProjectB<1.3
-
Requirements files are used to override a dependency with a local patch that
lives in version control. For example, suppose a dependency
SomeDependency
from PyPI has a bug, and you can’t wait for an upstream
fix.
You could clone/copy the src, make the fix, and place it in VCS with the tag
sometag
. You’d reference it in your requirements file with a line like
so:git+https://myvcs.com/some_dependency@sometag#egg=SomeDependency
If
SomeDependency
was previously a top-level requirement in your
requirements file, then replace that line with the new line. If
SomeDependency
is a sub-dependency, then add the new line.
It’s important to be clear that pip determines package dependencies using
install_requires metadata,
not by discovering requirements.txt
files embedded in projects.
See also:
- :ref:`requirements-file-format`
- :ref:`pip freeze`
- «setup.py vs requirements.txt» (an article by Donald Stufft)
Constraints Files
Constraints files are requirements files that only control which version of a
requirement is installed, not whether it is installed or not. Their syntax and
contents is a subset of :ref:`Requirements Files`, with several kinds of syntax
not allowed: constraints must have a name, they cannot be editable, and they
cannot specify extras. In terms of semantics, there is one key difference:
Including a package in a constraints file does not trigger installation of the
package.
Use a constraints file like so:
.. tab:: Unix/macOS .. code-block:: shell python -m pip install -c constraints.txt
.. tab:: Windows .. code-block:: shell py -m pip install -c constraints.txt
Constraints files are used for exactly the same reason as requirements files
when you don’t know exactly what things you want to install. For instance, say
that the «helloworld» package doesn’t work in your environment, so you have a
local patched version. Some things you install depend on «helloworld», and some
don’t.
One way to ensure that the patched version is used consistently is to
manually audit the dependencies of everything you install, and if «helloworld»
is present, write a requirements file to use when installing that thing.
Constraints files offer a better way: write a single constraints file for your
organisation and use that everywhere. If the thing being installed requires
«helloworld» to be installed, your fixed version specified in your constraints
file will be used.
Constraints file support was added in pip 7.1. In :ref:`Resolver
changes 2020` we did a fairly comprehensive overhaul, removing several
undocumented and unsupported quirks from the previous implementation,
and stripped constraints files down to being purely a way to specify
global (version) limits for packages.
Installing from Wheels
«Wheel» is a built, archive format that can greatly speed installation compared
to building and installing from source archives. For more information, see the
Wheel docs , PEP 427, and PEP 425.
pip prefers Wheels where they are available. To disable this, use the
:ref:`—no-binary <install_—no-binary>` flag for :ref:`pip install`.
If no satisfactory wheels are found, pip will default to finding source
archives.
To install directly from a wheel archive:
.. tab:: Unix/macOS .. code-block:: shell python -m pip install SomePackage-1.0-py2.py3-none-any.whl
.. tab:: Windows .. code-block:: shell py -m pip install SomePackage-1.0-py2.py3-none-any.whl
To include optional dependencies provided in the provides_extras
metadata in the wheel, you must add quotes around the install target
name:
.. tab:: Unix/macOS .. code-block:: shell python -m pip install './somepackage-1.0-py2.py3-none-any.whl[my-extras]'
.. tab:: Windows .. code-block:: shell py -m pip install './somepackage-1.0-py2.py3-none-any.whl[my-extras]'
Note
In the future, the path[extras]
syntax may become deprecated. It is
recommended to use PEP 508 syntax wherever possible.
For the cases where wheels are not available, pip offers :ref:`pip wheel` as a
convenience, to build wheels for all your requirements and dependencies.
:ref:`pip wheel` requires the wheel package to be installed, which provides the
«bdist_wheel» setuptools extension that it uses.
To build wheels for your requirements and all their dependencies to a local
directory:
.. tab:: Unix/macOS .. code-block:: shell python -m pip install wheel python -m pip wheel --wheel-dir=/local/wheels -r requirements.txt
.. tab:: Windows .. code-block:: shell py -m pip install wheel py -m pip wheel --wheel-dir=/local/wheels -r requirements.txt
And then to install those requirements just using your local directory of
wheels (and not from PyPI):
.. tab:: Unix/macOS .. code-block:: shell python -m pip install --no-index --find-links=/local/wheels -r requirements.txt
.. tab:: Windows .. code-block:: shell py -m pip install --no-index --find-links=/local/wheels -r requirements.txt
Uninstalling Packages
pip is able to uninstall most packages like so:
.. tab:: Unix/macOS .. code-block:: shell python -m pip uninstall SomePackage
.. tab:: Windows .. code-block:: shell py -m pip uninstall SomePackage
pip also performs an automatic uninstall of an old version of a package
before upgrading to a newer version.
For more information and examples, see the :ref:`pip uninstall` reference.
Listing Packages
To list installed packages:
.. tab:: Unix/macOS .. code-block:: console $ python -m pip list docutils (0.9.1) Jinja2 (2.6) Pygments (1.5) Sphinx (1.1.2)
.. tab:: Windows .. code-block:: console C:> py -m pip list docutils (0.9.1) Jinja2 (2.6) Pygments (1.5) Sphinx (1.1.2)
To list outdated packages, and show the latest version available:
.. tab:: Unix/macOS .. code-block:: console $ python -m pip list --outdated docutils (Current: 0.9.1 Latest: 0.10) Sphinx (Current: 1.1.2 Latest: 1.1.3)
.. tab:: Windows .. code-block:: console C:> py -m pip list --outdated docutils (Current: 0.9.1 Latest: 0.10) Sphinx (Current: 1.1.2 Latest: 1.1.3)
To show details about an installed package:
.. tab:: Unix/macOS .. code-block:: console $ python -m pip show sphinx --- Name: Sphinx Version: 1.1.3 Location: /my/env/lib/pythonx.x/site-packages Requires: Pygments, Jinja2, docutils
.. tab:: Windows .. code-block:: console C:> py -m pip show sphinx --- Name: Sphinx Version: 1.1.3 Location: /my/env/lib/pythonx.x/site-packages Requires: Pygments, Jinja2, docutils
For more information and examples, see the :ref:`pip list` and :ref:`pip show`
reference pages.
Searching for Packages
pip can search PyPI for packages using the pip search
command:
.. tab:: Unix/macOS .. code-block:: shell python -m pip search "query"
.. tab:: Windows .. code-block:: shell py -m pip search "query"
The query will be used to search the names and summaries of all
packages.
For more information and examples, see the :ref:`pip search` reference.
Configuration
This is now covered in :doc:`topics/configuration`.
Config file
This is now covered in :doc:`topics/configuration`.
Environment Variables
This is now covered in :doc:`topics/configuration`.
Config Precedence
This is now covered in :doc:`topics/configuration`.
Command Completion
pip comes with support for command line completion in bash, zsh and fish.
To setup for bash:
python -m pip completion --bash >> ~/.profile
To setup for zsh:
python -m pip completion --zsh >> ~/.zprofile
To setup for fish:
python -m pip completion --fish > ~/.config/fish/completions/pip.fish
To setup for powershell:
python -m pip completion --powershell | Out-File -Encoding default -Append $PROFILE
Alternatively, you can use the result of the completion
command directly
with the eval function of your shell, e.g. by adding the following to your
startup file:
eval "`pip completion --bash`"
Installing from local packages
In some cases, you may want to install from local packages only, with no traffic
to PyPI.
First, download the archives that fulfill your requirements:
.. tab:: Unix/macOS .. code-block:: shell python -m pip download --destination-directory DIR -r requirements.txt
.. tab:: Windows .. code-block:: shell py -m pip download --destination-directory DIR -r requirements.txt
Note that pip download
will look in your wheel cache first, before
trying to download from PyPI. If you’ve never installed your requirements
before, you won’t have a wheel cache for those items. In that case, if some of
your requirements don’t come as wheels from PyPI, and you want wheels, then run
this instead:
.. tab:: Unix/macOS .. code-block:: shell python -m pip wheel --wheel-dir DIR -r requirements.txt
.. tab:: Windows .. code-block:: shell py -m pip wheel --wheel-dir DIR -r requirements.txt
Then, to install from local only, you’ll be using :ref:`—find-links
<install_—find-links>` and :ref:`—no-index <install_—no-index>` like so:
.. tab:: Unix/macOS .. code-block:: shell python -m pip install --no-index --find-links=DIR -r requirements.txt
.. tab:: Windows .. code-block:: shell py -m pip install --no-index --find-links=DIR -r requirements.txt
«Only if needed» Recursive Upgrade
pip install --upgrade
now has a --upgrade-strategy
option which
controls how pip handles upgrading of dependencies. There are 2 upgrade
strategies supported:
eager
: upgrades all dependencies regardless of whether they still satisfy
the new parent requirementsonly-if-needed
: upgrades a dependency only if it does not satisfy the new
parent requirements
The default strategy is only-if-needed
. This was changed in pip 10.0 due to
the breaking nature of eager
when upgrading conflicting dependencies.
It is important to note that --upgrade
affects direct requirements (e.g.
those specified on the command-line or via a requirements file) while
--upgrade-strategy
affects indirect requirements (dependencies of direct
requirements).
As an example, say SomePackage
has a dependency, SomeDependency
, and
both of them are already installed but are not the latest available versions:
pip install SomePackage
: will not upgrade the existingSomePackage
or
SomeDependency
.pip install --upgrade SomePackage
: will upgradeSomePackage
, but not
SomeDependency
(unless a minimum requirement is not met).pip install --upgrade SomePackage --upgrade-strategy=eager
: upgrades both
SomePackage
andSomeDependency
.
As an historic note, an earlier «fix» for getting the only-if-needed
behaviour was:
.. tab:: Unix/macOS .. code-block:: shell python -m pip install --upgrade --no-deps SomePackage python -m pip install SomePackage
.. tab:: Windows .. code-block:: shell py -m pip install --upgrade --no-deps SomePackage py -m pip install SomePackage
A proposal for an upgrade-all
command is being considered as a safer
alternative to the behaviour of eager upgrading.
User Installs
With Python 2.6 came the «user scheme» for installation,
which means that all Python distributions support an alternative install
location that is specific to a user. The default location for each OS is
explained in the python documentation for the site.USER_BASE variable.
This mode of installation can be turned on by specifying the :ref:`—user
<install_—user>` option to pip install
.
Moreover, the «user scheme» can be customized by setting the
PYTHONUSERBASE
environment variable, which updates the value of
site.USER_BASE
.
To install «SomePackage» into an environment with site.USER_BASE
customized to
‘/myappenv’, do the following:
.. tab:: Unix/macOS .. code-block:: shell export PYTHONUSERBASE=/myappenv python -m pip install --user SomePackage
.. tab:: Windows .. code-block:: shell set PYTHONUSERBASE=c:/myappenv py -m pip install --user SomePackage
pip install --user
follows four rules:
- When globally installed packages are on the python path, and they conflict
with the installation requirements, they are ignored, and not
uninstalled. - When globally installed packages are on the python path, and they satisfy
the installation requirements, pip does nothing, and reports that
requirement is satisfied (similar to how global packages can satisfy
requirements when installing packages in a--system-site-packages
virtualenv). - pip will not perform a
--user
install in a--no-site-packages
virtualenv (i.e. the default kind of virtualenv), due to the user site not
being on the python path. The installation would be pointless. - In a
--system-site-packages
virtualenv, pip will not install a package
that conflicts with a package in the virtualenv site-packages. The —user
installation would lack sys.path precedence and be pointless.
To make the rules clearer, here are some examples:
From within a --no-site-packages
virtualenv (i.e. the default kind):
.. tab:: Unix/macOS .. code-block:: console $ python -m pip install --user SomePackage Can not perform a '--user' install. User site-packages are not visible in this virtualenv.
.. tab:: Windows .. code-block:: console C:> py -m pip install --user SomePackage Can not perform a '--user' install. User site-packages are not visible in this virtualenv.
From within a --system-site-packages
virtualenv where SomePackage==0.3
is already installed in the virtualenv:
.. tab:: Unix/macOS .. code-block:: console $ python -m pip install --user SomePackage==0.4 Will not install to the user site because it will lack sys.path precedence
.. tab:: Windows .. code-block:: console C:> py -m pip install --user SomePackage==0.4 Will not install to the user site because it will lack sys.path precedence
From within a real python, where SomePackage
is not installed globally:
.. tab:: Unix/macOS .. code-block:: console $ python -m pip install --user SomePackage [...] Successfully installed SomePackage
.. tab:: Windows .. code-block:: console C:> py -m pip install --user SomePackage [...] Successfully installed SomePackage
From within a real python, where SomePackage
is installed globally, but
is not the latest version:
.. tab:: Unix/macOS .. code-block:: console $ python -m pip install --user SomePackage [...] Requirement already satisfied (use --upgrade to upgrade) $ python -m pip install --user --upgrade SomePackage [...] Successfully installed SomePackage
.. tab:: Windows .. code-block:: console C:> py -m pip install --user SomePackage [...] Requirement already satisfied (use --upgrade to upgrade) C:> py -m pip install --user --upgrade SomePackage [...] Successfully installed SomePackage
From within a real python, where SomePackage
is installed globally, and
is the latest version:
.. tab:: Unix/macOS .. code-block:: console $ python -m pip install --user SomePackage [...] Requirement already satisfied (use --upgrade to upgrade) $ python -m pip install --user --upgrade SomePackage [...] Requirement already up-to-date: SomePackage # force the install $ python -m pip install --user --ignore-installed SomePackage [...] Successfully installed SomePackage
.. tab:: Windows .. code-block:: console C:> py -m pip install --user SomePackage [...] Requirement already satisfied (use --upgrade to upgrade) C:> py -m pip install --user --upgrade SomePackage [...] Requirement already up-to-date: SomePackage # force the install C:> py -m pip install --user --ignore-installed SomePackage [...] Successfully installed SomePackage
Ensuring Repeatability
This is now covered in :doc:`../topics/repeatable-installs`.
Fixing conflicting dependencies
This is now covered in :doc:`../topics/dependency-resolution`.
Using pip from your program
As noted previously, pip is a command line program. While it is implemented in
Python, and so is available from your Python code via import pip
, you must
not use pip’s internal APIs in this way. There are a number of reasons for this:
- The pip code assumes that it is in sole control of the global state of the
program.
pip manages things like the logging system configuration, or the values of
the standard IO streams, without considering the possibility that user code
might be affected. - pip’s code is not thread safe. If you were to run pip in a thread, there
is no guarantee that either your code or pip’s would work as you expect. - pip assumes that once it has finished its work, the process will terminate.
It doesn’t need to handle the possibility that other code will continue to
run after that point, so (for example) calling pip twice in the same process
is likely to have issues.
This does not mean that the pip developers are opposed in principle to the idea
that pip could be used as a library — it’s just that this isn’t how it was
written, and it would be a lot of work to redesign the internals for use as a
library, handling all of the above issues, and designing a usable, robust and
stable API that we could guarantee would remain available across multiple
releases of pip. And we simply don’t currently have the resources to even
consider such a task.
What this means in practice is that everything inside of pip is considered an
implementation detail. Even the fact that the import name is pip
is subject
to change without notice. While we do try not to break things as much as
possible, all the internal APIs can change at any time, for any reason. It also
means that we generally won’t fix issues that are a result of using pip in an
unsupported way.
It should also be noted that installing packages into sys.path
in a running
Python process is something that should only be done with care. The import
system caches certain data, and installing new packages while a program is
running may not always behave as expected. In practice, there is rarely an
issue, but it is something to be aware of.
Having said all of the above, it is worth covering the options available if you
decide that you do want to run pip from within your program. The most reliable
approach, and the one that is fully supported, is to run pip in a subprocess.
This is easily done using the standard subprocess
module:
subprocess.check_call([sys.executable, '-m', 'pip', 'install', 'my_package'])
If you want to process the output further, use one of the other APIs in the module.
We are using freeze here which outputs installed packages in requirements format.:
reqs = subprocess.check_output([sys.executable, '-m', 'pip', 'freeze'])
If you don’t want to use pip’s command line functionality, but are rather
trying to implement code that works with Python packages, their metadata, or
PyPI, then you should consider other, supported, packages that offer this type
of ability. Some examples that you could consider include:
packaging
— Utilities to work with standard package metadata (versions,
requirements, etc.)setuptools
(specificallypkg_resources
) — Functions for querying what
packages the user has installed on their system.distlib
— Packaging and distribution utilities (including functions for
interacting with PyPI).
Changes to the pip dependency resolver in 20.3 (2020)
pip 20.3 has a new dependency resolver, on by default for Python 3
users. (pip 20.1 and 20.2 included pre-release versions of the new
dependency resolver, hidden behind optional user flags.) Read below
for a migration guide, how to invoke the legacy resolver, and the
deprecation timeline. We also made a two-minute video explanation
you can watch.
We will continue to improve the pip dependency resolver in response to
testers’ feedback. Please give us feedback through the resolver
testing survey.
Watch out for
The big change in this release is to the pip dependency resolver
within pip.
Computers need to know the right order to install pieces of software
(«to install x
, you need to install y
first»). So, when Python
programmers share software as packages, they have to precisely describe
those installation prerequisites, and pip needs to navigate tricky
situations where it’s getting conflicting instructions. This new
dependency resolver will make pip better at handling that tricky
logic, and make pip easier for you to use and troubleshoot.
The most significant changes to the resolver are:
- It will reduce inconsistency: it will no longer install a
combination of packages that is mutually inconsistent. In older
versions of pip, it is possible for pip to install a package which
does not satisfy the declared requirements of another installed
package. For example, in pip 20.0,pip install "six<1.12"
does the wrong thing, “successfully” installing
"virtualenv==20.0.2"
six==1.11
, even thoughvirtualenv==20.0.2
requires
six>=1.12.0,<2
(defined here).
The new resolver, instead, outright rejects installing anything if it
gets that input. - It will be stricter — if you ask pip to install two packages with
incompatible requirements, it will refuse (rather than installing a
broken combination, like it did in previous versions).
So, if you have been using workarounds to force pip to deal with
incompatible or inconsistent requirements combinations, now’s a good
time to fix the underlying problem in the packages, because pip will
be stricter from here on out.
This also means that, when you run a pip install
command, pip only
considers the packages you are installing in that command, and may
break already-installed packages. It will not guarantee that your
environment will be consistent all the time. If you pip install x
and then pip install y
, it’s possible that the version of y
you get will be different than it would be if you had run pip
in a single command. We are considering changing this
install x y
behavior (per :issue:`7744`) and would like your thoughts on what
pip’s behavior should be; please answer our survey on upgrades that
create conflicts.
We are also changing our support for :ref:`Constraints Files`,
editable installs, and related functionality. We did a fairly
comprehensive overhaul and stripped constraints files down to being
purely a way to specify global (version) limits for packages, and so
some combinations that used to be allowed will now cause
errors. Specifically:
- Constraints don’t override the existing requirements; they simply
constrain what versions are visible as input to the resolver (see
:issue:`9020`) - Providing an editable requirement (
-e .
) does not cause pip to
ignore version specifiers or constraints (see :issue:`8076`), and if
you have a conflict between a pinned requirement and a local
directory then pip will indicate that it cannot find a version
satisfying both (see :issue:`8307`) - Hash-checking mode requires that all requirements are specified as a
==
match on a version and may not work well in combination with
constraints (see :issue:`9020` and :issue:`8792`) - If necessary to satisfy constraints, pip will happily reinstall
packages, upgrading or downgrading, without needing any additional
command-line options (see :issue:`8115` and :doc:`development/architecture/upgrade-options`) - Unnamed requirements are not allowed as constraints (see :issue:`6628` and :issue:`8210`)
- Links are not allowed as constraints (see :issue:`8253`)
- Constraints cannot have extras (see :issue:`6628`)
Per our :ref:`Python 2 Support` policy, pip 20.3 users who are using
Python 2 will use the legacy resolver by default. Python 2 users
should upgrade to Python 3 as soon as possible, since in pip 21.0 in
January 2021, pip dropped support for Python 2 altogether.
How to upgrade and migrate
-
Install pip 20.3 with
python -m pip install --upgrade pip
. -
Validate your current environment by running
pip check
. This
will report if you have any inconsistencies in your set of installed
packages. Having a clean installation will make it much less likely
that you will hit issues with the new resolver (and may
address hidden problems in your current environment!). If you run
pip check
and run into stuff you can’t figure out, please ask
for help in our issue tracker or chat. -
Test the new version of pip.
While we have tried to make sure that pip’s test suite covers as
many cases as we can, we are very aware that there are people using
pip with many different workflows and build processes, and we will
not be able to cover all of those without your help.- If you use pip to install your software, try out the new resolver
and let us know if it works for you withpip install
. Try:- installing several packages simultaneously
- re-creating an environment using a
requirements.txt
file - using
pip install --force-reinstall
to check whether
it does what you think it should - using constraints files
- the «Setups to test with special attention» and «Examples to try» below
- If you have a build pipeline that depends on pip installing your
dependencies for you, check that the new resolver does what you
need. - Run your project’s CI (test suite, build process, etc.) using the
new resolver, and let us know of any issues. - If you have encountered resolver issues with pip in the past,
check whether the new resolver fixes them, and read :ref:`Fixing
conflicting dependencies`. Also, let us know if the new resolver
has issues with any workarounds you put in to address the
current resolver’s limitations. We’ll need to ensure that people
can transition off such workarounds smoothly. - If you develop or support a tool that wraps pip or uses it to
deliver part of your functionality, please test your integration
with pip 20.3.
- If you use pip to install your software, try out the new resolver
-
Troubleshoot and try these workarounds if necessary.
- If pip is taking longer to install packages, read :doc:`Dependency
resolution backtracking <topics/dependency-resolution>` for ways to
reduce the time pip spends backtracking due to dependency conflicts. - If you don’t want pip to actually resolve dependencies, use the
--no-deps
option. This is useful when you have a set of package
versions that work together in reality, even though their metadata says
that they conflict. For guidance on a long-term fix, read
:ref:`Fixing conflicting dependencies`. - If you run into resolution errors and need a workaround while you’re
fixing their root causes, you can choose the old resolver behavior using
the flag--use-deprecated=legacy-resolver
. This will work until we
release pip 21.0 (see
:ref:`Deprecation timeline for 2020 resolver changes`).
- If pip is taking longer to install packages, read :doc:`Dependency
-
Please report bugs through the resolver testing survey.
Setups to test with special attention
- Requirements files with 100+ packages
- Installation workflows that involve multiple requirements files
- Requirements files that include hashes (:ref:`hash-checking mode`)
or pinned dependencies (perhaps as output frompip-compile
within
pip-tools
) - Using :ref:`Constraints Files`
- Continuous integration/continuous deployment setups
- Installing from any kind of version control systems (i.e., Git, Subversion, Mercurial, or CVS), per :doc:`topics/vcs-support`
- Installing from source code held in local directories
Examples to try
Install:
- tensorflow
hacking
pycodestyle
pandas
tablib
elasticsearch
andrequests
togethersix
andcherrypy
togetherpip install flake8-import-order==0.17.1 flake8==3.5.0 --use-feature=2020-resolver
pip install tornado==5.0 sprockets.http==1.5.0 --use-feature=2020-resolver
Try:
pip install
pip uninstall
pip check
pip cache
Tell us about
Specific things we’d love to get feedback on:
- Cases where the new resolver produces the wrong result,
obviously. We hope there won’t be too many of these, but we’d like
to trap such bugs before we remove the legacy resolver. - Cases where the resolver produced an error when you believe it
should have been able to work out what to do. - Cases where the resolver gives an error because there’s a problem
with your requirements, but you need better information to work out
what’s wrong. - If you have workarounds to address issues with the current resolver,
does the new resolver let you remove those workarounds? Tell us!
Please let us know through the resolver testing survey.
Deprecation timeline
We plan for the resolver changeover to proceed as follows, using
:ref:`Feature Flags` and following our :ref:`Release Cadence`:
- pip 20.1: an alpha version of the new resolver was available,
opt-in, using the optional flag
--unstable-feature=resolver
. pip defaulted to legacy
behavior. - pip 20.2: a beta of the new resolver was available, opt-in, using
the flag--use-feature=2020-resolver
. pip defaulted to legacy
behavior. Users of pip 20.2 who want pip to default to using the
new resolver can runpip config set global.use-feature
(for more on that and the alternate
2020-resolver
PIP_USE_FEATURE
environment variable option, see issue
8661). - pip 20.3: pip defaults to the new resolver in Python 3 environments,
but a user can opt-out and choose the old resolver behavior,
using the flag--use-deprecated=legacy-resolver
. In Python 2
environments, pip defaults to the old resolver, and the new one is
available using the flag--use-feature=2020-resolver
. - pip 21.0: pip uses new resolver by default, and the old resolver is
no longer supported. It will be removed after a currently undecided
amount of time, as the removal is dependent on pip’s volunteer
maintainers’ availability. Python 2 support is removed per our
:ref:`Python 2 Support` policy.
Since this work will not change user-visible behavior described in the
pip documentation, this change is not covered by the :ref:`Deprecation
Policy`.
Context and followup
As discussed in our announcement on the PSF blog, the pip team are
in the process of developing a new «dependency resolver» (the part of
pip that works out what to install based on your requirements).
We’re tracking our rollout in :issue:`6536` and you can watch for
announcements on the low-traffic packaging announcements list and
the official Python blog.
Using system trust stores for verifying HTTPS
This is now covered in :doc:`topics/https-certificates`.
I work with a lot of systems that have been mucked by developers «following directions they found on the Internet». It is extremely common that your pip
and your python
are not looking at the same paths/site-packages. For this reason, when I encounter oddness I start by doing this:
$ python -c 'import sys; print(sys.path)'
['', '/usr/lib/python2.7', '/usr/lib/python2.7/plat-x86_64-linux-gnu',
'/usr/lib/python2.7/lib-tk', '/usr/lib/python2.7/lib-old',
'/usr/lib/python2.7/lib-dynload', '/usr/local/lib/python2.7/dist-packages',
'/usr/lib/python2.7/dist-packages']
$ pip --version
pip 9.0.1 from /usr/local/lib/python2.7/dist-packages (python 2.7)
That is a happy system.
Below is an unhappy system. (Or at least it’s a blissfully ignorant system that causes others to be unhappy.)
$ pip --version
pip 9.0.1 from /usr/local/lib/python3.6/site-packages (python 3.6)
$ python -c 'import sys; print(sys.path)'
['', '/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python27.zip',
'/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python2.7',
'/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python2.7/plat-darwin',
'/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python2.7/plat-mac',
'/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python2.7/plat-mac/lib-scriptpackages',
'/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python2.7/lib-tk',
'/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python2.7/lib-old',
'/usr/local/Cellar/python/2.7.13/Frameworks/Python.framework/Versions/2.7/lib/python2.7/lib-dynload',
'/usr/local/lib/python2.7/site-packages']
$ which pip pip2 pip3
/usr/local/bin/pip
/usr/local/bin/pip3
It is unhappy because pip
is (python3.6 and) using /usr/local/lib/python3.6/site-packages
while python
is (python2.7 and) using /usr/local/lib/python2.7/site-packages
When I want to make sure I’m installing requirements to the right python, I do this:
$ which -a python python2 python3
/usr/local/bin/python
/usr/bin/python
/usr/local/bin/python2
/usr/local/bin/python3
$ /usr/bin/python -m pip install -r requirements.txt
You’ve heard, «If it ain’t broke, don’t try to fix it.» The DevOps version of that is, «If you didn’t break it and you can work around it, don’t try to fix it.»
Pip — менеджер пакетов для Python, работа с ним осуществляется через командную строку. Pip не нужно устанавливать отдельно, если вы пользуетесь Python версии 2.7.9 и новее или версии 3.4 и новее. Если pip установлен, то можно ввести в командную строку:
pip
Команды статье указаны для Windows, работа с pip в Linux может отличаться.
Вы получите справку по основным командам.
Если pip не установлен, то нужно скачать скрипт. Выбирайте папку с номером вашей версии Python. После этого в командной строке перейдите в папку со скриптом и выполните команду:
python get-pip.py
Если pip установлен в папку ProgramFiles, то вам нужно запускать командную строку от администратора.
Если вы установили pip, но все равно получаете ошибку в консоли, нужно указать путь к файлу pip.exe в переменной Path. Для этого зайдите в свойства компьютера>Дополнительные параметры системы>Переменные среды. Здесь (в зависимости о версии Windows) либо добавьте путь к уже существующему через точку с запятой, либо просто нажмите создать и скопируйте путь в новое поле.
Если вам нужно обновить pip напишите в командной строке:
python -m pip install --upgrade pip
Управление пакетами
Чтобы выполнить установку пакета с сайта pypi.org введите в консоли:
python -m pip install ИмяПакета
Если вам нужно использовать несколько версий pip, то нужную можно указать так (начиная с версии pip 0.8):
pip-0.8 install ИмяПакета
Таким же образом можно выбирать версию Python:
python-3.6 -m pip install ИмяПакета
Pip версии 1.5 и выше следует указывать так:
pip2.6 install ИмяПакета
Чтобы обновить пакет введите:
python -m pip install --upgrade ИмяПакета
Для удаления пакета используйте команду uninstall:
python -m pip uninstall ИмяПакета
Флаг -m используется для того чтобы запустить установленный модуль, как скрипт (если написать pip без -m вы можете получить ошибку).
Вывести список всех установленных пакетов в файл можно с помощью :
pip freeze > requirements.txt // название файла может быть любым
При наличии такого файла, можно устанавливать пакеты группами:
pip install -r requirements.txt// версии пакетов в файле указывать не обязательно
Необходимые пакеты можно найти не заходя на сайт pyPi.org (в данный момент недоступно):
pip search строка для поиска
Чтобы узнать подробности об установленном пакете введите:
pip show ИмяПакета
Проверить установлены ли все зависимости для ваших пакетов можно так:
pip check
Теперь, с этими знаниями, вы можете самостоятельно скачать пакет cowsay, зайти в python, и ввести этот текст:
>>> import cowsay
>>> cowsay.cow('Я умею работать с pip! Му!')
Готово! У вас есть говорящая консольная корова:
В исходниках множества Python-проектов можно встретить этот
странный текстовый файл. Например, им пользуются
urllib3,
numpy,
pandas,
flake8
и куча других проектов.
Давайте разберемся, что это такое, как этим пользоваться и зачем нам это нужно.
Гипотетическая предыстория
Давайте представим, что вы написали замечательный скрипт,
который спрашивает у пользователя название города и
выводит текущую температуру и общее состояние погоды:
Скрипт получился настолько хорош, что вы хотите поделиться
им со всеми своими друзьями. К сожалению, друзья при попытке
запустить вашу программу получают следующую ошибку:
Traceback (most recent call last):
File "weather.py", line 3, in <module>
from pyowm import OWM
ModuleNotFoundError: No module named 'pyowm'
Кажется, что скинуть только код недостаточно.
Или, допустим, что вы сами через полгода-год попытаетесь
запустить эту же программу. За это время вы успели пару
раз переустановить Python, переустановить ОС, отформатировать свой
магнитный накопитель (используйте SSD — нет, я серьёзно!)
или может быть вообще сменили компьютер.
Почти уверен, что при запуске скрипта вы получите ровно ту же самую ошибку.
Зачастую, когда мы пишем код, мы полагаемся на какие-либо
библиотеки или фреймворки. Это со всех сторон хорошо — это удобно,
уменьшает размер программы во много раз, позволяет не думать о мелких деталях,
а решать свою конкретную задачу, опираясь на высокоуровневые абстракции.
Но, к сожалению, есть «но» — такие библиотеки становятся
частью вашей программы, ваш код становится зависим.
Это значит, что ваш код больше не сможет
работать сам по себе, для его работы должны быть установлены все зависимости.
Если ваша программа небольшая (состоит из пары файлов), то можно
довольно легко просмотреть её глазами, найти там все инструкции import
,
отсеять из них импорты из стандартной библиотеки
(вы ведь знаете модули стандартной библиотеки наизусть, да?), и таким образом
восстановить список внешних зависимостей программы, которые устанавливаются
через pip
. Чем крупнее проект, тем сложнее это сделать. Бывают ситуации,
когда по коду вообще нельзя понять, что ему нужна определенная зависимость.
Я хочу сказать, что намного мудрее составлять этот список зависимостей
сразу же и просто поддерживать его в актуальном состоянии по мере развития проекта.
requirements.txt — это список внешних зависимостей
Сообщество Python исповедует идеологию
«простое лучше, чем сложное».
Наверное, поэтому для хранения списка зависимостей сообщество выбрало
самый простой из возможных форматов — текстовый файл, где на каждой
строке перечислено ровно по одной зависимости.
Стоит отметить, что requirements.txt
не является стандартом, т.е. нет
документа, который описывал бы требования к этому файлу.
Скорее, это просто распространённая практика в сообществе, которая,
наверное, возникла спонтанно и хорошо прижилась.
Не обязательно называть файл именно requirements.txt
, можно назвать
его как угодно, лишь бы его назначение оставалось понятно.
Я встречал такие вариации, как
requirements-dev.txt
, test-requirements.txt
, requirements/docs.txt
и другие.
Вот пример самого простого такого файла (кстати, именно этим файлом
можно описать зависимости, которые нужны для запуска нашего скрипта
с погодой):
Если бы было несколько зависимостей, то файл выглядел бы так:
Можно указать конкретную версию зависимости. Если версия не указана, то
считается, что нужна последняя доступная:
numpy # нужна последняя версия
requests==2.23.0 # нужна конкретная версия
Можно указывать диапазоны и другие более сложные «спецификаторы версий».
В целом, в requirements.txt
можно писать любые «запросы», которые понимает команда
pip install
:
requests>=2.20.0,<2.23.0 # подойдет любая версия между 2.20.0 и 2.23.0
numpy!=1.0 # подойдет любая версия, кроме 1.0
Как пользоваться
Команда pip install
умеет читать такие файлы, если передать специальный флаг:
$ pip install --help
...
Install Options:
-r, --requirement <file> Install from the given requirements file. This option can be used multiple times.
...
Таким образом, если requirements.txt
будет иметь вот такое содержимое:
pytest
flake8
black
isort
То следующие две команды будут иметь одинаковое действие:
$ pip install -r requirements.txt
$ pip install pytest flake8 black isort
Преимущества использования requirements.txt
:
-
Краткость.
На таком маленьком примере разница может быть не очевидна, но
когда список зависимостей разрастётся до определенного размера,
то вам не захочется больше перечислять его вpip install
напрямую. -
Стабильность.
Как бы ни поменялся файл
requirements.txt
, командаpip install -r requirements.txt
не поменяется. -
Универсальность.
Так как это распространённое соглашение, то другим разработчикам
будет достаточно увидеть этот файл, чтобы понять, что нужно сделать. Это
здорово экономит время на чтении инструкций.
Как создать
Есть два подхода:
- создавать этот файл вручную;
- генерировать автоматически.
Главный принцип ручного подхода — если что-то поменялось в списке зависимостей
(добавилась или удалилась зависимость, обновилась версия и т.д.), это изменение
нужно отразить в requirements.txt
.
Но можно использовать и встроенную в pip
функциональность:
(env) $ pip freeze
certifi==2020.4.5.1
chardet==3.0.4
geojson==2.5.0
idna==2.9
pyowm==2.10.0
requests==2.23.0
urllib3==1.25.9
Команда pip freeze
выводит все установленные в интерпретатор сторонние пакеты.
Заметьте, что в список попали не только прямые зависимости (pyowm
), но
и подзависимости — это даже лучше, потому что вы сможете более
точно воссоздать окружение по этому файлу.
Можно перенаправить вывод этой команды в файл при помощи стандартного консольного
приема
(работает и на Windows), и получить валидный файл requirements.txt
:
(env) $ pip freeze > requirements.txt
Обратите внимание, что pip freeze
выведет список пакетов в том окружении,
в котором он запущен. Не забудьте активировать виртуальное окружение перед
запуском этой команды, иначе получите список пакетов, установленных в глобальный
интерпретатор. Кстати, у меня есть
пост про виртуальные окружения, где объясняется
как ими пользоваться.
Подытожим плюсы и минусы ручного и автоматического подходов:
- Вручную:
- минимальный файл, содержащий только прямые зависимости;
- можно указывать сложные спецификаторы версий;
- человеческий фактор — легко ошибиться или забыть что-нибудь;
pip freeze
:- автоматически, быстро;
- автоматически добавляет версии установленных пакетов;
- в файл попадет всё дерево зависимостей, а не только прямые зависимости.
Можно использовать и смешанный подход: сгенерировать начальную версию файла
при помощи pip freeze
и допилить её затем руками, если у вас какая-то
сложная нестандартная ситуация.
⚠️ Файл
requirements.txt
, конечно же, должен быть добавлен в систему
контроля версий (git). Это такая же важная часть проекта, как и код.
При этом виртуальное окружение не должно попадать в систему контроля
версий. Оно должно воссоздаваться изrequirements.txt
.
Проблемы requirements.txt
Некоторые пакеты часто меняются, поэтому если вы не указываете конкретные
версии, то в следующий раз при установке вы можете получить совсем другую
среду. Это бывает особенно обидно, когда локально на машине разработчика
всё работает правильно, но при деплое на боевой сервер программа либо работает
иначе, либо вообще отказывается запускаться. Поэтому обязательно фиксируйте
версии пакетов в requirements.txt
— это сделает разные окружения хотя бы
примерно похожими.
Почему «хотя бы примерно»? Практика показывает, что зафиксировать версию
пакета недостаточно. Иногда случается, что под одной версией пакета в разное
время может находиться совершенно разный код. PyPI, конечно, не позволит
перезаписать уже опубликованную версию, но, например, ваш приватный
корпоративный индекс пакетов может быть не таким строгим.
Чтобы действительно гарантировать, что вы устанавливаете те пакеты, что и
ожидали, нужно рассчитывать и сверять их контрольные суммы. requirements.txt
может содержать хэши пакетов,
но, к сожалению, на данный момент нет
простого стандартного способа как их туда положить, кроме как вручную (сложно).
В качестве альтернативы опять предлагаю присмотреться к таким проектам, как
poetry
(хранит хэши в poetry.lock
)
и pipenv
(хранит хэши в Pipfile.lock
), где эта
проблема решена хорошо,
и вам не придётся переживать о воспроизводимости ваших сборок.
Если всё-таки хочется добиться такого же эффекта при помощи
requirements.txt
, то можно посмотреть на такие проекты как
pip-tools
(пример использования)
и hashin
.
Заключение
requirements.txt
— это очень популярный способ хранения списка внешних
зависимостей проекта, поэтому вам определенно нужно уметь работать с
такими файлами. Однако этот способ хранения списка зависимостей не лишён
недостатков, поэтому если вы начинаете новый проект, то я предлагаю вам
лучше использовать для этого poetry
или pipenv
.
Для тренировки можно попытаться запустить скрипт с погодой.
Все исходники лежат здесь.
Дополнительное чтение
Конечно, я затронул лишь верхушку айсберга. На самом деле,
requirements
-файлы немножко сложнее.
- Секция PIP User Guide про requirements.txt;
- А вот тут подробное описание формата
requirements
-файлов; - А ещё бывают
constraints.txt
; - Бонус: PyCharm умеет умно обновлять
requirements.txt
.
Подпишитесь!
Чтобы получить уведомление о новом посте можно:
- подписаться на канал в Telegram
(альтернативная ссылка); - подписаться на Atom-фид, если
вы олдфаг-старовервам так удобно.
Обложка: Joe deSousa, Gnarled Tree
В своих проектах на Python я конечно пользуюсь сторонними пакетами. Их легко установить с помощью pip install, но что делать если проект нужно распространять или показывать все в видео (как делаю я на своем канале Azzrael Code). Или если нужно чтобы в проекте использовались пакеты нужных версий.
В стандартном менеджере пакетов pip, который идет в комплекте с установочными пакетом Python, есть возможность перечислить необходимые пакеты в файле requirements.txt . И не просто перечислить, а также указать какие конкретно версии пакетов нужны (или даже выбрать диапазон версий, или исключить какие-то версии). А затем установить все эти пакеты одной командой python -m pip install -r requirements.txt. Подробнее о том как я использую requirements.txt в видео:
Как создать requirements.txt
Вы можете руками создать этот файл и наполнить его названиями и версиями нужных пакетов, а также можно использовать команду
pip freeze > requirements.txt . Которая создаст requirements.txt наполнив его названиями и версиями тех пакетов что используются вами в текущем окружении. Это удобно если вы разработали проект и в текущем окружении все работает, но вы хотите перенести проект в иное окружением (например заказчику или на сервер).
Кстати совсем не обязательно называть файл с зависимостями именно requirements.txt. Можно использовать любое имя. А requirements.txt просто общепринятое название, ну и IDE могут ожидать такого именования.
Как установить зависимости с использованием requirements.txt
Все просто — используй в консоли команду
python —m pip install —r requirements.txt (или
pip install —r requirements.txt ).
Документация по requirements.txt
- https://pip.pypa.io/en/stable/user_guide/#requirements-files
- https://pip.pypa.io/en/stable/cli/pip_install/#requirements-file-format
Если у вас есть вопросы или есть мнения как сделать лучше, то пишите в комментария к видео.
Contents
- User Guide
- Installing Packages
- Requirements Files
- Constraints Files
- Installing from Wheels
- Uninstalling Packages
- Listing Packages
- Searching for Packages
- Configuration
- Config file
- Environment Variables
- Config Precedence
- Command Completion
- Installing from local packages
- «Only if needed» Recursive Upgrade
- User Installs
- Ensuring Repeatability
- Pinned Version Numbers
- Hash-checking Mode
- Installation Bundles
Installing Packages¶
pip supports installing from PyPI, version control, local projects, and
directly from distribution files.
The most common scenario is to install from PyPI using Requirement Specifiers
$ pip install SomePackage # latest version $ pip install SomePackage==1.0.4 # specific version $ pip install 'SomePackage>=1.0.4' # minimum version
For more information and examples, see the pip install reference.
Requirements Files¶
«Requirements files» are files containing a list of items to be
installed using pip install like so:
pip install -r requirements.txt
Details on the format of the files are here: Requirements File Format.
Logically, a Requirements file is just a list of pip install arguments
placed in a file. Note that you should not rely on the items in the file being
installed by pip in any particular order.
In practice, there are 4 common uses of Requirements files:
-
Requirements files are used to hold the result from pip freeze for the
purpose of achieving repeatable installations. In
this case, your requirement file contains a pinned version of everything that
was installed when pip freeze was run.pip freeze > requirements.txt pip install -r requirements.txt
-
Requirements files are used to force pip to properly resolve dependencies.
As it is now, pip doesn’t have true dependency resolution, but instead simply uses the first
specification it finds for a project. E.g if pkg1 requires pkg3>=1.0 and
pkg2 requires pkg3>=1.0,<=2.0, and if pkg1 is resolved first, pip will
only use pkg3>=1.0, and could easily end up installing a version of pkg3
that conflicts with the needs of pkg2. To solve this problem, you can
place pkg3>=1.0,<=2.0 (i.e. the correct specification) into your
requirements file directly along with the other top level requirements. Like
so:pkg1 pkg2 pkg3>=1.0,<=2.0
-
Requirements files are used to force pip to install an alternate version of a
sub-dependency. For example, suppose ProjectA in your requirements file
requires ProjectB, but the latest version (v1.3) has a bug, you can force
pip to accept earlier versions like so: -
Requirements files are used to override a dependency with a local patch that
lives in version control. For example, suppose a dependency,
SomeDependency from PyPI has a bug, and you can’t wait for an upstream fix.
You could clone/copy the src, make the fix, and place it in VCS with the tag
sometag. You’d reference it in your requirements file with a line like so:git+https://myvcs.com/some_dependency@sometag#egg=SomeDependency
If SomeDependency was previously a top-level requirement in your
requirements file, then replace that line with the new line. If
SomeDependency is a sub-dependency, then add the new line.
It’s important to be clear that pip determines package dependencies using
install_requires metadata,
not by discovering requirements.txt files embedded in projects.
See also:
- Requirements File Format
- pip freeze
- «setup.py vs requirements.txt» (an article by Donald Stufft)
Constraints Files¶
Constraints files are requirements files that only control which version of a
requirement is installed, not whether it is installed or not. Their syntax and
contents is nearly identical to Requirements Files. There is one key
difference: Including a package in a constraints file does not trigger
installation of the package.
Use a constraints file like so:
pip install -c constraints.txt
Constraints files are used for exactly the same reason as requirements files
when you don’t know exactly what things you want to install. For instance, say
that the «helloworld» package doesn’t work in your environment, so you have a
local patched version. Some things you install depend on «helloworld», and some
don’t.
One way to ensure that the patched version is used consistently is to
manually audit the dependencies of everything you install, and if «helloworld»
is present, write a requirements file to use when installing that thing.
Constraints files offer a better way: write a single constraints file for your
organisation and use that everywhere. If the thing being installed requires
«helloworld» to be installed, your fixed version specified in your constraints
file will be used.
Constraints file support was added in pip 7.1.
Installing from Wheels¶
«Wheel» is a built, archive format that can greatly speed installation compared
to building and installing from source archives. For more information, see the
Wheel docs ,
PEP427, and
PEP425
Pip prefers Wheels where they are available. To disable this, use the
—no-binary flag for pip install.
If no satisfactory wheels are found, pip will default to finding source archives.
To install directly from a wheel archive:
pip install SomePackage-1.0-py2.py3-none-any.whl
For the cases where wheels are not available, pip offers pip wheel as a
convenience, to build wheels for all your requirements and dependencies.
pip wheel requires the wheel package to be installed, which provides the
«bdist_wheel» setuptools extension that it uses.
To build wheels for your requirements and all their dependencies to a local directory:
pip install wheel pip wheel --wheel-dir=/local/wheels -r requirements.txt
And then to install those requirements just using your local directory of wheels (and not from PyPI):
pip install --no-index --find-links=/local/wheels -r requirements.txt
Uninstalling Packages¶
pip is able to uninstall most packages like so:
$ pip uninstall SomePackage
pip also performs an automatic uninstall of an old version of a package
before upgrading to a newer version.
For more information and examples, see the pip uninstall reference.
Listing Packages¶
To list installed packages:
$ pip list docutils (0.9.1) Jinja2 (2.6) Pygments (1.5) Sphinx (1.1.2)
To list outdated packages, and show the latest version available:
$ pip list --outdated docutils (Current: 0.9.1 Latest: 0.10) Sphinx (Current: 1.1.2 Latest: 1.1.3)
To show details about an installed package:
$ pip show sphinx --- Name: Sphinx Version: 1.1.3 Location: /my/env/lib/pythonx.x/site-packages Requires: Pygments, Jinja2, docutils
For more information and examples, see the pip list and pip show
reference pages.
Searching for Packages¶
pip can search PyPI for packages using the pip search
command:
The query will be used to search the names and summaries of all
packages.
For more information and examples, see the pip search reference.
Configuration¶
Config file¶
pip allows you to set all command line option defaults in a standard ini
style config file.
The names and locations of the configuration files vary slightly across
platforms. You may have per-user, per-virtualenv or site-wide (shared amongst
all users) configuration:
Per-user:
- On Unix the default configuration file is:
$HOME/.config/pip/pip.conf
which respects theXDG_CONFIG_HOME
environment variable. - On macOS the configuration file is
$HOME/Library/Application Support/pip/pip.conf
. - On Windows the configuration file is
%APPDATA%pippip.ini
.
There are also a legacy per-user configuration file which is also respected,
these are located at:
- On Unix and macOS the configuration file is:
$HOME/.pip/pip.conf
- On Windows the configuration file is:
%HOME%pippip.ini
You can set a custom path location for this config file using the environment
variable PIP_CONFIG_FILE
.
Inside a virtualenv:
- On Unix and macOS the file is
$VIRTUAL_ENV/pip.conf
- On Windows the file is:
%VIRTUAL_ENV%pip.ini
Site-wide:
- On Unix the file may be located in
/etc/pip.conf
. Alternatively
it may be in a «pip» subdirectory of any of the paths set in the
environment variableXDG_CONFIG_DIRS
(if it exists), for example
/etc/xdg/pip/pip.conf
. - On macOS the file is:
/Library/Application Support/pip/pip.conf
- On Windows XP the file is:
C:Documents and SettingsAll UsersApplication Datapippip.ini
- On Windows 7 and later the file is hidden, but writeable at
C:ProgramDatapippip.ini
- Site-wide configuration is not supported on Windows Vista
If multiple configuration files are found by pip then they are combined in
the following order:
- Firstly the site-wide file is read, then
- The per-user file is read, and finally
- The virtualenv-specific file is read.
Each file read overrides any values read from previous files, so if the
global timeout is specified in both the site-wide file and the per-user file
then the latter value is the one that will be used.
The names of the settings are derived from the long command line option, e.g.
if you want to use a different package index (--index-url
) and set the
HTTP timeout (--default-timeout
) to 60 seconds your config file would
look like this:
[global] timeout = 60 index-url = http://download.zope.org/ppix
Each subcommand can be configured optionally in its own section so that every
global setting with the same name will be overridden; e.g. decreasing the
timeout
to 10
seconds when running the freeze
(Freezing Requirements) command and using
60
seconds for all other commands is possible with:
[global] timeout = 60 [freeze] timeout = 10
Boolean options like --ignore-installed
or --no-dependencies
can be
set like this:
[install] ignore-installed = true no-dependencies = yes
To enable the boolean options --no-compile
and --no-cache-dir
, falsy
values have to be used:
[global] no-cache-dir = false [install] no-compile = no
Appending options like --find-links
can be written on multiple lines:
[global] find-links = http://download.example.com [install] find-links = http://mirror1.example.com http://mirror2.example.com
Environment Variables¶
pip’s command line options can be set with environment variables using the
format PIP_<UPPER_LONG_NAME>
. Dashes (-
) have to be replaced with
underscores (_
).
For example, to set the default timeout:
export PIP_DEFAULT_TIMEOUT=60
This is the same as passing the option to pip directly:
pip --default-timeout=60 [...]
To set options that can be set multiple times on the command line, just add
spaces in between values. For example:
export PIP_FIND_LINKS="http://mirror1.example.com http://mirror2.example.com"
is the same as calling:
pip install --find-links=http://mirror1.example.com --find-links=http://mirror2.example.com
Config Precedence¶
Command line options have precedence over environment variables, which have precedence over the config file.
Within the config file, command specific sections have precedence over the global section.
Examples:
--host=foo
overridesPIP_HOST=foo
PIP_HOST=foo
overrides a config file with[global] host = foo
- A command specific section in the config file
[<command>] host = bar
overrides the option with same name in the[global]
config file section
Command Completion¶
pip comes with support for command line completion in bash, zsh and fish.
To setup for bash:
$ pip completion --bash >> ~/.profile
To setup for zsh:
$ pip completion --zsh >> ~/.zprofile
To setup for fish:
$ pip completion --fish > ~/.config/fish/completions/pip.fish
Alternatively, you can use the result of the completion
command
directly with the eval function of your shell, e.g. by adding the following to your startup file:
eval "`pip completion --bash`"
Installing from local packages¶
In some cases, you may want to install from local packages only, with no traffic
to PyPI.
First, download the archives that fulfill your requirements:
$ pip install --download DIR -r requirements.txt
Note that pip install --download
will look in your wheel cache first, before
trying to download from PyPI. If you’ve never installed your requirements
before, you won’t have a wheel cache for those items. In that case, if some of
your requirements don’t come as wheels from PyPI, and you want wheels, then run
this instead:
$ pip wheel --wheel-dir DIR -r requirements.txt
Then, to install from local only, you’ll be using —find-links and —no-index like so:
$ pip install --no-index --find-links=DIR -r requirements.txt
«Only if needed» Recursive Upgrade¶
pip install --upgrade
is currently written to perform an eager recursive
upgrade, i.e. it upgrades all dependencies regardless of whether they still
satisfy the new parent requirements.
E.g. supposing:
- SomePackage-1.0 requires AnotherPackage>=1.0
- SomePackage-2.0 requires AnotherPackage>=1.0 and OneMorePackage==1.0
- SomePackage-1.0 and AnotherPackage-1.0 are currently installed
- SomePackage-2.0 and AnotherPackage-2.0 are the latest versions available on PyPI.
Running pip install --upgrade SomePackage
would upgrade SomePackage and
AnotherPackage despite AnotherPackage already being satisfied.
pip doesn’t currently have an option to do an «only if needed» recursive
upgrade, but you can achieve it using these 2 steps:
pip install --upgrade --no-deps SomePackage pip install SomePackage
The first line will upgrade SomePackage, but not dependencies like
AnotherPackage. The 2nd line will fill in new dependencies like
OneMorePackage.
See #59 for a plan of making «only if needed» recursive the default
behavior for a new pip upgrade
command.
User Installs¶
With Python 2.6 came the «user scheme» for installation,
which means that all Python distributions support an alternative install
location that is specific to a user. The default location for each OS is
explained in the python documentation for the site.USER_BASE variable. This mode
of installation can be turned on by specifying the —user option to pip install
.
Moreover, the «user scheme» can be customized by setting the
PYTHONUSERBASE
environment variable, which updates the value of site.USER_BASE
.
To install «SomePackage» into an environment with site.USER_BASE customized to ‘/myappenv’, do the following:
export PYTHONUSERBASE=/myappenv pip install --user SomePackage
pip install --user
follows four rules:
- When globally installed packages are on the python path, and they conflict
with the installation requirements, they are ignored, and not
uninstalled. - When globally installed packages are on the python path, and they satisfy
the installation requirements, pip does nothing, and reports that
requirement is satisfied (similar to how global packages can satisfy
requirements when installing packages in a--system-site-packages
virtualenv). - pip will not perform a
--user
install in a--no-site-packages
virtualenv (i.e. the default kind of virtualenv), due to the user site not
being on the python path. The installation would be pointless. - In a
--system-site-packages
virtualenv, pip will not install a package
that conflicts with a package in the virtualenv site-packages. The —user
installation would lack sys.path precedence and be pointless.
To make the rules clearer, here are some examples:
From within a --no-site-packages
virtualenv (i.e. the default kind):
$ pip install --user SomePackage Can not perform a '--user' install. User site-packages are not visible in this virtualenv.
From within a --system-site-packages
virtualenv where SomePackage==0.3
is already installed in the virtualenv:
$ pip install --user SomePackage==0.4 Will not install to the user site because it will lack sys.path precedence
From within a real python, where SomePackage
is not installed globally:
$ pip install --user SomePackage [...] Successfully installed SomePackage
From within a real python, where SomePackage
is installed globally, but is not the latest version:
$ pip install --user SomePackage [...] Requirement already satisfied (use --upgrade to upgrade) $ pip install --user --upgrade SomePackage [...] Successfully installed SomePackage
From within a real python, where SomePackage
is installed globally, and is the latest version:
$ pip install --user SomePackage [...] Requirement already satisfied (use --upgrade to upgrade) $ pip install --user --upgrade SomePackage [...] Requirement already up-to-date: SomePackage # force the install $ pip install --user --ignore-installed SomePackage [...] Successfully installed SomePackage
Ensuring Repeatability¶
pip can achieve various levels of repeatability:
Pinned Version Numbers¶
Pinning the versions of your dependencies in the requirements file
protects you from bugs or incompatibilities in newly released versions:
SomePackage == 1.2.3 DependencyOfSomePackage == 4.5.6
Using pip freeze to generate the requirements file will ensure that not
only the top-level dependencies are included but their sub-dependencies as
well, and so on. Perform the installation using —no-deps for an extra dose of insurance against installing
anything not explicitly listed.
This strategy is easy to implement and works across OSes and architectures.
However, it trusts PyPI and the certificate authority chain. It
also relies on indices and find-links locations not allowing
packages to change without a version increase. (PyPI does protect
against this.)
Hash-checking Mode¶
Beyond pinning version numbers, you can add hashes against which to verify
downloaded packages:
FooProject == 1.2 --hash=sha256:2cf24dba5fb0a30e26e83b2ac5b9e29e1b161e5c1fa7425e73043362938b9824
This protects against a compromise of PyPI or the HTTPS
certificate chain. It also guards against a package changing
without its version number changing (on indexes that allow this).
This approach is a good fit for automated server deployments.
Hash-checking mode is a labor-saving alternative to running a private index
server containing approved packages: it removes the need to upload packages,
maintain ACLs, and keep an audit trail (which a VCS gives you on the
requirements file for free). It can also substitute for a vendor library,
providing easier upgrades and less VCS noise. It does not, of course,
provide the availability benefits of a private index or a vendor library.
For more, see pip install’s discussion of hash-checking mode.
Installation Bundles¶
Using pip wheel, you can bundle up all of a project’s dependencies, with
any compilation done, into a single archive. This allows installation when
index servers are unavailable and avoids time-consuming recompilation. Create
an archive like this:
$ tempdir=$(mktemp -d /tmp/wheelhouse-XXXXX) $ pip wheel -r requirements.txt --wheel-dir=$tempdir $ cwd=`pwd` $ (cd "$tempdir"; tar -cjvf "$cwd/bundled.tar.bz2" *)
You can then install from the archive like this:
$ tempdir=$(mktemp -d /tmp/wheelhouse-XXXXX) $ (cd $tempdir; tar -xvf /path/to/bundled.tar.bz2) $ pip install --force-reinstall --ignore-installed --upgrade --no-index --no-deps $tempdir/*
Note that compiled packages are typically OS- and architecture-specific, so
these archives are not necessarily portable across machines.
Hash-checking mode can be used along with this method to ensure that future
archives are built with identical packages.
Warning
Finally, beware of the setup_requires
keyword arg in setup.py
.
The (rare) packages that use it will cause those dependencies to be
downloaded by setuptools directly, skipping pip’s protections. If you need
to use such a package, see Controlling
setup_requires.
Менеджер пакетов pip: разбираемся с установкой дополнительных библиотек в Python
Если вы работаете с языком программирования Python, то не раз сталкивались с утилитой pip. Общение с этим пакетом для большинства начинающих программистов ограничивается командой install. Однако возможности менеджера пакетов существенно шире.
1. Предназначение менеджера пакетов pip
Ведь не все пакеты нужны в повседневной практике или отдельном проекте, да и места они занимают не мало. Для этих целей создан удаленный репозиторий модулей https://pypi.org/, в котором на сегодня имеется более 260 тыс. проектов на все случаи практики программирования. Вам не обязательно создавать код с нуля, так как под многие задачи уже имеется соответствующий пакет.
Работа с этим хранилищем расширений осуществляется через команду pip. Имеется и другой установщик easy_install, но он применяется существенно реже. Таким образом, пакетный менеджер pip необходим для установки, обновления, удаления и управления модулями языка Python.
2. Подготовительные мероприятия
Чтобы пользоваться возможностями пакетного менеджера pip, его необходимо установить. Если версия вашего Python выше 3.4 или 2.7.9, то pip уже интегрирован в него. Использование более ранних версий языка не рекомендуется (вы теряете часть функционала). Другой способ установить pip (если вы его удалили случайно):
Проверить, что в вашем проекте или на ПК доступен pip, можно применяя следующую команду —version или -V:
pip 20.2.3 from c:usersmikappdatalocalprogramspythonpython38-32libsite-packagespip (python 3.8)
Как видно из ответа, на данном ПК используется python версии 3.8 и pip версии 20.2.3.
В некоторых случаях (актуально для пользователей Linux или macOS) требуется применять команду pip3 (если в результате выполнения pip определяет, что у вас установлен python версии 2 по умолчанию). Это связано с тем, что на *nix системах присутствуют сразу обе версии языка.
Также если на вашем компьютере имеется несколько версий языка Python (например, 3.6, 3.8, 3.9), то менеджер пакетов может применяться отдельно для каждой из них:
После установки менеджера пакетов и определения его версии не следует забывать об его обновления до последнего издания. Для windows систем:
> python -m pip install -U pip
В результате выполнения команды мы получим сообщение об успешном обновлении pip до последнего релиза или сведения о том, что у нас уже установлена последняя версия.
3. Установка и удаление пакетов
Наиболее часто используемая команда в менеджере пакетов связана с непосредственной установкой необходимых модулей. Для примера установим библиотеку NumPy (позволяет эффективно работать с многомерными массивами и включает ряд соответствующих математических функций).
После выполнения команды данный модуль добавится в вашу библиотеку со всеми необходимыми дополнениями. Важно отметить, что будет загружена последняя версия NumPy. Бывают случаи, когда для проекта используется определенная версия пакета. Чтобы ничего не «сбилось», требуется установить именно этот релиз либо версию, которая не ниже определенной. Для этого применяются следующие команды:
pip install numpy==1.16.1
pip install numpy>=1.17.0
Имеются и другие операторы (>, < и т.п.). Даже если пакет уже установлен и работает некорректно можно принудительно его переустановить.
pip install --force-reinstall numpy
При разработке сложных проектов может понадобиться установка большого количества модулей. Постоянно их скачивать из репозитория PyPi трудоемко. Для этого разработан способ загрузки пакетов локально. Они могут находиться в архивах (*.tar.gz) или специальных файлах с расширением .whl. Это удобно и в том случае, если нет доступа в интернет у выбранной машины, и вы заранее создали пакет со всеми необходимыми библиотеками.
Для примера запакуем модуль numpy в «колесо» (wheel) и установим его оттуда.
pip wheel --wheel-dir=. numpy
pip install --no-index --find-links=. numpy
Вначале мы создали специальный локальный пакет NumPy и поместили его в текущую папку (о чем свидетельствует точка). В директории создался файл numpy-1.19.2-cp38-cp38-win32.whl. На его основании даже без интернета мы легко сможем установить данную библиотеку. Команда «—no-index» говорит о том, чтобы мы не искали модуль в репозитории PyPi, а —find-links принудительно указывает место расположения пакета. Когда речь идет о сотне пакетов, это очень удобно. Правда для этого необходимо освоить еще один инструмент: набор зависимостей (о нем – следующий раздел).
Рассмотрим вопрос удаления модулей. Если требуется удалить один пакет, то делается это по аналогии с установкой:
Для удаления нескольких модулей их можно перечислить через пробел или воспользоваться файлом requirements.txt. Чтобы при стирании библиотек постоянно не запрашивалось подтверждение от пользователя («введите Y для удаления или N для отмены»), применяется ключ -y или —yes.
pip uninstall –y pycryptodomex pyzipper
pip uninstall –y –r requirements.txt
К слову, при установке нового пакета или его обновлении старая версия удаляется из библиотеки конкретного окружения.
Читайте также
4. Файлы требований для управления пакетами
Серьезные и многоуровневые приложения никогда не обходятся одной библиотекой. Даже когда вы устанавливали тот же NumPy, вы могли заметить, что помимо самого модуля скачивались дополнительные пакеты, которые мы не запрашивали. Естественно они необходимы для правильной работы NumPy. Но откуда известно, что они нужны?
Для таких целей придумали файл зависимостей, в котором перечислены все требуемые библиотеки для работы конкретного проекта. Он создается в любом удобном месте (обычно его называют requirements.txt) и используется для развертывания приложения в новом окружении.
pip freeze > requirements.txt
Если открыть содержимое текстового документа, то обнаружим все зависимости (небольшой фрагмент последнего показан ниже):
…
bleach==3.2.1
cached-property==1.5.2
certifi==2020.6.20
cffi==1.14.3
chardet==3.0.4
colorama==0.4.4
cycler==0.10.0
…
В созданном при помощи команды freeze файле показаны модули проекта и их версии. Этот файл можно править вручную для задания дополнительных ограничений. Так, для пакета colorama можем приписать особые требования:
colorama>=0.2.0, <= 0.4.4
Этим мы даем понять, что тестировали работоспособность приложения на версиях от 0.2 до 0.4.4 включительно. Другие версии могут вызвать ошибки. После создания файла requirements.txt его можно использовать для установки всех требуемых модулей, не прописывая огромный список вручную.
pip install -r requirements.txt
Менеджер пакетов «заглянет» внутрь и скачает все библиотеки для проекта.
Также рассмотрим более сложный пример. Предположим, что наше приложение может функционировать в питоне версий 2 и 3. Разумеется, каждая из этих версий требует своего набора модулей. В requirements.txt все это можно прописать:
…
cached-property==1.5.2
certifi==2020.6.20 ; python_version < ‘3.6’
cffi==1.14.3 ; python_version >= '3.6'
chardet==3.0.4
…
Так, если у пользователя на компьютере установлен Python 3.5, то модуль cffi устанавливаться не будет. Подобный подход несколько портит красоту зависимостей, что ведет в ряде случаев к созданию дополнительного файла constraints.txt со списком ограничений. Он нужен для того, чтобы избегать установок лишних модулей в многоуровневых приложениях.
Приведем пример. Для работы нашего приложения требуются некоторые
модули определенных версий. Перечислим их в файле requirements.txt.
Django==3.1.2
django-allauth==0.32.0
Для данных библиотек имеются некоторые зависимости. В зависимости от того, на какой версии питона будет работать приложение, могут потребоваться разные модули. Так, python-openid работает только на питоне 2 версии, а python3-openid нужен для 3-ей версии. Все эти требования мы прописывает в requirements.txt, делая его нечитабельным и неудобным.
Django==3.1.2
django-allauth==0.32.0
oauthlib==3.1.0
python-openid==2.2.5 ; python_version < '3.0'
python3-openid==3.2.0; python_version >= '3.0'
Намного разумнее — создать constraints.txt, в котором прописываются дополнительные зависимости, а в файле requirements.txt перечислить основные библиотеки. Когда основные модули начнут подтягивать дополнительные, то они смогут понять, какие же версии им потребуются. Файлы примут такой вид:
Django==3.1.2
django-allauth==0.32.0
oauthlib==3.1.0
python-openid==2.2.5
python3-openid==3.2.0
Для установки всех требуемых модулей и их зависимостей применяется команда:
pip install -c constraints.txt
На практике constraints.txt используется лишь в крупных проектах, а для небольших разработок можно обойтись простым перечислением зависимостей.
Задачи по теме
Рассматриваем модули и пакеты из стандартной библиотеки Python и PyPI. Учимся использовать инструкции import и from..import и различать абсолютный и относительный импорт. Разбираемся с виртуальными пространствами venv. Создаем собственные модули.
Импорт библиотек в Python. Различие модулей и пакетов, причины их использования. Актуальные вопросы для проверки понимания темы и задание для самостоятельной практики.
5. Дополнительные команды pip
Наберем в командной строке
Перед нами предстанет перечень доступных команд в менеджере пакетов. По каждой команде также можно получить справочную информацию:
Команд и дополнительных ключей в pip имеется предостаточное количество. Ознакомиться с ними можно на сайте документации. Мы же рассмотрим основные команды и покажем их применение.
5.1. Команда download
Позволяет скачивать модули в указанную директорию для дальнейшего их использования локально (без повторного скачивания с репозитория).
# Устанавливаем модуль в текущую папку (получим файл с расширением «.whl»)
pip download numpy
# Загружаем NumPy в поддиректорию /mods/ (если ее нет, то она создастся)
pip download --destination-directory ./mods/ numpy
# В текущую папку скачаются все пакеты, указанные в файле зависимостей
pip download --destination-directory . –r requirements.txt
# Пример использования дополнительных команд (скачиваем библиотеку только для Линукс-систем и питона не ниже 3 версии)
pip download --platform linux_x86_64 --python-version 3 numpy
5.2. Команда list
Команда list позволяет просматривать все имеющиеся в виртуальном окружении или глобально модули с указанием их версий.
# Отображаем список всех установленных модулей
> pip list
Package Version
---------- -------
numpy 1.19.0
pip 20.2.4
setuptools 50.3.2
# Отображаем список всех установленных модулей в формате json
> pip list --format json
[{"name": "numpy", "version": "1.19.0"}, {"name": "pip", "version": "20.2.4"}, {"name": "setuptools", "version": "50.3.2"}]
# Перечисляем модули, которые имеются в системе, но не связаны с другими (в ряде случаев таким способом можно выяснить модули, которые вам не нужны либо еще не используемые в проекте)
> pip list --not-required
Package Version
---------- -------
numpy 1.19.0
# Выводим перечень библиотек, которые требуют обновления (для них вышла более новая версия)
> pip list –o
Package Version Latest Type
------- ------- ------ -----
numpy 1.19.0 1.19.2 wheel
5.3. Команда show
Показывает информацию о конкретном модуле или их группе.
# Вывод информации о библиотеке: версия, автор, описание, расположение, зависимости и т.д.
> pip show numpy
Name: numpy
Version: 1.19.0
Summary: NumPy is the fundamental package for array computing with Python.
Home-page: https://www.numpy.org
Author: Travis E. Oliphant et al.
Author-email: None
License: BSD
...
# Самые полные сведения о модуле
> pip show --verbose numpy
…
Metadata-Version: 2.1
Installer: pip
Classifiers:
Development Status :: 5 - Production/Stable
Intended Audience :: Science/Research
...
5.4. Команда check
Нужна для проверки зависимостей, нехватки модулей или их неверной версии.
> pip check
No broken requirements found.
Если будут найдены ошибки, то выведется соответствующая информация.
5.5. Команда search
Дает возможность осуществлять поиск пакетов из командной строки.
> pip search numpy
numpy (1.19.2) - NumPy is the fundamental package for array computing with Python.
INSTALLED: 1.19.0
LATEST: 1.19.2
numpy-cloud (0.0.5) - Numpy in the cloud
numpy-alignments (0.0.2) - Numpy Alignments
numpy-utils (0.1.6) - NumPy utilities.
...
Показанный выше запрос выводит несколько десятков результатов. В их названии или описании имеется слово numpy. Поиск не так удобен, как через сайт репозитория, но иногда может быть полезен.
5.6. Команда hash
Вычисляет хеш локального модуля на основании определенного алгоритма (можно выбирать).
> pip hash numpy-1.19.2-cp38-cp38-win32.whl
numpy-1.19.2-cp38-cp38-win32.whl:--hash=sha256:51ee93e1fac3fe08ef54ff1c7f329db64d8a9c5557e6c8e908be9497ac76374b
Может понадобиться для проверки полноты скачивания модуля.
5.7. Команда cache
Предоставляет сведения о кеше менеджера пакетов и позволяет оперировать им.
# Очистка кеша и удаление всех whl-файлов
> pip cache purge
# Показать папку с кеш-файлами менеджера пакетов
> pip cache dir
c:usersmmmappdatalocalpipcache
# Узнать размер, место расположения и количество файлов в директории кеша
> pip cache info
Location: c:usersmmmappdatalocalpipcachewheels
Size: 0 bytes
Number of wheels: 0
5.8. Команда debug
Отражает отладочную информацию: о версии пайтона, менеджера пакетов, модулях, операционной системе и т.п.
> pip debug
pip version: pip 20.2.4 from d:1tmpvenvlibsite-packagespip (python 3.8)
sys.version: 3.8.5 (tags/v3.8.5:580fbb0, Jul 20 2020, 15:43:08) [MSC v.1926 32 bit (Intel)]
sys.executable: d:1tmpvenvscriptspython.exe
sys.getdefaultencoding: utf-8
...
Сведения могут понадобиться при ошибках и сбоях в работе модулей или установщика.
5.9. Команда completion
Команда актуальная для пользователей *nix систем, чтобы в оболочке bash получить возможность автодополнения команд. Другими словами, при нажатии TAB вы сможете набрать первые 1-2 буквы команды, а остальное определится системой.
$ pip completion --bash >> ~/.profile
Фактически, вы дополняете профиль командной оболочки командами менеджера пакетов.
5.10. Команда config
Управление файлом настроек пакета модулей (pip.ini). Нужно быть аккуратнее, чтобы ничего не сломать в работе питона. Вмешиваться в настройки может понадобиться в случаях наличия нескольких пользователей в вашей операционной системе и при потребности их разграничить в средах программирования.
> pip config list
# При вызове команды получаем содержимое файла pip.ini, который расположен либо в домашней директории, либо в папке виртуального окружения.
global.require-virtualenv='true'
global.user='false'
Зачастую при установке новых пакетов могут возникать ошибки доступа или ограниченных прав того или иного пользователя. Правильное конфигурирование pip позволяет избежать многих проблем.
Менеджер пакетов языка python обладает целым рядом полезных команд. Он позволяет не только устанавливать / удалять библиотеки из официального репозитория, локальных дисков и папок, но и дает возможности организации управления модулями и их версиями при работе над проектами.
Как вам материал?