Testes unitários¶
O Django vem com uma suíte de testes própria, no diretório tests
do código. É nossa política garantir que todos os testes passem em todos os momentos.
Nós agradecemos toda e qualquer contribuição para a suíte de testes.
Todos os testes do Django usam a infraestrutura de testes que é distribuída com o Django para testar aplicações. Veja Writing and running tests para uma explicação de como escrever novos testes.
Rodando os testes unitários¶
Início Rápido¶
Primeiro, faça o “fork”do Django no GitHub.
Segundo, crie e ative um ambiente virtual. Se não estiver familiar de como fazê-lo, leia nosso tutorial de como contribuir.
Next, clone your fork, install some requirements, and run the tests:
$ git clone https://github.com/YourGitHubName/django.git django-repo
$ cd django-repo/tests
$ python -m pip install -e ..
$ python -m pip install -r requirements/py3.txt
$ ./runtests.py
...\> git clone https://github.com/YourGitHubName/django.git django-repo
...\> cd django-repo\tests
...\> py -m pip install -e ..
...\> py -m pip install -r requirements\py3.txt
...\> runtests.py
Installing the requirements will likely require some operating system packages that your computer doesn’t have installed. You can usually figure out which package to install by doing a web search for the last line or so of the error message. Try adding your operating system to the search query if needed.
If you have trouble installing the requirements, you can skip that step. See Rodando todos os testes for details on installing the optional test dependencies. If you don’t have an optional dependency installed, the tests that require it will be skipped.
Running the tests requires a Django settings module that defines the databases to use. To help you get started, Django provides and uses a sample settings module that uses the SQLite database. See Usando outro módulo settings to learn how to use a different settings module to run the tests with a different database.
Está tendo problemas? Veja Solução de Problemas para alguns problemas comuns.
Executando testes usando tox
¶
Tox is a tool for running tests in different virtual
environments. Django includes a basic tox.ini
that automates some checks
that our build server performs on pull requests. To run the unit tests and
other checks (such as import sorting, the
documentation spelling checker, and
code formatting), install and run the tox
command from any place in the Django source tree:
$ python -m pip install tox
$ tox
...\> py -m pip install tox
...\> tox
By default, tox
runs the test suite with the bundled test settings file for
SQLite, black
, blacken-docs
, flake8
, isort
, and the
documentation spelling checker. In addition to the system dependencies noted
elsewhere in this documentation, the command python3
must be on your path
and linked to the appropriate version of Python. A list of default environments
can be seen as follows:
$ tox -l
py3
black
blacken-docs
flake8>=3.7.0
docs
isort>=5.1.0
...\> tox -l
py3
black
blacken-docs
flake8>=3.7.0
docs
isort>=5.1.0
Testing other Python versions and database backends¶
In addition to the default environments, tox
supports running unit tests
for other versions of Python and other database backends. Since Django’s test
suite doesn’t bundle a settings file for database backends other than SQLite,
however, you must create and provide your own test settings. For example, to run the tests on Python 3.10
using PostgreSQL:
$ tox -e py310-postgres -- --settings=my_postgres_settings
...\> tox -e py310-postgres -- --settings=my_postgres_settings
This command sets up a Python 3.10 virtual environment, installs Django’s
test suite dependencies (including those for PostgreSQL), and calls
runtests.py
with the supplied arguments (in this case,
--settings=my_postgres_settings
).
The remainder of this documentation shows commands for running tests without
tox
, however, any option passed to runtests.py
can also be passed to
tox
by prefixing the argument list with --
, as above.
Tox
also respects the DJANGO_SETTINGS_MODULE
environment
variable, if set. For example, the following is equivalent to the command
above:
$ DJANGO_SETTINGS_MODULE=my_postgres_settings tox -e py310-postgres
Windows users should use:
...\> set DJANGO_SETTINGS_MODULE=my_postgres_settings
...\> tox -e py310-postgres
Executando os testes JavaScript¶
Django includes a set of JavaScript unit tests for
functions in certain contrib apps. The JavaScript tests aren’t run by default
using tox
because they require Node.js
to be installed and aren’t
necessary for the majority of patches. To run the JavaScript tests using
tox
:
$ tox -e javascript
...\> tox -e javascript
This command runs npm install
to ensure test requirements are up to
date and then runs npm test
.
Running tests using django-docker-box
¶
django-docker-box allows you to run the Django’s test suite across all supported databases and python versions. See the django-docker-box project page for installation and usage instructions.
Usando outro módulo settings
¶
The included settings module (tests/test_sqlite.py
) allows you to run the
test suite using SQLite. If you want to run the tests using a different
database, you’ll need to define your own settings file. Some tests, such as
those for contrib.postgres
, are specific to a particular database backend
and will be skipped if run with a different backend. Some tests are skipped or
expected failures on a particular database backend (see
DatabaseFeatures.django_test_skips
and
DatabaseFeatures.django_test_expected_failures
on each backend).
To run the tests with different settings, ensure that the module is on your
PYTHONPATH
and pass the module with --settings
.
O setting DATABASES
em qualquer settings de módulo de testes precisa definir dois bancos:
O banco
default
. Este banco deve usar o backend que você quer usar para testes primários.Um banco de dados com o apelido
other
. O banco de dadosother
é usado para testar consultas que podem ser direcionadas a diferentes bancos de dados. Este banco de dados devem usar o mesmo “backend” que odefault
, e deve ter um nome diferente.
Se você está usando um backend que não é o SQLite, você irá precisar providenciar outros detalhes para cada banco de dados:
A opção
USER
deve especificar uma conta de usuário válida para o banco de dados. Esse usuário precisa ter permissão para executarCREATE DATABASE
de modo que o banco de dados de teste possa ser criado.A opção
PASSWORD
precisa fornecer uma senha para o userUSER
que foi especificado.
Os nomes dos bancos de dados de teste são gerados adicionando o prefixo test_
ao valor do campo NAME
das configurações dos bancos de dados definidos dentro de DATABASES
. Esses bancos de testes são deletados quando os testes são concluídos.
Você também terá que garantir que o seu banco de dados usa UTF-8 por padrão como charset. Se o servidor do seu banco de dados não usa UTF-8 como charset padrão, você terá que incluir um valor para CHARSET
no dicionário do settings de teste para o banco de dados correspondente.
Rodando apenas alguns dos testes.¶
A suíte completa de testes do Django leva um tempo para rodar, e rodar cada um dos testes pode ser redundantes se, por exemplo, você deseja adicionar um teste no Django que você quer rodar rapidamente sem ter que rodar todo o resto. Você pode rodar um subconjunto de testes unitários adicionando os nomes dos módulos de teste para o comando runtests.py
na linha de comando.
For example, if you’d like to run tests only for generic relations and internationalization, type:
$ ./runtests.py --settings=path.to.settings generic_relations i18n
...\> runtests.py --settings=path.to.settings generic_relations i18n
Como você pode saber os nomes de testes em específico? Procure em tests/
— cada nome de diretório lá representa o nome de um teste.
If you want to run only a particular class of tests, you can specify a list of
paths to individual test classes. For example, to run the TranslationTests
of the i18n
module, type:
$ ./runtests.py --settings=path.to.settings i18n.tests.TranslationTests
...\> runtests.py --settings=path.to.settings i18n.tests.TranslationTests
Going beyond that, you can specify an individual test method like this:
$ ./runtests.py --settings=path.to.settings i18n.tests.TranslationTests.test_lazy_objects
...\> runtests.py --settings=path.to.settings i18n.tests.TranslationTests.test_lazy_objects
You can run tests starting at a specified top-level module with --start-at
option. For example:
$ ./runtests.py --start-at=wsgi
...\> runtests.py --start-at=wsgi
You can also run tests starting after a specified top-level module with
--start-after
option. For example:
$ ./runtests.py --start-after=wsgi
...\> runtests.py --start-after=wsgi
Note that the --reverse
option doesn’t impact on --start-at
or
--start-after
options. Moreover these options cannot be used with test
labels.
Rodando os testes do Selenium¶
Some tests require Selenium and a web browser. To run these tests, you must
install the selenium package and run the tests with the
--selenium=<BROWSERS>
option. For example, if you have Firefox and Google
Chrome installed:
$ ./runtests.py --selenium=firefox,chrome
...\> runtests.py --selenium=firefox,chrome
Veja o pacote selenium.webdriver para uma lista de navegadores disponíveis.
Definindo o --selenium
automaticamente define --tags=selenium
para rodar somente testes que requerem o selenium.
Some browsers (e.g. Chrome or Firefox) support headless testing, which can be
faster and more stable. Add the --headless
option to enable this mode.
For testing changes to the admin UI, the selenium tests can be run with the
--screenshots
option enabled. Screenshots will be saved to the
tests/screenshots/
directory.
To define when screenshots should be taken during a selenium test, the test
class must use the @django.test.selenium.screenshot_cases
decorator with a
list of supported screenshot types ("desktop_size"
, "mobile_size"
,
"small_screen_size"
, "rtl"
, "dark"
, and "high_contrast"
). It
can then call self.take_screenshot("unique-screenshot-name")
at the desired
point to generate the screenshots. For example:
from django.test.selenium import SeleniumTestCase, screenshot_cases
from django.urls import reverse
class SeleniumTests(SeleniumTestCase):
@screenshot_cases(["desktop_size", "mobile_size", "rtl", "dark", "high_contrast"])
def test_login_button_centered(self):
self.selenium.get(self.live_server_url + reverse("admin:login"))
self.take_screenshot("login")
...
This generates multiple screenshots of the login page - one for a desktop screen, one for a mobile screen, one for right-to-left languages on desktop, one for the dark mode on desktop, and one for high contrast mode on desktop when using chrome.
The --screenshots
option and @screenshot_cases
decorator were
added.
Rodando todos os testes¶
Se você quiser rodar toda a suíte de testes, você precisará instalar algumas dependências:
argon2-cffi 19.2.0+
asgiref 3.8.1+ (required)
colorama 0.4.6+
docutils 0.19+
Jinja2 2.11+
Pillow 6.2.1+
redis 3.4+
pymemcache, plus a supported Python binding
selenium 4.8.0+
sqlparse 0.3.1+ (required)
tblib 1.5.0+
You can find these dependencies in pip requirements files inside the
tests/requirements
directory of the Django source tree and install them
like so:
$ python -m pip install -r tests/requirements/py3.txt
...\> py -m pip install -r tests\requirements\py3.txt
If you encounter an error during the installation, your system might be missing a dependency for one or more of the Python packages. Consult the failing package’s documentation or search the web with the error message that you encounter.
Você também pode instalar o adaptador (ou adaptadores) de sua escolha usando oracle.txt
, mysql.txt
, ou postgres.txt
.
If you want to test the memcached or Redis cache backends, you’ll also need to
define a CACHES
setting that points at your memcached or Redis
instance respectively.
To run the GeoDjango tests, you will need to set up a spatial database and install the Geospatial libraries.
Cada uma dessas dependências é opcional. Se você estiver esquecendo qualquer uma delas, os testes associados serão pulados.
To run some of the autoreload tests, you’ll need to install the Watchman service.
Cobertura de código¶
Voluntários são encorajados a rodar a cobertura na suíte de testes para identificar áreas que precisam de mais testes. A instalação da ferramenta de cobertura e a sua utilização é descrita em testando a cobertura de código.
To run coverage on the Django test suite using the standard test settings:
$ coverage run ./runtests.py --settings=test_sqlite
...\> coverage run runtests.py --settings=test_sqlite
After running coverage, combine all coverage statistics by running:
$ coverage combine
...\> coverage combine
After that generate the html report by running:
$ coverage html
...\> coverage html
Quando executar a cobertura para testes do Django, o arquivo de settings incluído .coveragerc
define coverage_html
como sendo o diretório de saída para o relatório e também exclui vários diretórios não relevantes para os resultados (código de testes ou código externo incluídos no Django).
Aplicações Contrib¶
Tests for contrib apps can be found in the tests/ directory, typically
under <app_name>_tests
. For example, tests for contrib.auth
are located
in tests/auth_tests.
Solução de Problemas¶
Test suite hangs or shows failures on main
branch¶
Ensure you have the latest point release of a supported Python version, since there are often bugs in earlier versions that may cause the test suite to fail or hang.
On macOS (High Sierra and newer versions), you might see this message logged, after which the tests hang:
objc[42074]: +[__NSPlaceholderDate initialize] may have been in progress in
another thread when fork() was called.
To avoid this set a OBJC_DISABLE_INITIALIZE_FORK_SAFETY
environment
variable, for example:
$ OBJC_DISABLE_INITIALIZE_FORK_SAFETY=YES ./runtests.py
Or add export OBJC_DISABLE_INITIALIZE_FORK_SAFETY=YES
to your shell’s
startup file (e.g. ~/.profile
).
Vários testes falham com UnicodeEncodeError
¶
Se o pacote de locales
não estiver instalado, alguns testes irão falhar com um UnicodeEncodeError
.
You can resolve this on Debian-based systems, for example, by running:
$ apt-get install locales
$ dpkg-reconfigure locales
You can resolve this for macOS systems by configuring your shell’s locale:
$ export LANG="en_US.UTF-8"
$ export LC_ALL="en_US.UTF-8"
Execute o comando locale
para confirmar a alteração. Opcionalmente, adicione os comandos de “export” para o arquivo de inicialização do seu “shell” (exemplo ~/.bashrc
para o Bash) para evitar ter que redefini-los.
Testes que só falham em combinação¶
Caso um teste passe quando rodado isoladamente mas que falhe quando rodado dentro de uma suíte inteira de testes, nós temos algumas ferramentas para ajudar a analizar o problema.
A opção --bisect
do runtests.py
irá executar o teste que falhou enquanto reparte o conjunto de testes do qual o teste falho faz parte a cada nova iteração, geralmente permitindo identificar um pequeno número de testes que podem estar relacionados com a falha.
For example, suppose that the failing test that works on its own is
ModelTest.test_eq
, then using:
$ ./runtests.py --bisect basic.tests.ModelTest.test_eq
...\> runtests.py --bisect basic.tests.ModelTest.test_eq
Nós vamos tentar descobrir um teste que interfere com o teste escolhido. Primeiro, o teste é rodado com a primeira metade da suíte de testes. Se uma falha ocorrer, a primeira metade da suíte de testes é dividida em dois grupos e cada grupo é então rodado com o teste especificado. Se não existe falha com a primeira metade da suíte de testes, a segunda metade da suíte é rodada com o teste especificado e dividida apropriadamente conforme descrito anteriormente. O processo se repete até que o conjunto de testes que falham é minimizado.
The --pair
option runs the given test alongside every other test from the
suite, letting you check if another test has side-effects that cause the
failure. So:
$ ./runtests.py --pair basic.tests.ModelTest.test_eq
...\> runtests.py --pair basic.tests.ModelTest.test_eq
nós vamos parear test_eq
com cada rótulo de teste
With both --bisect
and --pair
, if you already suspect which cases
might be responsible for the failure, you may limit tests to be cross-analyzed
by specifying further test labels after
the first one:
$ ./runtests.py --pair basic.tests.ModelTest.test_eq queries transactions
...\> runtests.py --pair basic.tests.ModelTest.test_eq queries transactions
You can also try running any set of tests in a random or reverse order using
the --shuffle
and --reverse
options. This can help verify that
executing tests in a different order does not cause any trouble:
$ ./runtests.py basic --shuffle
$ ./runtests.py basic --reverse
...\> runtests.py basic --shuffle
...\> runtests.py basic --reverse
Verificando as consultas SQL realizadas durante os testes¶
If you wish to examine the SQL being run in failing tests, you can turn on
SQL logging using the --debug-sql
option. If you
combine this with --verbosity=2
, all SQL queries will be output:
$ ./runtests.py basic --debug-sql
...\> runtests.py basic --debug-sql
Visualizando todo o traceback de um teste falho¶
By default tests are run in parallel with one process per core. When the tests
are run in parallel, however, you’ll only see a truncated traceback for any
test failures. You can adjust this behavior with the --parallel
option:
$ ./runtests.py basic --parallel=1
...\> runtests.py basic --parallel=1
You can also use the DJANGO_TEST_PROCESSES
environment variable for
this purpose.
Dicas para rodar testes¶
Isolando o registro de modelos¶
To avoid polluting the global apps
registry and prevent
unnecessary table creation, models defined in a test method should be bound to
a temporary Apps
instance. To do this, use the
isolate_apps()
decorator:
from django.db import models
from django.test import SimpleTestCase
from django.test.utils import isolate_apps
class TestModelDefinition(SimpleTestCase):
@isolate_apps("app_label")
def test_model_definition(self):
class TestModel(models.Model):
pass
...
A definição app_label
Modelos definidos em um método de teste sem explicitar o app_label
são automaticamente assinalados com a etiqueta da aplicação na qual sua classe de teste está localizada.
De modo a ter certeza que os modelos definidos dentro do contexto das instâncias de isolate_apps()
estão corretamente instalados, você deve passar a definição dos app_label
alvo como argumentos:
from django.db import models
from django.test import SimpleTestCase
from django.test.utils import isolate_apps
class TestModelDefinition(SimpleTestCase):
@isolate_apps("app_label", "other_app_label")
def test_model_definition(self):
# This model automatically receives app_label='app_label'
class TestModel(models.Model):
pass
class OtherAppModel(models.Model):
class Meta:
app_label = "other_app_label"
...