lynx   »   [go: up one dir, main page]

Transformers documentation

Installation

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Installation

Installez đŸ€— Transformers pour n’importe quelle librairie d’apprentissage profond avec laquelle vous avez l’habitude de travaillez, configurez votre cache et configurez đŸ€— Transformers pour un usage hors ligne (facultatif).

đŸ€— Transformers est testĂ© avec Python 3.6+, PyTorch 1.1.0+, TensorFlow 2.0+ et Flax. Consulter les instructions d’installation ci-dessous pour la librairie d’apprentissage profond que vous utilisez:

  • Instructions d’installation pour PyTorch.
  • Instructions d’installation pour TensorFlow 2.0.
  • Instructions d’installation pour Flax.

Installation avec pip

Vous devriez installer đŸ€— Transformers dans un environnement virtuel. Si vous n’ĂȘtes pas Ă  l’aise avec les environnements virtuels, consultez ce guide. Utiliser un environnement virtuel permet de facilement gĂ©rer diffĂ©rents projets et d’éviter des erreurs de compatibilitĂ© entre les diffĂ©rentes dĂ©pendances.

Commencez par crĂ©er un environnement virtuel dans l’espace de travail de votre projet :

python -m venv .env

Activez l’environnement virtuel. Sur Linux ou MacOs :

source .env/bin/activate

Activez l’environnement virtuel sur Windows :

.env/Scripts/activate

Maintenant, đŸ€— Transformers peut ĂȘtre installĂ© avec la commande suivante :

pip install transformers

Pour une utilisation avec CPU seulement, đŸ€— Transformers et la librairie d’apprentissage profond de votre choix peuvent ĂȘtre installĂ©s en une seule ligne. Par exemple, installez đŸ€— Transformers et PyTorch avec la commande suivante :

pip install 'transformers[torch]'

đŸ€— Transformers et TensorFlow 2.0 :

pip install 'transformers[tf-cpu]'

Pour les architectures mac M1 / ARM

Vous devez installer les outils suivants avant d’installer TensorFLow 2.0

brew install cmake
brew install pkg-config

đŸ€— Transformers et Flax :

pip install 'transformers[flax]'

VĂ©rifiez que đŸ€— Transformers a bien Ă©tĂ© installĂ© avec la commande suivante. La commande va tĂ©lĂ©charger un modĂšle prĂ©-entraĂźnĂ© :

python -c "from transformers import pipeline; print(pipeline('sentiment-analysis')('we love you'))"

Le label et score sont ensuite affichés :

[{'label': 'POSITIVE', 'score': 0.9998704791069031}]

Installation depuis le code source

Installez đŸ€— Transformers depuis le code source avec la commande suivante :

pip install git+https://github.com/huggingface/transformers

Cette commande installe la version depuis la branche main au lieu de la derniĂšre version stable. La version de la branche main est utile pour avoir les derniers dĂ©veloppements. Par exemple, si un bug a Ă©tĂ© rĂ©solu depuis la derniĂšre version stable mais n’a pas encore Ă©tĂ© publiĂ© officiellement. Cependant, cela veut aussi dire que la version de la branche main n’est pas toujours stable. Nous nous efforçons de maintenir la version de la branche main opĂ©rationnelle, et la plupart des problĂšmes sont gĂ©nĂ©ralement rĂ©solus en l’espace de quelques heures ou d’un jour. Si vous recontrez un problĂšme, n’hĂ©sitez pas Ă  crĂ©er une Issue pour que l’on puisse trouver une solution au plus vite !

VĂ©rifiez que đŸ€— Transformers a bien Ă©tĂ© installĂ© avec la commande suivante :

python -c "from transformers import pipeline; print(pipeline('sentiment-analysis')('I love you'))"

Installation modifiable

Vous aurez besoin d’une installation modifiable si vous le souhaitez :

  • Utiliser la version de la branche main du code source.
  • Contribuer Ă  đŸ€— Transformers et vouler tester vos modifications du code source.

Clonez le projet et installez đŸ€— Transformers avec les commandes suivantes :

git clone https://github.com/huggingface/transformers.git
cd transformers
pip install -e .

Ces commandes crĂ©ent des liens entre le dossier oĂč le projet a Ă©tĂ© clonĂ© et les chemins de vos librairies Python. Python regardera maintenant dans le dossier que vous avez clonĂ© en plus des dossiers oĂč sont installĂ©es vos autres librairies. Par exemple, si vos librairies Python sont installĂ©es dans ~/anaconda3/envs/main/lib/python3.7/site-packages/, Python cherchera aussi dans le dossier oĂč vous avez clonĂ© : ~/transformers/.

Vous devez garder le dossier transformers si vous voulez continuer d’utiliser la librairie.

Maintenant, vous pouvez facilement mettre Ă  jour votre clone avec la derniĂšre version de đŸ€— Transformers en utilisant la commande suivante :

cd ~/transformers/
git pull

Votre environnement Python utilisera la version de la branche main lors de la prochaine exécution.

Installation avec conda

Installation via le canal conda-forge de conda :

conda install conda-forge::transformers

Configuration du cache

Les modĂšles prĂ©-entraĂźnĂ©s sont tĂ©lĂ©chargĂ©s et mis en cache localement dans le dossier suivant : ~/.cache/huggingface/hub. C’est le dossier par dĂ©faut donnĂ© par la variable d’environnement TRANSFORMERS_CACHE. Sur Windows, le dossier par dĂ©faut est C:\Users\nom_utilisateur\.cache\huggingface\hub. Vous pouvez modifier les variables d’environnement indiquĂ©es ci-dessous - par ordre de prioritĂ© - pour spĂ©cifier un dossier de cache diffĂ©rent :

  1. Variable d’environnement (par dĂ©faut) : HF_HUB_CACHE ou TRANSFORMERS_CACHE.
  2. Variable d’environnement : HF_HOME.
  3. Variable d’environnement : XDG_CACHE_HOME + /huggingface.

đŸ€— Transformers utilisera les variables d’environnement PYTORCH_TRANSFORMERS_CACHE ou PYTORCH_PRETRAINED_BERT_CACHE si vous utilisez une version prĂ©cĂ©dente de cette librairie et avez dĂ©fini ces variables d’environnement, sauf si vous spĂ©cifiez la variable d’environnement TRANSFORMERS_CACHE.

Mode hors ligne

đŸ€— Transformers peut fonctionner dans un environnement cloisonnĂ© ou hors ligne en n’utilisant que des fichiers locaux. DĂ©finissez la variable d’environnement HF_HUB_OFFLINE=1 pour activer ce mode.

Ajoutez đŸ€— Datasets Ă  votre processus d’entraĂźnement hors ligne en dĂ©finissant la variable d’environnement HF_DATASETS_OFFLINE=1.

HF_DATASETS_OFFLINE=1 HF_HUB_OFFLINE=1 \
python examples/pytorch/translation/run_translation.py --model_name_or_path google-t5/t5-small --dataset_name wmt16 --dataset_config ro-en ...

Le script devrait maintenant s’exĂ©cuter sans rester en attente ou attendre une expiration, car il n’essaiera pas de tĂ©lĂ©charger des modĂšle sur le Hub.

Vous pouvez aussi éviter de télécharger un modÚle à chaque appel de la fonction from_pretrained() en utilisant le paramÚtre [local_files_only]. Seuls les fichiers locaux sont chargés lorsque ce paramÚtre est activé (c.-à-d. local_files_only=True) :

from transformers import T5Model

model = T5Model.from_pretrained("./path/to/local/directory", local_files_only=True)

Récupérer des modÚles et des tokenizers pour une utilisation hors ligne

Une autre option pour utiliser đŸ€— Transformers hors ligne est de tĂ©lĂ©charger les fichiers Ă  l’avance, puis d’utiliser les chemins locaux lorsque vous en avez besoin en mode hors ligne. Il existe trois façons de faire cela :

  • TĂ©lĂ©chargez un fichier via l’interface utilisateur sur le Model Hub en cliquant sur l’icĂŽne ↓.

    download-icon

  • Utilisez les fonctions PreTrainedModel.from_pretrained() et PreTrainedModel.save_pretrained() :

    1. TĂ©lĂ©chargez vos fichiers Ă  l’avance avec PreTrainedModel.from_pretrained():
    >>> from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
    
    >>> tokenizer = AutoTokenizer.from_pretrained("bigscience/T0_3B")
    >>> model = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0_3B")
    1. Sauvegardez les fichiers dans un dossier de votre choix avec PreTrainedModel.save_pretrained():
    >>> tokenizer.save_pretrained("./your/path/bigscience_t0")
    >>> model.save_pretrained("./your/path/bigscience_t0")
    1. Maintenant, lorsque vous ĂȘtes hors ligne, rechargez vos fichiers avec PreTrainedModel.from_pretrained() depuis le dossier oĂč vous les avez sauvegardĂ©s :
    >>> tokenizer = AutoTokenizer.from_pretrained("./your/path/bigscience_t0")
    >>> model = AutoModel.from_pretrained("./your/path/bigscience_t0")
  • TĂ©lĂ©chargez des fichiers de maniĂšre automatique avec la librairie huggingface_hub :

    1. Installez la librairie huggingface_hub dans votre environnement virtuel :
    python -m pip install huggingface_hub
    1. Utilisez la fonction hf_hub_download pour télécharger un fichier vers un chemin de votre choix. Par exemple, la commande suivante télécharge le fichier config.json du modÚle T0 vers le chemin de votre choix :
    >>> from huggingface_hub import hf_hub_download
    
    >>> hf_hub_download(repo_id="bigscience/T0_3B", filename="config.json", cache_dir="./your/path/bigscience_t0")

Une fois que votre fichier est tĂ©lĂ©chargĂ© et cachĂ© localement, spĂ©cifiez son chemin local pour le charger et l’utiliser :

>>> from transformers import AutoConfig

>>> config = AutoConfig.from_pretrained("./your/path/bigscience_t0/config.json")

Consultez la section How to download files from the Hub (Comment télécharger des fichiers depuis le Hub) pour plus de détails sur le téléchargement de fichiers stockés sur le Hub.

< > Update on GitHub

ЛучшоĐč Ń‡Đ°ŃŃ‚ĐœŃ‹Đč Ń…ĐŸŃŃ‚ĐžĐœĐł