Travaux pratiques 5 de deep learning

23/01/2025

Réalisation de travaux pratiques dans le cadre du cours de Deep learning, sur les réseaux de neurones pour la traduction.

Préliminaires

  • Pourquoi avons-nous besoin d'un tokenizer ?
  • Bibliothèques Torchtext et Spacy

Téléchargement du dataset

  • Importation des bibliothèques nécessaires
  • Téléchargement et préparation des données

Tokenisation et Vocabulaire

  • Tokenisation avec Spacy
  • Définition des tokens spéciaux
  • Construction du vocabulaire

Encodage et Embedding

  • Encodage positionnel
  • Embedding des tokens

Architecture Seq2Seq

  • Modèle Sequence-to-Sequence
  • Encoder
  • Decoder
  • Attention multi-têtes
  • Réseaux feed-forward

Masquage et Masques de Séquence

  • Masquage causal
  • Création des masques

Construction du modèle

  • Hyperparamètres prédéfinis
  • Initialisation du modèle

Création du DataLoader

  • Fonction de collate
  • Chargement des données d'entraînement et de validation

Entraînement

  • Fonction d'entraînement par époque
  • Fonction d'évaluation
  • Entraînement du modèle sur plusieurs époques

Décodage et Traduction

  • Fonction de décodage greedy
  • Fonction de traduction

Hyperparamètres et Performances

  • Ajustement des hyperparamètres
  • Cas d'échec du modèle

Question Bonus

  • Implémentation de la recherche par faisceau (Beam Search)
Créez votre site web gratuitement ! Ce site internet a été réalisé avec Webnode. Créez le votre gratuitement aujourd'hui ! Commencer