Table of Contents
- News et TODO-list
- Contenu
- Projets
- Notation automatique de réponses courtes à des questions
- Notation (et explication) pour les bières
- Airline Travel Information System (ATIS)
- Classification de tweets
- Conversion graphèmes vers phonèmes
- Q&A insurance
- Quora Question Pairs
- Toxic Comment Classification
- The Fake-news challenge
- Amazon review
- Hate speech on tweeter
Le dossier partagé pour ce cours est le suivant. Vous y trouverez les cours et les ressources nécessaires.
News et TODO-list
- Pour le 13/03: voir plus bas !!
- Pour le 20/02 : Finir le TP 3
- Pour 13/02 : Finir le tp d'intro à pytorch
- Neige le 30/01: cours annulé, mais 2 notebooks sont disponibles pour s'avancer un peu (numpy et torch101)
- Neige le 23/01: cours reporté à la demande générale
- Première séance le 16/01, il n'y a pas TER le 09/01 !
Contenu
Séance 1, le 16/01
- Cours: Classification binaire / Séparation linéaire
- TP : Prise en main python et données imdb
Séance 2, le 06/02
- cours: apprentissage / optimisation
- TP : sur numpy, à faire à la maison
- TP : intro pytorch
Neige: la séance du 30/01 est annulée, mais on peut s'avancer en faisant les TPs d'ici la semaine prochaine. Il y a 2 notebooks, le premier est sur numpy et le second sur pytorch. Il est bien de les faire dans cet ordre.
L'objectif important est d'avancer le plus possible dans le TP sur pytorch après avoir maîtrisé le TP sur numpy. Avancer le plus possible les TP pour la semaine prochaine.
Correction partielle du TP sur pytorch qui devrait vous permettre de terminer pour la semaine prochaine:
import torch as th # set the seed (reproductibility) torch.manual_seed(1) # dimensions of the problem D_in = 2 D_out= 1 # Use the nn package to define our model and loss function model = th.nn.Sequential( th.nn.Linear(D_in, D_out), th.nn.Sigmoid() ) loss_fn = th.nn.BCELoss() learning_rate = 1e-2 optimizer = th.optim.SGD(model.parameters(), lr=learning_rate) for epoch in range(1000): total=th.zeros([]) for i in range(14): prediction = model(x[i]) loss = loss_fn(prediction, y[i]) optimizer.zero_grad() loss.backward() optimizer.step() total+=loss if epoch%50==0: print(epoch,total)
Séance 3, le 13/02
- Cours sur la classification de texte: représentation sous forme de sac d'atributs binaires puis de word embeddings.
- TP : Classification sur ImDB, de la regression logistique au word embeddings.
Séance 4, le 20/02
- Cours sur la classification multi-classe, et la génération de phrase.
- Présentation des projets
- TP: Classification de texte, suite et fin. Il fait faire et finir dans l'ordre les TP3 et 4. Complétement !
- TP complément: Pour celles ou ceux qui aurait en effet tout terminer, l'article suivant propose un modèle simple pour faire de la classification de texte. Il est considéré comme un modèle de base. Lire l'article, et proposer une implémentation, même simplifiée.
Séance 5, le 27/02
- TP : on reprend le TP 4 et il faut faire le TP5 sur les modèles récurrents.
Pour le TP4, voici un début de correction:
class CBOW_classifier(nn.Module): """ A text classifier: - input = a list of word indices - output = probability associated to a binary classification task The pooling operation is the sum To build it, two args : - vocab_size: the number of words in the vocabulary we want to embed - embedding_dim: size of the word vectors """ def __init__(self, vocab_size, embedding_dim): super(CBOW_classifier, self).__init__() self.embeddings = nn.Embedding(vocab_size, embedding_dim) self.linear1 = nn.Linear(embedding_dim, 1) self.out = nn.Sigmoid() def forward(self, inputs): inp = self.embeddings(inputs).sum(dim=0) return self.out(self.linear1(inp))
Séance 6, le 13 mars
- Travail à rendre, avant la séance: bilan sur la classification de
texte: rendre les TP 3,4, et 5. Comme des éléments de corrections existent,
l'important est de documenter le code et d'analyser comment les
modèles fonctionnent. Ce qui est attendu:
- classifieur simple, la régression logistique
- un réseau de neurone réalisant une régression logistique, mais un texte est vu comme un sac de mots et chaque mot est représenté par son embedding. Le modèle est donc une régression logistique branchée sur un sac de word embeddings.
- Pour ces deux classifieurs, la démarche expérimentale est la même : évaluation à partir d'une partition des données en train/dev/test
- Format : un notebook avec les résultats
- Travail à rendre, choix du projet
Séances suivantes
- 7 : 20/03
- 8 : 27/03
- 9 : 3/04
- 10 : 10/04
Projets
Pour le mercredi XXX, vous devez choisir un projet à faire, soit parmi ceux listés ci-dessous, soit en proposer un, soit on en discute. Puis vous devez explorer et décrire la tâche en me écrivant un notebook.
De manière général, face à un nouveau projet et de nouvelles données, il faut :
- regarder la taille du vocabulaire (en nombre de mots)
- est-il possible de le réduire à une taille acceptable ? par exemple en excluant les mots dont la fréquence est en dessous d'un certain seuil.
- le nombre de caractères
- le nombre de phrase (ou de document) à traiter pour l'apprentissage et pour le test
- parfois, c'est à vous de créer la partition (apprentissage, validation, test)
- la distribution de longueurs de phrases.
L'objectif de ce notebook sera d'analyser les données et la tâche afin de proposer des solutions à expérimenter. Il peut être bien également de regarder la métrique d'évaluation et voir quels sont les résultats obtenus par l'état de l'art.
Notation automatique de réponses courtes à des questions
Les données sont ici pour le téléchargement et leur description est dans cet article.
Lorsque l'on connait:
- une question,
- une réponse d'un étudiant,
- la bonne réponse,
comment prédire la note à donné à la réponse de l'étudiant. Il peut être aussi intéressant d'essayer d'apprendre à générer la réponse.
Notation (et explication) pour les bières
Les données sont disponibles ici en json. Un exemple d'utilisation de ces données est décrit dans cet article. Mais on peut envisager des choses plus simple:
- juste un classifieur pour assigner plusieurs notes
- expliquer la note pour un classifier plus simple
- …
Airline Travel Information System (ATIS)
Corpus des années 90, il est dédié à la compréhension de la parole. Le but est de faire de l'étiquetage de séquence. En entrée, une phrase est une séquence de mots, et le but est de lui associé une séquence d'étiquette, une par mot.
- Show flights from Boston to New York today
- O O O B-dept O B-arr I-arr B-date
Ainsi le mot Show est associé à 'O' pour 'other'; 'Boston' est associé au lieu de départ, 'B-dept' signifie 'début de départ'; 'York' est 'Inside arrival', …
Classification de tweets
Partant d'un tweet vu comme une séquence de symboles, effectuer une classification binaire (positif/négatif). Les données peuvent se télécharger ici.
Un axe peut être de développer un modèle efficace. Les étapes importantes:
- Exploration puis préparation des données sous forme exploitable
- Filtrage des données éventuel
- Préparation d'une partition : apprentissage, validation, test
- essayer différents modèles
Un autre axe est de partir de cet article en pdf qui parle, entre autre, de comment collecter des données tweeter pour faire de la classification.
Conversion graphèmes vers phonèmes
Partant d'un mot vue comme une séquence de lettres (les graphèmes), le but est de générer une séquence de phonèmes. Les données nettalk sont décrites ici et disponible ici.
Il y a deux types d'annotation que l'on peut vouloir générer :
- au moins la séquence de phonèmes (c'est le but premier),
- mais également la séquence d'accentuation.
La séquence d'accentuation peut éventuellement aider à prédire les phonèmes. Il existe alors plusieurs pistes à explorer.
Remarque : penser à vérifier si la séquence à générer est toujours de la même longueur que la séquence de graphèmes
Q&A insurance
L'objectif est pouvoir sélectionner une réponse à une question. Les données viennent du domaine de l'assurance. Les données brutes viennent de ce site.
Une version plus simple peut se télécharger ici
Cette page explique beaucoup de choses (certaines sont peut être soit trop complexes, soit inutiles). Elle cite entre autres des articles décrivant des modèles performants et qui peuvent donner des idées.
Quora Question Pairs
Le challenge https://www.kaggle.com/c/quora-question-pairs