Embeddings prédictifs (Prediction-Based Embeddings)
Ces modèles apprennent les vecteurs en prévoyant un mot à partir de son contexte ou l’inverse.
Utilisent des réseaux de neurones simples pour créer des représentations distribuées.
Exemples :
Word2Vec :
-
Skip-gram: prédit les mots du contexte à partir du mot cible. -
CBOW(Continuous Bag of Words) : prédit le mot cible à partir du contexte. -
GloVe: combine approche de cooccurrence et apprentissage prédictif ; s’appuie sur la probabilité relative de cooccurrence entre mots.
Avantages :
efficaces, rapides à entraîner, bonnes performances sur les similarités sémantiques.
Inconvénients :
un seul vecteur par mot, pas de prise en compte du contexte (un mot a toujours le même vecteur, quel que soit son sens dans la phrase).