Définitions

Lazy Learning

L’apprentissage paresseux (ou lazy learning) est une méthode d'apprentissage dans laquelle la généralisation des données d’entrainement est, en théorie, retardée jusqu'à ce qu'une requête soit faite au système, par opposition à l’eager learning, où le système essaie de généraliser les données d’entrainement avant de recevoir des requêtes.

La principale motivation pour utiliser l'apprentissage paresseux, comme dans l’algorithme K-nearest neighbors, utilisé par les systèmes de recommandation en ligne ("les personnes qui regardent / achètent / écoutent ce film / cet élément / cet air également...") est que le jeu de données  est mis à jour en permanence avec les nouvelles entrées (par exemple, nouveaux articles en vente sur Amazon, nouveaux films à visionner sur Netflix, nouveaux clips sur Youtube, nouvelle musique sur Spotify ou Pandora). En raison de la mise à jour continue, les "données d’entraînement" seraient rendues obsolètes assez rapidement, en particulier dans des domaines comme les livres et les films, où de nouveaux best-sellers ou des films / musiques à succès sont publiés en continu. Par conséquent, on ne peut pas vraiment parler de "phase d’entraînement".

Les classificateurs lazy sont particulièrement utiles pour les grands ensembles de données changeant en permanence et comportant peu d'attributs faisant l'objet d'une requête. Plus précisément, même s'il existe un grand nombre d'attributs (par exemple, les livres ont une année de publication, l'auteur, l’éditeur, le titre, l'édition, l'ISBN, le prix de vente, etc.), les requêtes de recommandation reposant sur beaucoup moins d'attributs (par exemple, acheter ou consulter des données de cooccurrence et évaluer les utilisateurs des articles achetés / visionnés.

Organisme de formation

CPF, Pole Emploi, Plan de formation   OF N°11755165975 - 17 rue etex, Paris

Recevez des exclus !

Abonnez-vous et recevez des infos en exclu

24pm academy
17 rue etex 75018 Paris
O6 62 55 OO 1O

Search