Définitions

Analyse d'algorithme

L’analyse d'algorithmes est le processus de recherche du niveau de complexité computationnelle des algorithmes - la quantité de temps, de stockage ou d’autres ressources nécessaires pour les exécuter.

En général, cela implique de déterminer une fonction qui relie la longueur de l'entrée d'un algorithme au nombre de pas qu'il prend (complexité temporelle) ou au nombre d'emplacements de stockage utilisés (complexité d'espace). Un algorithme est dit efficace lorsque les valeurs de cette fonction sont petites ou croissent lentement par rapport à une croissance de la taille de l'entrée. Différentes entrées de même longueur peuvent entraîner un comportement différent de l'algorithme, de sorte que les descriptions de cas optimal, pire et moyen peuvent toutes présenter un intérêt pratique.

Sauf indication contraire, la fonction décrivant la performance d'un algorithme est généralement une limite supérieure, déterminée par les entrées les plus défavorables de l'algorithme.

Le terme "analyse des algorithmes" a été inventé par Donald Knuth . L’analyse algorithmique est un élément important d’une théorie plus vaste de la complexité informatique, qui fournit des estimations théoriques des ressources nécessaires à tout algorithme résolvant un problème informatique donné . Ces estimations fournissent un aperçu des directions raisonnables de recherche d’algorithmes efficaces .

Dans l'analyse théorique des algorithmes, il est courant d'estimer leur complexité au sens asymptotique, c'est-à-dire d'estimer la fonction complexe pour une entrée arbitrairement grande. Notation Big O, la notation Big-Omega et la notation Big-thêta sont utilisés à cette fin. Par exemple, on dit que la recherche binaire se déroule en plusieurs étapes proportionnelles au logarithme de la longueur de la lettre triée recherchée, ou en O (log (n)), familièrement "en temps logarithmique ". On utilise généralement des estimations asymptotiques car différentes implémentations du même algorithme peuvent différer en efficacité . Cependant, l'efficacité de deux mises en œuvre "raisonnables" d'un algorithme donné est liée à un facteur multiplicatif constant appelé constante cachée .

Des mesures d'efficacité exactes (et non asymptotiques) peuvent parfois être calculées, mais elles nécessitent généralement certaines hypothèses concernant la mise en œuvre particulière de l'algorithme, appelé modèle de calcul .

Un modèle de calcul peut être défini en termes d’ordinateur abstrait, par exemple une machine de Turing, et / ou en postulant que certaines opérations sont exécutées en unités de temps. Par exemple, si la liste triée à laquelle nous appliquons la recherche binaire a n éléments, et nous pouvons garantir que chaque recherche d'un élément dans la liste peut se faire dans le temps de l’unité, puis à mos t log 2 n + 1 unités de temps sont nécessaires renvoyer une réponse.

L'analyse est la découverte, l'interprétation et la communication de modèles significatifs dans les données . Cela implique également d'appliquer des modèles de données pour une prise de décision efficace. En d'autres termes, l'analyse peut être comprise comme le tissu conjonctif entre les données et une prise de décision efficace au sein d'une organisation. Particulièrement utile dans les domaines riches en informations enregistrées, l'analyse repose sur l’application simultanée de statistiques, de programmation informatique et de recherche opérationnelle pour quantifier les performances.
Les organisations peuvent appliquer des analyses aux données métiers pour décrire, prévoir et améliorer leurs performances.

Plus précisément, les zones dans l’analyse y compris l'analyse prédictive, l’analyse normative, la gestion des décisions d'entreprise, l’analyse descriptive, l'analyse cognitive, le Analytics Big Data, l’analyse de détail, l’analyse de la chaîne d'approvisionnement, assortiment de magasin et la tenue des stocks unité d’optimisation, l’optimisation du marketing et du marketing modélisation mix, analyse Web, analyse des appels, analyse de la parole, dimensionnement et optimisation de la force de vente, modélisation des prix et des promotions, prévisions scientifiques, analyse du risque de crédit et analyse de la fraude . Étant donné que l’analyse peut nécessiter des calculs poussés (voir Big Data), les algorithmes et les logiciels utilisés pour l’analyse exploitent les méthodes les plus récentes 

Organisme de formation

CPF, Pole Emploi, Plan de formation   OF N°11755165975 - 17 rue etex, Paris

Recevez des exclus !

Abonnez-vous et recevez des infos en exclu

24pm academy
17 rue etex 75018 Paris
O6 62 55 OO 1O

Search