Sciences & Techniques

  • Estimer la difficulté des problèmes d'un jeu d'essai peut s'avérer complexe. Optimiseurs itératifs présente des analyses théoriques et des méthodes pratiques avec codes sources fournis pour pouvoir calculer la difficulté d'un problème donné et construire sur mesure des jeux d'essai de problèmes de difficultés variées.

    Plusieurs mesures de difficulté théoriques sont envisagées, plus ou moins précises et plus ou moins faciles à estimer. Elles sont mises en regard de la difficulté réelle ou « ressentie » pour les optimiseurs classiques.

    Cet ouvrage établit une typologie des problèmes d'optimisation, de laquelle on peut déduire quelle devrait être la structure d'un jeu d'essai fiable, c'est-à-dire représentative des problèmes réels à traiter. Il montre ainsi que des jeux d'essai classiques sont biaisés en faveur de certaines classes de problèmes, et définit les notions d'exploitation et d'exploration afin de les rendre mesurables.

  • L'Optimisation par Essaims Particulaires (OEP) ou Particle Swarm Optimization (PSO) est une heuristique non spécifique, au même titre que, par exemple, les algorithmes évolutionnaires, la recherche avec tabous ou les colonies de fourmis. Son domaine originel de prédilection depuis sa naissance en 1995 est l'optimisation numérique hétérogène continue-discrète fortement non linéaire et à ce titre elle est utilisée un peu partout dans le monde. Sa rapidité de convergence en fait aussi un outil privilégié en optimisation dynamique. Ce livre est le premier entièrement consacré à L'Optimisation par Essaims Particulaires (OEP) ou Particle Swarm Optimization (PSO). Il explique les principes de base, en particulier les concepts de particule, de lien d'information, de mémoire et de coopération. Partant d'une version paramétrique très simple mais déjà efficace, codable en quelques lignes, il montre comment l'enrichir progressivement pour aboutir à une version entièrement adaptative. Tous les programmes sources sont soit inclus dans l'ouvrage (pour les plus courts) soit librement disponibles en téléchargement.

  • Les métaheuristiques d'optimisation procèdent à un « tirage au hasard » pour effectuer certains choix ou appliquer certaines règles, pour cela elles doivent faire appel à un ou plusieurs générateurs de nombres aléatoires (GNA). De nombreux types de GNA existent, de l'aléatoire vrai jusqu'au codé simple. Ils peuvent être manipulés pour produire des distributions spécifiques. Les performances d'un algorithme dépendent du GNA utilisé. Cet ouvrage s'intéresse à la comparaison d'optimiseurs, il définit une approche effort-résultat d'où peuvent être dérivés tous les critères classiques (médiane, moyenne, etc.) et d'autres plus sophistiqués. Les codes-sources utilisés pour les exemples sont aussi présentés, cela permet une réflexion sur le « hasard superflu », expliquant succinctement pourquoi et comment l'aspect stochastique de l'optimisation pourrait être évité dans certains cas. La série Les métaheuristiques sont utilisées dans tous les domaines où l'on recherche des solutions efficaces en un temps raisonnable. C'est une forme de pragmatisme de la résolution de problèmes pour lequel les sources d'inspiration sont multiples. Le rôle de cette série est d'étendre l'utilisation des métaheuristiques à de nouveaux problèmes et domaines en dressant un panorama selon plusieurs angles : transversaux, centrés sur des domaines particuliers ou encore consacrés à des familles de métaheuristiques particulières.

empty