vmagnin@univ

Accueil > Enseignement > Cours gratuits > Optimisation et algorithmes génétiques > Introduction

Introduction

vendredi 7 juillet 2006, par Vincent MAGNIN

Les hommes ont observé le monde depuis des temps immémoriaux. L’observation les a menés à établir des théories permettant d’expliquer les régularités de la nature. Parmi les premières observations et théories, on compte certainement celles concernant le ciel. Il s’agissait alors de répondre à des questions telles que : pourquoi le soleil se lève tous les jours, quand reviennent les saisons, les astres ont-ils une influence sur le destin des êtres humains ? Avec l’avènement de l’agriculture il a fallu mettre au point des calendriers pour savoir quand il fallait planter et récolter. Dans l’Antiquité les théories se sont complexifiées mais elles étaient fondées sur l’observation.

On considère traditionnellement que c’est avec Galilée que la science occidentale est entrée dans l’ère de la science expérimentale, où l’homme interroge la Nature et la force à répondre à l’aide d’expériences conçues dans ce but, ce qui n’était pas concevable dans la mentalité de l’Antiquité. Il s’est ainsi mis en place un cercle incessant d’allers et venues entre théorie et expérience. Il s’agissait pour les théories d’expliquer ou de prévoir de plus en plus de faits expérimentaux. Il s’agissait pour l’expérience d’interroger la Nature de façon de plus en plus approfondie et de pousser les théories dans leurs derniers retranchements.

Puis à l’observation, la théorie et l’expérience est venu s’ajouter un nouvel outil scientifique : la modélisation. Celle-ci a pleinement acquis ses lettres de noblesse avec l’avènement de l’informatique. La simulation informatique a malheureusement commencé sa brillante carrière avec la mise au point de la première bombe atomique à Los Alamos pendant la Seconde Guerre Mondiale . Elle s’est depuis imposée comme un outil indispensable à la pratique de la science, trouvant sa place entre l’observation, la théorie et l’expérience, et interagissant avec elles.

Loin d’être un substitut à l’expérience, la simulation informatique se révèle précieuse pour choisir quelle expérience il convient de réaliser pour obtenir le résultat voulu. Dans certains domaines, les expériences ont en effet la fâcheuse tendance à devenir de plus en plus coûteuses. La simulation permet un gain de temps et une économie substantielle en réduisant le nombre d’expériences à mener. On peut parler désormais d’expérimentation virtuelle. La simulation s’est d’ailleurs émancipée vis-à-vis de la science en pénétrant dans les années 80 le monde des jeux vidéos, puis dans les années 90 celui de la réalité virtuelle.

I. Qu’est-ce qu’un modèle ?

Qu’est-ce qu’un modèle ? Que peut un modèle ? Que ne peut-il pas ? Pourquoi concevoir des modèles ?

Un modèle est une simplification du monde. On isole une classe de phénomènes et on essaie d’en rendre compte à l’aide d’un certain nombre d’hypothèses et de règles. A ce titre, une théorie est une forme de modèle.

Un modèle est un filet jeté sur le monde qui permet d’attraper certains poissons mais en laisse échapper d’autres trop petits pour ses mailles. La théorie de Newton est un très beau modèle de la gravitation mais ne permet pas de rendre compte de façon satisfaisante de certains phénomènes dont la théorie de la Relativité Générale rend compte aisément. Aucun modèle, aucune théorie ne peut rendre compte de la totalité du monde. Etant une simplification, tout modèle a ses limites, son domaine de validité. Il est indispensable que l’utilisateur d’un modèle soit conscient de cela, qu’il connaisse ce domaine de validité et qu’il reste critique vis-à-vis des résultats. Sinon, c’est la porte ouverte à tous les abus. Le modèle n’est pas la réalité : en dehors de ses limites ses résultats ne collent plus à la réalité ; ils ne traduisent alors que les propriétés du modèle.

On ne peut pas affirmer qu’un modèle est vrai ou faux. Un marteau n’est ni vrai ni faux, c’est un outil qui peut servir entre autres à enfoncer un clou, mais qui sera peu efficace avec une vis. On peut juste affirmer que le bricoleur qui l’utilise pour une vis le fait à mauvais escient. Un modèle est un outil qui fournit simplement des résultats plus ou moins valables dans un domaine plus ou moins étendu : il peut être utilisé à bon ou à mauvais escient. La responsabilité en incombe à l’utilisateur.

Un bon modèle doit être prédictif, c’est-à-dire qu’il doit permettre de prévoir dans une certaine mesure le résultat d’une expérience. Cette prédictibilité peut avoir un caractère qualitatif ou quantitatif selon que le modèle se contente de prévoir un certain comportement ou qu’il permet de prédire la valeur de telle ou telle grandeur mesurable.

Un modèle informatique (on parle aussi de modèle numérique) est l’implémentation d’un modèle sur un ordinateur. Il permet de simuler un phénomène.

II. Comment on utilise un modèle

Si l’on dispose de différents modèles, il s’agit d’abord de choisir avec pertinence un de ces modèles en fonction de leur adéquation, de la précision que l’on souhaite, de leur lourdeur, des moyens dont on dispose, etc. Par exemple, si l’on sait qu’un modèle à une dimension (1D) suffira, il est inutile de commencer avec un modèle 2D ou 3D qui sera beaucoup plus lourd à mettre en œuvre et beaucoup plus gourmand en temps de calcul. Inutile d’utiliser un marteau-pilon pour écraser une mouche.

Dans certains cas, il peut être intéressant d’utiliser des modèles différents, correspondant à différents points de vue. De plus, la comparaison des résultats fournis par différents modèles est généralement très instructive sur les modèles et les phénomènes modélisés.

Un point crucial est le choix des valeurs des paramètres du modèle (paramètres physiques, conditions initiales…) La validité des résultats en dépendra fortement.

Après l’utilisation du modèle on effectuera une comparaison théorie/expérience. Un désaccord entre les deux permettra de mettre en cause la validité des paramètres introduits ou la validité du modèle (l’a-t-on utilisé dans son domaine de validité, a-t-on pris en compte tous les phénomènes nécessaires…), mais peut-être aussi la façon dont a été menée l’expérience !

Cette comparaison pourra amener l’utilisateur à adapter les paramètres du modèle afin d’améliorer les résultats des futures modélisations. Il s’instaure donc un système d’aller-retour entre la simulation et l’expérience.

III. Perspectives

Les enjeux économiques ou sociaux actuels exigent de considérer des objets de plus en plus complexes. Les modèles deviennent donc de plus en plus complexes et globaux, ce qui est rendu possible d’une part par les avancées théoriques et algorithmiques, et d’autre part par la montée en puissance exponentielle des ordinateurs (loi de Moore ). Par exemple, les prévisions météorologiques sont désormais données de façon fiable sur plusieurs jours.

Le développement d’algorithmes d’optimisation complexes (algorithmes génétiques , algorithme de recuit simulé…) permet d’aller encore plus loin dans l’utilisation de la modélisation. Ils permettent de répondre à ce que l’on appelle le problème inverse : voulant obtenir telle ou telle propriété, quelles valeurs donner aux paramètres de mon problème ?

IV. Bibliographie

- J.-M. Legay, L’expérience et le modèle, un discours sur la méthode, INRA Editions, Paris, 1997.
-  Comment l’ordinateur transforme les sciences, Les Cahiers de Science et Vie, n°53, octobre 1999.


Chapitre suivant