Dans ce cours nous allons voir comment les probabilités algorithmiques peuvent aussi éclairer certains aspects de l'évolution biologique et comment des résultats numériques du cas naturel peuvent être transposés en méthodes d'optimisation pour l'évolution artificielle, via des techniques comme les algorithmes génétiques et évolutionnaires. Au cœur de la théorie moderne de l'évolution du vivant on trouve l'idée qu'elle est graduelle et expliquée par de petits changements génétiques dans de grandes populations au cours du temps. On considère que la variation génétique arrive par hasard, via les mutations, avec des petits changements qui mènent à de grands changements évolutifs à force, quand ces changements prémunissent d'avantages évolutifs. Dans les liens possibles entre la théorie de l'évolution biologique et la théorie de l'information, on s'intéresse souvent à la place et au rôle du hasard/de l'aléatoire dans le processus qui délivre la variété nécessaire pour permettre aux organismes de changer et s'adapter. La sélection naturelle explique comment la vie a évolué au cours de millions d'années depuis des formes plus primitives. La vitesse à laquelle cela s'est produit défie cependant parfois les explications formelles qui se basent sur des mutations aléatoires uniformément distribuées. Un argument créationniste populaire est, par exemple, qu'en aucune façon on ne peut obtenir le niveau de conception d'un organisme par accumulation de modifications aléatoires. Mais si l'on considère que les mutations sont des perturbations de l'environnement, alors il est manifeste qu'elles ne peuvent pas être distribuées uniformément, et donc être complètement aléatoires. Donc toutes les mutations n'auraient pas la même probabilité d'arriver. En fait, on sait déjà ça en biologie. Tous les segments ou toutes les régions d'ADN du génome n'endurent pas le même taux de mutation. Et même, au cours de la vie de quelqu'un, les taux de mutation sont très différents. Donc avoir des distributions de mutations non uniformes ne devrait pas être surprenant. C'est assez facile de voir que la manière dont les organismes interagissent les uns avec les autres est un genre de processus qui peut être relié à la distribution universelle. Si on considère l'ADN comme vivant dans le domaine des logiciels, avec des mutations qui sont des perturbations algorithmiques, une idée déjà proposée par des gens comme Gregory Chaitin lui-même et sa métabiologie, et aussi par Stephen Wolfram. Que se passe-t'il si on présume que les mutations ne sont pas distribuées uniformément mais distribuées avec un fort biais de simplicité algorithmique avec l'ADN comme logiciel ? Que se passerait-il si l'on étudiait l'évolution de ce point de vue ? C'est là manière dont nous avons mené une expérience dans laquelle nous avons introduit la distribution universelle dans la manière de laquelle les mutations modifient les logiciels comme l'ADN. Donc, avant d'appliquer une mutation, nous simulons chaque mutation ponctuelle possible et trouvons laquelle serait la plus simple au regard de la probabilité algorithmique mesurée par BDM, et ce serait cette mutation que nous appliquons à la génération suivante. Bien sûr, en vrai, les mutations n'arrivent pas ainsi dans l'évolution naturelle mais parce que les mutations viendraient de quelque chose qui se ramène à la distribution universelle, et non une distribution uniforme, elles n'ont pas besoin d'être simulées et testées préalablement, elles sont naturellement favorisées. Les résultats sur des exemples synthétiques et également sur des petits systèmes biologiques montrent un taux de convergence accéléré et une convergence évolutive quand les mutations ne sont pas statistiquement uniformes mais algorithmiquement uniformes, c'est à dire avec des mutations distribuées selon la distribution universelle. Nous avons aussi montré que les distributions algorithmiques peut évoluer la modularité et la mémoire génétique car des structures peu complexes vont être préservées au cours du temps et créer des zones faiblement aléatoires parfois menant à une production de diversité accélérée mais aussi à l’extinction de populations. À cause de la distribution universelle, les modules de basse complexité sont incapables de s'adapter assez vite et ceci explique ainsi possiblement des phénomènes arrivant naturellement comme des explosions de diversité, par exemple celle de la période du Cambrien, et des extinctions de masse, comme à la fin du Trias, dont les origines sont encore débattues aujourd'hui. Voici ici un exemple de ce phénomène d'accélération avec des mutations qui suivent une distribution universelle quand on fait évoluer un graphe qui chasse un graphe croissant non-aléatoire comme un graphe de Zay-Kay que nous avons vu dans la dernière unité et dans plusieurs avant. Mais aussi dans des structures simples comme des arbres kaori et des étoiles. Le fait d'introduire un biais de simplicité est alors traduit par une convergence évolutive plus rapide. Les graphes ont besoin de bien moins d'étapes pour rattraper ces graphes quand on applique les mutations algorithmiques plutôt que les mutations uniformément distribuées. De plus, instaurer ce biais se manifeste en le fait d'être capable de trouver des chemins évolutifs différenciés avec différents poids parmi les gènes.