Bonjour à tous. Dans cette unité je vais traiter la notion d'information et ses relations avec la caractérisation de l'ordre et du désordre dans les systèmes complexes. Nous allons commencer par parler de la notion d'entropie, qui est une manière particulière de caractériser l'ordre. Puis nous tenterons de donner du sens à la seconde loi de la thermodynamique, et nous examinerons le fameux paradoxe appelé Maxwell's Demon, qui fait le lien entre la physique et l'information. Ensuite, nous aborderons le domaine de la mécanique statistique, qui nous donnera les bases pour quantifier la notion d'information. Nous parlerons de Claude Shannon en particulier de sa formulation de l'information et nous parlerons de ses limites dans la quantification du traitement de l'information dans les systèmes complexes. Enfin, nous entendrons Jim Crutchfield, un physicien de l'Université de Californie et de l'Institut de Santa Fe, parler de son travail sur une notion particulière de la théorie de l'information pour comprendre les systèmes complexes. Commençons. Dans l'unité 1 nous avons vu plusieurs exemples de systèmes complexes dans lesquels l'auto-organisation apparaît. Par exemple, nous avons vu comment des fourmis sont capables de produire collectivement, d'organiser des structures comme des ponts à partir de leurs propres corps, comment les termites s'organisent entres elles pour construire des structures de nidification complexes, comment les neurones s'organisent en unités fonctionnelles de cognition, comment les milliers de milliards de cellules du système immunitaire s'organisent pour défendre l'organisme contre les intrus, et nous avons vu comment les gens s'organisent eux-même dans l'écologie, les réseaux sociaux, les villes, et les économies complexes. Dans les unités 2 et 3 nous avons brièvement traité du thème de la dynamique et des fractales et de la manière dont des itérations de règles simples peuvent conduire à des comportements simples et complexes, comment il peut aboutir à l'organisation et au chaos. Mais un autre point clé du phénomène de l'auto-organisation est la notion d'information. Pour comprendre le phénomène de l'auto-organisation nous devons comprendre comment l'information est représentée, transmises et traitée dans les systèmes complexes. Ainsi que le dit le physicien Murray Gell-Mann, "Bien que les systèmes complexes soient très différents dans leurs attributs physiques, ils se ressemblent à la façon dont ils traitent l'information. Cette caractéristique commune est peut-être le meilleur point de départ pour explorer leur fonctionnement." Dans cette unité, nous examinerons certains moyens avec lesquels l'information peut être quantifiée. Historiquement, la structure mathématique de l'information commence par les lois de la thermodynamique. La première loi dit simplement que dans un système isolé, l'énergie est conservée. Un système isolé est un système dans lequel aucune énergie ne peut être ajoutée à partir de l'extérieur du système ou ne peut s'échapper du système. Mais que voulons-nous dire exactement par énergie? L'énergie est définie en physique comme un système potentiel pour faire un travail. "Travail" à ici un sens technique. Mais vous pouvez l'imaginer dans son sens familier c'est à dire, le travail c'est que les choses soient faites. Donc, de façon très informelle, l'énergie est le potentiel d'un système pour que les choses soient faites. L'énergie peut prendre différentes formes, et peut être transformée d'une forme à l'autre. Voici quelques exemples. L'énergie solaire peut être transformée en énergie chimique dans les plantes via la photosynthèse. L'énergie électrique peut être transformée en énergie thermique. C'est la façon dont vos radiateurs électriques ou vos appareils de cuisson fonctionnent. L'énergie chimique de la nourriture ou du carburant peut être transformée en énergie mécanique ou cinétique que nous utilisons pour bouger via nos muscles ou nos véhicules, Maintenant, selon la première loi, dans un système isolé, eh bien, l'énergie peut être transformée de différente manière, mais le total de l'énergie dans le système reste le même. C'est ce que l'on entend par "l'énergie est conservée". Maintenant, la seconde loi de la thermodynamique dit que dans un système isolé, l'entropie s'accroît toujours jusqu'à ce qu'elle atteigne une valeur maximale. Bon, que voulons-nous dire par entropie? Eh bien, chaque fois que l'énergie est transformée d'une source à l'autre, il y a presque toujours une perte d'énergie qui ne peut pas être utilisée pour le travail. On l'appelle parfois déperdition thermique. Le terme technique pour cela est l'entropie. Par exemple, supposez que vous poussez un vélo vers le sommet d'une colline escarpée. Votre énergie stockée avec les calories est transformée en mécanique ou énergie cinétique qui est le mouvement du vélo et de votre corps. Mais il y a un prix à payer. La transformation a aussi pour résultat une perte thermique pour votre corps. C'est l'énergie qui ne peut pas être utilisée pour le travail. En d'autres termes, c'est l'énergie qui ne contribue pas au déplacement du vélo et de vous-même en haut de la colline. C'est l'entropie qui est produite par le transfert de l'énergie. L'entropie peut être considérée comme une mesure du désordre dans un système. La seconde loi de la thermodynamique dit alors que le désordre dans un système augmente toujours jusqu'à ce qu'il atteigne sa valeur maximale. Illustrons cela par un simple exemple. Je vais utiliser l'un des modèles de bibliothèque NetLogo. Il s'agit de GasLab Two Gas. Donc, allons à "Chemistry and Physics", et "GasLab", et celui-ci appelé "GasLab Two Gas". Ok, donc je l'ouvre. Regardons la configuration. Ceci va illustrer le comportement de deux chambres avec des gaz à l'intérieur. Et le gaz est juste un ensemble de particules en mouvement. Ainsi, chacun de ces cercles est une particule comme une molécule. Et cela va simuler la physique d'un gaz. Donc je vais vous montre ce modèle avec le nombre de molécules sur le côté droit égal au nombre de molécules sur le côté gauche. Cyan est la couleur bleue ici. Magenta est la couleur pourpre ici. La vitesse initiale sera de 30 pour la partie droite et 10 pour la partie gauche. Je leur donne à chacun une masse de 8. Ok, ainsi ce sera beaucoup plus simple. Ok, nous faisons "setup". Et maintenant ce qui se passe c'est que ces molécules commencent à bouger. J'ai initialisé la vitesse initiale de ces éléments bleus pour qu'elle soit plus élevée que la vitesse initiale de ces éléments pourpres. Si nous observons leurs vitesses vous pouvez voir que les éléments bleus ont une vitesse plus élevée, les rouges ont une vitesse plus lente, et ainsi de suite. Donc c'est un système ordonné parce que nous avons toutes les particules rouges ici et toutes les particules bleues ici. Et elles ne se mélangent pas. Mais que se passe-t-il si nous leur permettons de se mélanger en cliquant sur "Open" ici. Voyons ce qui se passe. Et je vais accélérer un peu. Quand elles entrent en collision, elles peuvent perdre de l'énergie et donc ralentir. Et vous pouvez voir que nous permettons à ces molécules de bouger en accord avec la loi de la physique dans ce gaz sans frottement, très vite elles commencent à se mélanger, entre particules rouges et bleues, à des vitesses moyennes, leurs énergies moyennes deviennent égales. Et l'ensemble du système devient très désordonné. Donc, nous commençons, si j'arrête cela. Nous commençons avec un système très ordonné, à faible entropie, et nous lui permettons le mélange, le système devient très vite désordonné, à haute entropie Or, ces choses se déplacent simplement en rebondissant l'une sur l'autre, ce qui est concevable par un étrange hasard, tous les bleus pourraient revenir ici sur le côté droit, tous les rouges pourraient revenir ici sur le côté gauche. Mais ce n'est que très peu probable. Et c'est l'idée de la deuxième loi de la thermodynamique, qui dit simplement dans un système comme celui-ci le système devient plus désordonné, il ne deviendra pas plus ordonné à moins que quelqu'un fasse un peu de travail pour le rendre plus ordonné. La deuxième loi de la thermodynamique a des implications profondes. Premièrement, les systèmes sont naturellement désordonnés. C'est à dire, qu'ils ne peuvent pas s'organiser sans l'apport d'un certain travail. Cela implique que le mouvement perpétuel des machines n'est pas possibles. Une machine à mouvement perpétuel serait celle qui pourrait créer et récupérer de l'énergie pour elle-même et donc être toujours en mouvement sans l'apport d'énergie supplémentaire à partir de l'extérieur. Ce serait une machine dans laquelle il n'y a absolument pas de perte de chaleur. Et la seconde loi de la thermodynamique implique que cela est impossible. Et troisièmement, le temps a un sens. C'est le sens de l'entropie croissante. Nous pouvons voir cela avec un exemple frappant où nous regardons le film d'un bris de verre, mais projeté en arrière. Encore une fois. Il y a quelque chose que vous pouvez constater et réaliser très rapidement c'est que c'est un film projeté à l'envers. Et vous savez que par les lois de la physique des choses comme des lunettes cassées ne peuvent pas se réparer par elles-mêmes comme par magie. Vous devez fournir un travail intense sur le verre brisé pour le réparer même si c'est très facile de briser un verre. Nous avons donc une idée du temps qui s'écoule en regardant ce genre de films. Ceci est un résultat fondamental de la deuxième loi de la thermodynamique, qui en quelque sorte donne du sens à la notion de temps.