L'approche empirique de la cognition a traditionnellement été dominée par la théorie classique des probabilités. Cependant, ces approches étaient incapables d'expliquer certains processus cognitifs. Par exemple, la capacité de se souvenir de chiffres consécutifs ne peut être quantifiée par les outils de statistique classique comme l'entropie de Shannon parce qu'ils ne peuvent pas reconnaitre la nature algorithmique d'une séquence que l'esprit peut facilement reconnaitre et rappeler. Ce qui était nécessaire était un cadre théorique beaucoup plus puissant, et l'introduction de nouveaux outils basés sur la théorie de la probabilité algorithmique. C'est-à-dire, la théorie ultime de l'induction et de l'inférence, qui connecte formellement la complexité et la probabilité au moyen du calcul universel. Par exemple, si une séquence d'évènements peut être encodée par un algorithme court, alors l'esprit peut comprendre et compresser cette séquence même si elle parait aléatoire pour les outils statistiques traditionnels. Cela signifie que les outils statistiques tels que l'entropie de Shannon appliqués aux entrées, sorties et représentations internes ne sont pas adaptés pour décrire ou expliquer des processus mentaux sophistiqués. Cependant, la théorie de la probabilité algorithmique appliquée à la cognition humaine et animale fournit les moyens théoriques pour étudier ces processus sophistiqués et explique même ce qui était traditionnellement vu comme des biais positifs ou négatifs en termes de choix de l'esprit. Par exemple, les humains auront tendance à trouver des motifs dans les données aléatoires que la perspective traditionnelle va considérer comme des décisions biaisées basées sur les expériences passées plutôt que comme la conséquence d'un processus algorithmique de l'esprit qui essaie de trouver un sens et une logique même quand il n'y en a pas. On a développé ces outils en partant du principe que l'esprit est mieux expliqué non pas par des processus statistiques, biaisés par les expériences passées, mais comme un estimateur d'algorithme de probabilité qui a évolué pour apprendre et exploiter la nature algorithmique du monde. Paradoxalement, ça signifie que l'esprit peut se comporter moins souvent comme un être irrationnel, biaisé par les expériences personnelles, et plus comme un algorithme général sophistiqué et prévisible. En effet, les premières recherches sur la cognition ont trouvé des analogies avec le calcul. Mais on a rapidement trouvé une telle analogie exagérément simpliste. Alors qu'aujourd'hui, le lien entre l'esprit et les ordinateurs qu'on a fait est plus subtil, et plus sophistiqué. Ce lien consiste en un modèle du cerveau qui conçoit l'esprit comme un algorithme universel idéalisé, capable de générer des modèles. Notre cadre conceptuel révèle des preuves qui soutiennent ces mécanismes de la cognition. On a montré que les expériences historiques sur les animaux peuvent être confirmées en quantifiant simplement la complexité des séries chronologiques comportementales de différentes études. Par exemple, les fourmis maximisent l'efficacité de la communication comme une fonction de Les mouches du vinaigre ne se comportent pas aussi simplement qu'on avait pu le penser. Les rongeurs exploitent le pouvoir du caractère aléatoire quand ils sont dépassés par l'intelligence artificielle. Et les humains sont les plus créatifs pour générer de l'aléatoire quand ils atteignent leurs 25 ans. Ces types de découvertes étaient pourtant impossibles à faire avant avec les outils traditionnels et les mesures classiques, et elles annoncent la cognition algorithmique comme un nouveau champ de recherche excitant pour aborder certaines des questions difficiles et pressantes, liées aux troubles mentaux et aux maladies neurodégénératives.