La aproximación empírica a la cognición tradicionalmente a sido dominada por la teoría clásica de probabilidad de todas formas, estas aproximaciones han sido incapaces de explicar algunos procesos cognitivos por ejemplo, la habilidad de recordar dígitos consecutivos no puede ser cuatificada por las herramientas estadísticas clásicas tales como la entropía de Shannon porque no puede reconocer la naturaleza algorítmica de una secuencia que la mente fácilmente puede reconocer y recordar lo que se necesita es un marco teórico mucho mas poderoso y la introducción de nuevas herramientas basadas en la teoría de probabilidad algorítmica que es la teoría definitiva de inducción e inferencia, conectando formalmente complejidad y probabilidad a travez de la computación universal por ejemplo, si una secuencia de eventos puede ser codificada por un algoritmo corto entonces la mente puede comprender y comprimir esa secuencia, incluso si parece ser aleatoria para las herramientas estadísticas tradicionales lo que significa que las herramientas estadísticas como la entropía de Shannon aplicada a las entradas, salidas, y representaciones internas no son adecuadas para describir o explicar sofisticados modelos mentales. De todas formas, la teoría de probabilidad algorítmica aplicada a la cognición humana y animal provee los medios teóricos para estudiar estos sofisticados modelos e inclusive explicar los sesgos, que tradicionalmente se veían como positivos o negativos, en función de las decisiones que toma la mente por ejemplo, los humanos tienden a encontrar patrones en datos aleatorios que el enfoque tradicional principalmente cuenta como como decisiones sesgadas basadas en experiencias pasadas, en vez de ser una consecuencia de un proceso algorítmico de la mente, tratando de encontrar lógica y sentido incluso cuando no hay ninguno. Hemos desarrollado estas herramientas basados en el principio de que la mente no es mejor explicada por procesos estadísticos, sesgados por experiencias pasadas, sino como un estimador de probabilidad algorítmico que ha evolucionado para aprender y aprovechar la naturaleza algorítmica del mundo paradójicamente, esto significa que la mente puede comportarse menos a menudo como un ser irracional, sesgado por experiencias personales, y mas como un predecible y sofisticado algoritmo general. De hecho, las primeras investigaciones de la cognición encontraron analogías con la computación, pero pronto encontraron que eran demasiado simplistas. Hoy en día, sin embargo, la brecha entre la mente y las computadoras que hacemos es mas sutil, y mas sofisticada, la brecha consiste en un modelo del cerebro que concibe la mente como un algoritmo universal idealizado, capaz de generar modelos. Nuestro marco teórico conceptual rebela evidencia que apoya este mecanismo de cognición, hemos demostrado que los experimentos emblemáticos en animales se peden confirmar simplemente cuantificando la complejidad de la serie temporal del comportamiento de diferentes estudios, por ejemplo, las hormigas maximizan la eficiencia de su comunicación en función de la complejidad de la secuencia, las moscas de la fruta no se comportan de la manera simple que pensábamos previamente, los roedores aprovechan el poder de la aleatoriedad cuando son engañados por una inteligencia artificial, y los humanos son mas creativos cuando en generar aleatoriedad cuando tienen 25 años. Los descubrimientos de este tipo fueron, no obstante, imposibles de hacer antes, con las herramientas tradicionales y medidas clásicas, y pronosticaban que la cognición algorítmica seria un nuevo y emocionante campo de investigación para enfrentar algunos de los complicados problemas relacionados con las trastornos mentales y las enfermedades neurodegenerativas.