Les notions de complexité, d'organisation et d'information, sont omniprésentes dans de très nombreux domaines, notamment en biologie où les deux premières sont d'usage ancien. Elles ont la propriété commune d'être mal définies, et leur emploi, en général assez flou, est pourtant indispensable.
Ces notions n'ont vraiment commencé à être comprises en mathématiques que dans le cours du vingtième siècle. En particulier, les tentatives de mathématisation de l'opposition intuitive entre le simple et le complexe ont abouti vers 1965 grâce à la théorie algorithmique de l'information de Gregory Chaitin et Andreï Kolmogorov, théorie elle-même fondée sur les progrès de l'informatique théorique.
Cette théorie définit la complexité d'un objet par la taille du plus court programme qui permet d'engendrer cet objet. Elle prend en compte et mesure toutes sortes de redondances et de régularités dans les objets auxquels on l'applique. L'utilisation des algorithmes de compression sans pertes permet son application et conduit en particulier à de nouvelles méthodes de classification.
Ces avancées ont conduit Charles Bennett à donner un sens rigoureux à la distinction naturelle entre complexité aléatoire et complexité organisée, qui jusque-là échappait à la formalisation. La notion qu'il introduit - le concept de profondeur logique - vient compléter et enrichir la théorie et résoudre plusieurs questions délicates.
Ce nouveau concept est sans doute promis à jouer un rôle important dans de nombreuses disciplines.