Les algorithmes sont aujourd’hui omniprésents dans toutes les sphères de notre quotidien, rendus possibles par les avancées technologiques du XXe siècle. Pourtant leur origine remonte à plusieurs millénaires, bien avant l’avènement de l’informatique moderne. Retour sur une histoire millénaire au croisement des mathématiques, de la science et de la technologie.

L’Antiquité : la genèse des premières méthodes algorithmique

Bien avant que les ordinateurs ne fassent irruption dans nos vies, les premières formes d’algorithmes voient le jour au Proche-Orient. Ahmed Djebbar, historien des sciences, les définit comme des « procédés standards composés d’une succession d’opérations arithmétiques élémentaires menant à la détermination d’une valeur recherchée ». Ces procédés deviennent rapidement les fondements des mathématiques.

Il y a environ 4 000 ans, en Mésopotamie, les mathématiques connaissent une évolution marquante notamment grâce au Code d’Hammurabi. Ce texte juridique vieux de 1750 av. J.-C. montre que les peuples de cette région utilisaient des méthodes mathématiques sophistiquées pour résoudre des problèmes du quotidien : gestion des ressources, règlement de dettes, partages équitables. Ces calculs posaient déjà les bases d’algorithmes linéaires et introduisaient notions d’équations et de racines carrées.

Quelques siècles plus tard, Euclide d’Alexandrie se distingue par son œuvre majeure, Les Éléments, structurant la pensée mathématique. Il y formule notamment un algorithme pour calculer le plus grand commun diviseur (PGCD) entre deux entiers. Cette notion fondamentale est l’un des piliers de l’arithmétique, encore enseignée aujourd’hui.

Mathématicien arabe

L’époque médiévale : naissance de l’algèbre dans le monde arabo-musulman

Au IXe et Xe siècle, l’empire musulman devient un moteur de développement scientifique. Grâce à la traduction et à l’étude des textes grecs antiques, des savants comme Abu al-Wafa élargissent les connaissances, notamment en astronomie et mathématiques. Les figures de proue de l’Antiquité grecque telles qu’Euclide, Archimède ou encore Ptolémée trouvent un écho puissant dans cette période d’effervescence intellectuelle.

À découvrir aussi  Cette ville insolite est la plus vaste du monde… et ce n’est pas Tokyo !

C’est dans ce contexte que naît l’un des moments clés de l’histoire des mathématiques : la création de l’algèbre par Al-Khwârizmî, né vers 780. Dans son traité L’abrégé du calcul par la restauration et la comparaison, il formalise la résolution d’équations du premier et second degré à une inconnue. L’objectif ? Répondre à des problématiques civiles concrètes, comme le partage des biens selon la loi islamique.

Al-Khwârizmî établit six équations de référence, les règles des signes, ainsi que les principes de jabr (restauration) et muqâbâlâ (réduction), préparant le terrain pour la discipline que nous appelons aujourd’hui algèbre. Le mot “algorithme” dérive d’ailleurs directement de son nom latinisé.

À partir du VIIIe siècle, la présence des Omeyyades en al-Andalus favorise les échanges avec l’Europe. Les connaissances scientifiques arabes sont patiemment traduites en latin, à l’instar des travaux de Gérard de Crémone, figure clé de la transmission. Bien que certaines sources originales demeurent perdues, la diffusion des idées d’Al-Khwârizmî marque profondément les mathématiques européennes.

Du calcul symbolique vers l’automatisation : l’âge moderne des algorithmes

À partir du Moyen Âge, l’Europe amorce sa propre révolution mathématique. Des figures emblématiques telles qu’Isaac Newton et Gottfried Wilhelm Leibniz initient le calcul infinitésimal, mêlant algèbre et géométrie, au tournant des XVIIe et XVIIIe siècles. Leur contribution jette les bases conceptuelles d’outils mathématiques toujours utilisés.

Au XIXe siècle, le Britannique George Boole introduit une nouvelle architecture de pensée : l’algèbre de Boole. Son approche devient fondatrice en informatique puisqu’elle permet de manipuler des expressions logiques à l’aide de l’arithmétique binaire. C’est un précurseur direct des circuits logiques utilisés aujourd’hui dans les ordinateurs.

À découvrir aussi  Comment l’Agence spatiale européenne s’impose dans l’exploration de l’espace

Dans la foulée, les logiciens européens comme Giuseppe Peano, Ernst Zermelo ou David Hilbert contribuent à l’axiomatisation des ensembles, une pierre angulaire pour le développement de la logique formelle. Cette rigueur mathématique se révèle essentielle au travail d’Alan Turing au XXe siècle.

En 1936, Alan Turing publie un article historique, On Computable Numbers, où il décrit une machine hypothétique capable d’exécuter des calculs mécaniques. Ce modèle devient la base théorique de l’ordinateur moderne. La machine de Turing exécute des instructions sous forme d’algorithmes pour résoudre des problèmes logiques ou numériques.

Des algorithmes au machine learning : transformation numérique du XXIe siècle

L’après-guerre marque l’avènement de l’informatisation. Les ordinateurs se généralisent, les algorithmes deviennent omniprésents. Mais leur conception évolue : ils ne sont plus uniquement des instructions fixes, mais peuvent désormais apprendre et s’adapter. C’est la naissance du machine learning.

Les algorithmes d’apprentissage automatique analysent aujourd’hui d’immenses volumes de données. Ils ajustent leurs modèles en temps réel, bouleversant les pratiques dans tous les secteurs : santé, finance, transport, sécurité, divertissement. Leurs applications culminent dans le domaine de l’intelligence artificielle.

Qui aurait imaginé que des résolutions de dettes en Mésopotamie mèneraient à la création de technologies comme ChatGPT, Mistral ou Veo 3 ? Des milliers d’années plus tard, les algorithmes continuent de réinventer nos outils, nos sociétés et notre futur.

Les algorithmes, depuis leurs origines antiques jusqu’à leur place centrale dans l’ère numérique, incarnent une constante évolution de la pensée humaine. Face aux défis actuels et futurs, ils ne cessent de repousser les limites de l’innovation technologique.