Les calculateurs électriques et électroniques

L’électrification des machines à calculer se déroula en même temps que celle des machines à écrire, mais le courant ne servait d’abord que de moteur pour éviter tout effort physique. Le vrai progrès apparut avec les circuits à relais. Les machines électromécaniques se popularisèrent avant et après la Seconde Guerre Mondiale. Ces progrès permirent aussi la construction de machines spécialisées dans un domaine (comptabilité notamment).

Si les comptables demandaient de plus en plus de puissance de calcul, les scientifiques étaient confrontés en outre à un besoin plus sérieux : nombre de problèmes ne se satisfont pas des quatre opérations !

Les calculateurs analogiques

Le calcul analogique ne date pas d’hier, voire remonte à l’Antiquité : astrolabes, appareils de mesure de distance, règles à calcul logarithmiques, balances, résolutions de certains types d’équations, aide à l’intégration ou la mesure de surfaces... Le principe consiste à fabriquer un appareil dont les lois sont régies par les équations que l’on cherche à résoudre. La recherche d’une solution formelle devient inutile, et les paramètres se modifient facilement, mais le résultat, rapide, ne peut être parfaitement exact à cause des erreurs de mesure.

Le summum fut atteint par les calculateurs analogiques électroniques utilisés jusqu’à un peu après la Seconde Guerre Mondiale, capables de résoudre des équations différentielles avec de nombreuses inconnues.
Cependant, même le plus perfectionné des calculateurs analogiques ne peut être assez général pour résoudre autant de problèmes que les ordinateurs apparus dans les soixante dernières années.

Les calculateurs numériques

Le calcul numérique se base, lui, sur une vision discrète du monde, dont l’unité de base est le bit informatique. Les progrès énormes en électronique (puissance de calcul comme miniaturisation) et la généralité des problèmes abordés, reposant sur des bases théoriques solides, ont assuré l’hégémonie de ce type de calculateurs.

Les premières machines descendent des horloges astronomiques du Moyen-Âge, des métiers à tisser, et des automates imitant la vie. Les premières machines capables d’enchaîner des opérations sur des registres mémorisés ont été imaginées au XVIIIè siècle.

La première réalisation sérieuse est la célèbre machine à différence de Babbage. Il ne la finalisa pas, se lançant trop tôt dans la réalisation de sa machine analytique. Trop ambitieuse pour la technologie de l’époque, celle-ci ne vit jamais le jour, et disparut avec son auteur.
Cependant, cette invention jetait dès 1842 (!) les bases de l’informatique moderne : séparation des différents éléments (entrées/sorties, unité de contrôle, magasin/mémoire, unité arithmétique, impression), programmation par cartes perforées (et le premier programmeur fut une femme, Ada Lovelace), branchements conditionnels...

Une autre réalisation plus spécialisée obtint plus de succès grâce au recensement constitutionnel périodique des États-Unis, devenu ingérable par les méthodes manuelles à la fin du XIXè siècle : Herman Hollerith réutilisa la carte perforée pour fournir une machine aux bureaux de recensement... et fonda IBM par la même occasion.

Hélas, leur manque de souplesse et la complexité des premières calculatrices numériques ne leur permettaient pas de concurrencer les calculatrices mécaniques classiques.

Vers l’ordinateur

La prise de conscience progressive du besoin d’une machine programmable (qui pouvait être rapidement modifiée pour traiter plusieurs types de problème), les progrès de l’électromagnétique et ceux de la logique symbolique, permirent aux continuateurs de l’œuvre de Babbage de se lancer dans les années 30 dans la construction des premiers ordinateurs.

La liste des tentatives est longue. Citons notamment Zuse dans les années 40 : l’ambiance stérilisante du régime nazi ne permit pas à l’inventeur allemand de faire fabriquer son Z4, qui attendit l’après-guerre pour être vendu.

Pendant cette même guerre, les Anglais, pour décoder Enigma, mirent au point Colossus, machine électronique (à tubes à vide), mais encore spécialisée.

Pendant ce temps les États-Unis, motivés par les besoins de calcul des militaires (tables de tir, calculs aéronautiques, cryptage et décryptage...) lançaient l’informatique moderne avec le Harvard Mark I, premier calculateur universel automatique et fiable (et là aussi on retrouve au développement une femme, Grace Hopper, qui identifia le premier bug). Mais il n’était pas totalement électronique.

L’ENIAC, premier ordinateur électronique (à tubes à vide) fonctionna à partir de 1946. Bien que peu fiable, il laissa une impressionnante postérité...

Georges Ifrah détaille longuement toutes les avancées théoriques et conceptuelles qui ont permis l’invention de l’ordinateur, et cite les contributions de Turing, von Neumann... Moi je m’arrête là ;-)

Bref...

Je le rappelle : ces douze billets de résumé du livre ne sont qu’un vague aperçu de la masse que représente l’Histoire universelle des chiffres. N’importe quel scientifique ou matheux se doit de l’avoir sur ses étagères[1]. Même si un chapitre picoré de-ci de-là ouvre déjà bien des horizons, peu de monde a envie de se lancer dans une telle somme... donc faites-le vous offrir, ou offrez-le !

Plan :
Partie 1 : Super-résumé
Partie 2 : Les premiers décomptes
Partie 3 : Les bases
Partie 4 : Le système sumérien
Partie 5 : Les systèmes égyptiens, chinois, alphabétiques
Partie 6 : Le système maya
Partie 7 : Le système indien
Partie 8 : Les chiffres indiens en terre d’Islam
Partie 9 : La difficile transmission à l’Occident chrétien
Partie 10 : L’impact des chiffres sur le développement mathématique
Partie 11 : La mécanisation
Partie 12 : Les calculateurs électriques et électroniques

Notes

[1] Entre The Art of Computer Programming de Donald Knuth, les Principia d’Isaac Newton, et les Éléments de mathématiques de Bourbaki pour les plus pédants.