En.marge  encyclo perso                         HISTOIRE DE L'INFORMATIQUE

Accueil

Retour à
Encyclo perso

Margino blog

Reportages et articles

Marginal Newsletters

Vies en marge
(en construction) 



L'histoire de l'informatique se confond avec celle d'un vieux désir de l'homme : transposer ses capacités mentales et physiques sur des êtres artificiels ou des machines. Ce rêve créateur plonge ses racines dans les mythologies de nombreuses cultures aussi bien en Occident qu'en Orient. De lui viennent, au 7ème siècle avant notre ère, les statues animées de Dédale le sculpteur crétois, ou celles du Grec Héron d'Alexandrie (60 av. J.C.), le Golem des Juifs au 16ème siècle, les automates du 18ème siècle, et aujourd'hui, les robots cybernétiques, les ordinateurs ou le super cerveau virtuel du réseau mondial.
Enfant d'un seul désir, l'informatique possède cependant des parents multiples et divers. Son histoire est faite de rencontres entre les avancées de la science du calcul et les progrès des réalisations techniques. Elle a pu se matérialiser parce que les sociétés avaient des besoins (efforts économiques ou de guerre) et qu'elles portaient en leur sein quelques hommes de génie capables de synthétiser le savoir d'une époque.
Au 13ème siècle, le philosophe espagnol Raymond Lulle, en cherchant à prouver que l'on peut penser juste sans faire référence à Dieu, inventa la première machine logique capable d'automatiser des raisonnements. Son "Ars Magna" se basait sur un savant découpage des mots en catégories fondamentales et nécessaires. Quelques siècles plus tard, Descartes développa l'idée pour aboutir à la notion de l'homme- machine et à la réalisation d'un petit automate, qu'il appelait sa "soeur Francine". Pascal lui, pour aider son père à faire ses comptes (il était collecteur d'impôts), inventa dans la tradition du boulier chinois la Pascaline, une machine à calculer que le philosophe et mathématicien allemand Leibniz (1647-1716) perfectionna. Ce dernier poussa le rêve plus loin en concevant un système logique capable de prévoir le meilleur roi pour la Pologne.
Des raisons beaucoup plus pratiques devaient relancer la quête au 19ème siècle. Avec l'industrialisation et l'extension du commerce maritime, le besoin de rapidité et de précision dans l'exécution des calculs devenait urgent. Le gouvernement anglais alloua donc des crédits considérables au savant mathématicien Charles Babbage (1792-1871) afin qu'il conçoive une machine capable de calculer rapidement des tables de logarithmes. La machine analytique de Babbage ne fut jamais réalisée mais le Suédois Pehr Georg Scheutz reprit l'idée et inventa ainsi la première machine à tabuler. Elle connut un énorme succès et fut même exportée aux Etats-Unis en 1875.
A la fin du 19ème siècle l'Américain Hermann Hollerith, afin d'aider le gouvernement à analyser les millions de fiches individuelles obtenues lors du recensement de la population, conçut la première machine à traiter de l'information autre que numérique. Elle s'inspirait des cartes perforées inventées par Jacquart deux siècles plus tôt pour son métier à tisser. Tirant profit de l'expérience, Hollerith créa sa propre société, la Tabulation Machines Corporation qui devint en 1924 l'International Business Machines, ou IBM. A partir de ce moment, intérêts scientifiques, commerciaux et d'Etat allèrent de pair dans l'histoire de l'informatique, la deuxième guerre mondiale et la guerre froide qui s'en suivit accélérant le processus. En Angleterre, le mathématicien Alan Turing fabriqua pour les militaires une machine électronique ultra-secrète, baptisée Colossus, qui fut utilisée pour le décryptage des messages de la marine allemande. En Amérique, à l'instigation du gouvernement, John von Neumann prit la tête d'un groupe de scientifiques de la Moore School of Electric Engineering de Pennsylvanie, auxquels il apporta sa théorie des automates basées sur des analogies avec le cerveau humain. Les plans EDVAC et la machine qui devait en résulter, l'ENIAC, furent conçus pour améliorer la précision des tirs balistiques. L'ENIAC, opérationnelle dès 1945 mais véritablement achevée en 1954, pesait trente tonnes et comprenait 18 000 tubes à vide. Elle apportait la preuve définitive de l'intérêt de l'électronique dans la construction des ordinateurs. Les ordinateurs de la première génération étaient nés. Ils occupaient une pièce entière et le manuel d'instruction comptait plus d'un millier de pages ! La tendance à construire des machines de plus en plus volumineuses aurait pu se poursuivre, si n'était survenue en 1948 l'invention du transistor, dans les laboratoires de la Bell Company. Peu à peu les transistors remplacèrent les tubes à vide, inaugurant ainsi la deuxième génération d'ordinateurs. Moins encombrants, plus adaptés à la fabrication en série, ils allaient ouvrir l'ère de la production civile. Celle-ci fut d'abord réservée aux experts des grosses entreprises et placée sous le signe de la série 360 d'IBM.
L'étape suivante fut franchie lorsque l'on cessa de rassembler les transistors par trois fils de métal pour les graver directement dans la matière sur une minuscule plaque de silicium. Ce "circuit intégré" fut inventé en 1958 par Jack S. Kilby, un jeune ingénieur de la Texas Instrument. Dès lors, l'accélération commença. En 1970, la société Fairchild créait la première mémoire morte intégrée et la même année Intel produisait la première mémoire vive intégrée. Les encombrantes et luxueuses tores de ferrite servant à stocker les informations sous forme binaire sont mises au placard. Dans la suite logique de la miniaturisation des composants, la société Intel inventa en 1971 le microprocesseur. Cette fois, ce sont toutes les fonctions de l'ordinateur, à l'exception des entrées-sorties et de la mémoire, qui se concentrent sur un quart de centimètre carré. Le premier micro-ordinateur, l'Altaïr 8800, fut vendu par correspondance dans une revue technique en 1975. Conçu en Californie, enfant d'une génération contestataire refusant la mainmise de l'armée et d'une seule entreprise, en l'occurrence IBM, sur les outils de l'information, il préparait la voie aux machines Apple et à toute la série des P.C. (Personnel Computer). Les Beatniks de la Silicon Valley avaient inventé la troisième génération d'ordinateurs et réussi ainsi leur pari de démocratiser l'informatique. Les machines firent rapidement leur entrée dans les petites et moyennes entreprises. A la fin des années 80 commençait leur installation dans les foyers. La miniaturisation des composants, la baisse des coûts de fabrication, le doublement de la puissance des machines tous les 18 mois (loi de Moore) ont entraîné dans les dernières années du siècle un véritable engouement pour l'informatique. Ce mouvement fut favorisé par une volonté de faciliter l'usage de l'ordinateur par le grand public (techniques nouvelles de programmation, interfaces graphiques, possibilité de traiter des informations de types divers, textes, images, son, vidéo) et par la possibilité de mettre les ordinateurs en réseau.
D'abord locaux, LAN (Local Area Network), les réseaux furent conçus pour fédérer les ordinateurs au sein d'une entreprise en permettant la répartition et le partage des données et des programmes. Ils devinrent mondiaux (WAN : Wide Area Network) grâce à Internet. Ce réseau, créé dans les années 70 par les scientifiques, était destiné àl'origine à l'échange d'informations entre laboratoires de recherche. Une invention du Centre Européen d'Etudes Nucléaires (CERN) à Genève permit à partir de 1991 à n'importe quel utilisateur d'y accéder. Ainsi naquit le WEB ou World Wide Web (la "toile d'araignée mondiale") qui relie aujourd'hui entre eux des millions d'usagers sur la planète et transporte tous les types d'information. Libérant l'imagination de millions d'individus, le réseau des scientifiques s'est transformé en terrain de recherche et de développement pour des outils aujourd'hui devenus des standards en matière d'accès et d'échange de l'information : courrier électronique (e-mail), langage universel de mise en forme des documents (HTML, HyperText Markup Language), et protocole universel d'échange de données et de fichiers (HTTP, HyperText Transfer Protocol et FTP, File Transfer Protocol). L'Internet, associé à la possibilité de transcrire n'importe quel type d'information sous forme numérique, symbolise le mariage consommé de l'informatique et des télécommunications. Il annonce la naissance d'une civilisation planétaire reliée par la machine. Le mythe continue ...

 LIENS

 

Retour haut de page

Retour à Encyclo perso

Accueil

Retour à Reportages et articles