Portraits d’innovateurs: une riche et longue histoire

Les technologies de l’information ont une longue histoire… C’est tout le mérite du livre de Walter Isaacson (également biographe de Steve Jobs) de nous retracer les chemins très souvent tortueux qui, depuis le XIXème siècle, ont façonné les technologies d’aujourd’hui. Cet ouvrage est passionnant à au moins trois titres.

D’abord, il se lit comme un roman et l’on se trouve plongé dans la vie quotidienne des précurseurs de l’informatique, grâce à un vrai travail de documentation. Avec son cortège de guerre des brevets, de trahisons, d’enjeux commerciaux et d’amitiés de circonstances… Ensuite, il nous explique comment naissent les innovations : c’est souvent par hasard, par la conjonction de plusieurs phénomènes ou par des rencontres souvent fortuites entre des « génies » qui, quelquefois, ignorent qu’ils entreront dans les livres d’histoire des technologies. « La plupart des innovations de l’ère numérique ont été des œuvres collectives », assure l’auteur.

Souvent, l’innovation ne fonctionne pas en circuit fermé, c’est-à-dire uniquement dans un environnement technologique. Walter Isaacson explique que « la plus authentique créativité de l’ère numérique est venue de ceux et celles qui étaient capables de connecter les arts et les lettres avec les sciences ». L’auteur raconte d’ailleurs que Steve Jobs se considérait « comme un littéraire qui adorais l’électronique. »

Léonard de Vinci est un autre exemple de cette hybridation des arts et des sciences… Enfin, il nous rappelle que, dans le domaine technologique, rien n’est facile ni acquis. Ce principe s’applique toujours au management des systèmes d’information. On ne peut donc que recommander la lecture de cet ouvrage à tous ceux qui exercent leur métier dans les technologies de l’information.

182 BIBLIO
  • LinkedIn
  • Twitter
  • Facebook
  • Gmail

Les innovateurs, comment un groupe de génies, hackers et geeks a fait la révolution numérique, par Walter Isaacson, JC Lattès, 696 pages.

Le temps long de l’innovation

L’histoire commence au milieu du XIXème siècle avec Ada Lovelace, fille du poète Lord Byron, et Charles Babbage. La première, fut très impressionnée par les métiers à tisser automatisés qui utilisaient (déjà) des cartes perforées pour créer des motifs sur le tissu. Pour l’auteur, « Elle comprit que les chiffres sur la tranche des rouages pouvaient représenter autre chose que des quantités mathématiques. Ainsi accomplit-elle le saut conceptuel des machines qui étaient de simples calculatrices vers celles que nous appelons maintenant ordinateurs. »

Charles Babbage, pour sa part, a conçu, en 1834, une calculatrice capable d’exécuter plusieurs opérations à partir d’instructions de programmation. Mais le temps de l’innovation peut être très long, avant que plusieurs éléments ne convergent pour franchir des étapes supplémentaires : « Charles Babbage publia son article sur une calculatrice perfectionnée en 1837, mais il fallut cent ans pour accumuler les dizaines d’avancées technologiques nécessaires pour construire un ordinateur », rappelle l’auteur. L’une des grandes avancées intervint à la fin du XIXème siècle : Herman Hollerith, inventeur de la mécanographie, avait conçu un système de cartes perforées pour le recensement de 1890, aux États-Unis, réalisé en un an au lieu de huit. « C’était la première application importante des circuits électriques pour le traitement de l’information et la société fondée par Hollerith (Tabulating Machine Co) deviendra IBM », raconte Walter Isaacson.

La première moitié du XXème siècle a été particulièrement riche pour poser les bases de l’informatique d’aujourd’hui : en 1931, Vannevar Bush conçoit un calculateur analogique électromécanique, en 1935, Tommy Flowers popularise l’usage des lampes à vide comme commutateurs de circuits, en 1937, Alan Turing imagine le tableau universel, Claude Shannon explique comment des circuits de commutateurs peuvent exécuter des tâches relevant de l’algèbre booléenne.

Walter Isaacson souligne que « l’innovation se produit lorsque des graines arrivées à maturité tombent sur un terreau fertile. Au lieu d’avoir une cause unique, les grandes avancées de 1937 naquirent d’une combinaison de capacités, d’idées et de besoins qui coïncidèrent en de multiples endroits. » Avec une dose d’intuition, comme le disait Albert Einstein : « Une idée nouvelle vient brusquement et d’une manière plutôt intuitive, mais l’intuition n’est que le résultat d’une expérience intellectuelle antérieure. »

Un ordinateur de 30 tonnes…

On songe aussi à la création de HP, en 1938. Dans les années 1940, on voit apparaître le Mark I à l’université de Harvard, l’invention du transistor aux laboratoires Bell en 1947 et, bien sûr, l’ENIAC. On était toutefois loin des machines actuelles : en 1945, l’ENIAC était certes capable d’exécuter cinq mille additions et soustractions en une seconde, cent fois plus que n’importe quelle autre machine, mais il était long de trente mètres, haut de 2 m 40, pesait une trentaine de tonnes et fonctionnait avec pas moins de 17 468 lampes… Un véritable dinosaure en comparaison d’un simple smartphone bas de gamme d’aujourd’hui…

On parlait même déjà d’intelligence artificielle : Alan Turing avait écrit, dès 1950, un article décrivant un texte pour l’intelligence artificielle et un colloque sur le sujet s’est tenu en 1956, soixante ans avant que la machine Watson d’IBM ne batte un joueur de Go. Les années 1950 ont également été très riches pour l’industrie des semi-conducteurs : en 1954, Texas Instruments lance le transistor au silicium et, trois ans plus tard, Gordon Moore et Robert Noyce fondent Fairchild Semiconductor, qui inventera le circuit intégré en 1959. Un an après, Paul Baran, un chercheur de la Rand, concevra le transfert par paquets.

Mais qui donc a inventé l’ordinateur ? À cette question, il est difficile de répondre. Est-ce George Stibitz avec son modèle K inventé dans sa cuisine en 1937 ? Ou Konrad Zuse et sa machine binaire électrique programmable en 1941 ? Ou bien Max Newman et son Colossus I, le premier calculateur numérique complètement électronique ? Il y eut des batailles juridiques, mais, pour Walter Isaacson, même s’ils ont perdu au tribunal (en 1973), John Mauchly et Presper Eckert, qui ont finalisé l’ENIAC, dont la construction a débuté en 1943, « devraient se trouver en tête de la liste des gens à qui on peut attribuer le mérite d’avoir inventé l’ordinateur, non pas parce que leurs idées et intuitions étaient exclusivement les leurs, mais parce qu’ils eurent la capacité de tirer des idées de multiples sources, d’y ajouter leurs propres innovations, de concrétiser leurs visions en réunissant autour d’eux une équipe compétente, et d’influencer le cours des développements ultérieurs. » On retrouve là les principes, toujours actuels, qui déterminent le rythme de l’innovation.

L’innovation, un cocktail de talents

Après les riches années 1930, 1940 et 1950, tous les ingrédients (programmation, ordinateur, semi-conducteurs…) sont alors présents pour une accélération de l’innovation technologique, dans le prolongement de la révolution industrielle, dont l’auteur rappelle les deux principes fondateurs : « La simplification des projets, en les fractionnant en petites tâches faciles à effectuer à la chaîne, et la mécanisation des étapes des processus, de façon à ce qu’elles puissent être exécutées par des machines. »

Au cours de ces dernières décennies, c’est évidemment le numérique (par opposition à l’analogique) qui sera le facteur accélérateur. Au lendemain de la seconde guerre mondiale, les machines « ne pouvaient pas changer de programme à des vitesses électroniques, rappelle Walter Isaacson, ce qui conduisit à la prochaine étape importante dans la création de l’ordinateur moderne : trouver comment stocker des programmes à l’intérieur de la mémoire électronique de la machine. »

L’un des précurseurs fut John Von Neumann qui, selon Walter Isaacson, « était particulièrement doué pour concevoir les fondements de la programmation informatique, art encore mal défini à l’époque. » Mais aussi Alan Turing, qui « s’intéressait depuis longtemps à la manière dont les calculateurs pourraient reproduire le mécanisme d’un cerveau humain, et cette curiosité se prolongea par ses travaux sur les machines qui déchiffraient le langage codé. »

Walter Isaacson consacre de longs développements à la naissance de l’industrie des semi-conducteurs (du transistor au microprocesseur, en passant par le circuit intégré), avec le rôle fondamental des laboratoires Bell, les enjeux financiers colossaux qui ont engendré de multiples guerres des brevets et la célèbre loi de Moore, imaginée en 1965 dans un article de la revue Electronics intitulé : « Comment entasser plus de composants sur les circuits intégrés ».

L’auteur nous emmène également dans le monde du capital-risque, des créateurs de jeux vidéos et, bien sûr, nous conte la montée en puissance des éditeurs de logiciels (Microsoft en tête), ainsi que les débuts d’Internet, né de l’association de trois groupes : les militaires, les universités et l’industrie. Tout comme l’invention de l’ordinateur, Internet fut aussi le résultat d’une créativité collaborative. « Le résultat d’un tel partage entre pairs fut un réseau qui facilitait à son tour le partage entre pairs », résume Walter Isaacson.

Quant à l’ordinateur individuel, il avait été imaginé dès 1945, au MIT, mais a connu ses heures de gloire avec les progrès des microprocesseurs. Avec l’industrie du logiciel : Bill Gates, lorsqu’il était adolescent, rêvait de gagner un million de dollars avant ses trente ans. « Il s’était terriblement sous-estimé : à trente ans, il valait 350 millions de dollars », rappelle Walter Isaacson.

Ensuite, tout s’accélère : « Le World Wide Web atteignit sa vitesse orbitale en 1993. Il y avait 50 serveurs Web dans le monde au début de l’année, il y en avait déjà 500 en octobre. » Walter Isaacson est bien conscient que, dans le domaine des technologies, on est bien loin de la fin de l’histoire, car, soutient-il, « l’innovation viendra de gens capables d’associer la beauté à l’ingénierie, l’humanisme à la technologie et la poésie aux processeurs. » Et des héritiers spirituels d’Ada Lovelace, il en naît tous les jours…