Comment être créatif dans un monde numérique ? Luc de Bradandère, philosophe, senior advisor au Boston Consulting Group, qui est intervenu lors de la conférence USIConnect, organisée par Octo Technology, propose des réponses aux questions clés dans ce domaine. Avec une certitude : l’intelligence artificielle ne pourra pas lutter contre le cerveau humain en matière de créativité.
Qu’est-ce que la créativité ?
La créativité, c’est ce qui caractérise l’être humain, ce n’est pas une théorie que l’on peut enseigner. La règle de base de la créativité, c’est la simplification, grâce à des stéréotypes, des paradigmes, des modèles… Quand un PDG dit « Je pense à mes clients », ce n’est concrètement pas possible ! Il pense à des catégories, des segments de marché… Bref, il crée des simplifications. L’objectif de ces simplifications est d’être utiles, un concept ou un modèle n’étant jamais vrai ou faux. La créativité, c’est donc la capacité d’un individu à changer sa perception. Les créatifs sont ceux qui simplifient autrement.
Toutefois, on ne peut jamais avoir de certitudes. Une idée est une hypothèse de travail, la pensée part de cette hypothèse et permet de déduire, avec un processus d’induction/déduction. Les simplifications nous permettent de faire des déductions sur le monde : c’est ce que l’on appelle la pensée hypothético-déductible. Ce type de déduction est typiquement un mécanisme que l’on pourra un jour déléguer aux machines.
L’induction, en revanche, ne pourra jamais être totalement gérée sur les machines. Ne serait-ce que parce qu’une induction parfaite est impossible, car c’est un mécanisme humain. D’ailleurs, il n’est pas rationnel d’être 100 % rationnel ! Quelqu’un qui ne doute de rien ne sera jamais créatif…. En outre, l’induction est infinie, avec de l’ambiguïté, chacun ne voyant pas le monde de la même manière, n’oubliant pas les mêmes choses, ne créant pas les mêmes simplifications.
Par contre, nous avons tous une chose en commun : notre cerveau n’aime pas le disparate ! A chaque fois que nous contemplons quelque chose qui nous échappe (un dessin inachevé, des jeux de vision d’optique, etc.), le cerveau crée des hypothèses et cherche à les résoudre. A chaque complément d’information, il s’adapte et propose de nouvelles hypothèses. Rappelons qu’aucune idée n’est née bonne : elle est juste une nouvelle supposition, qui peut, peut-être, devenir une bonne idée.
Ainsi, une idée nouvelle va être accueillie ou refusée en fonction de l’adéquation entre ce qu’elle est et les idées préexistantes (les modèles, les hypothèses en cours, etc.). C’est pour cette raison, par exemple, que pas moins de onze éditeurs ont refusé le manuscrit d’Harry Potter ! Beaucoup d’erreurs ne sont donc pas dues à des informations manquantes, mais à des idées préconçues.
L’innovation, c’est la capacité de faire mieux, moins cher ou plus joli. La créativité, c’est la capacité à changer le regard sur quelque chose, c’est changer de simplification. On peut innover sans créativité et on peut aussi être créatif sans innovation…
Pourquoi est-ce difficile d’être créatif ?
Le premier acte de la pensée est l’oubli et c’est précisément ce que nous choisissons de retenir qui nous permet de donner notre avis. Ce processus reste difficile, pour deux raisons : d’une part, parce qu’on ne sait pas contrôler ce que l’on retient et ce que l’on oublie, et, d’autre part, parce que les autres ne retiennent et n’oublient pas les mêmes choses que nous.
De fait, ce que nous avons dans la tête n’est jamais le reflet de la réalité, c’est une caricature. Résultat : penser est un jeu, avec son terrain, ses règles, et des joueurs plus doués que d’autres… : c’est la base de la créativité. La créativité, c’est aussi penser « out of the box », une « box » étant un ensemble de simplifications. La question que l’on doit se poser est : « Quelle est la nouvelle boîte ? »
Qu’en est-il dans un monde technologique ?
Les réflexes de la pensée restent les mêmes. La technologie ne résout pas le problème de la pensée. La technologie n’est pas « jugeable ». Ce qu’elle apporte dépendra de la manière dont on la regarde. Mais le modèle mental qui pilote notre façon de voir le monde doit changer. Il faut donc modifier à la fois la manière d’innover et la créativité.
Sinon, nous risquons de tomber dans l’absurde et de retrouver ce que l’on a déjà connu dans le passé, par exemple lorsque les premiers concepteurs d’avions ont voulu imiter les battements d’ailes des oiseaux ou le fait de construire des wagons en mettant des diligences bout à bout. De même, une lampe n’est pas une bougie améliorée…
On ne peut croire que le modèle mental d’aujourd’hui, combiné avec les technologies du futur, fera le monde de demain. Si l’on ne dégage pas une autre perception du monde, on ne parviendra pas à le changer… Deux exemples peuvent illustrer cette nécessité de changer de perception : les ingénieurs de Sony n’ont pas inventé l’Ipod parce que, pour eux, la musique se vendait via des disques et pas à l’unité. De même, Dell a innové dans le modèle de ventes des PC en inversant le principe de distribution : le « je produis, puis je vends » des constructeurs traditionnels de PC est devenu « Je vends d’abord, puis je produis ».
Quels rôles peut jouer l’intelligence artificielle ?
L’intelligence artificielle, c’est comme remplacer une fleur naturelle par une fleur artificielle et affirmer que cette dernière est une fleur naturelle. L’IA existera quand l’homme aura renoncé à utiliser la sienne ! Une machine ne sera jamais créative, ni capable de distinguer un beau paysage ou une belle maison, de s’étonner ou d’être responsable. L’éthique ne sera jamais programmable, parce qu’elle relève du domaine de l’induction, à la différence de la morale qui, elle, relève de la déduction.
Le Big Data peut-il réduire l’incertitude ?
Un des plus grands problèmes auxquels nous sommes aujourd’hui confrontés est précisément celui de l’incertitude (jusqu’où ira la puissance des machines ? Quel rôle leur sera attribué ? Comment contrôler cette technologie ? etc.). Il existe deux types d’incertitudes :
- Celles dont la question reste claire et permet d’émettre des hypothèses, par exemple : « Qui va gagner Roland Garros cette année ? »
- Celles dont on n’arrive même pas à prévoir la question. Par exemple, personne ne pouvait anticiper l’affaire du logiciel truqué de Volkswagen, pour tricher sur les émissions de ses voitures.
Si le Big Data peut résoudre les incertitudes de type 1, il est impuissant face au deuxième, parce que la question n’est pas posée. C’est le phénomène du « cygne noir » qui désigne la survenance d’un évènement très peu probable, mais aux conséquences importantes. En outre, le Big Data n’est pas « Big », il s’agit plutôt « d’autres datas ».
Beaucoup d’idées géniales ne sont pas nées suite à l’exploitation de données. Certes, des personnalités telles que Gregor Mendel, qui a étudié les mécanismes de l’hérédité, Jean-François Champollion qui a décrypté les hiéroglyphes, ou Johannes Kepler, pour la carte du ciel, ont utilisé des données. Mais d’autres non, comme Charles Darwin, qui s’est basé sur son sens de l’observation, Adolphe Quetelet, qui a mêlé les sciences humaines aux mathématiques, ou Luca Pacioli, le père de la comptabilité en partie double. Avec le Big Data et les algorithmes, Kepler perdrait son job, mais Pacioli ne le perdrait pas…
Au mois d’août 2008, le magazine Wired sortait un numéro intitulé « La fin de la science ». La thèse défendait le postulat suivant, qui me semble erroné : si on peut accumuler des milliards d’informations, on n’a plus besoin d’équations, ni des lois de causalité, ni des modèles, ni de catégories (qui sont infinies), une connaissance des liens statistiques suffit. Parce qu’il y a toujours plusieurs liens entre des éléments (voir encadré). Le Big Data, c’est comme avec le pétrole : pendant 40 ans, nous nous sommes cantonnés à le brûler, comme si son seul but était de remplacer le charbon. Il a fallu une réelle révolution mentale pour trouver ensuite ses autres utilités, qui ont fait exploser le pétrole, au lieu de simplement le brûler. Les Big Data, il ne faut pas les faire brûler, il faut les faire exploser !
En quoi la pensée complexe permet d’imaginer le futur de la technologie ?
Dans le contexte actuel, nous sommes face au problème de l’infinie puissance des machines. Or, l’absence de contrainte, qui est la particularité d’Internet, dessert profondément l’émergence de la créativité. Il faut donc parvenir à simuler la contrainte. Autre point crucial : il faut toujours casser les hypothèses.
Lorsque Champollion parvint à décrypter les hiéroglyphes, tout le monde s’y était cassé le nez avant lui. Parce que l’hypothèse de départ n’était pas la bonne ! Pourquoi ? Parce que les signes étaient soit des idéogrammes (des symboles) soit des pictogrammes (des images). Or, la solution résidait dans la combinaison des deux… Le phénomène de la bissociation illustre ce principe, lorsque l’on associe deux choses qui n’ont apparemment rien à voir, par exemple une valise et des roulettes. Ainsi, il n’y a pas de « Ou », il y a un « Et ». C’est l’essence de la pensée complexe, la seule qui nous permettra d’imaginer le futur de la technologie.
Les différents liens entre des éléments
- La coïncidence : deux évènements, qui n’ont rien à voir l’un avec l’autre, se produisent en même temps.
- La corrélation : un lien statistique relie plusieurs éléments, loin de la science et de la causalité. Notons que le Big Data peut trouver les corrélations, mais ont-elles toujours un sens ?
- La conjonction : elle fonctionne à 100 %, par exemple : « Avec l’éclair, il y a toujours le tonnerre ». Mais il n’y a pas pour autant un lien de causalité : l’éclair n’est pas la cause du tonnerre.
- La causalité : lien qui unit une cause à un effet. Par exemple : « Quand le soleil se lève, le coq chante… » Il y a suffisamment d’indices pour ne pas mettre cela en doute, mais qui nous dit que ce n’est pas l’inverse ?
La machine et les idées
Qu’ont en commun les mathématiques, la logique et l’informatique ? Beaucoup, mais, déplore Luc de Brabandère, « elles sont enseignées de manière séparée. » Ainsi, par exemple, le calcul des probabilités et les logarithmes sont les piliers de la théorie de l’information. « La logique et les mathématiques ont plus que largement contribué au développement de l’informatique, et celle-ci se montre particulièrement reconnaissante ! Un bel exemple est la géométrie fractale, rendue possible par le traitement sur ordinateur de milliards d’itérations. » L’histoire des technologies a toujours été une affaire de combinaison entre plusieurs disciplines. L’auteur rappelle que Georges Boole avait combiné l’algèbre et le syllogisme et que Claude Shannon, au MIT, avait associé le calcul binaire et les relais électroniques. Ce principe qui consiste à réunir deux idées pour en élaborer une troisième est d’ailleurs à la base de la créativité.
Pour Luc de Brabandère, « Avec Internet, tout peut et va devenir « cyber », mais l’enjeu sociétal est immense. Car dans le cyberespace, on ne sait plus quelle est la cause et quel est l’effet, on ne sait plus très bien qui gouverne et qui est gouverné. On ne sait plus où est le début ni où est la fin. On ne cherche plus à savoir si c’est la poule qui a précédé l’œuf, ou si c’est l’œuf qui a précédé la poule. Dans le cyberespace, on mange les deux. »
Avec, et c’est de plus en plus d’actualité, le risque de ne plus savoir distinguer le vrai du faux : « La différence n’a jamais été aussi difficile à établir : quelles garanties avons-nous sur le fondement, sur l’exactitude, sur la fiabilité de ce que ces connexions nous proposent ? » Luc de Brabandère l’assure : « Plus nous nous connectons, plus nous nous éloignons du monde extérieur. Ce n’est pas la réalité qui devient virtuelle, mais bien les sens supposés l’appréhender. Ce n’est pas la réalité qui est augmentée, mais bien la distance qui nous en sépare. »
Et un monde peuplé d’algorithmes ? « Ils sont un instrument de pouvoir comme rarement il y en a eu sur Terre », résume l’auteur, pour qui « la révolution planétaire que l’on connaît n’est pas celle de l’algorithme, mais bien celle du pouvoir accumulé par ceux qui les possèdent. » D’autant que les algorithmes « réagissent en fonction de ceux qui les utilisent (…). Ils décodent les préjugés et réagissent en les renforçant. Ils soufflent dans la direction de ce qu’ils croient être le vent. »
Luc de Brabandère nous le rappelle, et cela peut nous rassurer : « Un ordinateur n’a pas d’idées. Certes, au jeu de Go, l’ordinateur a gagné, mais il ne savait même pas à quoi il jouait, ni même ce qu’est un jeu. Et cela ne l’a rendu ni fier, ni heureux. A la différence de l’être humain, il ne peut être conscient de ce qu’il fait, ni en éprouver des sentiments, ni prendre du recul, émettre un jugement de valeur. » On peut donc en déduire que le règne de l’intelligence artificielle n’est pas pour demain. Parce que, rappelle l’auteur, « l’essence de l’intelligence est d’être humaine et elle ne peut être artificielle. L’ordinateur peut nous libérer de nombreuses tâches fastidieuses, mais ne nous rendra pas libres pour autant. Il peut nous aider à prévoir, mais pas à vouloir. Il peut nous aider à trouver une information, mais ne nous dira pas quelle information chercher. Il peut analyser la direction des choses, mais ne peut en connaître le sens. » Attention, toutefois, conclut Luc de Brabandère : si un ordinateur n’a pas d’idées, « ceux qui, en Californie, les programment et les relient entre eux en ont beaucoup. Et il serait utile d’en savoir un peu plus. »
Homo informatix, par Luc de Brabandère, éditions Le Pommier, 2017, 137 pages.