Retour au blog

Le Complexe du "Deep"

Ne pas comprendre ce qu’est l’intelligence induit que ce concept serait hors de portée, et fait planer le risque d’être un « imbécile ». Si vous ajoutez le qualificatif « artificielle » au mot « intelligence », le complexe se transforme en névrose collective, dont il est temps de sortir.

Certaines questions sont si familières que l’on finit par oublier leur complexité : pourquoi le ciel est-il bleu ? Pourquoi les arbres sont-ils verts ? Pourquoi l’eau mouille-t-elle ? Un peu comme en psychanalyse, il ne s’agit pas tant de résoudre le problème que d’apprendre à vivre avec, et c’est ce que nous tentons de faire, plus ou moins bien.

Dans cette constellation d’interrogations, regardons de plus près l’une des plus spectaculaires : qu’est-ce que l’intelligence ? On peut mener une existence correcte sans maîtriser les mécaniques de diffraction atmosphérique. On peut aussi être équilibré psychologiquement sans tout saisir de la photosynthèse. En revanche, ne pas comprendre ce qu’est l’intelligence induit que ce concept serait hors de portée, et fait planer le risque d’être un « imbécile ». Vous conviendrez que cette conclusion est beaucoup moins poétique que de ne pas pouvoir expliquer pourquoi les roses sont roses.

De là, naît une tension psychanalytique collective colossale sur le sujet : comment puis-je être intelligent(e) si je ne sais pas de quoi il s’agit ? Le raisonnement semble imparable. Si vous ajoutez le qualificatif « artificielle » au mot « intelligence », le complexe se transforme en névrose collective. Des avancées qui, dans un contexte rationnel, pourraient - devraient ? - réjouir deviennent un motif d’angoisse général. C’est, sur un plan humain, parfaitement compréhensible, mais tellement regrettable.

Reconnaître

Il ne s’agit pas, ici et en quelques mots, de prétendre effacer des millénaires d’angoisses collectives. Toutefois, un certain nombre d’explications techniques semblent pouvoir aider à entamer une thérapie. Les outils d’intelligence artificielle (IA) ne produisent pas de connaissances. Ils ne sont pas capables de « connaître ». En revanche, ils peuvent reconnaître. Il est très difficile d’expliquer à des gens bloqués dans une hystérie collective que leur salut est dans la présence du préfixe « re ». C’est pourtant vrai et tellement rassurant quand on y pense bien.

Techniquement, l’apprentissage des algorithmes ne prétend pas produire de la connaissance, mais reconnaître quelque chose : un chat, une voiture, un panneau de signalisation, un client sur le point de partir ou sur le point d’acheter, un mécanisme qui va rompre, etc. Cette reconnaissance se fait sur la base d’une connaissance humaine sans laquelle tout apprentissage pour l’algorithme est impossible. La data science - et plus particulièrement le « le complexe se transforme en névrose collective » - consiste à comprendre comment décomposer des « gros » problèmes en une série de petites questions. Aux algorithmes, ensuite, d’apprendre à reconnaître la bonne réponse, à la demande des humains.

En matière de conduite autonome, il faut, par exemple, des outils pour reconnaître les panneaux de signalisation, les conditions de route, mais aussi reconnaître ce qu’est un comportement dangereux. Ensuite, il convient de mettre tout ça en « ordre ». Là encore, le chef d’orchestre est toujours humain. Les machines qui prendraient le contrôle sont les descendantes des esprits qui habitaient les chaudières des locomotives aux premiers temps du chemin de fer. On peut légitimement se demander si la progression du rail - et la ruée vers l’Ouest en Amérique - était une bonne chose, mais ce n’est alors plus un problème technologique.