Enseignant-chercheur associé chez ISGA Rabat Docteur en Sciences informatiques, réseaux et systèmes. Lorsque l'on pose la question aux plus jeunes quant à la date de naissance de l'intelligence artificielle (IA), beaucoup indiquent les années 2000, mais il n'en est rien ! C'est lors de l'été 1956 qu'à vu officiellement le jour l'IA au Dartmouth College (New Hampshire, Etats-Unis) lors d'une université d'été, organisée du 18 juin au 17 août, par John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon. Selon ces quatre chercheurs, la nouvelle discipline académique qu'est l'IA suppose que toutes les fonctions cognitives humaines peuvent être décrites de façon très précise, pouvant alors donner lieu à une reproduction de celles-ci sur ordinateur. Il serait alors possible de créer des systèmes capables d'apprendre, de calculer, de mémoriser, et pourquoi pas de réaliser des découvertes scientifiques ou encore de la créativité artistique ! Mais si 1956 est la date de reconnaissance de l'IA en tant que science, les travaux sur ce sujet ont débuté bien avant. On peut ainsi remonter aux années 1940 et 1950 où l'on parlait alors de cybernétique, science modélisant, à l'aide de flux d'informations, les systèmes biologiques, psychiques, politiques et sociaux. C'est à partir de cette science que fut, notamment, modélisé le neurone formel que nous aurons l'occasion de découvrir au cours de cet ouvrage. Citons également le mathématicien Alan Turing qui, en 1948, dans son article Intelligent Machinery, décrit mathématiquement des réseaux de neurones connectés aléatoirement et capables de s'auto-organiser. Sans oublier, en 1950, le fameux jeu de l'imitation décrit dans son article intitulé Computing Machinery and Intelligence, que l'on nommera par la suite Test de Turing, se résumant comme suit: si une personne, à l'issue de quelques jeux de questions et réponses avec un ordinateur, ne sait pas si elle a engagé une conversation avec un être humain ou une machine, on considère que l'ordinateur a donc réussi ce test. Plus ancien encore, le philosophe Thomas Hobbes (1588-1679) formula l'hypothèse que toute pensée résulte d'un calcul. Cette hypothèse, reprise par Alan Turing et Alonzo Church (dans leur thèse Church-Turing), en énonce alors une seconde : celle selon laquelle tout calcul peut être fait par une machine. De ce fait, si la pensée résulte d'un calcul et que le calcul est fait par une machine, la pensée peut donc être simulée sur des machines ! Mais qu'est-ce que l'intelligence artificielle ? Comme nous venons de le voir, l'IA n'est pas une science nouvelle. Cependant, qui peut affirmer avoir «vu» une IA ? Personne ! Elle est inaudible, inodore et invisible. Les robots, les voitures autonomes ne sont pas ce que l'on peut appeler des IAs, ce sont des machines utilisatrices de cette intelligence. Comme vous avez sans doute dû le constater -ou aurez l'occasion de le faire en lisant cet ouvrage-, l'IA n'est autre qu'une série de formules mathématiques donnant naissance à des algorithmes ayant des noms plus étranges les uns que les autres. Nous parlons alors de probabilités, de statistiques qui n'ont rien d'intelligent au sens où nous pouvons la qualifier pour les êtres humains. L'IA se décline en deux parties. La première est le Machine Learning, se basant sur l'utilisation des statistiques pour donner la faculté aux machines «d'apprendre». Quant à la seconde partie, appelée Deep Learning (apprentissage profond), il s'agit d'algorithmes capables de s'améliorer de façon autonome grâce à des modélisations telles que les réseaux de neurones inspirés du fonctionnement du cerveau humain et reposant sur un grand nombre de données. Nous irons donc jusqu'à affirmer que l'IA, telle que nous pouvons l'imaginer à l'égal de l'Homme, n'existe pas : en effet, avons-nous besoin de trois heures d'apprentissage et de millions de photos pour reconnaître un lapin sur une image ? Des emplois menacés Parmi d'autres problématiques, la quatrième révolution industrielle, façonnée autour des IAs, pose la question d'un grand renouvellement du marché du travail. Chaque révolution industrielle s'accompagne de profondes migrations des emplois : de l'agriculture vers l'industrie, de l'industrie vers les services, et aujourd'hui, des services vers l'économie des données ? Les emplois dans les trois premiers secteurs seraient voués à être substantiellement remplacés par des robots et autres formes d'IA. On estime ainsi qu'il serait décisif d'envisager, dès aujourd'hui, le développement et le financement du secteur «quaternaire» constitué de métiers à haute valeur humaine ajoutée, dont le rôle serait, notamment, de s'occuper de l'humain (éducation, santé, culture, sport…). Si l'émancipation du secteur tertiaire et son déploiement au détriment du secteur secondaire ont été rendus possibles par l'enseignement obligatoire et la sécurité sociale, quelles mesures structurelles pourraient répondre au besoin de développement d'un tel secteur quaternaire ? Les travailleurs devraient donc progressivement être libérés des tâches les plus simples et les plus mécaniques ou sans valeur humaine ajoutée. Cela signifierait moins de routine, de répétitivité et peut-être de pénibilité au travail et plus de missions stimulantes. Il importerait surtout de favoriser la complémentarité entre intelligence humaine et intelligence artificielle, entre homme et machine. En rendant de nombreux outils et applications plus simples et intuitifs, l'IA devrait permettre à un plus grand nombre de personnes de les utiliser. Ceux qui travailleront aux côtés de l'IA profiteront d'un soutien décisif et seront beaucoup plus productifs. Ils acquerront de nouvelles compétences et des aptitudes supplémentaires. Certaines théories font même de l'IA le moyen de passer à l'âge des «employés augmentés» grâce à de nouvelles formes d'assistance électronique à la décision ou à l'activité. Les hommes sont beaucoup moins efficaces que les IA pour faire des prédictions pertinentes, en raison de leurs mémoires limitées et de leurs capacités de calcul plus faibles, ainsi que pour des raisons psychologiques. Dans ces conditions, les situations ne manquent pas dans lesquelles le travail de l'homme et le travail de l'IA pourraient être complémentaires. Divers nouveaux métiers devraient être créés. Il faudra des ingénieurs et informaticiens pour concevoir les IA, des gestionnaires et autres spécialistes des données (data scientists), des entraîneurs et superviseurs d'algorithmes, mais aussi des techniciens capables d'entretenir et réparer tous ces outils informatiques et technologiques. Le nombre d'emplois préservés sera fonction de l'élasticité de la demande suite à l'adoption de l'IA par les entreprises. Ainsi, les gains de productivité permettant de réduire les coûts de production, et donc les prix de vente, la demande pourrait augmenter, obligeant à produire plus et donc à créer de nouveaux emplois. C'est pourquoi chaque pays se bat -ou devrait le faire- afin que son économie soit en avance sur ces sujets stratégiques et reste compétitive face à ses concurrentes. Plus généralement, l'économie des données et la révolution des IA permettraient d'améliorer la qualité du travail, l'innovation, la qualité de service et, par la suite, la satisfaction globale, les ventes et les profits. Ces gains de compétitivité et ces nouveaux marchés auraient donc un impact positif sur l'emploi comme sur la croissance. Mais beaucoup d'observateurs estiment que la quatrième révolution industrielle devrait engendrer plus de destructions que de créations et réorientations d'emplois. La substitution de l'homme par la machine devrait frapper de très nombreux secteurs, de la comptabilité à la santé. En premier lieu, les emplois de bureau, consistant à manipuler et organiser des données, risquent fort de disparaître. Si le développement de l'IA provoque une baisse substantielle et pérenne de la demande de travail, le taux de chômage structurel pourrait augmenter. Les travailleurs les moins qualifiés et ceux dont les emplois demandent le moins de qualités humaines sont les plus exposés à ce risque de chômage technologique. L'IA, même faible, pourra effectuer toutes les tâches sans valeur humaine ajoutée (conduire un camion, tenir une comptabilité, traduire des textes ou des discours, diagnostiquer une maladie, par exemple). Cela est conforme à la théorie du progrès technologique biaisé, selon laquelle l'apparition de nouvelles technologies tend à détruire principalement les emplois peu qualifiés et à diriger la demande de travail vers le segment qualifié de l'offre.. L'entrée massive des IA dans les entreprises pourrait donc accélérer la segmentation du marché du travail dans les pays développés. Néanmoins, si l'offre de capital humain s'ajuste en prévision des changements technologiques -ce à quoi il faut œuvrer urgemment en adaptant les offres de formation et plus généralement tout le parcours éducatif-, les destructions brutes d'emplois pourraient rester limitées. Les réorganisations et mouvements sectoriels devraient constituer l'un des principaux effets de l'économie des données et des IA. Près d'un quart des emplois seraient concernés par une réallocation des tâches. Il faut s'attendre ou, du moins espérer, non des destructions massives d'emplois mais une réorganisation assez radicale du travail. Autant de défis pour l'éducation nationale, l'université et la formation professionnelle. Le travailleur humain devra se spécialiser dans les secteurs requérant des compétences multidisciplinaires et transversales, où il y a peu de données et de statistiques mais un besoin fort de sens commun, de souplesse, d'adaptabilité, de créativité, de culture générale, de sens critique, d'empathie, d'affectivité, d'humanité, de capacité à prendre des décisions «arbitraires» et à innover, ainsi que, parfois, de force physique et de dextérité. S'il n'y a plus besoin des hommes pour les métiers basiques, parce que l'IA s'en chargera plus efficacement et à un moindre coût, plus rapidement et avec moins d'erreurs et d'approximations, et si ne comptent plus que les capacités cognitives complémentaires de l'IA, alors il faudra non seulement inventer des métiers à haute valeur humaine ajoutée, mais aussi préparer les individus afin qu'ils puissent exercer ces métiers et former, non des techniciens et des applicateurs mais des tacticiens et des créateurs, entre autres. Or, le World Economic Forum s'inquiète du fait que les travailleurs, notamment français, seraient très mal armés pour s'adapter et affronter le changement. La question de l'emploi est, en tout cas, l'une des principales clés de l'acceptation sociale de l'intelligence artificielle. Les révolutions industrielles ont toujours généré un moment d'angoisse généralisée. L'incertitude liée à la nouveauté et au brouillard entourant l'avenir, en premier lieu à un niveau micro-économique et à l'échelle de l'individu-salarié, provoque des inquiétudes. Mais les nouvelles technologies ont, jusqu'à présent, toujours bouleversé les modes de production sans pour autant entraîner des pertes d'emplois supérieures aux créations. De nouveaux secteurs d'activité vont donner lieu à des métiers dont on n'a pas encore idée. Reste que l'adaptabilité et la souplesse, dans un tel contexte, seront les conditions d'une transition la moins chaotique possible vers l'ère de l'économie des données et des IA. L'entrée dans l'ère de l'économie des données et des IA pourrait rendre les entreprises, dans l'ensemble, plus productives et plus compétitives. En premier lieu, les salariés sont supposés pouvoir travailler plus efficacement. Par exemple, il est aujourd'hui déjà devenu courant de travailler depuis son domicile sans perte en efficacité et même en en gagnant, loin de l'époque des chaînes de travail de type Taylorien. Cela pourrait, par exemple, entraîner des conséquences sur l'aménagement du territoire. Pouvoir travailler virtuellement à Paris tout en restant au fond de la campagne franc-comtoise ou bretonne serait une réponse au problème de la saturation du territoire, tant en termes de logements que du point de vue des transports. Mais cela supposerait une connectivité performante et un développement suffisant des réseaux de télécommunications. De mêmes effets bénéfiques pourraient exister s'agissant des accidents de travail, de sa pénibilité ou de son coût écologique. L'IA permettrait de telles ruptures aux avantages macro-économiques divers et importants. Ce qui est nouveau fait pourtant toujours peur, y compris aux acteurs économiques, et pas nécessairement pour de mauvaises raisons. La résistance au changement peut être tenace, nourrie par des fantasmes et des discours sensationnalistes plus ou moins détachés des réalités. Il importe donc, sans les minimiser, de dédramatiser les changements pour pouvoir les affronter lucidement et prendre les bonnes décisions, du point de vue microéconomique d'une entreprise ou sous un angle macroéconomique s'agissant des Etats, des gouvernants ou encore des autorités de régulation. Il importe, notamment, de rappeler que l'IA n'est qu'un outil créé par l'Homme et au service de l'Homme, neutre en soi et dépendant entièrement des usages que celui-ci en fait. L'humain reste et restera donc au centre du jeu, maître de son activité. Chaque acteur, du salarié à l'entreprise en passant par l'Etat et par l'autorité de régulation, doit préparer l'avenir et se préparer à l'avenir. Il s'agit déjà de songer aux meilleures manières de coordonner, associer et même fusionner l'intelligence humaine (IH) et l'IA, afin qu'elles apprennent l'une de l'autre et se fassent progresser mutuellement. L'IA et l'IH ne serviront à rien si elles sont envisagées séparément, comme ayant chacune son domaine de compétences et ses tâches dédiées. C'est donc une nouvelle guerre économique qui s'annonce autour des immenses gains de productivité et des nouvelles sources de profits promis par l'IA ; une guerre économique qui ne cache même pas son nom au vu des discours et des investissements du gouvernement chinois, qui a érigé l'IA et les données en grande cause nationale. La question fondamentale qui se pose alors est celle de la gouvernance globale de cette nouvelle révolution industrielle et des luttes entre Etats et entre multinationales qui vont l'accompagner. Quelles institutions et quelles formes de puissance permettront à l'humanité et à la société mondiale de profiter le plus possible de l'entrée dans l'ère des IA et des big data ?