Cet article est extrait du Livre des Tendances 2021, 22 secteurs clés décryptés (352 pages).
Année après année, les technologies de prise de décision automatique se sont mises à avoir une influence grandissante sur la vie de millions d'individus à travers le monde. Le machine learning, le deep learning, le big data et la smart data sont utilisés dans un nombre croissant de situations, que ce soit dans la sphère publique, privée ou entrepreneuriale.
Aujourd'hui, les algorithmes permettent de recruter plus efficacement un nouveau collaborateur, de faire la chasse aux fraudeurs fiscaux, d’améliorer la productivité d'une équipe, ou encore de choisir une destination pour les vacances...
Malgré ces bénéfices, un grand nombre de Français restent sceptiques, pour ne pas dire méfiants. En 2020, 59 % d'entre eux considèrent que l'IA pourrait avoir des répercussions négatives sur leur vie privée, et 65 %, sur le nombre d'emplois, inévitablement revu à la baisse, selon une enquête réalisée par Harris Interactive.
Dans la même logique, ils sont 65 % à considérer que l'IA va détériorer la qualité des relations humaines, et 80 % à penser qu'elle est déjà présente dans leur quotidien, ou qu'elle le sera bientôt, selon un sondage mené par le CSA. Ces derniers ont tout à fait raison. À mesure que le temps passe, l'IA devient plus présente dans nos vies. Et elle ne cesse même de prendre de l'importance.
Depuis 2015, en l'espace de cinq petites années, le volume global des données en circulation a été multiplié par six au niveau mondial, selon une étude de l'IDC (International Data Corporation). Et ce n'est qu'un début. Cette gigantesque masse d'informations est en effet en pleine accélération. À partir de 2025, elle augmentera de 350 % tous les ans jusqu'à atteindre 2 142 milliards de milliards d'octets en 2035. Il va devenir difficile d'échapper aux données...
D'autant que les technologies se perfectionnent à grande vitesse pour toujours mieux les traiter. Grâce au machine learning, l'automatisation franchit en permanence de nouveaux caps vers toujours plus d'autonomie et de rapidité. L'IA est désormais capable de traiter des problématiques à grande échelle. Un atout dans la lutte contre la pandémie. À ce titre, la crise sanitaire a constitué un véritable test.
Algorithmes vs virus
De par son ampleur inégalée et son caractère généralisé, la pandémie a fourni à l'IA un grand nombre de champs d'applications. Les ordinateurs ont rapidement mis leur puissance de calcul au service des virologues et des chercheurs. Les algorithmes ont tout d'abord produit des modèles prédictifs afin d'identifier le virus et d'anticiper sa propagation. Avec un coup d'avance, la start-up canadienne BlueDot, spécialisée dans l'amélioration des réponses à apporter aux risques de maladies infectieuses grâce à l'IA, a été la première, fin 2019, à détecter le comportement anormal du virus, que les médecins chinois considéraient alors comme une simple épidémie de pneumonie. Dans la foulée, BlueDot a identifié les agglomérations situées dans la région de Wuhan qui avaient le plus de risques d'être contaminées.

Les capacités prédictives de l'IA ont pleinement été mobilisées par la suite pour identifier le coronavirus en étudiant sa composition protéinique. Baidu, mastodonte chinois du numérique, a mis au point dès février l'algorithme LinearFold, qui a été en mesure de prédire la structure ARN du virus du Covid-19 en seulement 27 secondes. Un record, quand on sait que ce type de calcul nécessitait auparavant 55 minutes.
Dans la foulée, les chercheurs du Boston Children's Hospital ont développé l'application HealthMap, première du genre, pour tracer la pandémie grâce à un jeu de données provenant des recherches effectuées par les individus sur les moteurs de recherche, les réseaux sociaux et les forums de discussion, et pour identifier les premières infections et les cas suspects.
L'IA a également permis d'opérer un tri en très peu de temps parmi les 3 000 médicaments existants afin d'identifier 97 molécules, très courantes et bon marché, pouvant atténuer les effets du Covid-19, et qui ont effectivement permis de soulager un grand nombre de patients. Grâce aux technologies développées par Baidu et Infervision, les algorithmes ont permis de reconnaître si un patient était atteint par une pneumonie ou était porteur du Covid en moins d'une petite minute.
Les initiatives de ce type ont été légion, et les progrès réalisés, très nombreux. Pourtant, les résultats obtenus ont parfois laissé à désirer. À ce titre, la première mouture de l'application de contact tracing StopCovid lancée par le gouvernement a été un échec, du fait du manque d'adhésion du public, mais aussi et surtout à cause de prédictions jugées peu fiables par le corps médical.
Dans bien des cas, la nature même du Covid, avec de nombreux cas asymptomatiques, a faussé la donne. Si le machine learning permet d'ores et déjà d'améliorer l'efficacité des algorithmes dans des situations similaires, la puissance de calcul ne fait pas tout. Les données restent toujours et encore le premier rouage de l'IA. Leur rôle est crucial. Elles sont à la base de tout.
Les dangers de l'automatisation
La qualité des données est devenue un enjeu majeur pour les acteurs de l'IA. Elle est, aujourd'hui, au centre des préoccupations de nombreux grands groupes et start-up. En 2020, une enquête réalisée par Véritas révélait que les grandes entreprises perdaient en moyenne plus de 2 millions de dollars par an à cause d'une mauvaise gestion des données, et que 36 % des employés étaient moins efficaces en raison d'une circulation insuffisante des datas entre les services.
Le data quality management prend de plus en plus d'importance dans les organisations, car, avec l'augmentation du volume des données, le risque de biais et de résultats erronés augmente lui aussi. L'automatisation est allée tellement loin que les prises de décision effectuées par les machines se feront bientôt en temps réel, immédiatement, évinçant un peu plus les humains de l'équation.
Grâce à son architecture décentralisée, la blockchain autorise la constitution de bases de données de grande qualité. Elle est un atout pour fiabiliser les datas mais aussi pour les sécuriser.
Toutefois, ces systèmes ne sont pas en mesure de s'assurer qu'une donnée est fiable avant de l'exploiter, et rien ne dit qu'ils pourront le faire demain. Ce type de vérification n'existe pas dans le fonctionnement des algorithmes. Si les entreprises en pâtissent en perdant de l'argent, ces défauts inhérents à l'IA peuvent avoir, à une autre échelle, des répercussions désastreuses. Demain, les voitures autonomes devront carburer avec des données entièrement fiables pour éviter de mettre en danger leurs passagers. Problème identique pour la gestion des transports publics dans les smart cities.

Bonne nouvelle, la blockchain est de plus en plus considérée comme le chaînon manquant de l'IA. Grâce à son architecture décentralisée, elle autorise la constitution de bases de données de grande qualité. Elle est un atout pour fiabiliser les datas mais aussi pour les sécuriser. Demain, les algorithmes sont appelés à optimiser la société comme aucune autre technologie ne l'aura fait auparavant. Il est donc essentiel de s'assurer que l'automatisation restera sous contrôle et que les datas seront toujours de bonne qualité.
IA for good
La révolution que contient l'IA se situe au-delà du simple changement de paradigme. Elle constitue un saut civilisationnel. Pendant la crise sanitaire, les données n'ont pas seulement été utiles en matière de santé. Elles ont également permis à la grande distribution de mieux anticiper les stocks en évitant ainsi les pénuries, et au secteur des transports de mieux gérer les flux de voyageurs.
Aujourd'hui, les services que peuvent rendre les algorithmes sont extrêmement nombreux, de même que les bénéfices que l'humanité peut en tirer. Véritable « pantechnologie », l'IA est en mesure de s'attaquer à tous les défis de l'époque. D'ores et déjà, les solutions existent pour renforcer l'inclusion des populations défavorisées, mieux gérer les dépenses d'énergie, harmoniser les transports, préserver la biodiversité, limiter les émissions de CO2, améliorer les rendements agricoles, anticiper les catastrophes naturelles, démocratiser l'accès aux services, favoriser le dialogue entre les cultures, consolider la démocratie, lutter contre l'analphabétisme et la famine... Ces solutions, innombrables, s'appliquent désormais à tous les secteurs de l'économie et à tous les aspects de la vie quotidienne, partout dans le monde.
Il est plus que temps que la marchandisation des datas se fasse au bénéfice de ceux qui en sont propriétaires, en général les individus eux-mêmes.
Mais pour que l'IA puisse se mettre au service du bien commun, elle doit être mieux acceptée par les citoyens. C'est une condition sine qua none. Comme souvent, tout est une question d'adoption. Elle doit également être impartiale et d'une précision sans faille.
Pour atteindre ces objectifs, il faut que les entreprises et les chercheurs qui œuvrent à la faire progresser s'engagent vers plus de transparence, de pédagogie et d'éthique. Et que les États fassent de même en garantissant un meilleur contrôle des protocoles et des applications. Les citoyens ont besoin d'avoir la garantie que leur vie privée sera protégée et qu'ils ne perdront jamais le contrôle face à la machine.
Alors que notre monde est à un moment clé de son développement technologique, l'innovation doit prendre en compte un certain nombre d'enjeux qui se situent hors du champ de la technique. Sans éthique dans l'IA, le pouvoir des algorithmes a toutes les chances, un jour ou l'autre, de devenir moins efficace, voire néfaste.
Il est plus que temps d'adopter une charte, au minimum au niveau national, qui garantisse que les droits fondamentaux des individus seront respectés, quelles que soient les évolutions technologiques à venir. Il est plus que temps également que la marchandisation des datas se fasse au bénéfice de ceux qui en sont propriétaires, en général les individus eux-mêmes.
Pour relever ces défis, l'entière coopération des géants du numérique, des autorités gouvernementales et des citoyens semble nécessaire. Un cadre réglementaire, démocratique et équitable pourrait alors permettre à l'IA de se mettre encore un peu plus au service de la société, en évitant toute forme de dérive. Cette évolution, qui s'annonce compliquée, est le prix à payer pour sécuriser l'exploitation des données, au bénéfice de toutes et tous.