L’intelligence artificielle (IA) est omniprésente : recommandation de films et de restaurants, prévention des accidents de voiture, réservation de vols, suivi de l’itinéraire des taxis, détection des fraudes financières, sélection musicale adaptée à votre séance de sport, etc. Dans les années 1950, le concept d’IA faisait référence au fonctionnement considéré comme « intelligent » de machines capables d’effectuer des tâches en imitant le comportement humain. Depuis lors, l’utilisation des ordinateurs s’est généralisée et le volume de données générées a littéralement explosé. Selon certaines estimations, nous en produisons environ 2,5 quintillions d’octets par jour.
Il s’agit en grande majorité d’informations issues de notre utilisation quotidienne des téléphones portables, des médias sociaux et d’Internet : c’est ce qu’on appelle les mégadonnées ou « big data ». En s’appuyant sur l’apprentissage automatique, l’intelligence artificielle permet d’analyser cet immense volume de données en temps réel, à une vitesse hors de portée de l’être humain. Bien au fait de cet avantage, les entreprises sont de plus en plus nombreuses à exploiter l’IA pour affiner leurs renseignements sur le comportement d’achat des consommateurs, les transactions financières, la logistique et la prévision des tendances.
Consciente de l’impact majeur de l’IA sur notre société, l’Organisation des Nations Unies travaille aux côtés des acteurs du secteur privé sur la question de la « philanthropie des données », dont l’optique est de garantir l’utilisation des renseignements tels que ceux issus des sondages, des statistiques et des profils de consommateurs dans l’intérêt public. À titre d’exemple, des chercheurs utilisent des satellites et des capteurs distants équipés d’une technologie d’IA pour prédire les événements météorologiques extrêmes ayant des répercussions sur l’agriculture et la production alimentaire dans les pays en développement.
Dans ce contexte, l’ISO et son organisation sœur, la Commission électrotechnique internationale (IEC), ont convenu qu’il était nécessaire d’élaborer des normes mettant l’IA au service de toutes les sociétés. Créé il y a deux ans, le sous-comité ISO/IEC JTC 1/SC 42, Intelligence artificielle, a déjà publié trois normes en matière de big data, et 13 autres sont en préparation. Présidé par le stratège d’entreprise et expert technologique Wael William Diab, ce sous-comité a pour mission de concevoir et de mettre en œuvre un programme de normalisation sur l’IA destiné à fournir aux autres comités ISO des lignes directrices régissant le développement d’applications connexes.
Délimitation d’un cadre
Le sous-comité SC 42 se penche sur un vaste domaine d’application, allant de la terminologie élémentaire de l’IA et des définitions connexes au management du risque, en passant par la partialité et la fiabilité des systèmes d’IA, la robustesse des réseaux neuronaux et les systèmes d’apprentissage automatique, sans oublier les questions d’ordre sociétal et éthique. Il réunit en son sein 27 pays membres participants et 13 membres observateurs. Parmi les têtes pensantes de ce comité figurent Ray Walshe, Professeur adjoint spécialiste de la normalisation des TIC à la Dublin City University ; Wo Chang, Expert-conseil en données numériques pour le Laboratoire des technologies de l’information (ITL) du NIST (National Institute of Standards and Technology) aux États-Unis ; et Tarek Besold, Conseiller scientifique de Neurocat à Berlin et Spécialiste principal en sciences du comportement à Telefonica Innovation Alpha Health à Barcelone. À l’image d’un Peter Parker devenu Spiderman (si tant est qu’ils s’identifient à lui), ces trois personnalités détiennent un grand pouvoir qui implique de grandes responsabilités.
M. Besold ne recule pas devant l’ampleur de la tâche. « L’IA est un secteur récent qui évolue rapidement sous l’action des technologies novatrices et révolutionnaires. Nous devons établir un vocabulaire pointu et des définitions concertées couvrant les mécanismes et les technologies de l’IA. La normalisation représente sans conteste un travail titanesque et l’interopérabilité est un enjeu primordial. De fait, l’IA a des ramifications dans presque tous les domaines et jouera un rôle dans leur avenir, mais plutôt en tant qu’outil que chef de file. »
Le sous-comité SC 42 « a tout à bâtir », explique M. Chang. « En mettant des normes relatives à l’IA et au big data à la disposition des pouvoirs publics et des entreprises privées, nous fournissons des outils de performance et des cadres interopérables qui définissent les « conditions aux limites » de l’IA à l’aide de probabilités servant à déterminer les facteurs de risque. Il ne s’agit pas de simples limites, mais d’un véritable filet de sécurité qui fonde leur mise en place sur le management du risque. »
Les gouvernements du monde entier demeurent libres de réglementer ce qu’ils veulent. Pour M. Walshe, « le public doit savoir faire la distinction entre normalisation, législation et réglementation. La création de 90 % des données existantes à travers le monde remonte à ces deux dernières années. Pour les nombreux acteurs (entreprises, pouvoirs publics et chercheurs) qui fournissent des outils et des services, cela représente une somme astronomique de données structurées et non structurées à stocker, à agréger, à interroger et à corréler. Pour les organismes publics et privés, les Normes internationales font souvent figure de référence dans la réglementation, afin de garantir la prise en compte des questions sectorielles, éthiques et sociétales relatives à la sécurité ».
À la recherche de la faille
La sécurité des données et leurs modes d’utilisation restent un enjeu majeur de notre société, en particulier au regard de la très redoutée « erreur informatique ». Les mathématiques apparaissent alors comme l’ingrédient stratégique. Aux dires de M. Besold, les programmes d’IA se livrent à une véritable « bataille rangée » : les chercheurs génèrent des attaques et des défenses contre les systèmes d’IA afin de les « prendre au piège », puis développent des solutions aux problèmes mis au jour.
L’IA porte l’accent sur une spécificité élevée. Comme l’explique M. Besold, elle est donc adaptée spécialement à une tâche donnée. « Si l’intelligence artificielle met fin aux tâches de programmation ennuyeuses et chronophages pour les opérateurs, elle a cependant toujours besoin de règles et de mesures configurées par ces derniers. Si vous décidez d’appliquer un cadre de sécurité à une voiture sans chauffeur, il va sans dire que cette technologie requiert des mesures de protection et doit s’appuyer sur des définitions normalisées. Le fait d’écraser une personne âgée ou un jeune enfant représente-t-il un risque acceptable ? Évidemment non, c’est pourquoi nous voulons aider les pouvoirs publics et les industries à adopter et à mettre en œuvre les mesures que nous préconisons. »
« Lorsqu’il s’agit d’évaluer les risques, la probabilité est le maître-mot », confirme M. Chang en prenant l’exemple parlant des chats. « Intéressons-nous à la reconnaissance d’image : vous constaterez qu’un système efficace relèvera une erreur et s’éteindra si le programme n’a pas encore expérimenté un certain cas de figure. Le système a reçu plusieurs millions de photos représentant des chats et des chiens, de sorte qu’il est parfaitement en mesure de les différencier de façon très précise. Or, même s’il a été entraîné dans des conditions bien définies, il est impossible de tout modéliser. Que se passe-t-il si le système tombe sur un chat portant un nœud papillon ? La modification d’une seule partie de l’image peut effectivement engendrer des résultats très différents. Il pourrait s’agir d’une anomalie (ou simplement d’un chat portant un nœud papillon) qui ne correspond pas à l’environnement tel qu’il a été entraîné et à la fonction du système, d’où l’application d’une contrainte de sécurité pour éviter les défaillances. Si l’utilisation est élargie à des applications plus critiques, un examen approfondi permet de déterminer les probabilités et d’éteindre le système pour empêcher la prise de décisions ou la survenue de défaillances bien plus catastrophiques. »
Confiance et fiabilité des données
L’utilisation de l’IA dans des domaines potentiellement sensibles tels que le secteur bancaire, la santé et la surveillance s’accompagne du risque que la partialité de l’être humain affecte les données exploitées. M. Besold en est tout à fait conscient. « Il existe bien une partialité dans le domaine de l’intelligence artificielle, mais nous pouvons convenir d’une définition normalisée pour la prendre en compte. Les organismes de réglementation peuvent considérer qu’une partialité de l’ordre de 5/10 est acceptable pour un distributeur de savon, mais certainement pas pour une voiture sans chauffeur. »
Dans le domaine médical, les pouvoirs publics et la société doivent décider s’il est acceptable d’évoluer dans un univers validé. Sommes-nous d’accord avec l’utilisation de données provenant principalement des pays développés, pour les pays développés, dans les pays développés ? Les organismes de réglementation acceptent-ils que les données ne puissent être appliquées qu’à ces personnes, ou tiennent-ils à ce qu’elles fonctionnent pour tout le monde, au détriment de la précision statistique ?
« Prenons l’exemple des transplantations d’organes. L’intelligence artificielle serait en mesure d’accéder à tous les dossiers médicaux disponibles dans le monde et d’appliquer une batterie de mesures pour déterminer quelle personne doit figurer en haut de la liste, de façon à garantir un moindre taux de rejet des greffes et donc des résultats médicaux bien meilleurs. Cependant, si vous êtes en attente d’une greffe et que vous vous rendez compte que d’autres personnes reçoivent un organe avant vous, êtes-vous prêt à accepter les données ayant conduit à cette décision ? »
La fiabilité est essentielle. Le comité et les chercheurs sur le terrain doivent étudier de quelle façon d’autres secteurs (médical, automobile) appliquent des mesures et gagnent la confiance des pouvoirs publics et de la société au sens large.
En pleine émergence, l’apprentissage automatique commence à s’intéresser aux besoins les plus pressants du monde en développement, estime M. Chang. « En Afrique, l’accès à l’énergie et aux services est un problème de taille dans les régions rurales. Au vu de l’adoption généralisée des smartphones sur ces territoires, on observe le développement d’applications capables de diagnostiquer des problèmes médicaux de base lors de consultations à distance ou de fournir des données préliminaires comme des prévisions météorologiques, des informations sur la qualité des sols ou encore des conseils agricoles. »
Craintes et phobies
En dépit de ces avancées, l’intelligence artificielle fait encore peur dans l’opinion publique. Le fantasme du robot qui finit par remplacer l’homme, comme dans le film Terminator avec Arnold Schwarzenegger, est profondément ancré dans les esprits. « Ce scénario me semble totalement improbable de mon vivant », assure M. Walshe. « Ne vous méprenez pas : l’IA change la donne, et les outils intelligents sont capables d’accomplir des tâches précises à une vitesse impressionnante, avec à la clé des économies colossales, mais on parle ici d’« intelligence étroite » (l’IA dédiée à une seule activité). Or, le cerveau humain est non seulement capable d’accomplir cette tâche restreinte, mais aussi plusieurs milliers d’autres tâches bien plus vastes et complexes. » La robotique est l’un des domaines les plus prometteurs pour l’IA, mais le mythe selon lequel les machines seront capables d’intelligence artificielle générale à la « Terminator » n’est pas d’actualité.
« L’IA est aujourd’hui plus une promesse qu’une réalité », affirme M. Besold. « La recherche avance plus rapidement que la mise en application. Les bras robotisés utilisés dans les usines ne peuvent effectuer que les tâches pour lesquelles ils ont été programmés : il n’y a aucune forme d’intelligence derrière cela. Si une modification est nécessaire, comme un changement de côté, alors il faut qu’un être humain intervienne au niveau de la programmation. »
Comme l’explique M. Besold, les développeurs en IA doivent échanger davantage avec la société pour assurer une réelle transparence. De son côté, M. Chang constate que les normes élaborées par le comité pour encadrer la robustesse des systèmes, la qualité des données et les limites augmenteront le niveau de confiance de la population et la capacité à interagir avec une multitude de référentiels de données.
Côté emploi, nos trois membres du comité parient sur une évolution et non une disparition des postes. L’IA effectuera davantage de travaux manuels et de tâches de routine (rédaction de contrats et documents standards, par exemple), ce qui laissera davantage de temps aux équipes pour exercer les compétences nécessitant de l’empathie ou du savoir-faire au chevet des patients, dans le cadre d’un traitement médical, mais aussi pour répondre aux questions éthiques et utiliser la pensée latérale. Les professionnels auront l’occasion de se former à nouveau et de se pencher sur des cas plus ambitieux et plus intéressants.
« Ne serait-il pas ironique que l’essor de l’IA au travail se traduise par une redynamisation des mouvements syndicaux ? », pointe M. Besold. « À l’école comme à l’hôpital, l’utilisation de l’IA dans le domaine de la logistique ou des connaissances déclaratives (faits, dates et chiffres) peut donner lieu à une baisse du temps de travail hebdomadaire du personnel. Les pouvoirs publics et les employeurs vont-ils opter pour une réduction des effectifs ou pour un rééquilibrage entre vie personnelle et vie professionnelle des salariés en écourtant la semaine de travail ? Ces questions doivent aboutir à un consensus à la lumière de cette question : quel est l’avantage principal qu’en retire la société ? »
De nouveaux horizons
Si l’on en croit M. Chang, l’avenir de l’IA réside dans la multiplication des solutions mains libres. « Le port de lunettes intelligentes permettra par exemple de regarder une machine à laver en panne pour obtenir des informations sur la cause du problème, son emplacement et les moyens d’y remédier. Dans le secteur du tourisme, il suffira de regarder un édifice pour en savoir plus sur son histoire, son rôle et les services qu’il propose. »
Hormis l’anecdote des lunettes intelligentes, M. Chang nourrit des espoirs plus ambitieux. « Si les pouvoirs publics et les entreprises apprennent à tirer au mieux parti de l’IA et de leurs équipes sans perdre de vue les intérêts de leurs administrés et de leurs clients, l’avenir s’annonce on ne peut plus radieux. »
M. Walshe s’intéresse personnellement à la façon dont l’IA peut concourir à la réalisation des Objectifs de développement durable des Nations Unies, un appel à l’action universel pour assurer la paix et la prospérité de l’humanité. « Comment l’IA peut-elle contribuer à lutter contre la pauvreté, la faim et la malnutrition dans le monde, à améliorer l’alimentation en eau et l’assainissement, à assurer l’égalité entre les sexes et l’égalité des chances en matière d’éducation et d’emploi, ou encore à accélérer le progrès des pays en développement ? Ce sont là des enjeux majeurs qui nécessitent des technologies de rupture révolutionnaires, ainsi qu’une collaboration entre experts à l’échelle mondiale. »
« On ne peut pas se contenter d’appliquer des filtres amusants sur nos photos avant de les publier en ligne », affirme M. Besold. « Pour l’avenir, j’espère que les applications concrètes de l’IA se traduiront par le renforcement des efforts logistiques déployés en faveur de la médecine, de l’agriculture, du changement climatique, de la découverte scientifique… En bref, de tout ce qui sera dans l’intérêt de la société. »
Le moins que l’on puisse dire, c’est que le sous-comité ISO/IEC JTC 1/SC 42, Intelligence artificielle, ne risque pas d’être désœuvré de sitôt.