Aller au contenu principal

« Bilan et perspectives de l’intelligence artificielle »

Sabatou. A, Chaize. P, Narassiguin. C, Office Parlementaire d’Evaluation des Choix Scientifiques et Technologiques, Sénat, Rapport, Paris, novembre 2024, 381 p.

Ce rapport commence par un verdict qui résume en peu de mots, la portée de l’intelligence artificielle : « un spectre hante le monde, le spectre de l’intelligence artificielle. Il alimente des angoisses irrationnelles autant que des attentes démesurées. Les technologies d’IA semblent à la fois omniprésentes et insaisissables, pourtant leur diffusion reste encore toute relative et leurs contours sont assez connus des spécialistes. L’IA devient un phénomène de plus en plus politique qui appelle une maîtrise démocratique.

Il affirme que les innovations ne cessent de s’accélérer et les cycles de révolution en IA de se réduire. Ils sont en moyenne, de trois mois.

En septembre 2017 par exemple, une nouvelle architecture d’intelligence artificielle était proposée par des chercheurs de Google : les Transformers, une sorte d’algorithmes comprenant des centaines de milliards voire des milliers de milliards de paramètres, qui sont devenus des systèmes d’IA générative accessibles au grand public et ont notamment abouti à des applications populaires telles que ChatGPT, lancée en novembre 2022.

Ces technologies, capables de générer du texte, des images ou d’autres contenus en réponse à des commandes en langage naturel « représentent une nouvelle étape significative dans la longue histoire de l’intelligence artificielle et posent de nouvelles questions à nos sociétés ».

Et le rapport de citer les multiples interrogations que cela finirait par induire : « Comment fonctionnent ces technologies, en particulier les IA génératives ? Quels avantages et quels inconvénients présentent-elles ? Quels biais persistent dans l’usage des données et dans les programmations ? Posent-elles des difficultés en termes de souveraineté, de sécurité ou de régulation ? Quelles gouvernances nationales, européennes voire internationales sont mises en place ? Faut-il faire évoluer ces cadres de régulation ? ».

Car, comme l’exprimait Marie Curie « dans la vie, rien n’est à craindre, tout est à comprendre », au lieu de s’épouvanter en débattant des risques que ferait courir l’IA, il est en effet primordial « de commencer par chercher à comprendre ce que recouvre exactement la notion d’intelligence artificielle et d’appréhender avec rigueur le fonctionnement de ces technologies complexes ».

Les technologies d’IA sont filles des mathématiques et se basent sur des algorithmes. Il s’agit « d’un ensemble fini et précis de séquences d’opérations ou d’instructions permettant, à l’aide d’entrées, de résoudre un problème ou d’obtenir un résultat, ces sorties étant réalisées selon un certain rendement ».

Donald Knuth, pionnier de l’algorithmique moderne (The Art of Computer Programming), a identifié les cinq propriétés suivantes comme étant les prérequis d’un algorithme : « la finitude (un algorithme doit toujours se terminer après un nombre fini d’étapes), une définition précise (chaque étape d’un algorithme doit être définie précisément, les actions à transposer doivent être spécifiées rigoureusement et sans ambiguïté pour chaque cas), l’existence d’entrées (des quantités lui sont données avant qu’un algorithme ne commence. Ces entrées sont prises dans un ensemble d’objets spécifié) et de sorties (des quantités ayant une relation spécifiée avec les entrées) et un rendement (toutes les opérations que l’algorithme doit accomplir doivent être suffisamment basiques pour pouvoir être en principe réalisées dans une durée finie, par un homme utilisant un papier et un crayon) ».  

En matière technologique, les années 2010 ont représenté la décennie du Machine Learning et du Deep Learning avec de nombreuses avancées assez spectaculaires. Ces innovations « naissent quasiment par sérendipité à l’occasion d’un concours de reconnaissance d’images par ordinateur. C’est l’occasion de mobiliser les algorithmes déjà disponibles mais surtout de bénéficier d’un corpus de données de taille inédite ».

L’informatique constitue un domaine d’application privilégié des algorithmes. Mais son histoire « ne se confond pas avec celle de ces derniers. Il en est de même pour l’histoire de l’intelligence artificielle, bien que ces trois histoires soient liées ». Alors que l’informatique traitait traditionnellement de questions résolues par des algorithmes connus, l’intelligence artificielle s’était plutôt intéressée aux problèmes pour lesquels aucun algorithme satisfaisant n’existait encore.

Ainsi, la frontière de l’IA bougeant sans cesse, les algorithmes relevant de l’IA, renvoient à des technologies dont les contenus ne sont pas stables dans le temps. Mais l’IA se situe à la frontière des progrès de l’informatique. Il s’agit, pourrait-on dire, d’une sorte d’informatique avancée. En effet, « l’acronyme IA devrait en réalité bien davantage renvoyer à de l’informatique avancée qu’à de l’intelligence artificielle en tant que telle. Un tel concept serait à l’évidence bien moins anxiogène ».

Par ailleurs, et contrairement à l’intelligence artificielle symbolique et déterministe, « l’intelligence artificielle connexionniste ne se base pas sur des règles et de la logique qui seraient codées par le développeur dans des programmes informatiques, mais sur des statistiques et de l’analyse probabiliste de données en fonction de variables aléatoires (qui forment des processus dits stochastiques) ».

Il faudrait noter, souligne le rapport, que l’intelligence artificielle dépasse sa dimension de progrès technologique principalement logiciel. Il faut aussi la considérer « comme source de puissance et comme enjeu géopolitique sur l’ensemble des aspects de la chaîne de valeur qu’elle recouvre. La question des infrastructures matérielles qui permettent de fournir la puissance de calcul permettant d’entraîner et d’utiliser des modèles de plus en plus performants, est un aspect important à examiner dans ce cadre ».

Et le rapport de souligner aussi que les États-Unis sont l’acteur superdominant du secteur. Un des aspects de cette domination participe du Big Data : « les technologies d’apprentissage machine, dont le Deep Learning et ses Transformers, recourent à des méthodes statistiques qui nécessitent des données massives pour être efficaces ». Or, les géants américains du numérique disposent déjà d’un avantage comparatif difficile à rattraper : des jeux de données massives, continuellement enrichis par leurs clients et usagers.

Dans ce contexte, les pays du reste du monde ont « tendance à ne plus pouvoir être producteurs de technologies d’IA de pointe mais à s’en tenir au rôle de simples consommateurs avec toutes les conséquences que cette situation peut avoir ».

Si ces géants du numérique pouvaient être considérés comme potentiellement menacés par les géants chinois Baidu, Alibaba, Tencent et Xiaomi (BATX) il y a quelques années, il apparaît aujourd’hui que la Chine « rencontre en réalité de plus en plus de difficultés à rivaliser sur le marché mondial, en termes de valorisation financière et commerciale de ses produits, avec les géants américains, dont la croissance creuse l’écart jour après jour ».

C’est que « l’intelligence artificielle, en raison de l’accélération de ses progrès et de ses applications potentielles, représente une révolution technologique majeure et globale, susceptible non seulement de modifier nos économies et nos sociétés, mais aussi de changer les rapports de forces internationaux ou de les amplifier de façon radicale ».

Vous pouvez partager ce contenu