Aller au contenu principal

« Le double enjeu de l’IA : une révolution dans l’art de la guerre et un potentiel bouleversement de l’ordre mondial » (1/2)

Konikowski. J et al., Science politique, Paris, 2021, 82 p.

L’intelligence artificielle (IA), est un nom évocateur, mais pour un concept qui reste pourtant encore trop souvent abstrait. Néanmoins, « l’IA fait l’objet de convoitises dans d'innombrables secteurs et ouvre un champ des possibles, faisable ou rêvé, qui l’élève au rang de nouvel El Dorado de l’innovation. L’IA fait même partie depuis 2011 de la Quatrième révolution industrielle. Après le charbon, l’électricité et les télécommunications, la révolution actuelle est celle des systèmes cyber-physiques ».

L'intelligence artificielle était définie par le Larousse en ligne comme un « ensemble de théories et de techniques mises en oeuvre en vue de réaliser des machines capables de simuler l'intelligence humaine ».

L’IA simule donc l’intelligence humaine par : « l'apprentissage…, le raisonnement…et l'autocorrection ». Le machine learning est ici extrêmement important pour l’IA puisqu’il « permet la reproduction d’un comportement grâce à des algorithmes, eux-mêmes alimentés par les big data ».

L’IA peut être classée en deux catégories : l’IA faible et l’IA forte. L’IA est faible « lorsqu’elle ne fait que reproduire un comportement spécifique, mais pas son fonctionnement. La machine ne comprend donc pas ce qu’elle fait et ne peut pas improviser. À l’inverse l’IA forte n’existe pas encore réellement mais serait un système doté de capacités cognitives humaines générales qui, présenté à une tâche inhabituelle serait assez intelligent pour trouver une solution ».

Quant à l’ordre mondial, il désigne l’équilibre des pouvoirs en géopolitique. L’ordre mondial actuel « nous vient de la fin de la Guerre froide, période à laquelle notre système alors bipolaire (États-Unis vs. URSS) a éclaté pour devenir un système multipolaire imparfait puisque guidé par un hégémon : les États-Unis. Aujourd’hui, beaucoup d’experts débattent de la possibilité d’un nouveau bouleversement de cet équilibre suite à un affrontement entre la première puissance mondiale actuelle et sa principale rivale, la Chine ».

 

Le développement de l’armement intégrant l’IA remet fortement en question la notion conventionnelle de guerre. L’IA apporte en effet une dimension supplémentaire à n’importe quelle arme : l’autonomie. En d’autres termes, « l’IA permettrait une plus grande rapidité d’analyse et d’exécution, et donc la possibilité d’opérer plus ou moins sans intervention humaine, en fonction du degré d’autonomie. C’est pourquoi, depuis quelques années, avec les avancées et les innovations dans le secteur de l’IA militaire, un débat épineux sur la capacité de prise de décision des armes à IA intégrée a émergé ».

L’autonomie est un « système (qui est) capable de mener un raisonnement à chaque fois unique quelle que soit la situation perçue pour décider de la meilleure action à mener ». Cette autonomie est notamment classée en trois niveaux d’intervention humaine dans le processus d’ouverture du feu :

+ In the loop : c’est une arme intelligente au service de l’Homme. Dans une autonomie in the loop, littéralement dans la boucle, « l’Homme est dans la boucle d’action et de décision et supervise l’intelligence artificielle ». Le modèle d'autonomie est donc faible. Cela signifie que l’IA a besoin de l’intervention humaine, à la fois dans l’entraînement et dans la période de tests de construction d’un algorithme.

Il y a donc un système de retour sur expérience continu, où l’Homme valide ou invalide les résultats obtenus par l’IA, ce qui permet à l’algorithme d’améliorer les résultats à chaque fois.

Le système human in the loop est intégré à travers deux processus de machine learning : l’apprentissage supervisé et non supervisé. Dans le machine learning supervisé, des groupes de données sont utilisés par des experts afin d’entraîner les algorithmes à faire des prédictions correctes lors d’utilisations à venir. Plus tard, les résultats fournis sont vérifiés et évalués : s’ils sont considérés comme erronés, des ajustements sont faits aux algorithmes, ou bien les données sont vérifiées et redonnées aux algorithmes jusqu’à obtenir un résultat correct.

Ainsi, dans le cadre militaire, « les armes avec une autonomie human in the loop sont celles où le robot sélectionne les cibles, mais pour lesquelles l’Homme prend la décision finale d’ouvrir le feu. À proprement parler, ces types d'armes ne peuvent pas véritablement être qualifiées d’autonomes : elles se rapprochent plus des armes télécommandées, donc contrôlées à distance. Les drones sont un exemple parlant de ce type d'autonomie ».

Si ce type d’autonomie est, à l’heure actuelle, le plus développé, il montre cependant rapidement ses limites : son encadrement permanent par l’Homme.

+ On the loop : la prise de décision est partagée. Avec une autonomie de type on the loop, ou sur la boucle en français, on parle « d’un modèle non pas basé sur un contrôle total, mais sur une collaboration entre l’Homme et l’IA ». Ici, l’Homme peut être le commandant ou bien seulement exercer un droit de veto. Ainsi, les armes à l'autonomie human on the loop sont celles où « le robot sélectionne les cibles et prend la décision d’ouvrir le feu, mais où l’Homme peut intervenir avant l’ouverture du feu et annuler la décision. Ce type de système très élaboré est déjà une réalité ».

Les capacités d'analyse de ce type d’IA sont considérablement accrues. La combinaison de la capacité humaine et de la maîtrise des algorithmes de la machine améliore l'efficacité et les capacités de traitement. Par rapport au modèle in the loop, « ce type d’IA nécessite donc moins d’interventions humaines, ce qui permet de déléguer un plus grand nombre de tâches ».

On note ici également une vraie possibilité de gain de temps : la machine étant plus rapide que l’opérateur humain dans ses analyses, diagnostics et décisions, celui-ci n’a plus qu’à valider ou invalider la décision finale.

L’IA étant censée être plus rapide, plus efficace et plus performante que l’Homme, « celui-ci risque de ne plus questionner les résultats, manquer de discernement et considérer la machine comme infaillible, même si l’IA peut avoir un fonctionnement défectueux. Il est donc nécessaire que les décideurs maintiennent un certain scepticisme quant à l'application de l'IA aux systèmes militaires ».

+ Out of the loop : une délégation de contrôle aux répercussions tactiques et éthiques.

L’autonomie out of the loop, « hors de la boucle », est « un système qui repose sur une autonomie complète, c’est-à-dire sans supervision ni intervention humaine. L’IA y joue un rôle de chef militaire, ce qui lui donne la capacité de s’adapter au changement d’environnement, d'analyser le contexte et de décider des actions à suivre. Autrement dit, les armes human out of the loop sont celles où l’Homme n’a plus que le rôle de spectateur ».

Jusqu'à présent, le système militaire s’approchant le plus de ce type d’autonomie est le Dôme de Fer déployé par Israël. Il est composé de trois éléments : « un radar de détection et de pistage, un logiciel de gestion de combat et de contrôle de l’armement et trois lanceurs composés de 20 missiles intercepteurs chacun. Lorsqu’un tir ennemi est repéré par le radar, le logiciel de contrôle se lance pour identifier le type de projectile, calculer sa trajectoire et déterminer son point d’impact probable. Si la roquette vise une zone habitée, le système anti-missiles entre automatiquement en action. Il actionne alors l’un des trois lanceurs pour envoyer dans les airs un missile d’interception ».

Les avantages à utiliser ce type d’armes sont nombreux. « L’un d’eux est la rapidité, à la fois d’apprentissage et de réaction ». En effet, « ce type d’IA possède un système d’apprentissage naturellement plus rapide que celui de l’Homme et est ainsi naturellement en progression continue, puisque toutes les connaissances, comme les expériences et les modèles, sont digitalisées avec un accès quasi instantané à des données de masse. Ce type d’armes pourrait donc représenter une véritable révolution dans l’armée. Par comparaison, un soldat est formé par transmission de l’expérience, un processus long, coûteux et imparfait, qui est à recommencer à chaque arrivée de nouveaux soldats ».

Un autre avantage, en plus du gain de temps obtenu avec la délégation complète de certaines tâches, est « l’efficacité au combat, en termes de précision et d'absence de faiblesses typiquement humaines ».

Or, les systèmes basés sur des algorithmes, comme l’IA, confrontés à un problème, fournissent des résultats sans expliquer le processus de raisonnement pour l’obtenir. Des décisions sont ensuite prises en fonction de ce résultat.

Cependant, ces décisions humaines appuyées sur les données collectées analysées par une machine « peuvent donc être influencées sans que l’opérateur en soit conscient ». Ce manque de traçabilité dans la prise de décision peut créer un vrai dilemme puisque l’opérateur doit faire confiance au résultat présenté par la machine. Mais « que se passerait-il si les données étaient erronées ? Ou modifiées subrepticement par un adversaire à distance ? Les décisions tirées du résultat présenté par le système seraient donc inadaptées et pourraient faire empirer une situation, voire mener à une escalade de violence ».

Intrinsèquement, un second risque émerge: « celui de la confiance excessive accordée aux machines. Ici, non seulement l’Homme serait présenté à un résultat sans connaître le processus de raisonnement derrière, mais il n’aurait pas non plus la possibilité de rectifier la décision prise en conséquence par l’IA. De ce problème de prise de décision découle celui de la responsabilité ».

Vous pouvez partager ce contenu