تجاوز إلى المحتوى الرئيسي

«Intelligence artificielle et culture»

 

Bensamoun. A, Farchy. J, Conseil Supérieur de la propriété littéraire et artistique, Rapport, 27 janvier 2020, 106 p.

L’Intelligence Artificielle dont il est question aujourd’hui, a des origines anciennes, note ce rapport, puisque «l’idée de machines  intelligentes est ancrée dans la science-fiction, que les réflexions scientifiques remontent aux années 50 et que la plupart des algorithmes actuels ont été inventés dans les années 80».

 Le mathématicien américain Marvin Minsky, dix ans après l’apparition du premier ordinateur, suppose que celui-ci «peut être utilisé pour mieux comprendre l’intelligence et définit l’IA comme la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence».

Au cours des dernières décennies, l’IA a connu des périodes de recherches plus ou moins intenses, dominées alternativement par deux approches : l’approche symbolique ou cognitiviste et l’approche connexionniste. Le symbolisme «renvoie à un raisonnement déductif, basé sur les règles et la logique, tandis que le connexionnisme correspond à un raisonnement inductif, basé sur l’expérience».

Le tournant des années 2010 est marqué par le triomphe du deep learning, après 60 ans de succès et de déconvenues de l’approche connexionniste. En effet, «bien que les algorithmes d’apprentissage automatique puissent utiliser des outils mathématiques très différents au sein de ce vaste ensemble, les travaux se concentrent en effet sur les réseaux de neurones artificiels et l’apprentissage profond».

Le terme neurone renvoie ici à une analogie fonctionnelle avec le comportement des neurones réels en biologie. Les nouvelles architectures de réseaux de neurones sont qualifiées de profondes, car «elles sont composées d’un nombre de couches supérieur aux réseaux de neurones traditionnels proposés dans les années 1960. De cette façon, l’apprentissage profond imite plus efficacement le fonctionnement du cerveau humain».

L’IA, discipline aux multiples facettes, revient donc sous les feux de l’actualité avec le deep learning dont le succès correspond à la conjonction de trois facteurs :

°- l’amélioration des capacités de calcul des machines,

°- les progrès de la recherche sur les réseaux de neurones convolutifs,

°- et l’accroissement de la masse des données, variées et pertinentes, disponibles, la performance de l’IA étant, en effet, directement corrélée aux données collectées.

L’IA est ainsi étroitement corrélée aux données de masse (données personnelles, données publiques, métadonnées, données d’usage...etc.). Sur la base d’algorithmes et de larges corpus de données qui les alimentent, l’IA intervient dans l’ensemble de la chaîne de valeur des industries culturelles.

Si l’apprentissage automatique nécessite toujours, de grandes quantités de données, réciproquement, l’analyse de données mobilise des disciplines ou champs de recherche d’une grande variété qui ne font pas toujours appel à l’apprentissage automatique.

Parallèlement aux outils développés par les économistes, la performance des traitements automatisés, basés sur l’apprentissage automatique, a connu de nombreux progrès. Ceux-ci sont  «des traitements inductifs intrinsèquement conservateurs, qui n’anticipent pas des évolutions mais reproduisent le passé dans le présent ou l’avenir pour produire un résultat, des tendances ou estimations. La rupture avec les techniques quantitatives classiques repose sur le fait que la modélisation est issue des données elles-mêmes».

Mais la performance d’un modèle ne tient pas à son explicabilité des résultats, elle tient aussi à sa capacité à fournir rapidement et efficacement une réponse au problème posé : «plus l’algorithme d’apprentissage automatique est complexe, moins le processus qui a conduit au résultat pourra être exprimé en termes compréhensibles par l’homme».

Les techniques quantitatives, l’apprentissage machine et le data mining qui, historiquement, diffèrent par leurs objectifs, leurs communautés et leurs méthodologies, tendent aujourd’hui à devenir complémentaires. L’apprentissage automatique «réalise des prévisions opérationnelles d’autant plus précises que le système est alimenté par de grandes quantités de données. Le data mining découvre des corrélations totalement inattendues entre des données, pouvant servir d’entrainement à l’apprentissage automatique, ou être testées par des techniques quantitatives. Ces dernières mettent l’accent sur des liens de causalité au-delà de simples corrélations liées au hasard, et apportent des éléments de stratégie sur le long terme aux entreprises comme aux décideurs publics».

Dans le domaine culturel, les données d’usage résultent de la rencontre d’un utilisateur et d’une œuvre, les données relatives à l’usage de contenus culturels et ludiques étant devenues un «input» déterminant, permettant d’analyser les goûts et habitudes des usagers et de leur proposer une offre personnalisée.

Les métadonnées sont ainsi au coeur de nombreux dispositifs. Elles peuvent être classées, «en distinguant celles juridiques (titulaires des droits), descriptives (titre, durée) ou enrichies (genre, analyse sémantique du langage utilisé dans un scénario, rythme d’un morceau de musique…etc.)».

A l’intersection des données d’usage et des métadonnées, se construisent les données dites hybrides : «informations produites par la comparaison ou l’agrégation de données d’usage et/ou de métadonnées (analyse des échanges réalisés par les internautes sur les réseaux sociaux associant des termes significatifs à un contenu donné)».

L’une des grandes promesses de l’intelligence artificielle est donc l’extraction et l’analyse de larges bases de données non structurées comme des œuvres, et la production de nouvelles métadonnées compréhensibles par les humains.

Ainsi, l’analyse du langage naturel (NLP, Natural Language Processing), qui «se réfère à la fois à une meilleure compréhension du langage naturel et à une meilleure restitution de résultats en langage naturel, a été largement améliorée par l’IA».

 Sur les réseaux sociaux par exemple, l’analyse de données en langage naturel permet de suivre non seulement le volume des discussions autour d’un contenu, mais également les émotions exprimées dans ces discussions».

En même temps, la génération automatique de textes simples en langage naturel (Natural Language Generation) vise à développer des programmes informatiques «capables de produire des textes dans un langage compréhensible par l’humain».

Dans l’audiovisuel, le catalogage vidéo automatique prend ses sources dans les années 1990 lorsque la quantité d’images disponibles explose. «Le catalogage vidéo a pour objectif de structurer les vidéos et d’extraire de l’information sémantique pour assurer que le contenu puisse être retrouvé rapidement. Qualifier et cataloguer efficacement chaque contenu permet un cycle de vie plus long et augmente les possibilités de valorisation».

En outre, «l’apprentissage profond apporte de nouveaux outils capables de percevoir, en temps réel, le contenu vidéo offert. Il serait par exemple possible lors du suivi d’un événement sportif en direct par un spectateur, de choisir de regarder le compétiteur de son choix, lui-même identifié automatiquement par une intelligence artificielle utilisant une technique de reconnaissance faciale et d’étiquetage automatique».

Dans le domaine de l’art, les nouvelles techniques de «vision par ordinateur» visent à obtenir automatiquement la description d’une image et une recherche efficace. Il y a même des algorithmes qui «combinent la reconnaissance d’objets et des modèles de langage pour générer des descriptions de l’image basées sur le langage naturel. La description du contenu de l’image à l’aide du langage naturel est particulièrement utile pour présenter la création de légendes ou pour effectuer des recherches basées sur le contenu à partir de requêtes textuelles».

Pour le grand public, une des applications d’IA les plus répandues correspond aux agents conversationnels : «le système est capable de reconnaître et d’interpréter le texte tapé par l’internaute pour extraire les caractéristiques de sa question, et les fournir comme données d’entrée à un moteur de recherche».

Outre ce dialogue direct avec les usagers, l’IA et les algorithmes sont massivement utilisés pour recommander des contenus aux internautes. Car, «dans un univers d’abondance informationnelle où l’intérêt du consommateur est la ressource rare, la recommandation désigne l’ensemble des dispositifs visant à orienter l’internaute vers un contenu ou un ensemble de contenus particuliers. D’un point de vue économique, la recommandation facilite l’appariement de l’offre et de la demande sur des marchés de prototypes où existent de fortes asymétries d’information».

Il y a lieu ici de recommandations fondées sur des traitements purement humains (comme la recommandation éditoriale) et de recommandations basées sur des traitements automatisés algorithmiques. Ces derniers «peuvent être personnalisés grâce à des données d’usage, ou non personnalisés grâce à des analyses sémantiques de similarités de contenus».

Pour l’élaboration d’analyses de marché ou de prédictions, les acteurs ont uniquement besoin des données de consommation agrégées. Pour les outils de recommandation personnalisée, il est nécessaire de connaître les données d’usage de chacun des utilisateurs.

Dans l’audiovisuel, «les outils de recommandation ont des objectifs différents selon qu’il s’agit d’attirer le spectateur dans une salle de cinéma pour un film précis à un moment donné, ou de fidéliser, de manière récurrente, le téléspectateur sur une chaîne ou sur un service de vidéo par abonnement».

La plateforme Netflix s’est d’ailleurs notamment fait connaître par la puissance de son modèle de recommandation algorithmique personnalisée. Pourtant, au-delà de l’argument marketing, le dispositif proposé par Netflix est plus hybride qu’il n’y paraît, «puisqu’il mixe une recommandation algorithmique automatisée basée sur des données d’usage et une intense intervention humaine de qualification des contenus, afin de produire des métadonnées pertinentes».

 Dès lors, la puissance du modèle économique de la plateforme n’est pas liée à la seule force technique de son algorithme, mais à «l’intensité et à la qualité des données collectées sur les utilisateurs et sur les contenus, que seul un leader du marché, disposant d’une immense base de données, est en capacité de mettre en œuvre».

Sur le marché de l’art, la visibilité sur le web est devenue un enjeu crucial aussi bien pour les maisons de ventes aux enchères que pour les galeries, opérateurs historiques, ou pour de nouveaux intermédiaires qui se positionnent en mettant en relation les collectionneurs avec les galeries ou directement avec les artistes.

Les outils de recommandation tendent ainsi à «devenir de plus en plus hybrides, afin d’associer l’efficacité de préconisations personnalisées sur la base des usages de l’internaute et une qualification fine des contenus proposés».

Les stratégies adoptées sont différentes selon les entreprises. «Les plateformes dominantes disposent à la fois de la base utilisateurs et des moyens financiers nécessaires pour internaliser le développement d’outils de recommandation. D’autres vont piocher dans des bases de données existantes, s’appuient sur des développeurs extérieurs ou sur le rachat de pure players».

L’économie de la culture étant une économie de prototype, où l’incertitude sur la demande est particulièrement élevée, identifier les outils d’aide à la décision permettant de limiter la prise de risque, a toujours été au coeur de l’attention des professionnels. «Un petit nombre de productions attire en effet l’essentiel de la demande selon le modèle bien documenté de l’économie des superstars. L’exploitation de données, grâce à des algorithmes, redonne vigueur à l’ambition de prendre les décisions d’investissement adaptées et d’appuyer, voire de remplacer, les habituelles intuitions et expertises humaines par des analyses supposées objectives des déterminants du succès d’une oeuvre ou d’un artiste».

Outre l’analyse des tendances du marché, l’une des promesses de l’intelligence artificielle est de comparer, sur la base de l’exploitation de données historiques, les contenus ayant connu le succès avec ceux en cours de production, afin d’analyser les clés de la réussite et éventuellement de l’anticiper.

Rubrique «Lu Pour Vous»

04 août 2022

يمكنكم مشاركة هذا المقال