D’ici 2030, quelques centaines de milliards d'appareils de notre vie quotidienne (téléphones, tablettes, drones, voitures ou assistants personnels) seront connectés au réseau 5G pour dialoguer entre eux et stockeront les données collectées par leurs capteurs. L'extraction de valeur résidera donc dans notre aptitude à faire évoluer les modèles d’intelligence artificielle (IA). Victor Storchan, Senior Machine Learning Engineer pour une grande banque et Senior Advisor chez Altermind, et Gilles Babinet, conseiller numérique de l’Institut Montaigne, répondent à nos questions sur les conséquences de la 5G pour l’IA.
Pourquoi la 5G est elle une révolution dans la façon dont nos données sont collectées, en amont de leur traitement par les modèles d’IA ?
Victor Storchan
Dans sa forme actuelle, l’IA s’est nourrie d’un volume de données considérable, souvent agrégées sous l’impulsion des entreprises de l’Internet et de la numérisation. Ces données, pour l'essentiel (80 %) sont entreposées dans le cloud, une solution de stockage à distance dont les principaux acteurs sont américains.
Avec l'avènement imminent de la 5G, ce paradigme est sur le point de changer significativement. En effet, la 5G n’est pas un continuum technologique, comme le fut le passage incrémental de la 3G à la 4G. Cette technologie permet le déploiement d’une structure de calcul largement décentralisée au profit de l'Internet des objets, réorganisant la réalité du quotidien (voitures autonomes, assistants vocaux et capteurs en tout genre) et l’espace public (villes intelligentes, réseaux électriques optimisés, réseaux de santé, etc.). De ce fait, nos données migreront massivement du cloud vers un stockage local ou en périphérie (edge), c’est-à-dire proche de la source où elles ont été produites ou proche de l’objet qui en aura l’usage.
La 5G sera donc un facilitateur d’agrégation de données pour la plupart des industries qui n’avaient auparavant pas le luxe de pouvoir les collecter de façon massive afin de les analyser. De plus, cet éparpillement de l’information dans une masse d’objets connectés modifie sensiblement la nature des jeux de données. Ainsi, le nombre, le format ou le type des données qui serviront pour l'entraînement des modèles d’IA variera largement en fonction des préférences des utilisateurs ou des diverses options activées lors de la production de ces données. Il s’agit donc d’une transformation d’un environnement très centralisé, fournissant une qualité homogène de données, en une structure génératrice de edge data, c’est à dire de données par nature biaisées et incomplètes.
Gilles Babinet
Je ne peux que souscrire à ce point de vue ; le numérique est soumis de façon étonnante à une forme de cycle similaire à ce que décrivait l’économiste Nikolaï Kondratiev, c’est à dire un cycle de forte croissance suivi d’une période de dépression. Dans l’environnement numérique, la 5G et intelligence artificielle vont être les facteurs complémentaires d’une bascule profonde, posant de nouvelles opportunités en matière d’innovation, d’économie ou de social. Avec cent milliards d’objets connectés venant s’inscrire dans le réseau d’ici à quelques années, on conçoit assez bien qu’une explosion de données est sur le point de survenir. Ce chiffre impressionnant ne peut trouver sa concrétisation que dans le cadre d’un nouveau contexte technologique où la technologie 5G joue un rôle de premier plan. Ce sujet est loin d’être trivial car la technologie ne fait pas tout ; la capacité des acteurs économique à saisir la rupture de cycle pour créer de nouveaux modèles d’affaires, industrialiser l’inscription de ces objets sur les réseaux, en traiter le volume de données, les sécuriser, reste pour l’instant un défi à relever.
En quoi la 5G changera-t-elle la conception de nos futurs systèmes d’IA ?
Victor Storchan
Historiquement, les plateformes basées sur la publicité ciblée ont remporté la bataille des données personnelles. Technologiquement, ce modèle ne sera pas réplicable dans un contexte industriel qui utilise des données sensibles ou privées largement distribuées dans un réseau, et dont les enjeux de protection sont décisifs. L’Internet des objets, couplé aux nouvelles capacités de stockage local, doit permettre à l’utilisateur de garder le contrôle de ses données uniquement présentes physiquement dans ses appareils.
Des outils sont actuellement à notre disposition pour faire face à ces mutations. Par exemple, l’apprentissage transféré ou transfer learning a pour principe d’utiliser l’information initiale apprise par un algorithme pour la réutiliser sur un jeu de données de nature proche. Par exemple, les caractéristiques des bilans médicaux d’une population de jeunes adultes diffèrent de celles d’un échantillon de séniors. Une partie de l’information d’un modèle entraîné sur le premier groupe sera utile pour le second.
Ajouter un commentaire