Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
09/01/2024

2024 : les nouvelles frontières des pionniers du numérique

2024 : les nouvelles frontières des pionniers du numérique
 Jonathan Guiffard
Auteur
Expert Associé - Défense et Afrique

IA, ordinateur quantique, blockchain, protection des données, métavers & réalité augmentée, New Space, 5 ou 6 G, rivalités autour des semi-conducteurs : comment comprendre le paysage technologique mouvant de l’année qui s’ouvre, ses enjeux et les conséquences stratégiques, économiques ou sociales qui en découlent ? Nouveaux usages et redéfinition des menaces liées à la révolution numérique, tout le monde en parle, mais de quoi parle-t-on exactement ? Les réponses de notre expert, Jonathan Guiffard. 

Le 4 janvier 2024, le journal britannique Sky News annonçait la tenue, pour novembre, du premier spectacle holographique d’Elvis Presley, dont la gestuelle aurait été reproduite à l’identique grâce à une intelligence artificielle. Le 5 janvier, c’est la BBC qui évoquait le succès d’une intelligence artificielle jouant le rôle de psychologue.

Il n’y a plus une seule semaine sans que des innovations n’émergent dans les secteurs des technologies numériques et que les annonces se multiplient, certes pour attirer ou maintenir des financements et l’intérêt du public. Les grandes entreprises se font une concurrence impitoyable et les États investissent des montants considérables pour rester dans la course.

La multitude de nouvelles technologies et d’avancées tend à rendre floues les évolutions en cours, leurs réalités ou leurs promesses, leur état d’avancement ou leur utilité pour la société. Dans cet article de rentrée, je propose de décrypter et simplifier chacun de ces secteurs pour un panorama ludique aux frontières de ce voile numérique qui recouvre progressivement l’ensemble de notre monde.

L’IA générative : assiste-t-on à l’avènement d’un nouveau monde ?

La grande surprise de 2022 et 2023 qui ne cessera de nous émerveiller en 2024 est bien l’entrée de l’Intelligence artificielle générative dans les usages grand public. Allons-nous voir une percée vers l’IA générale capable d’apprendre de manière autonome ou l’apparition des premiers robots humanoïdes ou des fameux replicants de Total Recall ? La technologie avance vite, mais nous n’en sommes pas encore là.

L’IA, c’est d’abord un immense dictionnaire logique et nullement une intelligence.

Pour bien comprendre une technologie qui semble parfois relever de la magie, déjà envisagée dès les années 1950 par le célèbre mathématicien anglais, Alan Turing : l’Intelligence artificielle dite générative est un programme informatique complexe qui a été entraîné sur des volumes colossaux de textes ou d’images, lui permettant d’anticiper avec une grande probabilité des suites de mots logiques ou d’associer des mots entre eux ou avec des images.

L’IA, c’est d’abord un immense dictionnaire logique et nullement une intelligence (bien que les débats scientifiques et philosophiques soient acharnés pour définir ce qu’est l’intelligence humaine). Pour cette raison, on parle aussi de LLM ou Large-Language Model, autre terme pour dire que ces programmes sont entraînés sur des volumes gigantesques de données.

Ainsi, vue de cette manière, l’IA est un cerveau informatique avec des propriétés logiques et probabilistes simples mais une capacité de calcul hors-norme et un savoir de plusieurs millions de livres et de conversations en tête. Ce cerveau peut alors converser "comme" un humain et générer des réponses pertinentes, des travaux rédigés de qualité, des images nouvelles… De là à prendre le contrôle des machines et mettre fin à l’humanité, il y a encore un grand fossé. Si l’imagerie de la science-fiction nous aide à penser le futur, elle paralyse aussi le plus grand nombre pour comprendre et intégrer la réalité froide de ces nouvelles technologies.

Ces cerveaux informatiques sont nouveaux et ont ouvert des perspectives inédites pour renforcer la productivité des processus humains, personnels ou industriels. La révolution est là, car elle est avant tout industrielle. Elle prendra plus de temps à pénétrer les vies des citoyens, mais celles-ci risquent d’être rapidement modifiées par les changements opérés dans les entreprises et industries.

Naturellement, toute révolution impose un fossé entre ceux qui maîtrisent la technologie et les autres, que ce soit sur le plan économique (avance considérable des entreprises américaines comme OpenAI, Microsoft ou Google) ou stratégique (menaces nouvelles comme l’aide à la cybercriminalité ou à la désinformation de masse). Les entreprises européennes peinent à rattraper l’avance prise par les entreprises américaines, mais les autorités ont choisi de devancer leurs partenaires en régulant le développement de l’IA, prenant rapidement conscience des dangers. Les enjeux d’une IA sûre et digne de confiance avaient d’ailleurs fait l’objet d’une note d’action de l’Institut Montaigne en avril 2023. Bletchley Park, lieu iconique des efforts ayant permis de percer les communications nazies pendant la Seconde Guerre Mondiale (avec l’aide d’A.Turing), a d’ailleurs accueilli un premier sommet international, les 1 et 2 novembre 2023, qui sera prolongé à Paris en 2024. 

En revanche, si la force de ces IA vient de la puissance de calcul (deep-learning, machine-learning et réseaux neuronaux), leur valeur réelle et à venir réside désormais dans les banques de données qu’elles sont en mesure d’ingérer pour poursuivre leur apprentissage ou pour développer des cas d’usages spécifiques. La donnée était déjà l’or noir du monde numérique, désormais il s’agit de la denrée la plus valorisée.

À ce jeu, les entreprises américaines du numérique, GAFAM et autres, dominent le marché avec un avantage considérable dans la capitalisation de données clients : imaginez le volume de conversations dont disposent les entreprises de réseaux sociaux ! Rien de mieux pour entraîner un programme informatique à devenir un humain, avec ses tournures de phrases, ses fautes d'orthographes récurrentes et son comportement. La Chine l’a bien compris et poursuit le même objectif avec ses leaders (Baidu, Alibaba, Tencent…), sans grandes contraintes de régulation dans la collecte des données.

La donnée était déjà l’or noir du monde numérique, désormais il s’agit de la denrée la plus valorisée.

Les sauts à venir sont dès à présent palpables : 

  • les grandes entreprises intègrent déjà ces outils de gain de productivité, changeant progressivement la structure de l’économie et du travail ;
  • le développement d’IA de discussion, avec des personnalités, pour remplir des usages sociaux, de la petite amie informatique au psychologue personnel. À ce stade, aucune étude scientifique ne permet d’assurer que ces pratiques sont efficaces ou sans danger sur le plan social et psychologique, mais les expériences sont déjà là ; 
  • les entreprises et laboratoires de robotiques qui travaillent à intégrer de l’IA dans leurs robots pour se rapprocher de l’humanoïde, évoqué par la science fiction ;
  • l’utilisation de l’IA dans la chimie pour étudier et concevoir des molécules complexes, ce qui offre aussi la possibilité de concevoir des menaces bio-chimiques nouvelles ;
  • l’intégration de l’IA dans les technologies militaires pour accélérer et automatiser le traitement de données de masse, mais aussi dans la techno-criminalité : l’IA peut aider à coder des pièges informatiques de manière rapide ou peut générer des avatars complets de fausses personnes pour des opérations de manipulation. Ceci entraîne le développement de cyber-batailles "machine contre machine", l’attaquant et le défenseur étant programmé à l’aide de l’IA.

Le futur de l’IA est un gouffre qui demandera un saut important de l’humanité, raison pour laquelle il convient d’investir ce champ au plus vite sur les plans économiques, scientifiques et politiques, afin d’éviter de subir les innovations des entités ne partageant pas une vision démocratique et des valeurs libérales.

L’ordinateur quantique. Ce seul terme impressionne, dès lors qu’il adjoint à un mot banal, le terme de quantique, terme scientifique de plus en plus utilisé par la pop culture (voir les films Marvel) ou le marketing (voir la controverse entre Guerlain et le youtubeur Milgram).

Ici, il n’est pas question de marketing mais bien d’une utilisation adéquate du terme : l’ordinateur quantique est un ordinateur qui effectue des calculs via certaines propriétés de la physique quantique. Dans un ordinateur classique, l’information est stockée dans une série de bit, l’unité élémentaire en informatique (un 1 ou un 0, ce qui représente la variable vraie ou fausse ; électriquement allumé ou éteint). Dans un ordinateur quantique, elle est stockée dans un qubit, une nouvelle unité élémentaire qui peut être simultanément un 1 et un 0. Par cette propriété, une série de "n qubit" peut ainsi stocker plusieurs informations simultanément (soit 2n), ce qui permet schématiquement à un ordinateur quantique d’effectuer un grand nombre de calculs simultanés. La puissance de calcul théorique d'un ordinateur quantique double à chaque fois qu'on lui adjoint un qubit (par comparaison, un ordinateur classique, la puissance de calcul double lorsque le nombre de bit double - 8 bits à 16 bits, 16 bits à 32 bits…).

La difficulté est de réussir à construire et stabiliser durablement un qubit, ce qui est un processus scientifique et industriel complexe. Aujourd’hui, les ordinateurs quantiques possèdent environ 100 qubits. Il faudrait plusieurs millions de qubits pour en faire de véritables ordinateurs. Pour cette raison, les entreprises et laboratoires qui développent ces ordinateurs estiment que les premiers ordinateurs quantiques stabilisés seront disponibles dans une dizaine d'années, seuil temporel jugé relativement incompressible.

Contrairement à une croyance répandue, il ne s’agit pas d’un accroissement gigantesque de la puissance de calcul (comme un supercalculateur), mais d’une nouvelle méthode de calcul, simultanée et ultra-rapide, qui ne fonctionne que pour des usages précis et limités. 

L’un des usages les plus connus est la cryptographie et le chiffrement/déchiffrement des données. En effet, le calcul quantique serait en mesure de réaliser des calculs mathématiques susceptibles de casser l’ensemble des standards de cryptographie publique (commerciaux comme les messageries chiffrées, mais aussi certains standards militaires). Dans ce cadre, la période actuelle est jugée à risque sur le plan stratégique, car des États sont déjà dans une logique de "collecter maintenant, déchiffrer plus tard". La Chine se positionne ainsi sur ce secteur technologique avec des investissements importants, mais, en plus de leurs investissements dans la technologie quantique, les États-Unis n’ont pas construit en 2012 le plus grand datacenter de la NSA dans l’Utah pour rien. Au regard des coûts industriels colossaux et de la main-d'œuvre qualifiée nécessaire, seuls les États-Unis, le Japon, la Chine, l’Australie, le Royaume-Uni, le Canada, la France, l’Allemagne et les Pays-Bas sont sur la voie.

À la différence des gouvernements parfois dépassés par les sauts technologiques, les mathématiciens du monde entier n’ont pas attendu pour travailler dès à présent sur des nouveaux standards de chiffrement post-quantiques. Ces standards permettent, avec les technologies actuelles, de se protéger d’un futur déchiffrement quantique. Le NIST, l’administration américaine en charge de la définition de ces standards, a homologué 4 algorithmes comme standards proposés par des chercheurs. Là encore, les spécialistes estiment qu’il faut environ une dizaine d’années pour transitionner vers un monde numérique post-quantique et appellent les entreprises et administrations à démarrer dès à présent cette transition qui sera longue et coûteuse.

La technologie Blockchain continue d’être développée et utilisée pour des usages commerciaux, notamment dans le domaine de la cybersécurité, bien que son principe reste toujours mystérieux pour le profane. L’Institut Montaigne en parlait en juin 2023 avec son rapport Blockchain : consolider nos atouts.

Pour le dire de manière simple, la blockchain est une base de données informatique partagée par un très grand nombre d’utilisateurs (c’est-à-dire d’ordinateurs). Chaque modification apportée à cette base est contrôlée avec l’ensemble du réseau pour en assurer la fiabilité. Ainsi, chaque modification est "validée" et "traçable" informatiquement par au moins la majorité des fichiers détenus par les utilisateurs, ce qui donne une très grande fiabilité à la base de données, limite largement les risques de manipulation du fichier informatique et permet ainsi d’éviter la nécessité d’un tiers de confiance, centralisateur et garant de l’intégrité de la base. La base de données partagées (souvent via le protocole décentralisé p2p) est aussi sécurisée par des algorithmes cryptographiques qui limitent encore plus les tentatives de manipulation de l’intégrité du fichier.

L’usage le plus courant que l’on a développé à partir de ce principe a été la cryptomonnaie, une monnaie décentralisée. En effet, par le principe décrit plus haut, il est possible d’avoir une base de données partagée et fiable qui enregistre tous les comptes et portefeuilles des utilisateurs, ainsi que toutes les transactions, sans risque de modification de la base de données et sans nécessité de banque comme tiers de confiance centralisateur. En absence d’une institution bancaire centralisatrice, on enlève l’intermédiation financière, ce qui supprime ces coûts et ce qui rapproche les anarchistes et libertaires de la réalisation d’un idéal de complète décentralisation.

Le secteur des cryptomonnaies reste encore très mal perçu, en raison de différents scandales (facilité de paiement pour la criminalité, arnaques et pyramide de Ponzi, vols par cyberattaques, idéologie ultra-libertaire) qui nécessitent aujourd’hui un effort de régulation (comme tout marché monétaire). En revanche, ces scandales n’ont rien à voir avec la technologie blockchain en tant que telle. Celle-ci reste un moyen de fiabiliser des données de manière décentralisée, ce qui en fait une technologie très utile pour sécuriser des informations de toute nature. Parmi ses usages d’intérêt, les contrats signés et garantis numériquement ou l’assurance de la propriété privée d’un objet numérique.

Dans l’état d’esprit de la blockchain, des entreprises travaillent à sécuriser les données des individus et des entreprises pour permettre un usage utile, en respect de la vie privée et des différentes réglementations apparues ces dernières années (RGPD, DSA). Dans ce cadre, deux technologies apparaissent comme innovantes et prometteuses : l’edge-computing et la protection de données par cloud sécurisé.

L’edge-computing correspond schématiquement à une technologie de calcul et d’exploitation de données qui se fait au plus près du lieu de stockage des données, sur le réseau informatique, n’imposant pas un transfert non sécurisé de ces dernières. Par cette technologie, prévue initialement pour accélérer la latence et la bande passante disponible pour le calcul, la sécurité des données peut aussi être mieux garantie. Certains experts contestent cette assertion : 

  • la sécurité peut être renforcée, mais selon les infrastructures ou technologies edge étudiées, ce n'est aujourd'hui pas toujours le cas ;
  • stocker les données à la périphérie du réseau ou sur certains matériels dédiés peut apporter ses propres problèmes de sécurité, notamment la pénétration dans ces systèmes ou le vol de petits matériels dédiés contenant les données.

Pour sa part, la protection par cloud sécurisé mêle plusieurs technologies ou idées : il s’agit de chiffrer vos données, de fragmenter ce(s) fichier(s) et de le répartir sur des clouds sécurisés différents. L’absence de détention de tous les fragments rend le déchiffrement impossible et donc limite fortement le risque en cas de vol de données. 

Pour pousser les limites de ces processus, certaines entreprises travaillent à des solutions de calcul et d’exploitation de ces données dans un environnement qui reste chiffré (chiffrement homomorphe). Ainsi, les données ne seraient jamais sorties de leur état chiffré et le calcul serait réalisé dans cet environnement chiffré, limitant l’exposition au risque.

Ici, on voit bien que la course aux innovations est forte et représente un enjeu stratégique déterminant pour les entreprises. La très forte prévalence des attaques informatiques impose ce cycle d’innovation défensive.

Jusqu’à présent, les annonces relatives aux Métavers et aux technologies de réalité augmentée ont été plutôt des échecs. L’entreprise Meta a été la risée du secteur lors de la première démonstration de son Métavers. La technologie ne semblait pas au point et même naïve, l’intérêt des utilisateurs limité et l’expérience client carrément négative, notamment pour les femmes, victimes d’emblée des pires travers du monde numérique (harcèlement).

L’année 2024 pourrait-elle sonner l’émergence de technologies plus matures et stabilisées ? Si certaines entreprises semblent avoir jeté l’éponge, d’autres avancent rapidement. 

Qu’entend-on par ces technologies ?La réalité augmentée est la superposition d’informations et d’applications numériques sur les sens d’un individu, à ce stade par des lunettes et demain, pourquoi pas, par des lentilles ou des implants cybernétiques (un certain Elon Musk travaille beaucoup dans ce domaine). En vous déplaçant, vous pourriez par exemple imaginer observer les avis clients des restaurants devant lesquels vous marchez, vous laissez guider par des flèches GPS ou recevoir vos notifications dans le coin de l'œil. Avec la réalité augmentée, le voile numérique s’impose à notre réalité. Les fantasmes de la culture pop cyberpunk et de la science-fiction pourraient devenir rapidement réalité.

Le Métavers, pour sa part, correspond à une immersion sensorielle et décisionnelle complète dans un univers numérique tiers. L’inverse de la réalité augmentée.Ici, vous ne bougez plus de votre lieu physique et vous êtes transportés dans un monde à part. L’avatar qui vous représente évolue dans ce nouveau monde numérique et tous vos sens ressentent cet univers. Il s’agit de l’équivalent d’un jeu vidéo en ligne pour lequel votre écran est remplacé par un casque et d’autres matériels permettant de procurer des sensations réelles (gants haptiques, tapis de déplacement, combinaison). Le film Ready Player One de Steven Spielberg est encore le meilleur moyen de se représenter ce qu’est la technologie Métavers.

La réflexion sur les usages se poursuit, mais pour l’heure, les technologies ne sont pas encore assez matures pour permettre une expérience sensorielle optimale, ce qui est le but recherché. La réalité virtuelle impose encore désorientation, fatigue sensorielle et difficulté à retranscrire les sensations supposément ressentis. De plus, les grandes entreprises n’ont pas encore fait émerger des usages industriels ou commerciaux justifiant les investissements gigantesques que nécessitent la construction d’un ou plusieurs univers parallèles immersifs. Les jeux vidéos ne suffisent pas.

L’espace représente la nouvelle frontière, dans l’imaginaire pionnier américain. Alors que l’espace a été conquis depuis les années 1950 (fusées, satellites militaires, puis de télécommunication, alunissage…), une nouvelle ruée vers l’or est en cours actuellement pour la conquête des orbites basses (et pas seulement, la Lune et Mars restant aussi des objectifs de moyen-terme). L’espace devient contesté, raison pour laquelle les États se dotent désormais de commandement militaire de l’Espace (voir la Space Force américaine ou la série comique afférente). En effet, la limite de raison du niveau d’investissement de l’espace extra-atmosphérique impose une course de rapidité pour prendre position sur des denrées rares mais profitables (orbites, fréquences). Il n’y aura pas de place pour tout le monde.

Ainsi, particulièrement publicisé par le succès de SpaceX (fusées réutilisables) et de Starlink (constellations de satellites de communication), le New Space est un secteur très innovant, à horizon limité. Winner takes (almost) all! Les lanceurs ultra-rentables de SpaceX ont mis en grande difficulté financière les programmes étatiques habituels, Ariane notamment, l’entreprise d’Elon Musk offrant un service rentable à de nombreux pays et entreprises souhaitant déployer leurs satellites. Starlink a ouvert la voie des constellations de nano-satellites de communications, moins coûteuses et permettant de proposer une offre commerciale accessible aux entreprises et particuliers dans des zones mal-couvertes.

L’Union européenne a décidé de poursuivre, avec retard, le même projet avec la galaxie Iris2. Rien ne garantit qu’elle parviendra à concurrencer Starlink sur un plan commercial, mais ses responsables travaillent à limiter les dépendances européennes aux technologies critiques étrangères.

La dimension stratégique de l’espace, claire pour les États depuis la guerre froide, a repris toute sa place dans les consciences avec plusieurs évènements récents qui forcent les gouvernements à réfléchir vite pour ne pas se laisser dépasser. La cyberattaque russe contre le satellite Via-Sat, au lancement de l’invasion russe de l’Ukraine du 24 février 2022, a montré la grande fragilité de l’espace dans un contexte numérique. L’espace numérique a aussi une dimension extra-atmosphérique. Les rapprochements constatés de satellites américains ou russes, dans l’espace après leur déploiement, signalent des tentatives d’espionnage ou de sabotage de proximité. Le développement d’armes antisatellites par la Chine et la Russie soulève la question de la résilience des moyens militaires spatiaux (communication, surveillance) en cas de conflits. Le New Space est bien un nouvel espace de rivalités commerciales et stratégiques.

Enfin, à l’image de la course à la puissance de calcul décrite ci-dessus, tout cela ne serait pas possible sans le développement constant de nouvelles technologies de télécommunication permettant de fournir un débit de données suffisant pour soutenir le développement et le déploiement de toutes ces nouvelles technologies connectées.

Si Starlink permet de fournir Internet aux habitants isolés du Nunavut, comme expliqué ici, les débits spatiaux restent faibles et si les câbles sous-marins continuent d’être construits pour relier rapidement les continents avec du très haut débit, c’est bien la technologie 5G qui va soutenir cette expansion tout azimut de l’espace numérique dans nos sociétés.

Tout le monde en a entendu parler, mais peu ont compris le changement d’échelle. Le passage de la 4G à le 5G ne signifie pas seulement que vous pourrez regarder vos vidéos Youtube en résolution 4K, mais que la transmission de données se fera de manière décentralisée à une vitesse considérable et sur des fréquences permettant un débit gigantesque. La 5G permet l’avènement réel de l’Internet des objets (IoT), soit la numérisation progressive des objets, en commençant par les industries et leurs chaînes de production et de logistique, puis en continuant par les lieux de vie individuels.

Alors que les leaders de la 2G et de la 3G étaient des entreprises de télécommunications européennes (Nokia, Alcatel) ou américaines (Qualcomm, Motorola), celles de la 4G et de la 5G se sont raréfiées et ont vu apparaître la concurrence de Huawei, le géant chinois fortement subventionné par le gouvernement. Le développement de la 6G est déjà en cours et, pour l’heure, Huawei apparaît comme la seule entreprise viable dans le domaine. Or, la décentralisation de la technologie 5G est permise par une numérisation complète du réseau, ce qui accroît considérablement la surface numérique d’attaque et les vulnérabilités informatiques sur le réseau. Les cyberattaques vont se multiplier.

Ainsi, si aujourd’hui, les grandes entreprises de télécommunications sont visées par les attaques informatiques, leurs cœurs sont les "seules" cibles à défendre. Demain, il faudra défendre l’ensemble de la surface numérique et un adversaire disposant de vulnérabilités connues ou pré-installées par ses soins aura des avantages considérables. Pour cette raison, les Américains ont lancé une croisade contre Huawei depuis 2018 et travaillent à convaincre leurs alliés et partenaires de rejeter cette technologie pour éviter d’offrir des avantages aux forces cyber de la Chine.

À la fin, la technologie, même commerciale, reste un enjeu stratégique pour les États. Telle est la nature de la géopolitique et des rivalités internationales.

À la source de l’ensemble de ces technologies se trouve une technologie datant des années 1970 : les puces informatiques ou semi-conducteurs. La compétition technologique et le retour des tensions internationales a mis en lumière l’importance de ce nœud, de ce point de passage obligé pour repousser les frontières actuelles de la technologie. Or, la quasi-totalité des semi-conducteurs produits dans le monde disposent de technologies américaines dans leur conception. Pour cette raison, les États-Unis ont lancé une guerre commerciale et scientifique pour priver la Chine de cette technologie, la forçant à devoir développer de manière autonome cette technologie ancienne et à mettre en œuvre des circuits d’acquisition clandestins et détournés, nécessairement moins rentables. L’objectif des États-Unis est de freiner l’avance technologique chinoise et de la contraindre à modifier son attitude géopolitique à l’égard de ses voisins, notamment Taiwan (qui était le premier producteur mondial de semi-conducteurs jusqu’alors).

La technologie, même commerciale, reste un enjeu stratégique pour les États. Telle est la nature de la géopolitique et des rivalités internationales.

La Chine a été durement touchée par cette stratégie, mais elle pourrait avoir le même raisonnement par rapport à un autre nœud où elle a l’avantage : les terres rares, essentielles pour la conception industrielle de ces technologies et pour lesquelles la Chine est en situation de quasi-monopole de production. Ce mexican standoff risque de continuer longtemps, car aucune des deux puissances ne baissera son arme, et débordera nécessairement sur le reste de la planète : la course aux terres rares en Afrique est une conséquence directe de ce duel des deux puissances. Tout est lié.

Copyright image : Brendan Smialowski / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne