Aller au contenu principal
En ce moment
Exemple : Education, Europe, Santé

Environnement : ce que les big datas et le machine learning ont à offrir

ARTICLES - 21 Octobre 2020
Les points clés
1

Les big datas et les différentes familles de machine learning sont des outils de premier plan dans la lutte contre le réchauffement climatique en permettant de saisir la complexité du réel et en faisant apparaître des facteurs qui étaient auparavant invisibles.

2

L’agriculture est un exemple où les outils numériques rendent possible la recherche de relations causales entre une multiplicité de facteurs. Il en va de même pour le secteur de la mobilité ou encore celui de la gestion des supply-chains.

3

Pour progresser, des politiques de partage de données doivent être mises en place et, dans le même temps, des mécanismes incitant les acteurs à mesurer et contrôler leur impact environnemental, tel que le dividende carbone.

À l’occasion du lancement de la 5G, nous avons vu l’émergence d’un débat entre les pro- et les anti-5G, qui à bien des égards a surtout été révélateur d’une faible compréhension de ce qu’est cette technologie et ce que sont ses externalités. Il a aussi montré combien nous sommes aujourd’hui peu outillés pour rentrer dans un monde où l’environnement devient un facteur surdéterminant des politiques publiques comme de nos actions quotidiennes.

Gérer la complexité et l’invisible

La gestion du réchauffement climatique doit composer avec des éléments complexes et invisibles. Complexes, car l’environnement, comme la 5G, est massivement multifactoriel. Cela n’a pas beaucoup de sens d’isoler une variable de son environnement. Les modélisations y requièrent donc des modèles d’un paradigme nouveau. Invisibles car, comme les rayonnements électromagnétiques de la 5G, le CO2 est invisible - ce qui peut pousser des personnalités comme Trump à nier l’existence du réchauffement climatique.

La vraie rupture sera d’arriver à modéliser, puis à interagir avec des environnements [...] où des centaines de paramètres de nature très hétérogène sont à prendre en compte.

Pour faire face à ces enjeux, le numérique et en particulier les big datas et les différentes familles de machine learning, ont un fort potentiel. Car ces disciplines ont deux caractéristiques qui semblent importantes à rappeler : elles savent gérer la complexité et elles permettent de faire apparaître l’invisible. 

Un exemple marquant : l’agriculture

Il y a actuellement une immense réflexion à l’échelle de la planète sur ce que pourrait être un modèle agricole vertueux.

Est-ce une agriculture biologique sans intrant ? Est-ce une agriculture intensive ? Une agriculture dite de préservation ? Comment réduire l’empreinte environnementale de l’agriculture - qui représente environ 20 % des émissions de gaz à effet de serre (GES) -, tout en produisant de façon qualitative ? Comment limiter les captations d’eau ? Comment développer une meilleure connaissance de l’érosion et mieux la maîtriser ? Quelles sont les émissions de polluants divers ?

Face à cette complexité, les méthodes traditionnelles butent sur nos limites cognitives. Beaucoup d’agronomes à travers le globe pensent que la robotisation, et plus largement l’agriculture de précision, vont permettre le saut productif, quantitatif et qualitatif, qu’il faut impérativement effectuer pour nourrir la planète qui se dessine d’ici 2050, sans empoisonner plus encore notre écosystème. 

Mais en allant plus loin, la vraie rupture sera d’arriver à modéliser, puis à interagir avec des environnements massivement multifactoriels où des centaines de paramètres de nature très hétérogène sont à prendre en compte. Et pour cela, nos approches spécialisées ne sont plus adaptées. Cela est vrai dans beaucoup d’autres univers (smart city, supply chain, ...). Il s’agit là d’une rupture de paradigme forte, qui devrait nous pousser à repenser nos systèmes éducatifs, académiques, nos modes de production, notre organisation administrative, notre façon de construire le consensus politique, etc. 

La complexité des environnements urbains et des supply-chains 

Par exemple, nos environnements urbains font également face à des défis de complexité. Les villes émettent directement ou indirectement 60 % des GES à l’échelle mondiale. Or, les écoles ne sont occupées que 20 % du temps, les immeubles de rapport 30 % du temps, les transports publics sont pleins à 130 % durant moins de 10 % du temps total.

Le rapport entre les flux, les stocks et les infrastructures est largement déficient et, en réalité, mal appréhendé. On pourrait faire beaucoup mieux, généralement avec une meilleure compréhension de ces facteurs nombreux et interdépendants. Par exemple, avec l’aide de l’intelligence artificielle, on pourrait repenser l’enjeu de la rénovation énergétique, où des systèmes experts seraient à même d’indiquer de façon optimale les techniques les plus adaptées, immeuble par immeuble et en fonction des caractéristiques propres de la construction, pour le meilleur résultat possible à moindre coût.

Si nous voulons pouvoir utiliser le potentiel du big data et des machines learnings, il faut des données, beaucoup de données.

Aujourd’hui, ce qui mine largement l’efficacité de ces politiques de rénovation énergétique, c’est le spécifique, dans la mesure où les corps de métiers, les bâtiments, les rénovations, les traitements administratifs ont chacun des critères très distinctifs. Au delà, il manque un accès aux données permettant de mettre en œuvre ces nouvelles approches, et évidemment les compétences adaptées pour construire ces dispositifs. 

Dans les supply-chains qui, rappelons-le, sont responsables de près de 70 % de l’empreinte des environnements productifs, on pourrait faire de même. Selon la Commission européenne, entre 2000 et 2017, le taux de remplissage des camions dans l’espace de l’Union a crû de 14 % ; a-t-on jamais songé que cette augmentation ne peut avoir d’autre origine que celle des systèmes d’information, autrement dit d’Internet ? L’enjeu de demain est d'accroître largement leur résilience, de réduire l’empreinte environnementale de celles-ci en ayant un approvisionnement plus traçable.

La question des données 

Au préalable, et c’est une évidence, si nous voulons pouvoir utiliser le potentiel du big data et des machines learnings, il faut des données, beaucoup de données. Or, il est étonnant d’observer combien la situation est différente d’un univers à l’autre. Dans certains domaines, comme le transport aérien, cela fait plus de vingt ans que les données ont été totalement "plateformisées". Les identifiants d’un avion, de ses paramètres de vol, nos réservations... Toutes ces données ont été normalisées au niveau mondial et sont partagées à cette échelle. Mais dans l’agriculture, c’est le contraire : la donnée est opacifiée, surtout parce que cela sert l’intérêt d’acteurs de rente. Régulièrement dénoncés par les associations de consommateurs et les syndicats de défense des agriculteurs, ils sont caractéristiques de marchés où des intermédiaires réussissent à créer des situations de rente, du fait même de l’opacité qui règne dans l’intermédiation de ce type de produit. 

Le dispositif le plus efficace me semble être le dividende carbone, [...] consistant à introduire une taxe carbone débutant à 50€ la tonne sur l’ensemble de l’activité économique de l’Union européenne.

Dans les environnements urbains, ceux de la mobilité par exemple, ce sont très largement les plateformes américaines qui détiennent les données. Or, ces données ont une vocation potentielle d’intérêt général qu’il est difficile à nier. Il faut en tirer les conséquences, pour que l’on puisse accéder à ces données sans que seuls des acteurs privés puissent développer des services innovants à partir de celles-ci. Dans les supply-chains, il reste un important sujet d’harmonisation, tout comme dans les environnements industriels. Il faut pousser les acteurs à cette harmonisation, gage de souveraineté, de résilience et de performance économique.

Inciter à la prise en compte des externalités négatives

L’enjeu de régulation ne s’arrête pas là : il doit aussi veiller à ce que les externalités apparaissent clairement et soient associées à un coût qui permette de les limiter tout en suscitant l’innovation. Le dispositif le plus efficace me semble être le dividende carbone défendu par l’Institut Montaigne, consistant à introduire une taxe carbone débutant à 50€ la tonnesur l’ensemble de l’activité économique de l’Union européenne. Cette taxe s’appliquerait aussi aux produits importés et son produit serait intégralement reversé à chaque foyer européen. Ainsi, pour les Français, qui émettent environ 7 tonnes de CO2 par an, elle rapporterait à l’État environ 350 euros par personne, à répartir au sein de la population : les gros consommateurs de carbone y perdraient, les plus frugaux y gagneraient. 

Par ailleurs, cette taxe aurait un important bénéfice compétitif pour l’Union. Celle-ci est déjà la plus avancée des grandes économies en matière d’émissions par unité de PIB, avec 0,18 kg de CO2 généré par dollar de richesse produite, là où les États-Unis sont à 0,32 kg/$ et la Chine à 0,59 kg/$. 

Peut-elle se permettre de faire cavalier seul dans ces conditions ? Non seulement elle le peut, mais encore elle le doit car, ce faisant, elle entraînerait mécaniquement tous ceux qui souhaitent y exporter. Le marché européen, d’une taille comparable à celui du marché américain et bien supérieur à celui de la Chine, ne peut être évité. 

Positionner l’Europe

Le marché européen, d’une taille comparable à celui du marché américain et bien supérieur à celui de la Chine, ne peut être évité.

C’est dans le cadre de ce rétablissement compétitif que l’Union européenne pourrait conserver son avantage environnemental. Pour cela, il faut cependant que, fort de cette capacité nouvelle de comprendre son environnement par les données, l’on crée une régulation pour aplanir le "niveau de jeu" et limiter les situations anti-compétitives, ainsi que revoir les politiques industrielles pour favoriser ces filières intégrant les externalités.

L’enjeu des compétences ne peut pas non plus être évité. Cela inclut plus de codeurs, certes, mais également plus de transdisciplinarité pour faire face à un environnement consubstantiel de la complexité et massivement multi-factoriel. Ce facteur semble secondaire : il est pourtant central. Ce qui tarde à apparaître, ce sont des curriculum universitaires qui tiennent compte de cette réalité : nous avons besoin d’écoles d’ingénieurs, de techniciens, de climaticiens qui disposent d’une formation en code et en utilisation de données, mais aussi de data scientists avec une formation politique, et de chaires de recherches liées aux modèles multivariés. C’est à ce prix que l’on peut espérer comprendre et agir sur le monde qui vient où, encore une fois, l’environnement sera un facteur central. 

 

Copyright : ALEX WONG / GETTY IMAGES NORTH AMERICA / Getty Images via AFP

 

A voir aussi
  • Commentaires

    Ajouter un commentaire

    À propos des formats de texte

    Commentaire

    • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type='1 A I'> <li> <dl> <dt> <dd> <h2 id='jump-*'> <h3 id> <h4 id> <h5 id> <h6 id>
    • Les lignes et les paragraphes vont à la ligne automatiquement.
    • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
    • Seules les images hébergées sur ce site peuvent être placées dans une balise <img>.

...

Envoyer cette page par email

L'adresse email du destinataire n'est pas valide
Institut Montaigne
59, rue la Boétie 75008 Paris

© Institut Montaigne 2017