Auteur/autrice : Rémi Bourgeot

  • Face à la vassalisation de l’Europe, sursaut ou postures ?

    Face à la vassalisation de l’Europe, sursaut ou postures ?

    Le niveau de vassalité révélé par l’accord entre Ursula von der Leyen et Donald Trump a initié une prise de conscience de l’impasse économique, technologique et politique dans laquelle se trouve l’Union européenne face aux Etats-Unis. Cette dérive supplémentaire de la présidente de la Commission ouvre une crise existentielle pour l’UE.  

    L’imposition unilatérale de droits de douane américains à la production européenne marque les esprit. En réalité leur niveau général de 15 %, relativement modéré, résulte de concessions bien plus massives consenties par la Commission européenne. L’UE s’engage à continuer à creuser ses dépendances sur un ensemble de dossiers. Pour sauver le fragile statu quo industriel de secteurs ultra-exportateurs, en Allemagne en particulier, elle compromet son avenir technologique. L’Europe renonce à toute velléité d’autonomie en matière numérique, militaire, et énergétique, dans la continuité du dernier sommet de l’OTAN. Derrière la menace de chaos, Donald Trump parvient ainsi à imposer, en plus d’un nouveau paradigme de protection douanière, unilatérale, une logique bien plus vaste de domination économique – et géopolitique – sur les pays déjà les plus alignés. 

    De nombreux politiciens européens expriment leur embarras face à la révélation au yeux du grand public de l’impasse dans laquelle s’est enfermée l’UE. L’appel de certains d’entre eux à la mise en place de contre-mesures sur le secteur numérique américain fait l’impasse sur le stade et l’ampleur réelle de la capitulation européenne. En échange de droits de douane de moitié inférieurs à la menace de 30 %, la Commission a justement donné la garantie à Donald Trump d’abandonner toute politique réelle de concurrence technologique.  

    Au vu de l’excédent commercial allemand sur les Etats-Unis, une véritable politique de rééquilibrage ciblée, par les droits de douane ou des investissements, aurait été légitime. Les Européens auraient du accepter le principe et les moyens techniques d’un tel rééquilibrage commercial, mais sans aucune compromission sur l’idée d’une vassalisation généralisée, qui engage les générations futures. Une approche sereine aurait abouti à des droits de douane (bas), sans aucune concession supplémentaire en matière de politique d’autonomie technologique, militaire et énergétique. En se focalisant exclusivement sur les intérêts immédiats des industries ultra-exportatrices et sur les injonctions américaines les plus maximalistes, la perspective irréaliste de droits de douane à 30 % dans la durée à amener Ursula von der Leyen à saborder le potentiel technologique de l’UE.  

    Ainsi, l’impasse dans laquelle s’est enfermée l’Europe s’avère plus profonde que cet accord commercial humiliant. Elle concerne le mode de gouvernance, la bureaucratisation extrême, la soumission aux groupes d’intérêt et la régurgitation d’idéologies américaines génériques par tous les courants politiques, de l’extrême droite à l’extrême gauche en passant par l’extrême centre. Les Etats-Unis se redressent progressivement de leur débâcle industrielle, malgré leur crise éducative et culturelle, en mobilisant leurs forces historiques. Cette capacité de rebond repose notamment sur les moyens financiers qu’ils offrent aux forces créatives et scientifiques. A l’inverse, l’Europe prend le pli de copier les aspects les plus néfastes de la gouvernance et de la culture de masse américaine, sans les qualités d’un système qui se donnent les moyens scientifiques de sa puissance. Face à la déroute industrielle, les États-Unis entament une amorce de réindustrialisation, grâce en particulier à la faiblesse des coûts énergétiques. A l’inverse, la Commission exporte le chaos de la politique énergétique allemande aux pays qui bénéficieraient encore d’une infrastructure énergétique rationnelle et, désormais, en promettant des importations massives de LNG américain à des prix prohibitifs. 

    Alors que l’affaissement de la position européenne étaient criant depuis de longs mois, les représentants d’organismes américains de Bruxelles, comme le site « Politico Europe », défendaient avec une étonnante âpreté la position de la Commission, lui prêtant même des vertus de force et d’unité. Ces négociations factices ont en fait permis d’entériner l’écrasement européen face aux intérêts des groupes américains. Au-delà de la forme et du style particulier de Donald Trump, la politique internationale des Etats-Unis est largement transpartisane. L’Inflation Reduction Act de l’administration Biden constituait déjà une vaste politique protectionniste au bénéfice de la réindustrialisation américaine. La faible connaissance des réalités européennes et mondiales parmi les gouvernements de l’UE a ouvert la voie au vide de la Commission von der Leyen, mêlant soumission sur la scène internationale et autoritarisme en interne.  

    Davantage qu’un simple outil de rééquilibrage commercial, Trump conçoit les barrières douanières comme un mode de sanctions. C’est d’ailleurs au vu de l’escalade des derniers mois avec la Chine, qui lui a tenu tête, qu’il s’est focalisé sur les pays les plus inféodés aux Etats-Unis, dans un contexte géopolitique désastreux. C’est notablement le cas sur le dossier de Gaza, sur lequel l’UE refuse de peser, prenant à la lettre les intimidations américaines. On a pu constater les limites des mesures économiques dans le cas d’un pays comme la Russie, au territoire gigantesque et autonome en termes de ressources. A l’inverse, dans le cas d’Israël, l’UE disposait de leviers évidents et immédiats, pour mettre fin à une politique d’annihilation dans son voisinage, si elle disposait d’une velléité d’autonomie et d’une conscience historique. Bien plus qu’une simple question de stratégie dans les négociations internationales, l’affaissement politique européen renvoie à une crise de civilisation. 

    Cette tribune a été initialement publié par l’Institut de relations internationales et stratégiques (IRIS).

  • L’Europe brade son avenir face à Trump

    L’Europe brade son avenir face à Trump

    Je suis intervenu hier sur France Info TV : Derrière la menace de chaos, Trump parvient à imposer un nouveau paradigme de protection douanière, unilatérale. Ces tarifs sont certes modérés, mais accompagnés d’une litanie d’exigences consistant à creuser les dépendances de ses partenaires en matière numérique, militaire et énergétique. L’Europe brade son avenir technologique pour sauver les meubles de ses exportateurs historiques.

    Cliquer sur l’image pour visionner la vidéo.

  • Trump impose son rapport de force à ses vassaux

    Trump impose son rapport de force à ses vassaux

    Sur France Info TV, au sujet du rapport de force économique et technologique que Donald Trump cherche à établir avec les pays les plus alignés sur les Etats-Unis, au moyen de la politique douanière.
    Extraits

  • World Economic Fiasco : le crépuscule de Davos

    World Economic Fiasco : le crépuscule de Davos

    Atlantico : La fin de l’ère Klaus Schwab marque-t-elle une rupture définitive pour le Forum économique mondial, où ce dernier peut-il trouver un second souffle sans renier son ADN ?

    Rémi Bourgeot : Schwab était capable de sentir les enjeux liés aux failles béantes du système dont il était lui-même l’un des hérauts. Pour autant, cette approche a été contredite par son propre cadre social. Au-delà du présent scandale, l’ébranlement de la structure managériale et gouvernementale, dans les pays occidentaux en particulier, nourrit une aggravation de fond dans la perte de sens. On observe une poussée vers davantage d’entre-soi événementiel, qui se substitue à la notion-même d’élite et de leadership, affectée par la baisse du niveau éducatif et culturel.

    Avec sa faille économique liée à l’éclatement des chaînes de production, en vue d’une optimisation bureaucratique qui vire à la tragédie industrielle, et un secteur tertiaire qui s’est éloignée de la notion de productivité, l’idée-même de gouvernance mondiale s’est heurtée à la question plus fondamentale de la compétence. Schwab a pensé pouvoir proposer un aggiornamento de la gouvernance mondiale, menacée d’éclatement, face aux leaders populistes certes, mais surtout face à ses contradictions internes. Pour autant, le concept a muté, dans un contexte de vulnérabilité intellectuelle, pour se prendre au jeu de la guerre culturelle et de l’événementiel.

    Davos n’est que la pointe émergée, la plus mondaine, de l’iceberg. La prolifération d’officines improbables, en particulier américaines, qui prétendent offrir un horizon aux cadres, est le symptôme d’une crise de sens plus profonde. Dans un monde occidental qui s’est détourné de l’horizon de réalisations tangibles, les pays les plus désindustrialisés en sont les proies les plus évidentes. Au niveau européen, les grands groupes français s’avèrent particulièrement vulnérables à ce phénomène de conditionnement, sur fond de prestations de voyage aux quatre coins du monde.

    Christine Lagarde représente-t-elle une véritable option de leadership pour incarner la transition du WEF, ou son nom cristallise-t-il un vide stratégique plus large au sein de l’institution ?

    Au-delà des rumeurs spéculatives sur telle ou telle personne, on voit dans de nombreuses institutions une substitution de l’analyse et de l’innovation par une gestion davantage centrée sur la communication, en principe millimétrée. Ces situations virent facilement au fiasco, en l’absence d’outils nécessaires à d’importants revirements stratégiques. Cette logique ruisselle au-delà des directoires. Il est ainsi vraisemblable que cet organisme se concentre encore davantage vers sa dimension de club sans proposer d’orientations de fond.

    Dans un contexte de désengagement progressif des entreprises vis-à-vis des politiques DEI, Davos peut-il encore se poser en vitrine du progrès global sans se couper de sa base historique ?

    Paradoxalement, le « great reset » de Schwab partait plutôt du constat que la gouvernance mondialisée, centrée sur le capitalisme de résultats financiers trimestriels et l’américanisation des masses, fonçait vers un mur. Il s’agissait, initialement, de pointer les failles de ce système et la nécessité d’un mode de coopération plus intelligent. L’idée renvoyait aux velléités de réorientation qui s’était exprimées pendant quelques semaines, une bonne décennie plus tôt, en 2008, avant que l’on ne décide de s’abandonner collectivement à l’opium des bulles monétaires. Les institutions à but public comme les entreprises sont confrontées à d’importantes difficultés lorsqu’il s’agit de répondre à la quette de sens et aux enjeux de changements. On le voit notamment avec les principes de type ESG, en proie à un dévoiement assez généralisé.

    Alors que l’équilibre mondial bascule vers une multipolarité affirmée, le Forum de Davos peut-il encore s’imposer comme un acteur structurant des dynamiques internationales, ou risque-t-il d’être marginalisé par de nouveaux pôles d’influence ? Comment un seul homme, Klaus Schwab, a-t-il pu entraîner le Forum de Davos dans une crise existentielle — et que révèle cette fragilité sur la dépendance des élites à des figures tutélaires plutôt qu’à des structures réellement démocratiques et résilientes ?

    L’éclatement transatlantique du bloc occidental constitue une rupture fondamentale. Il en est de même des jeux d’alliance entre les BRICS au-delà de leurs différences fondamentales, face à la désorientation de l’occident. Ces développements sont lourds de conséquences géopolitiques certes, mais aussi en ce qui concerne la réflexion économique et sociale. Les leaders européens, en particulier, traversent une crise dont il ne faut pas sous-estimer la dimension psychique, tant le leadership américain a façonné leur imaginaire. Il s’agit d’imaginaire collectif, notamment sur le plan géopolitique, avec la conversion européenne au néo-conservatisme dans les années 2000, au lendemain de l’épisode irakien, mais aussi d’imaginaire individuel avec la standardisation des modes de vie.

    Cette interview a initialement été publiée par Atlantico.

  • Derrière DeepSeek, la voie de l’excellence française dans l’IA

    Derrière DeepSeek, la voie de l’excellence française dans l’IA

    En s’appuyant sur ses compétences mathématiques et l’open source, l’Europe peut concurrencer les États-Unis et la Chine, avec des investissements importants, mais surtout en remettant la culture scientifique au cœur de sa réflexion stratégique.

    Alors que l’IA chinoise DeepSeek rebat les cartes de la concurrence mondiale, la France cherche aussi à mettre en valeur ses compétences de pointe, par l’annonce de projets d’investissements massifs dans les infrastructures numériques, à l’occasion du sommet mondial de Paris. Les succès fulgurants de Mistral AI ont démontré le potentiel français, le talent mathématique de nos chercheurs et ingénieurs défiant la crise éducative. Cependant, un fossé apparaît entre cette excellence scientifique et l’action publique au détour de couacs, dont le lancement prématuré de l’IA open source Lucie est la dernière anecdote en date. L’État doit redéployer ses compétences scientifiques s’il veut assurer la cohésion stratégique de cet effort d’investissements et éviter que l’écosystème numérique ne se laisse systématiquement préempter par la Silicon Valley.

    Le moment est d’autant plus crucial que s’éloigne l’idée selon laquelle l’IA de pointe ne pourrait être qu’américaine, au vu de la compétence d’autres pays, comme la Chine mais aussi la France, avec une tradition mathématique en parfaite adéquation avec les défis des réseaux de neurones. DeepSeek a démontré au monde, avec quelques millions de dollars et des cartes graphiques limitées, que l’on pouvait se contenter de moyens incomparables avec ceux des géants américains. Il y a à peine plus d’un an, Mistral proposait aussi un modèle qui rivalisait avec ceux d’OpenAI, après quelques mois de travail et avec quelques dizaines d’employés. La compétence française est indéniable en matière d’IA. Ce talent est aussi visible au sein des géants américains. Yann Le Cun, l’expert en chef de Meta en matière d’IA, entraîne derrière lui toute une génération. Le modèle open source de l’entreprise, LLaMa, a en premier lieu été développé par une équipe parisienne.

    Nous étions déjà nombreux en 2023 à pointer l’émergence d’une IA plus économe et fine que celle des géants californiens. Les cerveaux français trouvent souvent dans la Big Tech des débouchés à leur excellence mathématique. Plusieurs des initiateurs de Mistral sont d’ailleurs passés par ces entreprises. Cependant, si le sort de tout succès européen est d’être aspiré dans le giron de géants américains, comme l’a partiellement été Mistral, les bénéfices que nous en tirerons resteront négligeables. Au vu du bouleversement économique qu’amène l’IA, une telle tendance nous condamnerait à une dépendance redoutable. Les démiurges transhumanistes n’ont pas de projet pour l’Europe au-delà de ses beaux paysages.

    Le développement des infrastructures et des data centers en particulier, au moyen d’investissements massifs, est indispensable à notre autonomie. On ne peut que saluer l’effort dans ce sens, s’il se concrétise dans l’ensemble, d’autant plus qu’il ne se réfugie pas derrière de labyrinthiques consortiums invoquant les mânes d’Airbus. On ne pourra, néanmoins, faire l’économie d’une réflexion sur la source des financements, l’équilibre décisionnel vis-à-vis des partenaires internationaux, et la pérennité des projets.

    Cela nécessite notamment de combler le déficit technologique des administrations, qui perdure malgré le retour en grâce de la notion de politique industrielle. Des financements éparpillés, sans analyse suffisante, dans le cadre de « France 2030 » à l’excès de communication événementielle, en passant par la « révolution de l’hydrogène » et les statistiques de réindustrialisation faussées par l’auto-entrepreneuriat, l’État doit faire un effort de fond. Cet effort est d’autant plus nécessaire alors que les remous de la politique mondiale risquent de secouer l’environnement open source, qui est au cœur de la dynamique de rattrapage dans l’IA.

    L’open source représente une opportunité remarquable de circulation du savoir technologique. Yann Le Cun en est un évangéliste et il semble sensible au rêve de voir son pays d’origine se refaire une place digne de sa tradition scientifique. Pour autant, au vu des fulminations des responsables américains contre DeepSeek, réclamant des restrictions plus fortes, on peut craindre que la brèche de l’open source dans l’empire de la Big Tech ne soit remise en cause. Cette situation conduirait à une domination plus implacable des États-Unis dans le secteur technologique, à laquelle peu de pays, à part la Chine justement, pourraient faire face. Les États vont devoir se pencher sur la question de la circulation des modèles et de l’open source en particulier, qui devrait désormais faire partie intégrante des négociations commerciales.

    L’Europe n’atteindra pas le gigantisme des investissements américains. Pour autant, DeepSeek, Mistral et d’autres dans le monde ont montré que nous pouvons nous redéployer dans le numérique, en tablant pour l’heure sur l’open source, mais surtout en remettant au centre des décisions notre culture d’ingénieur, avec l’éclectisme que cela implique. C’est cette voie, délaissée par l’Europe ces trois dernières décennies, que suivent ceux parmi les BRICS qui se positionnent efficacement dans la course technologique. Nous n’y parviendrons pas tant par une spécialisation sur les questions réglementaires qu’en remettant la culture scientifique au cœur de nos choix stratégiques.

    Ce texte a été initialement publié sur le site du jounal Les Echos.

  • Les semi-conducteurs sont le talon d’Achille des géants de l’IA

    Les semi-conducteurs sont le talon d’Achille des géants de l’IA

    L’ultraconcentration dans la conception et la production de semi-conducteurs pour l’IA, autour de Nvidia et TSMC, attise la convoitise des géants numériques, ultradépendants à cet égard. Pour autant, le rattrapage s’annonce difficile, malgré la mobilisation d’acteurs étatiques.

    L’explosion de l’intelligence artificielle repose sur deux piliers de natures différentes : d’un côté l’élaboration de modèles de langage géants façon GPT et, de l’autre, une puissance de calcul spectaculaire avec des processeurs dédiés. Ceux-ci sont conçus notamment par l’omniprésent géant Nvidia, et fabriqués par une poignée resserrée d’acteurs, avec le taïwanais TSMC en particulier. Modèles d’IA et semi-conducteurs nécessitent des investissements gigantesques et des compétences de pointe. Pour autant, il s’agit de deux mondes qui coopèrent étroitement certes, mais en répondant à des exigences très différentes.

    Sur le plan de l’élaboration des modèles, les géants numériques étatsuniens tels que Microsoft, Meta et Google disposent de toutes les ressources technologiques, économiques et politiques pour dominer le secteur, en interne et au moyen d’acquisitions/partenariats. Ce dernier aspect leur permet même de domestiquer la diversification que l’on observe avec l’explosion de l’open source, c’est-à-dire des modèles diffusés librement et réutilisables par tous. Bien que l’open source permette à tout un écosystème de l’IA d’exister, il n’est pas exactement à voir comme l’arme de David contre Goliath, car les géants eux-mêmes y sont très investis. Les modèles de langage LLaMa de Meta sont, par exemple, open source. De plus, le poids financier et l’emprise de la Big Tech sont tels que l’on voit les acteurs indépendants entrer dans leur orbite les uns après les autres. La pépite française Mistral a récemment annoncé entrer dans le giron de Microsoft, en lui confiant la diffusion de son modèle le plus avancé, qui sera donc fermé. Les géants ont ainsi largement les moyens de garder la main sur le développement de modèles.

    Pour autant, derrière la domination de ces mastodontes, l’importance des processeurs qui permettent la formation de ces modèles d’IA ne doit pas être sous-estimée. Elle est même le nerf de la guerre technologique actuelle et se trouve entre les mains de géants industriels d’un autre genre. Toute la scène de l’IA reste ultra-dépendante d’une chaîne de conception et de production de semi-conducteurs incroyablement concentrées, autour de Nvidia et de TSMC.

    Un boom de la demande de semi-conducteurs dédiés à l’IA, et très peu de fournisseurs

    Pour les géants numériques, l’autonomie en matière de semi-conducteurs reste un défi vis-à-vis duquel il reste délicat de se positionner. Après des années d’investissements, Nvidia a une position de quasi-monopole dans la conception de semi-conducteurs dédiés à l’IA. L’entreprise américaine a conçu l’année dernière 80 % de ce type de semi-conducteurs dans le monde.

    Une fois la conception réalisée, Nvidia sous-traite leur fabrication à la taïwanaise TSMC, une des dix sociétés capables de les produire dans le monde. Nvidia est dite « fabless ». Dans cette industrie, la fabrication d’un semi-conducteur nécessite une ligne de production avec des caractéristiques propres (équipement de fabrication, test et emballement). Ces nouvelles lignes de production sont extrêmement coûteuses. Une usine flambant neuve (ou fonderie dans la terminologie du secteur) nécessite entre 15 et 20 milliards de dollars et au minimum deux ans de construction. Très peu d’acteurs économiques peuvent investir ces sommes colossales et surmonter la barrière à l’entrée sur ce marché des fonderies (« Fabs »).

    Les États s’emparent du sujet au nom de la souveraineté technologique

    Malgré l’énormité des investissements, certains acteurs se lancent ou reviennent sur ce marché comme l’américain Intel ou la japonaise Rapidus. Les fabricants déjà dans la course comme TSMC ou la sud-coréenne Samsung poursuivent leurs investissements pour tenter de conserver leurs parts de marchés. À la sortie du Covid-19, après une pénurie dans les semi-conducteurs, des États ont décidé de relancer leur soutien financier au secteur. Les « Chip Acts » se sont multipliés pour augmenter la capacité nationale de fabrication de semiconducteurs, renforcer la sécurité économique et garantir même en cas de crise des approvisionnements pour des usages militaires. Parmi ces pays, on retrouve les États-Unis en 2022 avec le Chips and Science Act (39 milliards de dollars), l’Union européenne avec le Chip Act (43 milliards en 2023), le Japon avec la création du conglomérat Rapidus et un plan de soutien (100 milliards de dollars pour Rapidus et les nouvelles usines TSMC sur 2023-2027), la Chine avec en 2023, le lancement de la phase 3 du fonds de garantie du gouvernement chinois dédié aux semi-conducteurs (46 milliards de dollars pour la période 2023-2027), la Corée du Sud avec un plan du gouvernement de 7,3 milliards de dollars. Du côté des États-Unis, l’effet d’entraînement des subventions publiques dans le secteur est notable. Les 39 milliards de dollars du Chips and Science Act ont encouragé une vague d’investissements privés de 200 milliards de dollars dépensés par des entreprises américaines et étrangères sur le sol américain.

    De nouveaux entrants et une nouvelle échelle de financement

    Jusqu’à ce que de nouvelles usines produisent plus de puces, l’offre n’arrivera pas à suivre la demande mondiale de puces dédiées à l’IA. D’où une hausse sensible des prix. Une GPU de Nvidia (H100) peut aller jusqu’à 40 000 dollars l’unité. Sa disponibilité est limitée, car, même en augmentant le volume de production, l’entreprise ne répond toujours pas aux besoins du marché. Certains utilisateurs et acheteurs de puces Nvidia s’inquiètent de la dépendance à un seul fournisseur. C’est le cas de Sam Altman, le PDG d’OpenAI, car le manque de puces dédiées à l’IA risque de freiner le développement de sa propre entreprise. Pourquoi ne pas essayer de créer son propre outil industriel pour rétablir ce déséquilibre offre-demande ? C’est la logique de tout nouvel entrant dans un secteur en très forte croissance. Sam Altman a multiplié les rendez-vous auprès des fabricants et des fonds d’investissement depuis plusieurs mois. Dans ses premières estimations, il évoquait une recherche d’investissement (extravagante) de 7 000 milliards de dollars pour construire un nouveau pan de l’industrie des semi-conducteurs. Le projet est toujours en cours. Et Altman n’est pas le seul. Les initiatives fleurissent. Apple travaille avec TSMC pour fabriquer des puces d’IA. Le patron du groupe japonais, SoftBank, Masasyoshi Son, veut transformer son groupe en une puissance de l’IA. Son tout dernier projet est de permettre à sa filiale ARM de créer une nouvelle division de puces IA. Un prototype sera testé au printemps 2025 et la production de masse devrait démarrer à l’automne 2025. De son côté, Nvidia maintient son avance technologique sur un marché en croissance accélérée. Selon le centre de recherche Precedence Research of Canada, le marché mondial devrait atteindre 100 milliards de dollars en 2029 et 200 milliards de dollars en 2032.

    Cette pénurie d’un nouveau genre invite les géants numériques à se positionner sur le créneau, suivant des styles différents. Face à ces ambitions, Nvidia continue inlassablement à se positionner pour faire toujours mieux, et notamment mieux que ce que les géants pourront probablement faire en matière de conception de processeurs dédiés à l’IA. Les géants numériques se retrouvent pris dans un étau industriel qui leur sera difficile de surmonter. L’horizon d’une concurrence mondiale équilibrée où toutes les grandes zones parviendraient à se positionner reste encore plus lointain et incertain. Au-delà de leurs intérêts propres, l’ultraconcentration des semi-conducteurs dédiés à l’IA pointe un risque de résilience industrielle très concret pour toute la chaîne jusqu’aux utilisateurs finaux. En cela, la diversification est un enjeu politique majeur.

    Cette analyse a été écrite avec Estelle Prin et initialement publiée par l’IRIS.

  • Mistral dans le giron de Microsoft 

    Mistral dans le giron de Microsoft 

    L’entrée de la startup française Mistral AI dans le giron de Microsoft suscite des critiques politiques en Europe. En championne de l’open source, l’entreprise avait récemment milité pour un assouplissement de l’AI Act, avant d’annoncer son revirement vers un modèle fermé. Pour autant, son succès technique dans le développement de modèles fondamentaux, avec des moyens limités, démontre le potentiel de rattrapage de l’Europe, et de divers acteurs mondiaux. Pour atteindre une certaine autonomie, il resterait cependant à surmonter une difficile équation économique, qui pousse les startups les plus prometteuses dans les bras de la Big Tech.

    Le succès de Mistral AI pointe la capacité de rattrapage technique dans la course à l’intelligence artificielle (IA)

    De nombreux observateurs avaient tendance à penser que l’Europe devait se cantonner à un rôle d’utilisateurs des modèles d’IA américains pour développer divers types d’usage et d’applications. Sur le plan technique, le succès de Mistral confirme l’opportunité d’une IA relativement économe au regard de ce que fait la Big Tech en termes d’utilisation de données, de moyens financiers et humains.

    Mistral AI est parvenu en quelques mois à développer des modèles d’IA qui talonnent en performance ceux d’OpenAI, Google et Meta, avec des moyens certes conséquents, mais incroyablement plus limités que ceux des géants américains. Cela est particulièrement marquant sur le plan des effectifs, avec sa trentaine d’employés. Il s’agit d’une prouesse de la part de cette équipe, mais cela éclaire aussi la nature de la technologie qui sous-tend l’explosion de l’IA générative.

    En plus de nouvelles architectures de réseaux de neurones (transformers), les progrès spectaculaires de l’IA depuis une petite décennie sont surtout liés à l’utilisation d’une quantité de données et d’une capacité de calcul phénoménales. Tout en prenant cette vague d’explosion quantitative, Mistral creuse aussi le sillon d’une ingénierie d’IA plus fine, qui lui a permis de s’établir sur la scène mondiale en un temps record.

    Dans un contexte de crise éducative et de désindustrialisation aiguë, il reste possible de mobiliser des compétences issues des meilleures formations, pour rivaliser avec les géants technologiques mondiaux. Au-delà même de l’enjeu de l’autonomie européenne, ce constat technique est riche d’enseignements sur la course mondiale dans le domaine. Le rattrapage et la concurrence dans l’IA sont possibles, à condition d’offrir les capacités de financement, mais aussi de débouchés, dans la durée.

    L’entrée de Mistral dans le giron de Microsoft illustre la difficile équation économique d’une IA indépendante et ouverte

    Après s’être présentés en champions des modèles ouverts, open source, réutilisables par tous, les dirigeants de Mistral ont décidé que leur nouveau modèle le plus performant serait fermé, qui plus est suivant un accord de distribution avec Microsoft, qui prend au passage une participation dans l’entreprise. La voie de l’open source avait propulsé la probabilité de l’entreprise auprès des développeurs, en parallèle d’autres modèles ouverts comme LLaMa de Meta, face au modèle désormais radicalement fermé de la malnommée OpenAI.

    D’ailleurs, c’est précisément sur la base de cette évolution qu’Elon Musk, qui avait participé au lancement d’OpenAI, a récemment annoncé poursuivre l’entreprise de Sam Altman en justice. Derrière l’ironie des attaques de l’exubérant milliardaire, il est vrai que, comme en témoigne sa structure labyrinthique, OpenAI présente un fossé entre sa vocation initiale, fondée sur l’open source et la recherche, et sa finalité actuelle, purement commerciale. La question de l’emprise de la Big Tech sur l’IA est particulièrement sensible pour l’Europe mais se pose évidemment aussi aux États-Unis.

    Comme pour OpenAI, l’accord de Mistral avec Microsoft entérine son succès technique et sa popularité. L’entreprise française lance d’ailleurs un chabtbot, nommé « Le Chat », sur le modèle de ChatGPT. Cependant, ce partenariat enterre, pour l’heure, le rêve d’une IA européenne open source et indépendante.

    Au-delà des attaques virulentes des derniers jours contre les dirigeants de l’entreprise, il convient de s’interroger sur l’environnement économique européen. Le problème reste celui des perspectives de développement, de financement et de débouchés commerciaux nécessaires à un positionnement de pointe dans le numérique. Ces difficultés et la puissance de frappe des géants numériques amènent irrémédiablement les startups qui réussissent à entrer dans leur orbite. C’est cet aspect économique qui a transformé la prouesse technique de Mistral, qui aurait pu marquer un tournant vers l’autonomie, en déconvenue stratégique pour l’Europe.

    Au-delà de la défiance face au lobbying, une approche flexible de la réglementation de l’IA reste indispensable

    L’AI Act répond à un besoin évident de réglementation et d’encadrement des risques liés à l’IA. Pour autant, sa genèse compliquée a rendu les éléments de l’accord particulièrement tortueux. Ses auteurs avaient manqué la révolution de l’IA générative et se sont lancés dans un travail titanesque d’adaptation l’an dernier.

    L’idée de se positionner en gendarme numérique du monde, en se souciant trop peu de l’offre technologique du continent, pose en elle-même un risque existentiel à l’économie européenne et à son autonomie compétitive. Surtout, avec sa difficile application aux évolutions techniques futures, l’AI Act risque plutôt de servir les intérêts de la Big Tech, qui a les moyens d’aborder ces labyrinthes réglementaires. L’entrée de Mistral dans l’orbite de Microsoft semble en fait plutôt le confirmer.

    Mistral avait milité fermement, à la fin de l’année passée, pour l’assouplissement de l’AI Act, en particulier en ce qui concerne les modèles fondamentaux d’IA générative open source. On peut naturellement penser que l’entreprise avait alors déjà envisagé son virage vers un modèle fermé, en partenariat avec Microsoft. Pour autant les concessions consenties en réponse aux objections des gouvernements français et allemand, défendant leurs entreprises nationales comme Mistral et Aleph Alpha, concernaient surtout l’open source, qui bénéficiera ainsi d’une plus grande latitude. Bien que l’on puisse déplorer le revirement de Mistral, son lobbying a surtout débouché sur un assouplissement de l’AI Act qui pourrait, à certaines conditions économiques, encourager l’émergence future de ses propres concurrents open source.

    Ce texte a été initialement publié par l’IRIS.

  • AI Act : quel compromis pour permettre l’essor de l’intelligence artificielle européenne ?

    AI Act : quel compromis pour permettre l’essor de l’intelligence artificielle européenne ?

    Le 8 décembre 2023, un accord politique a été trouvé au sein de l’Union européenne pour encadrer le développement de l’intelligence artificielle (IA). En quoi consiste cet accord, inédit au niveau mondial, et quelles sont ses implications pour les États membres et les lobbies du secteur technologique ? Quels ont été les principaux points d’achoppement des négociations entre les institutions européennes et certains États membres ? Que disent ces différends quant à la solidité de l’accord trouvé ? En quoi l’IA est-elle un enjeu majeur pour l’Europe ? Quelles seraient les conséquences pour l’économie européenne ? Qu’en est-il de la France ? Le point avec Rémi Bourgeot, économiste et chercheur associé à l’IRIS.

    En quoi consiste cet accord, inédit au niveau mondial, et quelles sont ses implications pour les États membres et les lobbies du secteur technologique ?

    L’AI Act, en gestation depuis 2021, a fait face à de nombreux défis cette année. L’explosion de l’IA générative en particulier a bouleversé son approche. Celle-ci est fondée sur les niveaux de risque associés à divers types d’application, d’un inoffensif filtre de spams à l’usage inacceptable de la reconnaissance faciale dans la vie de tous les jours. Les concepteurs de cette réglementation, essentiellement au Parlement européen, n’avaient pas envisagé le potentiel de l’IA générative et ont dû revoir leur copie, en y ajoutant des provisions spécifiques. Le besoin de régulation ne fait guère de doute en tant que tel. Ces ajouts dans l’urgence ont pour autant fait planer le spectre d’un écrasement des startups européennes, en plein début de rattrapage, sous le poids d’une réglementation labyrinthique, qui serait paradoxalement plus gérable pour les géants américains, bien plus avancés.

    Les progrès spectaculaires des modèles de langage reposent sur des réseaux de neurones utilisant des milliards de paramètres calculés sur des données de nature peu transparentes. Cela soulève des questions allant du respect de la vie privée à celui du droit d’auteur en passant par de multiples risques sécuritaires liés à leur usage et à leur fonctionnement erratique. Ces évolutions très rapides appellent une réglementation flexible, adaptative même. À l’inverse, l’approche reposant sur des centaines de pages de considérations autoréférentielles, appelées à être inscrites dans le marbre législatif, court le risque d’une rapide obsolescence.

    Au-delà de simples exemptions, une certaine flexibilité est rendue d’autant plus nécessaire par le rôle de plus en plus central de l’Open source dans l’IA, opportunité dont s’emparent les startups européennes. La plupart se réapproprient certains grands modèles de langage développés par les géants du secteur alors que certaines commencent aussi désormais à développer leurs propres modèles sous-jacents.

    Ainsi, une approche réglementaire ouverte serait nécessaire autant pour faire face aux nouveaux risques qui ne manqueront pas d’émerger que pour permettre l’épanouissement d’une l’IA européenne inventive et originale, face aux mastodontes américains et chinois.

    Quels ont été les principaux points d’achoppement des négociations entre les institutions européennes et certains États membres ? Que disent ces différends quant à la solidité de l’accord trouvé ?

    Les législateurs ont pensé répliquer la démarche de la RGPD, qui s’est imposée comme une sorte d’étalon or de la réglementation des données dans le monde, face aux plateformes de réseaux sociaux. L’enjeu technologique est pourtant différent avec l’IA. L’Europe souffre d’un retard chronique face aux géants numériques américains. L’AI Act ajoute de l’incertitude aux débuts de succès, au moins en termes de financement, que l’on a vu en France avec la startup Mistral et Aleph Alpha en Allemagne.

    Ces préoccupations ont conduit, ces dernières semaines, les gouvernements français, allemand et italien à tenter de renverser la table. Une certaine cacophonie s’est développée, entre deux sujets distincts : d’un côté les débats sur l’utilisation étatique de la reconnaissance faciale (à laquelle certains États membres refusent de renoncer intégralement), et de l’autre, l’enjeu consistant à préserver le potentiel des startups qui travaillent à des modèles de fondation, qui sous-tendent l’IA générative. Le trio des trois plus grands États a usé de termes qui prêtaient à confusion, en proposant une forme d’autorégulation et de code de conduite pour ces modèles.

    Face à cette résistance, les institutions européennes ont cherché à maintenir le cap dans l’urgence, à renfort d’ONG exprimant une vision souvent générale, en faveur de l’adoption de l’AI Act en l’état. Il en est ressorti une forme de compromis prévoyant notamment une assez large exemption pour les milieux de l’open source, qui sont au cœur des initiatives européennes sur les modèles de fondation.

    Alors que le ministre français du numérique Jean-Noël Barrot a déclaré que cet accord permettrait de préserver la capacité de l’Europe à développer ses propres technologiques d’intelligence artificielle et à préserver son autonomie stratégique, en quoi l’IA est-elle un enjeu majeur pour l’Europe ? Quelles seraient les conséquences pour l’économie européenne ? Qu’en est-il de la France ?

    L’Europe affiche un retard préoccupant, face aux géants américains, mais aussi face à la Chine. Cela n’était pas une fatalité. Les réseaux de neurones ont bénéficié, ces dernières décennies, du travail acharné de visionnaires européens, qu’ils soient restés sur le continent ou partis aux États-Unis. Ceux-ci ont poussé les réseaux de neurones à une époque où d’autres types de modèles dominaient la scène de l’IA.

    On pense bien sûr à Geoffrey Hinton, le « parrain de l’IA », britannique qui a rapidement quitté la Silicon Valley pour s’implanter à Toronto et ainsi garder quelques distances face au complexe militaire américain. Notons que ce pionnier, grand pédagogue, s’exprime dans un anglais admirable de clarté technique et philosophique, qui pourrait inspirer nos rédacteurs réglementaires. Le français Yann Le Cun œuvre également comme pionnier des réseaux de neurones depuis ses études d’ingénieur dans les années 1980. Il est aujourd’hui « Chief AI Scientist » de Meta, où il promeut notamment l’open source. Dès 1991, l’allemand Sepp Hochreiter avançait la notion de mémoire longue dans les réseaux de neurones, dans son mémoire de master… Cela aboutira dès 1995 à la fameuse architecture LSTM (long short term memory), encore utilisée et dont les avancées ont ouvert la voie aux modèles de langage à base de « transformers », au cœur de la révolution de l’IA générative depuis 2017. Les exemples européens sont légion dans la genèse des réseaux de neurones.

    Malgré la crise éducative et du niveau de mathématiques en particulier, l’Europe et la France notamment gardent des poches d’excellence qu’il convient d’encourager à déployer leur talent au profit d’une IA différente. L’idée selon laquelle l’Europe s’épanouirait dans un rôle administratif de régulateur mondial, dans une dépendance généralisée vis-à-vis des États-Unis et de la Chine, semble suicidaire sur le plan économique et stratégique, au vu de l’importance de l’IA dans tous les aspects du développement technologique. L’appropriation des technologies de pointe a toujours été au cœur des mécanismes de rattrapage, de développement et de puissance. L’Europe s’était focalisée, ces dernières décennies, sur la politique de la concurrence aux dépens des enjeux industriels. Le citoyen européen a ainsi été vu plus comme un consommateur qu’un producteur et, aujourd’hui encore avec l’AI Act, davantage comme un utilisateur qu’un développeur. On a vu un début important de correction de cette tendance, notamment depuis la nomination de Thierry Breton, mais le chantier reste manifestement de taille.

    Cette analyse a initialement été publiée par l’IRIS.

  • La révolution industrielle survivra à l’explosion de la bulle de liquidités

    Le marché haussier de près de 13 ans semble toucher à sa fin pour les entreprises dans le secteur des technologies. Quelles sont les raisons qui conduisent à l’effondrement des valorisations d’entreprises du secteur de la Tech ?

    Le Nasdaq a été multiplié par dix entre début 2009 et fin 2021, le S&P 500 par un peu plus de cinq. Il était difficile d’imaginer, quand la Fed s’est mise à l’ultra relance monétaire (suivie plus ou moins tardivement par ses diverses consœurs des pays développés) que le monde irait de politique de gestion de crise en politique de gestion de crise pendant plus d’une décennie. La méthode de la relance monétaire massive est devenue, au fil des ans, monolithique, en gonflant des bulles considérables. (suite…)

  • Crypto-bulles et eldorado décentralisé

    Les montagnes russes des cryptos ont des conséquences qui dépassent le cadre de la spéculation de masse. Il façonne des discussions clés sur l’avenir de la monnaie et d’internet, qui portent sur les notions de décentralisation et de pouvoir économique.

    Web3 : La quête de décentralisation, et la bulle

    L’idée du Web3, avec la blockchain comme noyau, est conçue comme une promesse de décentralisation, un retour à l’esprit du Web1 (dont les premiers protocoles sous-tendent encore internet). Elle vise à supplanter le Web2, marqué par l’essor des géants des médias sociaux. Ceux-ci ont comblé le vide laissé par l’absence de protocole d’identification dans l’internet primitif, afin d’étendre leur contrôle sur les données personnelles, à des fins publicitaires. Redonner aux utilisateurs le contrôle de leurs données, par le biais de la blockchain, et assurer l’interopérabilité entre les services est la principale raison d’être du web3. L’idée que les artistes puissent utiliser les NFT – généralement définis comme des certificats de propriété numérique – pour commercialiser directement leurs créations et se passer des intermédiaires est indéniablement séduisante. De même, les blockchains programmables comme Ethereum, avec leurs applications décentralisées (dApps), pourraient offrir une perspective pour surmonter le privilège exorbitant exercé par les app stores.

    Cependant, la principale promesse du web3 se heurte à la réalité des blockchains, prises dans la centralisation des grandes plateformes d’échange et des principales sociétés de capital-risque. En outre, les bulles cryptographiques massives – alimentées par le comportement grégaire, des constructions numériques bancales et la politique monétaire (centrale) – ne correspondent pas tout à fait à la vision commune de la décentralisation financière et numérique… Une bulle est généralement définie comme un décalage entre la tendance du prix d’un actif et une certaine valeur sous-jacente. Dans la bulle crypto, l’idée même d’un actif sous-jacent – ou de réalité – a été tournée en dérision. Certains NFT ont poussé cette logique avec un humour indéniable, comme ceux basés sur des dessins d’adorables singes et leur ApeCoin…. la monnaie de singe

    Le paysage financier mondial – avec le resserrement monétaire dû à l’inflation – met en difficulté de nombreuses classes d’actifs, asséchant les flux de liquidités qui ont alimenté la flambée. L’extrême volatilité est une caractéristique des cryptomonnaies depuis leur création, mais ces dernières années ont vu une dérive considérable, basée sur d’authentiques pyramides de Ponzi, avec des concepts aussi farfelus que celui de terre virtuelle. Les projets les plus récents font rarement preuve du type de réflexion monétaire qui a sous-tendu la création (très expérimentale) du bitcoin en 2008, en utilisant le concept cryptographique d’arbre de Merkle, développé dès les années 1970.

    La confusion vient cette fois-ci des stablecoins, qui aspirent à être les enfants modèles des cryptos en offrant un taux de change fixe avec une monnaie, comme le dollar. Certaines, cependant, fonctionnent sans collatéral… C’est le cas de TerraUSD, qui s’appuie sur un système de rééquilibrage très vulnérable, utilisant une crypto flottante nommée Luna. TerraUSD a vu son ancrage au dollar s’effondrer à la suite de sorties massives de capitaux. Les monnaies stables centralisées et basées sur du collatéral, comme Tether, sont déjà plus résistantes. Au-delà des rapports faisant état de mouvements déstabilisants de la part de grands fonds d’investissement pariant à la baisse, la déroute s’est, quoi qu’il en soit, produite dans un contexte de grande fragilité.

    La Blockchain reste une expérimentation, bien que fascinante

    Le concept de décentralisation monétaire, au moyen d’une architecture cryptographique, reste passionnant. Il s’agit d’une contribution tout à fait substantielle au débat sur la nature de notre système monétaire et bancaire, et sa nécessaire réforme. Celui-ci est dit centralisé dans le sens où il repose sur les banques centrales, certes, mais surtout sur le privilège de création monétaire massive par les banques commerciales (par leur délivrance de prêts ex-nihilo), institutions centralisées s’il en est. Par ailleurs, malgré la centralisation inhérente à l’émergence de grandes plateformes crypto et de financeurs puissants, le concept de décentralisation présente également un intérêt face à la concentration de la Big Tech dans le secteur numérique et leur contrôle des données des utilisateurs. Ce contrôle risque de s’accroitre avec le niveau d’immersion sensorielle, comme ce sera le cas avec les métavers.

    Dans l’ensemble, l’univers crypto doit se poser davantage la question de la finalité, de la stabilité et du statut légal des constructions qu’il promeut. Les cryptomonnaies et cryptoactifs qui ne se sont constitués que sur la base de la bulle des dernières années ne sont probablement pas appelés à survivre. Il faut garder à l’esprit le caractère expérimental des cryptos, ce que répètent inlassablement les (quelques) véritables précurseurs de la blockchain. Par exemple, un grand débat se concentre aujourd’hui sur le dépassement du « proof of work », mécanisme de « minage » reposant sur un concours cryptographique entre nœuds de la blockchain, dont le coût énergétique est exorbitant. Un travail important est fait dans ce sens sur l’Ethereum par exemple, pour aller vers le concept plus raisonnable de « proof of stake », qui accrédite les nœuds de la blockchain en fonction de leur participation avérée, comme une détention substantielle de la cryptomonnaie. On voit difficilement comment le bitcoin pourrait se réformer dans ce sens. Le Web3, si la notion doit porter ses fruits en faveur d’une quelconque décentralisation, passera par un prudent écumage de l’univers crypto qui le sous-tend.

    La réglementation et les monnaies digitales de banque centrale redéfiniront le paysage des cryptos

    Les réglementations émergentes et actualisées – comme MiCA et TFR dans l’Union européenne – se concentrent principalement sur la question de l’anonymat et du trafic. Ce type de règles peut en effet perturber le modèle des plateformes de crypto-monnaies et on peut s’attendre à ce qu’elles se répandent à travers le monde. Parallèlement, d’autres textes réglementaires importants visent la Big Tech, comme les lois jumelles sur les services numériques et les marchés numériques, que l’UE est en train de ratifier. La politique de concurrence commence à s’éveiller aux défis de l’ère numérique. Toutefois, les gouvernements devront trouver un équilibre entre la lutte contre les monopoles des grandes entreprises technologiques et la réglementation des acteurs décentralisés, qui présentent des risques majeurs mais aussi des possibilités de rétablir un niveau de concurrence plus sain.

    Quant aux projets de monnaies digitales de banque centrale, il ne s’agit pas de cryptomonnaies en tant que telles mais de monnaies officielles à part entière. Elles sont adossées à leur banque centrale respective (plutôt que sur un mécanisme de création cryptographique) et bénéficient d’une équivalence totale avec les autres formes (numériques ou physiques) de la monnaie en question. La mise au point de ces monnaies numériques par les banques centrales doit se poursuivre de façon plus ambitieuse qu’aujourd’hui pour redonner du sens et surtout de la stabilité à la monnaie, avec un lien plus direct entre autorités monétaires et acteurs économiques. Cela renvoie à des débats qui survivent de façon souterraine depuis la crise de 1929 (sur le système de réserves fractionnaires des banques). Il faut reconnaître que c’est l’émergence des cryptomonnaies qui les ont relancés. La crise que connaissent ces dernières pourrait conduire à un désintérêt pour les monnaies digitales dans leur ensemble. Il faudrait pourtant, au contraire, engager une large réflexion politique sur la mise à profit des innovations numériques en faveur d’une véritable réforme de notre architecture monétaire.