Do not follow this hidden link or you will be blocked from this website !

La finance de marché à l'ère de l'intelligence bon marché

Charles-Albert LEHALLE * Head of Data Analytics, Capital Fund Management, Paris ; Visiting Researcher, Imperial College, Londres. Contact : charles-albert.lehalle@cfm.fr.


Dans les années 1990, les banques d'investissement étaient parmi les possesseurs des plus grandes puissances de calcul et de capacité de stockage de la planète. On pourrait donc s'attendre à les voir à l'avant-garde des innovations produites par les sciences de données et l'intelligence artificielle (IA), mais il n'en est rien. Si ce sont bien des entreprises privées qui ont ravi aux grandes universités les premières places des podiums pour la reconnaissance d'image ou l'interprétation automatique de langage naturel, il s'agit des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et non des institutions financières. Les acteurs de la finance de marché tentent tant bien que mal de rattraper ce retard, comme en témoigne, par exemple, le nombre croissant d'initiatives de recherche qu'ils financent à l'Institut Louis Bachelier depuis deux ans.

Au-delà de la transposition un peu naïve des innovations ayant réussies dans d'autres secteurs, cet article tente de mettre à jour les grands domaines d'application à attendre des technologies de l'IA dans ce secteur. Cela ne suffit pas pour envisager les transformations qui accompagneront ces innovations. Là aussi un raisonnement superficiel, s'inspirant des succès des GAFAM, pourrait s'arrêter à anticiper une « désintermédiation » de ce secteur, puisque c'est le point commun à l'effet de ces géants dans leurs domaines, aujourd'hui souvent résumé à « uberisation ». Mais l'industrie de la finance de marché étant déjà un réseau d'intermédiaires, il faut plutôt aller chercher dans la littérature sur l'impact organisationnel de la modularité (par exemple, chez Frigant, 2005) pour comprendre l'effet des technologies de l'IA sur les acteurs de ce secteur.

Cet article est centré sur les technologies de l'IA et leur impact sur l'organisation de l'industrie des marchés financiers. Il expose ce que sont véritablement ces technologies, et particulièrement le fait qu'elles sont constituées d'un assemblage de codes informatiques et de données de référence, en très grand nombre, nécessaires à leur fonctionnement. Cet exposé permet d'envisager des grands domaines d'application de l'IA en finance de marché, mais cela ne suffit pas à comprendre les transformations que l'on peut attendre dans ce secteur à leur contact. En effet, l'IA n'arrive pas seule ; elle apporte avec elle un grand nombre de pratiques récentes de l'industrie du logiciel, qui tournent autour de la notion de modularité. Je défends le point de vue que ce sont ces pratiques qui ont poussé à la plateformisation des acteurs, déjà en cours parmi les plus innovants d'entre eux, comme Blackrock et Goldman Sachs.

Cet article est organisé de la manière suivante : la première partie rappelle ce qu'est l'IA, et établi un lien entre les programmes de développement des mathématiques formelles de la toute fin du xixe et les succès récents de l'IA. Elle insiste sur le rôle des données dans la mise en œuvre de cette technologie. La deuxième partie trace différents domaines d'application de l'IA en finance de marché : les clients et les produits, la gestion des risques, puis le nowcasting, alors que la partie suivante insiste sur les transformations des organisations liées à la mise en œuvre de l'IA, en s'appuyant sur les évolutions récentes de l'industrie du courtage, qui est la forme la plus simple d'intermédiation financière. La quatrième partie détaille les conséquences de la plus importante de ces transformations : la plateformisation des acteurs. La cinquième et dernière partie tient lieu de conclusion et insiste sur les aspects régulatoires ainsi que sur ce qui peut apparaître comme de nouvelles sources d'incertitudes.

Des machines apprenantes jusqu'à l'intelligence
bon marché

Si des scientifiques ont entrepris des travaux en IA depuis le début du xxe siècle, les objets de leurs recherches ont beaucoup évolué, et ce terme recouvre aujourd'hui une large gamme de techniques. Les premières approches ont poursuivi le fameux « programme de Hilbert » lancé en 1900 : était-il possible de mettre au point de simples règles grammaticales qui pourraient garantir que « toute phrase grammaticalement bien formée serait exacte » (Zach, 2007, expose les enjeux de ce programme pour l'époque) ? Ce fut une déception pour les mathéma ticiens puisque la réponse, négative, a montré que le domaine des mathématiques est trop vaste pour se réduire à une grammaire (comme l'a montré notamment Kurt Gödel ; cf. Devlin, 2002), mais ce fut aussi le lancement de l'informatique théorique : cette « grammaire » sera un langage de programmation et les « phrases bien formées » seront des programmes informatiques.

C'est dans cette direction que Alan Turing définit l'IA grâce à son fameux « test » : une machine ne mérite le titre d'IA que si elle parvient à se faire passer pour un humain lors d'une conversation. Si cela s'est produit pour la première fois en 2014, ce n'est pas grâce aux lois de la logique, comme Turing aurait pu l'imaginer, mais en recourant aux statistiques et aux probabilités. Entre-temps, la Seconde Guerre mondiale a poussé des ingénieurs à développer des missiles autoguidés, robustes à des perturbations « aléatoires » (Wiener, 1948). Les mathématiques de l'incertain permirent par la suite d'expliquer les performances du perceptron de Rosenblatt (1958), premier réseau de neurones apprenant sur des données en se passant d'un modèle explicite, par « apprentissage statistique ». De même, alors que Deep Blue, le robot d'IBM qui battit Kasparov en 1996, était un héritier de Turing, essayant toutes les combinaisons possibles plus rapidement et avec plus de profondeur que ne pouvait le faire un humain, AlphaGo, l'IA de DeepMind, a vaincu Lee Sedol au jeu de Go en 2016 sans en connaître les règles, mais en ayant appris à jouer à partir d'une énorme base de données de parties, sans compter les milliards de parties qu'il joua contre lui-même sur les serveurs de Google.

Du point de vue des applications industrielles, ces deux approches sont complémentaires : l'informatique et la logique héritières de Turing ont produit les Robotic Process Automation (RPA) qui fleurissent dans les back-office des banques, pendant que des réseaux de neurones profonds, héritiers des travaux de Wiener, font des calculs de risque en grande dimension pour les banques d'investissement et les assurances.

L'engouement récent se tourne vers les réseaux de neurones, sans doute à cause de leur analogie apparente avec nos propres cerveaux, mais aussi car ils semblent capables de prédire sans comprendre. Ils sont le fruit de plusieurs décennies d'essai-erreurs, débutées dans les années 1960 et couronnées de succès il y a une dizaine d'années par les progrès de l'électronique, et par conséquent de l'informatique. Ces avancées technologiques conjuguées aux progrès de l'apprentissage statistique théorique ont donné naissance à une gamme de fonctionnalités qualitativement différentes que celle fournies par les statistiques usuelles, que l'on nomme « intelligence artificielle ».

Floridi (2011) a pris l'habitude de dire que ce que nous appelons l'IA est en réalité « la capacité de résoudre des tâches complexes, sans être intelligent ». La complexité des tâches que savent résoudre ces nouvelles machines est néanmoins relative ; elle se limite à trois types d'usages. En premier lieu, les réseaux de neurones savent reproduire les fonctions de perception de la plupart des animaux : identifier ce qu'ils voient, entendent ou lisent. Ils permettent aujourd'hui de construire à l'aide de briques logicielles disponibles gratuitement sur internet des assistants personnels, « le long » de très grandes bases de données. Par exemple, à partir de la base de la séquence de tous les films visionnés par tous les internautes, ils vont suggérer le prochain film qu'aimera un nouvel utilisateur. Il s'agit de retrouver très rapidement les films que regardent d'habitude les internautes après ceux que vient de visionner l'utilisateur. Cette fonctionnalité permet de faire des recommandations, ou de reconnaître une scène à partir de photographies ou de toute autre forme de données. En dernier lieu, ils savent résoudre approximativement des problèmes combinatoires ; c'est ainsi que fonctionne AlphaGo, tout comme les moteurs de calcul de risque des banques ou des assurances. Ils peuvent rapidement écarter les réponses irréalistes et isoler quelques scénarios probables sur lesquels ils concentrent leurs capacités de calcul.

Malgré le terme d'IA, nous sommes encore assez loin des capacités du cerveau humain, qui non seulement apprend sans avoir besoin d'être confronté à des bases de données aussi larges, mais qui surtout nécessite un coût énergétique moindre. Il faut souligner que la phase d'apprentissage de ces nouvelles machines exige de nombreuses données très bien étiquetées. Collecter et classer ces données est un travail fastidieux souvent réalisé par des humains. Les plateformes de microtâches analysées par Berg et al. (2018) permettent de mettre aux enchères la réalisation du nettoyage des données qui sont ensuite étiquetées, puis rangées, et finalement serviront à calibrer des IA. L'IA ne pourrait exister sans ces tâches réalisées à faible coût par des humains, nous entrons donc en réalité plus dans une ère de l'« intelligence bon marché » que dans celle de l'IA.

L'IA va toucher au cœur de l'industrie financière : personnaliser l'expérience client, améliorer la gestion du risque et rapprocher les prix de la réalité économique.

L'Institut Louis Bachelier, dans le cadre de son programme de recherche transverse dédié à l'impact des technologies sur la finance et l'assurance (FaIR ou Finance and Insurance Reloaded), a identifié trois domaines dans lesquels les fonctionnalités typiques fournies par l'IA (perception, statistiques le long de larges bases de données et résolution approximative de problèmes combinatoires) peuvent impacter les pratiques en finance de marché.

C'est tout d'abord dans le cadre de la « personnalisation de l'expérience client » que l'IA peut être utilisée. Cet axe n'est pas surprenant car il est commun à beaucoup d'autres secteurs, en ayant toutefois des particularités lorsqu'il s'agit de l'activité sur les marchés financiers. Le meilleur exemple est l'assistance au conseil en investissement (robo-advisory en anglais) ; qui se développe d'abord en B2B, entre les structureurs de produits et les investisseurs institutionnels, avant de toucher les particuliers. Dans un cadre institutionnel, les distributeurs de produits ont commencé il y a une quinzaine d'années à mettre à la disposition de leurs clients des portails internet permettant d'analyser la composition de leur portefeuille, d'identifier de potentielles « faiblesses » (en termes d'exposition à des facteurs de risque prédéfinis), et de proposer des solutions d'investissement pour couvrir ces risques ou bien pour mettre en place une exposition désirée à un facteur de risque réputé comme rémunérateur. En pratique, le client institutionnel fourni la composition détaillée de tout ou d'une partie de son portefeuille, sélectionne une collection de facteurs de risque (comme le facteur « sociétés internationales » ou « sociétés à forts dividendes »), renseigne ses objectifs en termes d'exposition (par exemple, aucune exposition à la part internationale des rendements des entreprises, une exposition de 20 % aux sociétés à fort dividende), et le logiciel propose un portefeuille complémentaire, qui va dans le sens des objectifs en exploitant des données historiques, dont les corrélations entre les différents actifs possibles. L'IA peut améliorer ces outils d'aide à la décision sur les portefeuilles, d'une part, en exploitant mieux les données (« faire des statistiques le long des historiques de performance des facteurs ») comme Bourgeron et al. (2018) le proposent et, d'autre part, pour résoudre le problème combinatoire de construction du portefeuille complémentaire (« résolution approximative de problème combinatoire »), par exemple en suivant Capponi et al. (2019).

La protection des consommateurs de produits financiers pourra elle aussi profiter d'innovations issues de l'IA. Typiquement, le questionnaire permettant d'évaluer l'appétit au risque d'un particulier voulant acquérir un produit d'investissement est aujourd'hui très générique et très aride, il aboutit à une note qui est comparée à un niveau de risque déclaré sur la fiche standardisée décrivant le produit. En s'inspirant des technologies de captation d'attention et d'interprétation de langage naturel mises en œuvre par les réseaux sociaux, ce questionnaire pourra être remplacé par un dialogue avec un agent conversationnel (chatbot en anglais), qui aura accès aux métriques de risque du ou des produits dans lesquels il est envisagé d'investir. Des applications d'éducation financière, peut-être couplées à ce questionnaire interactif, pourraient aussi voir le jour.

L'intermédiation du risque est le deuxième thème impacté par l'IA. Les banques d'investissement, poussées par l'évolution des régulations faisant suite à la crise financière de 2009, sont passées d'une activité de « stockage de risque » à une activité de flux. Ces intermédiaires ont de multiples rôles (teneurs de marché, structuration, émission de produits dérivés, achat et émission de dette à différentes échéances, etc.) qui sont fonctionnellement très proches : acheter et vendre des véhicules d'investissement (sur le long ou le court terme), tout en veillant à ce que le risque associé à l'inventaire de tous les produits présents dans le bilan de la firme ne soit pas trop élevé. Le niveau de risque est fixé implicitement par les régulateurs, via des exigences minimales de fonds propres. Le capital requis est différent pour chaque type de risque (bancaire ou de marché) et dépend aussi de la nature des produits financiers qui le portent (produits cash ou compensés, produits listés ou négociés de gré à gré, etc.). Lorsqu'un intermédiaire considère que le coût en capital associé à l'émission ou à la possession d'un type de produit financier est trop élevé, il ne stocke plus le risque associé. Il va plutôt tenter de revendre (respectivement de racheter) rapidement les produits de ce type qu'il achète (resp. qu'il vend). C'est ainsi qu'il passe d'un modèle de « détention d'inventaire » à un modèle de « gestion de flux ». L'IA peut être utile dans ce cadre. Tout d'abord pour faciliter la gestion du flux : des systèmes de recommandation à base d'IA vont aider les opérateurs de la banque ou du courtier à trouver des acheteurs ou des vendeurs potentiels. Il lui sera ainsi possible de mieux gérer le flux de ses achats et de ses ventes, afin de maintenir une exposition très faible aux risques qu'il ne veut plus financer. L'IA permet en outre de faire plus rapidement et avec plus de précision l'estimation des risques associés à la détention de produits financiers. Il s'agit de calculs extrêmement lourds, devant prendre en compte toutes les combinaisons possibles de réalisations des risques, qui ont fait des banques et des assurances les détenteurs des plus gros ordinateurs de la planète dans les années 1990 et 2000.

La dernière application de l'IA aux marchés financiers est associée à l'émergence de ce qu'il est convenu d'appeler aujourd'hui des « données alternatives ». Il s'agit de données non financières, mais qui reflètent une réalité économique, liée à la valorisation des produits financiers. Les images satellite, dont la précision a augmenté et le coût a baissé ces dix dernières années, en sont un bon exemple : elles permettent d'évaluer la qualité des cultures, de mesurer la luminosité des villes (et donc leur activité), de compter les véhicules sur les parkings, etc. Les transcriptions des discours des dirigeants des sociétés devant leurs assemblées générales, des communications aux analystes financiers ou des textes déclaratifs obligatoires pour les entreprises sont aussi disponibles, souvent gratuitement. Les textes de brevets déposés par les entreprises, les offres d'emplois ou le trafic sur leurs pages web font aussi partie de ces « nouvelles données » qui permettent d'évaluer ou de réévaluer de nombreuses variables économiques. Il s'agit de très gros volumes de données, qui ne peuvent être analysées, même approximativement, par des humains. Les récents progrès de l'IA permettant de comprendre des images ou bien de saisir le sens d'un texte permettent d'exploiter ces informations, afin de construire de nouveaux indices de bonne ou mauvaise santé de l'économie à toutes les échelles : macroéconomique ou microéconomique, voire simplement des indices de l'offre ou de la demande dans certains secteurs ou sous-secteurs. Comme Banbura et al. (2014) le décrivent, ces estimateurs en temps réel ou presque de variables économiques ne font pas de la prédiction ; ils tentent d'estimer l'état actuel de l'économie, par petites touches. Ce domaine a été appelé nowcasting en anglais, par analogie avec forecasting, qui signifie prédiction. Les sociétés de gestion, les décideurs et les stratégistes ou les traders des banques sont désormais capables de construire des tableaux de bord à l'aide de ces indices. Grâce au nowcasting, leurs décisions, qui participent très largement à former les prix et à allouer des capitaux, sont plus fidèles à l'état de l'économie, diminuant le risque de formation de prix virtuels, qui ne seraient issus que d'une activité financière endogène.

Si la personnalisation de l'expérience client, une gestion des risques plus efficace et une meilleure connection à l'économie réelle grâce aux données alternatives sont les trois grandes directions dans lesquelles on peut attendre des innovations, il s'agit d'un processus qui a commencé il y a quelques années et qui n'en est qu'à ses balbutiements. Il reste encore des travaux de recherche à réaliser et des méthodologies à mettre en place. Des évolutions de gouvernance seront parfois nécessaires, y compris dans le domaine de la régulation et de la conformité.

L'IA provoque une fragmentation de l'offre des entreprises

La liste d'innovations naturelles apportées par l'IA dans les domaines de l'expérience client, de la gestion des risques et de l'exploitation de données extra-financières ne répond pas à la question de l'effet de ces nouveautés sur le fonctionnement des marchés financiers. L'effet de l'IA sur d'autres secteurs semble clair : que ce soit dans l'industrie de l'édition, de la télévision ou du cinéma, de la vente, des transports (cf. Rencher, 2019) ou de la restauration, la capacité d'assembler à la volée différents services pour créer une offre personnalisée par consommateur a pour conséquence une nouvelle forme de désintermédiation. Des plateformes génèrent des menus personnalisés à partir d'assemblages de services provenant de différents fournisseurs. Amazon propose à ses clients de rassembler dans une commande des biens de consommation en provenance de fournisseurs très différents et de lieux très éloignés ; Uber Eats fabrique des menus personnalisés qu'aucun restaurant n'a jamais pensé à composer, faute de connaître les historiques de consommation au-delà de son pas-de-porte. Alors que les maisons de presse proposaient un assemblage d'articles unique figé dans un journal papier, et que les chaînes de télévision ne proposaient qu'une seule grille de programme, linéaire, adaptée au « client moyen », les technologies récentes cessent de se focaliser sur des agents représentatifs pour s'adresser de façon individualisée à la fois au client et aux fournisseurs. Du point de vue de la gestion d'une entreprise de l'un de ces secteurs, il n'est plus possible de gérer ses marges de façon horizontales, en acceptant une baisse de rentabilité sur certains produits compensée par des marges plus confortables ailleurs car les moteurs de recherche des plateformes qui sélectionnent le mieux disant, microservice par microservice, sont des machines à provoquer de la sélection adverse.

L'industrie de la finance de marché voit se dérouler ce scénario dans le monde du courtage depuis le milieu des années 2000 ; la mise en concurrence des plateformes de négociation en 2007, dans le cadre de la directive européenne concernant les marchés d'instruments financiers (MIF), est caractéristique de ce changement de paradigme. Explicitement focalisée sur la fin des monopoles des marchés nationaux (Euronext, London Stock Exchange, Deutsche Boerse, etc.), cette directive a formalisé la responsabilité des courtiers dans le routage des ordres d'achat et de vente sous la forme d'un devoir de « meilleure exécution » : il leur faut obtenir le meilleur prix pour les ordres de leurs clients. Pensée dans un monde « pré-IA », cette exigence visait à mettre en place une concurrence saine entre les plateformes : l'intermédiaire (c'est-à-dire le courtier) allait appareiller l'ordre de chaque client avec la meilleure offre, dans l'esprit du problème de transport optimal de Monge si bien décrit par Villani (2008). Ce n'est pas du tout ce qui s'est produit : l'émergence de techniques apparentées à l'IA comme celles utilisées par Laruelle et al. (2013) a conduit à une fragmentation des ordres. En quelques années, les courtiers ont perdu la mainmise sur l'exécution au profit d'algorithmes produits par peu d'acteurs, et leurs marges ont baissé. Lehalle et Laruelle (2018) exposent la façon dont l'écosystème du courtage est aujourd'hui polarisé autour d'un grand nombre de plateformes de négociation fournissant une large palette de services (carnet d'ordres multilatéraux, système de cotations bilatérales, dark pools, internalisation systématique, modèles de frais inversés ou non, etc.) dans laquelle les algorithmes de quelques grands acteurs vont puiser pour assembler, en temps réel et de façon personnalisée, la réserve de liquidité demandée par chaque client. La deuxième version de la directive MIF, entrée en vigueur en janvier 2018, ouvre la porte à une révolution de même ampleur pour la fourniture d'analyse finan cière en empêchant les courtiers de lier ce service aux sommes facturées pour l'exécution. Ce couplage leur permettait de mettre en commun les marges réalisées en courtage d'ordres et en fourniture d'analyse financière. MIF 2 permet l'émergence de plateformes d'analyse financière exploitant des IA qui pourraient agréger des services provenant de plusieurs courtiers afin de créer des offres personnalisées par client. Cette évolution devrait remplacer des acteurs monolithiques et peu agiles par une collection de fournisseurs surveillant leurs coûts de très près, dont les produits seront ré-assemblés à la demande par quelques gigantesques plateformes de distribution.

Le courtage et la négociation sont la forme d'intermédiation la plus simple ; ils ont donc été les premiers à être transformés par les technologies de l'IA. Tous les autres services d'investissement seront transformés de la même façon pour peu que les régulations poursuivent leurs efforts vers moins de monopole et plus de symétrie d'information. Le rôle de la régulation est loin d'être négligeable et ne va pas que dans un sens : les normes introduisent des coûts fixes qui sont autant de barrières d'entrée pour les start-up de la finance. Ce frein à l'innovation donne le temps aux acteurs historiques de s'approprier le savoir-faire de ces jeunes entreprises, par exemple en entrant dans leur capital, comme le Nasdaq qui acheta Quandl, jeune fournisseur de données alternatives, en décembre 2018. Mais la compétition se déroulant sur la scène internationale, une harmonisation est nécessaire afin de ne pas laisser un avantage aux jeunes pousses nées sous des cieux plus cléments en matière de régulation. Dans le domaine des marchés et de la négociation par exemple, l'Europe n'a pas su faire émerger un géant comme Intercontinental Exchange (ICE), né en 2000 aux États-Unis, qui a pu racheter le groupe NYSE-Euronext en 2013, dont les deux composantes ont plus de deux cents ans, et qui continue à menacer de nombreux acteurs européens.

Pour comprendre et accompagner les innovations apportées par l'IA, il n'est donc pas suffisant de lister les domaines d'application les plus probables, il est capital de comprendre le processus qui va faire naître ces applications, et la façon dont elles devraient se propager dans l'écosystème des entreprises de marché. Les travaux de David (1989) offrent une grille de lecture de ce processus : il faut voir l'IA comme une « technologie générique » (general purpose technology en anglais) au même titre que la machine à vapeur et l'électricité ont pu l'être. Par conséquent, son utilisation dans un secteur spécifique ou pour une activité particulière ne va pas toujours de soi et ne se fait pas à coût zéro. Il est nécessaire d'investir pour obtenir les « innovations secondaires » adaptées à chaque usage. Les instituts interdisciplinaires d'intelligence artificielle (3IA), créés à la suite du rapport Villani, sont des structures destinées à stimuler les innovations secondaires en favorisant les contacts et les projets autour d'un pôle d'experts de l'IA et des sciences des données : chaque industrie peut y faire héberger des projets innovants, portés par des experts du domaine d'application. Si le secteur financier a été exclu des 3IA, il revient aux institutions financières de créer des structures similaires. La Banque de France, des banques d'investissement et des assurances ont souvent créé des Labs sur le même modèle : un petit groupe d'experts en IA et en science des données accueille des équipes métiers autour de projets bien définis et sur des temps courts, afin de faire émerger des solutions innovantes.

Le lien entre IA et technologie
n'est pas anecdotique :
les acteurs se « plateformisent »

Il ne faut pas négliger que les technologies de l'IA sont avant tout couplées aux avancées de l'informatique : selon la loi de Moore (parfaitement documentée par Mollick, 2006), la capacité d'enregistrer, de stocker et de traiter des données est multipliée par 1 000 tous les dix ans. Cette progression a influencé l'industrie du logiciel et ses pratiques et tout particulièrement l'expansion des logiciels libres, qui n'est pas étrangère au rythme des innovations en sciences des données en général et en IA en particulier. Au-delà des librairies d'IA distribuées gratuitement par les géants du traitement des données (comme TensorFlow pour Google et pyTorch pour Facebook), le monde du développement logiciel s'est organisé pour digérer les millions de lignes de code produites annuellement en open source. L'industrie logicielle s'est modularisée, puis s'est organisée autour de plateformes décrites par Plantin et al. (2018). L'industrie de la finance de marché, qui est essentiellement une industrie logicielle, tire profit de ces nouvelles pratiques en développant des plateformes internes, qui unissent tous les composants utilisés par les différents départements de l'entreprise. Baldwin et Clack (2003) montrent que la première vertu de ces plateformes internes est de diffuser l'expertise en s'assurant qu'une fonctionnalité n'est développée qu'une seule fois, puis améliorée grâce aux retours d'expérience de toutes les équipes l'utilisant. La seconde est qu'elle permet de consommer des services logiciels fournis par des sous-traitants ou des partenaires, et de produire soi-même des services qui seront consommés par des clients externes. Il semble que la transformation engendrée par la modularisation des fonctions de la finance de marché soit de nature à provoquer une désintégration verticale des firmes, comme l'analyse Frigant (2005) dans sa revue de la littérature sur l'impact organisationnel de la modularité. Les gagnants seront avant tout les opérateurs des plateformes ; les acteurs les plus innovants ont déjà avancé dans cette direction. La plateforme Aladdin de Blackrock opère 14 billions de dollars, soit deux fois plus que les actifs sous gestion de Blakrock, et Marquee est au coeur de la stratégie de Goldman Sachs, qui cherche à unifier l'offre sur mesure de ses banquiers d'affaires avec un environnement sans cesse plus technologique où l'IA deviendrait un élément essentiel de l'aide à la décision1.

Qu'ils deviennent ou non les GAFAM de l'industrie financière, tous les acteurs ont intérêt à jouer le jeu de la plateformisation en fragmentant les services qu'ils fournissent et en les associant à des modules logiciels. Les outils fournis par l'IA vont ré-assembler cette constellation de microservices, en provenance de différents fournisseurs, pour construire à la volée une offre personnalisée pour chaque client. Jusqu'à présent, cette personnalisation était réalisée par des humains qui, sans avoir la capacité de puiser dans une très large bibliothèque de choix, cherchaient à proposer aux clients un assemblage de produits adaptés et essayaient de suggérer des améliorations en interne quant aux fonctionnalités de ces produits. L'émergence de l'IA soulève évidemment des questions d'employabilité qu'il serait trop long d'aborder dans le détail, sachant que l'impact de l'automatisation sur le marché du travail a été déjà largement étudié dans le cadre de l'industrie automobile par Acemoglu et Restrepo (2017) et Aghion et al. (2017) : dans un premier temps la robotisation ne détruit pas d'emplois, elle en crée même, mais dans un second temps, l'expertise capitalisée dans les machines aboutit à une délocalisation des centres de production. Il convient néanmoins de souligner certaines spécificités de l'IA, et en particulier de la chaîne de production d'IA. La mise en place d'une IA nécessite au moins trois composants : en premier lieu, la disponibilité d'un code informatique, qui est souvent une librairie libre de droits produite par une université ou l'une des grandes entreprises de la science des données ; en deuxième lieu, une collection de données qui sera présentée au logiciel afin qu'il apprenne les relations présentes dans son contenu ; et en troisième lieu, un code informatique ad hoc qui assemble les librairies, leur présente les données, et précise le critère qui définit que l'apprentissage s'est bien passé. Ce critère peut, par exemple, être un bon taux de classification de clients, ou une faible distance entre le risque prédit par l'IA et le risque qui a été constaté quelques semaines plus tard, ou encore un faible écart entre l'activité de centres industriels anticipée par l'IA à partir d'images satellite et la production de ces centres évaluée grâce aux bilans et aux comptes de résultat des entreprises qui y sont localisées.

Les librairies utilisées sont codées et corrigées collectivement ; elles sont déposées sur l'une des plateformes hébergeant des logiciels libres, comme github. Le suivi et la correction des erreurs ainsi que l'intégration de nouvelles fonctionnalités sont entre les mains d'une petite équipe de chercheurs et de développeurs qui s'assurent de la cohérence de la librairie et de son alignement avec certains principes énoncés à sa création. La qualité de la collection de données qui va être utilisée pendant l'apprentissage est cruciale : l'IA ne va en effet rien faire d'autre que puiser dans ces données afin de capturer les relations entre les différentes variables qui lui seront fournies par la suite en production. Le rôle des données est donc tout aussi important que celui de la définition du critère de succès de l'apprentissage. Le nettoyage, le stockage et l'étiquetage de ces données ont une grande influence sur le résultat de cet apprentissage, et il n'est pas question aujourd'hui de les mettre aux mains de machines. Ce sont des opérateurs humains qui sont en charge de ce processus. Ces tâches ont créé de nouveaux métiers : data scientists, data engineers ou data analysts, dont il ne faut pas négliger l'importance. Ironiquement, l'IA, qui peut réaliser des tâches complexes sans être intelligente, remplacera les arrière-guichets (back-office en anglais) des entreprises financières, mais elle se reposera sur d'autres arrière-guichets de préparation et d'étiquetage des données. Les emplois sont transférés des entreprises ou des départements qui fournissent des services financiers aux arrière-guichets qui préparent les données à présenter aux IA pendant les phases d'apprentissage, en amont de leur déploiement. Ces nouvelles fonctions ne sont pas toujours regroupées au sein d'une même entreprise, car elles ont souvent recours aux services de microtâches (dont le plus connu est Amazon Mechanical Turk), qui délocalisent des tâches d'étiquetage ou de nettoyage de données via un système de mise aux enchères. Ce sont finalement des étudiants indiens, chinois ou des mères au foyer américaines qui vont former un large réseau d'arrière-guichets décentralisés dont la composition démographique a été notamment étudiée par Ross et al. (2010).

Les sources d'incertitude liées à l'IA
restent à maîtriser

Les innovations secondaires produites par la confrontation de l'IA aux spécificités de l'industrie financière se déploieront donc dans trois directions : vers les clients et la fabrication de produits, vers l'économie réelle et le nowcasting, et vers la gestion du risque. Mais elles ne seront pas sans conséquences sur l'organisation de cette industrie. En premier lieu, l'IA n'est pas une technologie isolée : elle ne peut pas se détacher des projets de logiciels libres fournis par les géants de la science des données (les GAFAM, NATU ou BATX). De ce fait, elle s'accompagne d'une très forte modularisation des services financiers et d'une plate formisation des entreprises qui les produisent. Il est très probable que quelques plateformes géantes deviennent à terme les intermédiaires priviligiés entre une constellation de fonctionnalités unitaires et l'assemblage, à la volée, de services personnalisés selon les caractéristiques de chaque consommateur de services financiers. Des IA seront impliquées aux deux bouts de la chaîne : dans la fabrication des fonctionnalités unitaires et dans l'identification des particularités de chaque consommateur, essentiellement en termes de profil de risque. Certains grands acteurs se sont déjà lancés dans la compétition pour devenir les propriétaires de ces points nodaux de l'industrie.

Toutes les industries tâtonnent afin de trouver la bonne méthode favorisant la production d'innovations secondaires à l'IA. Mettre en contact dans un lieu unique, un « Lab IA », des professionnels de l'IA et des sciences de données avec des experts métiers focalisés pendant quelques mois sur un projet bien identifié semble être l'une des solutions émergente. L'industrie de la finance de marché cherche un chemin vers l'innovation qui n'augmente pas le risque systémique. L'un des premiers aspects à prendre en compte est lié à la modularisation des fonctionnalités et à la plateformisation : d'une part, il est plus compliqué de garantir la cyber-sécurité dans un monde où les services sont distribués et, d'autre part, une forte dépendance des IA à un faible nombre de ressources informatiques (que ce soit des librairies ou des services d'hébergement délocalisés) fait émerger un nouveau type de risque systémique qui pourrait être provoqué par un dysfonctionnement de l'une de ces ressources, puisqu'il affecterait de façon transverse une grande partie des acteurs du système financier.

En dernier lieu, les instances de supervision des marchés exigent explicitement ou implicitement que les entreprises fournissant des services financiers soient en mesure d'expliquer le sens économique de leur activité. Le fameux triptyque « compter pour comprendre, comprendre pour agir » permet de bien illustrer les faiblesses actuelles des techniques d'IA de ce point vue. D'une part, la qualité des données utilisées pendant la phase d'apprentissage est souvent sous-traitée et rarement bien documentée et, d'autre part, ces techniques ne fournissent pas de « modèle » au sens habituel et ne permettent donc pas de comprendre les relations entre les variables, mais uniquement de les exploiter implicitement en production. Finalement l'action sera souvent produite par une plateforme qui combine plusieurs modules ou fonctionnalités unitaires. Il est particulièrement complexe d'identifier les prémices d'une action dans un tel contexte.

Il faut néanmoins souligner qu'il ne s'agit pas de questionnements totalement nouveaux pour l'industrie financière : la nature des données utilisées pour quantifier les risques est souvent mise en cause, par exemple dans le cas ambigu des données contribuées ; le sens économique des modèles utilisés n'est pas toujours clair, car ils sont souvent constitués d'une superposition de calculs techniques, et le lien entre les différents modèles et l'action prise est par conséquent difficile à établir. Comme cela avait été le cas pour le trading haute fréquence, l'intrusion de la technologie dans un espace plutôt dominé par les humains permet de prendre du recul sur la nature des services financiers, de clarifier les enjeux et de mieux réguler.


Notes

1   L'annexe détaille les spécificités de chacune de ces plateformes.


Annexe

Annexe

ALADDIN ET MARQUEE :
DEUX GÉNÉRATIONS DE PLATEFORMES

Les deux plateformes Aladdin de Blackrock et Marquee de Goldman Sachs sont souvent données comme références pour illustrer la « plateformisation » de l'industrie financière. Elles sont néanmoins très différentes. En effet, la première est issue du monde de la gestion d'actifs et a été construite dans une logique d'externalisation de services essentiellement informatiques, alors que la seconde, plus récente, provient d'une banque d'investissement et doit permettre à Goldman Sachs une amélioration continue des services rendus à ses clients. La synergie entre Aladdin et Blackrock est une logique de mise en commun de coûts fixes avec des compétiteurs, alors que Marquee reste centrée sur l'amélioration exclusive des services de Goldman Sachs, tout en étant ouverte à l'interopérabilité. Cette annexe dresse une courte description de chacune d'entre elles.

Aladdin : mise en commun d'une infrastructure

L'histoire de Aladdin est celle de la transformation en vingt ans d'un « centre de coûts » en source de revenus : les revenus de type « Technology Services », essentiellement dus à Aladdin (acronyme de Asset, Liability, Debt and Derivative Investment Network) représentaient 5 % des revenus total de Blackrock en 2018.

Le développement d'une plateforme interne pour générer les rapports de suivi des risques des fonds d'investissement de Blackrock commence en 1987. C'est en 1994 que les premiers utilisateurs externes peuvent profiter de cet outil. Puis une société indépendante, Blackrock Solutions, est créée en 2000 afin de rassurer sur d'éventuelles « fuites d'informations » entre les utilisateurs de la plateforme et sa maison mère, qui y regroupe la plupart des solutions technologiques qu'elle utilise : gestion de portefeuille, opérations (y compris middle et back-office), négociation (trading en anglais), et développement d'outils d'analyse et de monitoring. Ces différents modules s'appuient sur une base de données financières. Selon le site web de Blackrock, une force de 1 000 développeurs maintient et fait évoluer cette plateforme et ses modules.

Aladdin est commercialisée comme un service : le besoin d'un client est analysé et seuls les modules nécessaires, personnalisés au besoin, sont déployés. Néanmoins il ne s'agit pas d'une offre de services de ressources humaines : seule la technologie est outsourcée à Aladdin, l'utilisateur doit avoir les ressources humaines nécessaires à l'opérer. Il s'agit donc de l'externalisation « classique » d'une plateforme logicielle ainsi que Baldwin et Woodard (2009) l'ont exposée : l'économie se fait sur les coûts récurrents des équipes informatiques, ainsi que sur les coûts fixes d'interfaçage ou de développement de nouvelles fonctionnalités. Blackrock Solutions communique sur le fait que ses clients économisent de 10 % à 30 % des coûts afférents à la maintenance des systèmes auxquels Aladdin se substitue ; la société de gestion Blackrock ne tire pas un avantage compétitif particulier à avoir été à l'origine de cette plateforme. Bien entendu, l'avoir fait naître est un signe de maturité et une preuve de la capacité à développer une vision sur les métiers de la gestion qui sont de bons arguments commerciaux, mais il ne s'agit pas d'une pièce maîtresse de la stratégie de Blackrock en tant que société de gestion.

D'ailleurs, si Aladdin intègre des composants permettant d'accéder aux sous-traitants classiques des sociétés de gestion, comme les fournisseurs de données financières ou les courtiers et les dépositaires, il n'est pas possible de remplacer l'un de ses composants informatique par un autre. Par exemple, il n'est pas possible de substituer un autre modèle de calcul de risque à celui proposé par Blackrock Solutions. Le succès d'Aladdin montre néanmoins l'appétit de l'industrie financière pour des solutions de technologies externes, comportant des objets métier.

Marquee : une collection de services modulaires
et interopérables

Marquee est un projet plus récent, que Goldman Sachs débute en 2013 dans l'esprit d'une révolution technologique interne, dont la figure de proue a été Martin Chavez (chief information officer de 2014 à 2017, puis coresponsable des activités de trading jusqu'en 2019). Alors que Aladdin est un incontestable succès de l'ancien modèle d'externalisation d'une infrastructure, la plateforme de Goldman Sachs n'est pas encore un succès, mais se positionne sur un nouveau modèle basé sur des composants auxquels chaque utilisateur peut accéder par API (application programming interface, interface de programmation applicative). Dans une interview récente à The Block Crypto (13 août 2019), Martin Chavez défini très bien ce nouveau paradigme : « [Chaque acteur doit] vraiment commencer à penser en termes de recouvrement de ses offres avec celles des autres participants de marché, et cesser de penser en terme de compétition. [...] Le système financier est en train de se réinventer et de se ré-architecturer autour d'API ; la question cruciale devient [pour chaque fonction] : allez-vous être le meilleur producteur [d'information et de service] ? car il ne subsistera que très peu de producteurs pour chaque type d'API que tous les autres acteurs utiliseront. » (https://www.theblockcrypto.com/post/35749/martin-chavez-goldman-sachs).Pas traité :

À l'opposé d'un projet d'externalisation, Marquee reste avant tout centré sur les services fournis par Goldman Sachs. Son but est d'offrir un accès individualisé à chaque fonctionnalité fournie par cette banque d'investissement, et de les organiser de nombreuses façons différentes. Il y a ainsi des modules d'analyse financière, d'analyse de risque de portefeuille, de création de métriques financières, de fabrication de produits financiers et d'accès à des données. La plateforme offre en outre d'autres modules aux employés de Goldman Sachs. Alors que l'offre traditionnelle de données vise à fournir un accès générique aux bases de données du commerce, celle de Marquee permet d'accéder aux données privées de Goldman Sachs. En effet, les banques d'investissement produisent de l'information financière, qui est rendue disponible via cette plateforme. De même, la création de produits financiers est habituellement réservée aux services internes des banques d'investissement : Goldman Sachs a dans un premier temps développé un module permettant à ses propres services de créer facilement des produits dérivés basés sur des indices, connecté aux agents calculateurs et aux distributeurs classiques de données financières (généralement fournisseurs des banques, mais qui se trouvent dans le rôle de clients pour cette fonctionnalité), puis dans un second temps, ce module a été intégré à Marquee et donc mis à disposition de ses clients.

L'organisation dans Marquee d'une porosité entre les clients, les fournisseurs et les métiers de la banque d'investissement est rendue possible par la modularité logicielle. Mais c'est l'IA qui lui donne de la valeur : non seulement l'IA ouvre la porte à la personnalisation de ses composants autour des usages de chaque client, mais aussi elle permet surtout au propriétaire de la plateforme d'être au centre des échanges d'information entre ses clients, ses fournisseurs et ses propres équipes. Il s'agit du graphe d'interactions qui fait le succès commercial des réseaux sociaux, mais qui est transposé ici à l'écosystème des participants de marché, et dont les like sont remplacés par des transactions financières.


Partager par email Partager sur Facebook Partager sur Twitter Partager sur Google+