IA et surveillance des marchés : un équilibre à trouver

L’utilisation de l’intelligence artificielle pourrait permettre d’améliorer la surveillance des marchés à condition d'éviter plusieurs écueils, estime Jean-Pierre Boushira, responsable des régions sud-EMEA, Benelux et pays nordiques chez Veritas Technologies.
Veritas Technologies
Intelligence-artificielle-IA-AdobeStock_735264726.png
L'intelligence artificielle trouve de plus en plus d’applications dans le secteur financier et notamment pour la surveillance des marchés  -  AdobeStock

L’intelligence artificielle (IA) trouve de plus en plus d’applications dans le secteur financier et notamment pour la surveillance des marchés. En effet, face à la complexité croissante et à l’augmentation du volume des opérations financières dans le monde, les méthodes de surveillance traditionnelles ne suffisent plus. L’IA ouvre la porte à de nouvelles possibilités dans ce domaine.

Une surveillance des marchés devenue obsolète ?

La Commission européenne a récemment lancé une série de travaux afin de recueillir l’avis des acteurs de la finance sur l’utilisation de l’intelligence artificielle sur les marchés financiers. Des ateliers pratiques sur l’IA sont en train de voir le jour, avant une deuxième phase, de consultation publique, visant à informer la Commission sur les possibles applications concrètes de l’IA. Avant de voir émerger une potentielle «Loi IA» pour les marchés financiers, il convient de faire un état des lieux des perspectives offertes par cette technologie, mais aussi de la manière dont elle doit être encadrée.

Historiquement, la surveillance des marchés s’est principalement appuyée sur des modèles simples et des seuils préétablis pour détecter de potentielles manipulations. Si ces systèmes ont été efficaces, ils font aujourd’hui face aux limites des paradigmes technologiques sur lesquels ils reposent. Leur principal inconvénient est de générer un taux de faux positifs élevé. Il en résulte un manque d’efficacité et une augmentation des coûts opérationnels pour les institutions qui les utilisent.

De plus, ces systèmes peinent à s’adapter à un marché en constante évolution. Ils peuvent uniquement détecter des comportements frauduleux déjà connus et documentés, mais ne peuvent pas découvrir de nouvelles formes d’abus. La perspective de nouveaux systèmes de surveillance plus dynamiques et plus robustes est donc largement plébiscitée par les institutions financières et les régulateurs.

A lire aussi: Trustpair complète son arsenal antifraude grâce à JPMorgan

Une solution nommée IA

L’IA, par le biais du machine learning, propose une approche transformatrice. Concrètement, à l’inverse des systèmes basés sur des règles préétablies, l’IA peut apprendre à partir des données, identifier des modèles et faire des prédictions, le tout avec une intervention humaine bien moindre. Cette approche devient nécessaire dans un environnement où les stratégies de négociation et les conditions du marché changent constamment.

La force des systèmes de surveillance pilotés par l’IA réside dans leur capacité à traiter de grandes quantités de données provenant de sources multiples (plateformes de négociation, flux d’informations, dossiers internes, etc.), leur permettant ainsi d’analyser et de détecter en temps réel des transactions extrêmement complexes. Les manipulations du marché qui peuvent se cacher derrière des volumes de transactions inhabituels ou des changements de prix ne correspondant pas aux schémas historiques peuvent ainsi être plus facilement repérées.

En outre, l’IA peut réduire considérablement le nombre de faux positifs en affinant les seuils d’alerte et les paramètres et permettre aux équipes dédiées à la conformité de se concentrer sur les activités réellement suspectes, améliorant ainsi l’efficacité globale des institutions. Ensuite, l’IA est capable d’apprendre à partir de données historiques et d’identifier des modèles qui lui permettent de prédire le comportement futur du marché, fournissant ainsi des informations précieuses pour la gestion des risques et les mises en conformité.

Enfin, l’automatisation de nombreuses tâches de surveillance et de conformité par l’IA aide à réduire les coûts. Les équipes peuvent en effet se concentrer sur les investigations complexes tandis que l’IA gère les tâches répétitives et nécessitant l’analyse de vastes corpus de données.

A lire aussi: Le tribunal de commerce de Paris condamne LCL suite à un virement frauduleux

Un potentiel soumis à de nombreux défis

Toutefois, le potentiel de l’utilisation de l’IA dans la surveillance des marchés pose un certain nombre de défis, à commencer par la transparence des modèles utilisés. En effet, de nombreux modèles d’IA, notamment ceux basés sur le deep learning, sont souvent qualifiés de «boîtes noires» en raison de la complexité et de l’opacité de leurs processus décisionnels.

La simple évaluation de la solvabilité dans le cadre d’une demande de prêt est un bon exemple d’une situation où la prise de décision par une «boite noire» peut avoir des répercussions légales importantes. Ce type de décision doit être libre de tout biais et transparent, documentable, faute de quoi l’institution s’expose à un risque juridique et des sanctions. Pour y remédier, la transparence et l’explicabilité des systèmes de décision de l’IA, doivent progresser. Ils doivent devenir vérifiables et «inspectables».

On ne peut aborder la question de l’IA dans le secteur de la finance sans aborder la question de la gestion de données, puisque les systèmes basés sur l’intelligence artificielle peuvent être exposés à des attaques sophistiquées. Les conséquences peuvent être graves dans un secteur où les enjeux financiers sont importants.

De plus, l’IA puise ses sources dans une grande quantité de données sensibles, y compris des données personnelles, et ce, particulièrement dans un secteur où sont conservés les informations financières, les identifiants de connexion ou les données de solvabilité des clients. Une fuite de ces données lors d’attaques peut exposer les entreprises à des risques réglementaires comme une violation du RGPD par exemple. Sur ce front également, l’IA représente un risque juridique.

Enfin, la mise en œuvre réussie de l’IA dans la surveillance des marchés nécessite une infrastructure technique solide et un capital humain qualifié. La sécurité des données reposant avant tout sur l’humain, même s’il faut aussi régulièrement effectuer des tests et des audits sur les modèles d’IA pour garantir qu’ils n’accèdent pas à des informations sensibles sans autorisation. Les entreprises doivent investir à la fois dans la technologie et dans la formation pour tirer pleinement parti des avantages de cette technologie tout en respectant les exigences réglementaires, or toutes ne disposent pas des budgets nécessaires.

A lire aussi: L’AI Act, texte pionnier pour réguler l’intelligence artificielle, entre en vigueur

Un évènement L’AGEFI

Plus d'articles du même thème

ETF à la Une

Contenu de nos partenaires

A lire sur ...