Asset Management

Fabrice Riva : «Nous créons des modèles d’IA qui peuvent anticiper des faillites d’entreprises»

Dans le cadre de l’AM Tech Day, organisé le 8 octobre par L’Agefi, à Paris, au Palais Brongniart, Fabrice Riva, professeur à l’Université Paris Dauphine spécialisé dans la recherche sur l’intelligence artificielle, a passé en revue plusieurs cas d’usage de l’IA.

Anticiper des faillites d’entreprises et des situations de stress des marchés, faire des recommandations à l’achat ou à la vente de titres, prédire des pertes de compétitivité pour certaines entreprises…Voici quelques exemples de cas d’usage de l’IA générative sur lesquels planchent actuellement les équipes de la Chaire Fintech de l’Université Paris Dauphine.

«Nous travaillons sur la question des Generative Adversarial Networks, qui consistent à fabriquer des données artificielles mais totalement réalistes, explique Fabrice Riva, professeur à l’Université Paris Dauphine, en charge de l’axe de recherche dédiée à l’intelligence artificielle au sein de la Chaire Fintech. (…) En effet, certaines fois, nous manquons de données réelles pour entraîner des modèles, c’est le cas notamment pour le développement des mesures visant à anticiper des situations de stress de marchés, de crises car il n’y en a pas tant que cela. Et donc on va créer des modèles d’IA permettant de générer des données.»

Les potentiels effets pervers de l’IA

La Chaire Fintech s’interroge aussi sur les effets potentiellement négatifs de l’IA. Ainsi, le chercheur cite l’exemple de l’octroi des crédits bancaires aux particuliers, qui a fait l’objet d’une étude réalisée par trois chercheurs français et soutenue par la Chaire. Celle-ci part d’un constat : par le passé, les femmes ont souvent été discriminées dans l’octroi de crédits. Concrètement, elles avaient statistiquement moins de chances que les hommes d’en obtenir.

A lire aussi: Ambassadeurs, groupes de travail, ChatGPT interne : comment l'IA générative s'invite dans le quotidien de la finance

«Quand vous entraînez un modèle (IA) sur une base de données comportant ces biais, il va continuer à reproduire ces biais, voire les renforcer.» Ces trois chercheurs ont essayé de voir s’il était possible de redresser ces biais négatifs à l’égard des femmes et ils ont constaté que cela était très compliqué. «Nos modèles sont maintenant tellement performants, qu’ils sont capables de recouper des informations annexes, comme par exemple votre logement, votre voiture…qui vont permettre de savoir si vous êtes une femme ou pas.»

Le chercheur a également pointé la vulnérabilité des données utilisées par les modèles d’IA, indiquant que les Small Language Models (SLMs), en opposition aux Large Language Models (LLM), pouvaient permettre de mieux contrôler l’écosystème au sein duquel seraient diffusées les données et donc d’assurer leur confidentialité.

Enfin, Fabrice Riva a appelé à une rationalisation de l’utilisation de l’IA, notamment générative, pointant du doigt son caractère très énergivore : «On considère qu’un prompt traité sur ChatGPT pour apporter une réponse à votre question, c’est 10 à 25 fois plus d’énergie consommée que pour une requête Google».

Un évènement L’AGEFI

Plus d'articles du même thème

ETF à la Une

Les plus lus

Contenu de nos partenaires

A lire sur ...