L’IA générative : quelles opportunités et quelles approches pour les PME ?
L’intelligence artificielle est déjà exploitée depuis près d’une dizaine d’années en entreprise pour l’analyse de données, la prévision ou l’optimisation. Toutefois, 2023 a marqué un tournant vers la démocratisation de l’IA générative. La recherche sur la structure des réseaux de neurones a progressivement amélioré l’analyse du langage naturel, avec une décomposition plus fine de sa structure et de son sens. OpenAI a franchi un nouveau palier en entrainant ces modèles sur l’immensité des données de langage naturel disponibles, et en introduisant un processus d’exécution itérative de ses algorithmes, permettant une capacité générative. Puis elle a démocratisé l’usage de ces modèles avec un chatbot conversationnel intuitif. L’IA est donc devenue accessible et facilement utilisable par tous les métiers au sein de l’entreprise. C’est un sujet important pour nous, en tant qu’investisseurs, et pour l’accompagnement de nos participations.
Par Alban Tanaka, Directeur de participations, Azulis Capital
Structurer l’approche
Le potentiel de ces outils est considérable, mais la mise en application à travers des cas d’usages concrets et à valeur ajoutée n’est pas évidente pour les entreprises. Cette difficulté provient en partie du fait que les LLM ont été entraînés sur des ensembles de données très larges, pour une polyvalence maximale, et que les interfaces les plus connues ont été construites pour répondre à un usage grand public.
Pour répondre aux besoins spécifiques des entreprises, il existe différentes options. Certains outils comme Azure OpenAI (Microsoft), permettent de créer à partir de zéro ou de fine-tuner des modèles, puis des assistants en utilisant les propres données de l’entreprise. Cette option est très flexible, mais nécessite des ressources et des investissements. A l’inverse, certains acteurs, comme Dust, ont choisi de développer une couche applicative au-dessus des LLM, avec un outil plus standard, no code. L’outil permet de créer des agents conversationnels spécialisés par tâche, qui recherchent et intègrent les données pertinentes de l’entreprise dans les prompts (RAG). Une troisième voie est d’attendre l’intégration (déjà en cours, mais plus progressive) de briques d’IA générative dans les logiciels métiers déjà en place dans les sociétés. Cette piste semble la plus naturelle pour les PME, qui par nature disposent de moyens humains et financiers limités, et recherchent une certaine stabilité dans leurs outils.
Cette réflexion s’applique aussi à notre métier d’investisseur, car les outils d’IA générative « grand public » ne permettent pas une assistance efficace dans nos tâches, qui sont soumises à des règles et des formalismes spécifiques, qui peuvent aussi varier en fonction des sociétés. Par ailleurs, le travail de vérification des sources et de la fiabilité est primordial. Il est donc nécessaire de pouvoir intégrer ses propres données, voire de fine-tuner des modèles plus réduits pour arriver à des résultats satisfaisants. L’IA générative ne remplacera pas certains aspects du métier, comme les interactions et l’accompagnement humain, mais elle sera néanmoins un changement profond pour tout l’écosystème de l’investissement, en particulier pour nos conseils, dans le domaine juridique ou encore de l’analyse financière.
L’outil CoPilot de GitHub, utilisé déjà depuis plusieurs années par les développeurs, permet d’avoir un peu de recul sur l’impact de l’IA générative. Il a certes permis des gains de productivité, mais n’a pas totalement cannibalisé le métier de développeur. L’outil permet d’accélérer certaines tâches simples, mais ne produit en général pas un code d’aussi bonne qualité qu’un développeur, pour des problèmes complexes. A ce titre, il porte plutôt bien son nom de « copilote ».
Il semble aussi important de garder en tête que les outils précurseurs sur le marché ne seront pas forcément les plus pertinents à terme. Les coûts d’intégration peuvent être importants, et une fois adopté, un outil peut être difficile à remplacer, ou à maintenir à niveau. Les éditeurs des principaux LLM sont clairement dans une logique de gain de part de parts de marchés, et de création de barrières à l’entrée avec des investissements significatifs, et des prix attractifs qui ne reflètent pas le coût réel des services. Par conséquent, le risque de dépendance future à un nombre limité d’acteurs hégémoniques est important.
Trois enjeux clés : la responsabilité liée au contenu créé, la protection des données et la RSE
Indépendamment des avancées technologiques, il restera crucial de questionner et d’apporter un regard critique sur les éléments générés par ces outils. Même s’il existe des procédés pour améliorer la fiabilité de leurs résultats, les LLM restent basés sur des réseaux de neurones, dont les résultats sont par nature difficiles à expliquer, et restent une construction statistique. De manière assez logique, la plupart des outils renvoient la responsabilité des contenus générés par l’IA à l’utilisateur final. Par ailleurs, il semble risqué et non souhaitable de déléguer notre capacité de réflexion et de décision à des algorithmes, quand bien même ces derniers seraient globalement plus performants que l’humain.
Par ailleurs, pour les dirigeants de PME avec qui nous échangeons, la question des données est l’un des premiers freins à l’adoption des outils d’IA générative. En effet, pour aller au-delà de l’utilisation des outils grand public, il est nécessaire d’intégrer des données non-publiques, qui sont souvent confidentielles ou protégées par des droits de propriété intellectuelle particuliers. Les LLM les plus performants n’apportent pas toujours le cadre nécessaire pour assurer le respect de ces droits, et ne sont notamment pas open source. Cette question reste néanmoins au cœur des développements produits et des évolutions règlementaires. Il s’agit d’un argument commercial fort pour la pénétration du marché européen, comme le montre le travail de Microsoft sur les pratiques « d’IA responsable ».
Enfin, à mesure de la démocratisation des outils d’IA générative, l’impact environnemental (consommation importante en eau et électricité) de l’apprentissage et de l’exécution des modèles devient clé. Au départ, la course au nombre de paramètres des modèles est apparue évidente, car elle a permis d’améliorer leurs performances, de répondre au maximum de cas d’usages, et d’utiliser l’immensité des données dont disposaient les GAFA. Une approche avec des modèles de taille plus réduite, entrainés sur des données moins nombreuses mais plus qualifiées, permettra donc non seulement de répondre à des enjeux métiers plus spécifiques, mais aussi aux enjeux environnementaux.
Directeur de participations chez Azulis Capital depuis deux ans, Alban Tanaka est issu du monde de l’investissement avec notamment une précédente expérience centrée sur l’accompagnement d’entreprises technologiques. Ingénieur de formation, il est diplômé d’une école spécialisée en technologies numériques. Alban nourrit de longue date un fort intérêt pour les problématiques d’intelligence artificielle.