IA : « Les États n’ont pratiquement aucune prise sur ces enjeux gigantesques »
Ingénieur de formation, diplômé de l’école Polytechnique et de l’ENSAE, Michel Dahan est un passionné. Ce qui l’anime ? L’analyse et le décryptage des usages des technologies, et les imbrications entre sciences et économie. Il a mené une partie de sa carrière dans le capital-risque, en se spécialisant dans le financement de start-ups technologiques. Il analyse pour nous les récents développements de l’intelligence artificielle et leurs répercussions sur l’économie mondiale.
Le développement de l’intelligence artificielle va vite, et continue d’accélérer. Comment anticipez-vous les prochaines années ?
L’évolution de l’intelligence artificielle a été fulgurante ces dix dernières années, et l’on assiste aujourd’hui à une accélération phénoménale. Des centaines d’outils sortent chaque mois, qui sont des solutions déjà très puissantes. Il existe déjà des milliers de logiciels qui utilisent l’intelligence artificielle. Il est difficile de comprendre cette accélération et surtout de s’y adapter ! C’est le prolongement de la loi exponentielle de Moore qui constate un doublement des performances électroniques tous les 18 mois.
L’un des pères de l’intelligence artificielle, Geoffrey Hinton, chercheur canado-britannique, qui a récemment quitté son employeur Google,[1] inquiet des menaces potentielles de ces technologies, annonce : « Pour le moment, elles ne sont pas plus intelligentes que nous, pour ce que j’en sais. Mais je pense qu’elles pourront bientôt l’être ».
Une nouvelle ère s’ouvre, notamment avec la bataille des intelligences. D’ailleurs, de nombreuses études démontrent que lorsque les intelligences artificielles se mettent à dialoguer, elles s’enrichissent réellement. Nous nous dirigeons vers un monde difficile à envisager. Mais comme toujours c’est le domaine militaire qui déploie en premier, et la guerre en Ukraine montre combien ces nouvelles technologies révolutionnent nos méthodes établies.
Dans quelle mesure l’intelligence artificielle est-elle devenue un enjeu de souveraineté sur la scène internationale ?
Depuis l’avènement d’Internet, le savoir est à portée de clic, de manière instantanée. C’est un progrès considérable, notamment dans la compréhension de concepts sophistiqués. Nous assistons toujours à la montée en puissance des Gafam. L’intelligence artificielle qu’ils développent leur donne encore plus de poids. Mais aussi apparaissent de nouveaux acteurs, comme OpenAI et X d’Elon Musk. La régulation et les États sont donc dépassés par des individus et des entreprises qui parlent de manière directe et globale au monde entier. Les États se rendent compte que les enjeux sont gigantesques, qu’ils soient militaires, économiques ou sociaux, et qu’ils doivent composer avec des acteurs sur lesquels ils n’ont pratiquement aucune prise.
Sur le plan économique par exemple, on sait que de plus en plus de tâches peuvent être effectuées par une IA plutôt que par un salarié, et on attend des licenciements massifs qui en découlent. Mais les États doivent aussi prendre en compte les aspects positifs, en particulier dans la santé et plus généralement dans tous les domaines scientifiques. On a découvert enfin ainsi de nouveaux antibiotiques !
Quels sont, selon vous, les obstacles à une adoption plus large de l’IA générative dans les entreprises et dans la société ?
On assiste aux prémices de la généralisation de l’IA générative dans les entreprises, qui ont compris l’intérêt qu’elle représente. Il y a bien sûr des tâtonnements, quelques ratés et beaucoup d’attentes. On constate aussi que les salariés sont souvent volontaires pour participer aux expérimentations. Je pense néanmoins que l’on arrive dans une phase de déception, qui est assez classique dans l’histoire des innovations. Quelques exemples vont être brandis en modèles de réussite mais dans la réalité, l’implémentation de l’IA dans les entreprises va être beaucoup moins fluide. Il faudra passer outre les mauvaises expériences et le scepticisme de certains. Les équipes dirigeantes devront tenir bon et insuffler le changement et le progrès.
Comment envisagez-vous la création d’un cadre réglementaire et éthique pour l’intelligence artificielle, afin de garantir son développement responsable ?
Je suis persuadé qu’il est dans l’intérêt des grands opérateurs de l’IA de ne pas être irresponsables. Rappelons-nous, quand Microsoft a sorti un premier outil d’IA générative en 2016[2], il a été manipulé pour sortir des diatribes haineuses et racistes et tout de suite retiré du marché par le groupe informatique. Les grands acteurs de l’IA n’ont pas intérêt à faire n’importe quoi et il faut travailler avec eux.
Par contre, il y a une prolifération d’outils en open source, donc à la disposition de toutes et tous, et c’est pour l’utilisation malveillante de ces outils qu’il va falloir de la régulation. Les États doivent reprendre la main et ils risquent de devoir adopter une attitude répressive pour réguler la circulation des informations et des logiciels dans le monde numérique.
[1] https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
[2] https://www.liberation.fr/futurs/2016/03/25/microsoft-muselle-son-robot-tay-devenu-nazi-en-24-heures_1441963/