L’intelligence artificielle, risque et opportunité pour le droit de la concurrence


lundi 23 août 20217 min
Écouter l'article

Lors d’une conférence à la fin du mois de juin, la Cour de cassation se penchait sur les dangers que représentent les algorithmes pour le marché économique. Si elle facilite les comportements anti-concurrentiels, l’IA est toutefois l’occasion idéale de réinterroger des notions juridiques historiques… et pourrait aussi être envisagée, pourquoi pas, comme un outil au service de la régulation.

 


Alors que la Cour de cassation consacre son nouveau cycle de réflexion à l’intelligence artificielle – face à laquelle elle place « l’intelligence juridique » comme pondérateur –, sa conférence du 24 juin s’intéresse aux relations qu’entretiennent ces technologies, et plus particulièrement le machine learning, avec un droit en particulier : celui de la concurrence. 


« La question est notamment de savoir si les entreprises peuvent s’entendre via des algorithmes, voire si des algorithmes peuvent s’entendre sans que l’humain ou l’entreprise en ait conscience », problématise d’entrée de jeu Jean-Christophe Roda, professeur à l’Université Lyon 3. Autre problème : leur utilisation en vue d’exploiter ou de renforcer une position dominante. En la matière, la décision rendue le 7 juin par l’Autorité de la concurrence à l’encontre de Google (condamné pour avoir favorisé ses propres services dans le secteur de la publicité en ligne, ndlr) « illustre l’impact que les algorithmes peuvent avoir sur le marché et leur effet anti-concurrentiel », souligne le professeur. 


La doctrine anglo-américaine parle même désormais d’un enforcement gap, estimant que les autorités sont dépassées par les technologies et qu’il faut modifier leurs instruments, voire le droit de la concurrence. Si les autorités de concurrence s’emparent du problème, publient des rapports et proposent de renforcer leurs services en embauchant des data scientists, l’idée que le droit de la concurrence est dépassé s’est ancrée dans les esprits, observe Jean-Christophe Roda. « Comme avec l’arrivée d’Internet il y a plus de 25 ans, nombreux sont ceux qui pensent qu’il faudrait désormais dessiner l’avenir du droit de la concurrence à l’aune du smart antitrust. » Le professeur pense, lui, nécessaire de replacer le droit au centre des débats, son rôle étant d’encadrer et de prescrire les phénomènes liés à l’IA. « Il ne faut pas tomber dans le piège d’un droit fabriqué par la technologie et par les ingénieurs, car ce serait un droit désincarné, dénué de principes. Or, sur ces sujets fondamentaux, nous avons besoin de principes, car nous ne sommes pas en présence d’un marché qui, un peu surveillé, permettrait de faire le tri entre les bonnes et les mauvaises pratiques. »

 

 

Des menaces pour le jeu normal  de la concurrence


Maître de conférences également à l’Université Lyon 3, Samir Mérabet fait le tour des caractéristiques de l’IA susceptibles de venir secouer le droit de la concurrence. 


D’abord, pointe-t-il, elle peut s’avérer problématique en ce qu’elle est une forme d’intelligence augmentée. À ce titre, elle présente des capacités d’analyse prédictive susceptibles d’emporter des conséquences juridiques importantes. « Couplés aux big datas, des algorithmes sophistiqués sont en mesure, si ce n’est de prévoir l’avenir, de considérablement réduire l’aléa. Or, l’aléa est inhérent à la vie des affaires », fait remarquer le maître de conférences. La prédiction du comportement d’un concurrent pourrait donc occasionner des difficultés. La prédiction permet notamment de faciliter les comportements de collusion, « pas seulement en s’alignant sur les pratiques actuelles d’un concurrent, mais en prédisant ses pratiques à venir ». Par ailleurs, l’opérateur économique qui détient de tels outils bénéficie « d’un avantage concurrentiel majeur, ce qui peut altérer le jeu normal du marché » – une difficulté loin d’être inédite. 


Cependant, ce n’est pas tant l’aspect « intelligence augmentée » qui inquiète Samir Mérabet. À l’opposé, l’IA est également une forme d’intelligence diminuée, source de « troubles beaucoup plus importants », assure-t-il. Mais alors, pourquoi craindre une intelligence moindre ? Bien qu’un système d’information intelligent puisse simuler certains comportements humains et tromper sur sa véritable nature, il n’a ni conscience, ni émotion, ni intention. « C’est une forme d’intelligence objective, froide, désincarnée, auquel toutes les dimensions subjectives propres à l’intelligence humaine font défaut ». Et c’est justement ce caractère-là qui serait bien plus ennuyeux. En effet, à l’inverse, le droit dans son ensemble se fonde « de manière discrète mais certaine » sur la subjectivité propre aux personnes humaines. Il en va ainsi de la volonté contractuelle chère au Code civil à la maxime selon laquelle il n’y a « point de crime ni de délit sans intention de le commettre », propre au Code pénal, en passant par l’originalité du droit d’auteur, qu’il suppose l’empreinte de la personnalité de l’auteur. Pour le maître de conférences, cette notion de subjectivité est donc incompatible avec l’objectivité de l’intelligence artificielle. Du côté du droit de la concurrence à proprement parler, ce constat est plus nuancé selon les domaines. « Le droit des concentrations, par exemple, semble se fonder sur des critères relativement objectifs, et n’est pas le plus affecté. Idem pour les règles qui gouvernent les abus de positions dominantes », détaille Samir Mérabet. Cependant, il en va autrement du droit des ententes : cette pratique suppose d’identifier une collusion entre entreprises. Or, la concertation peut se révéler difficile à caractériser quand elle résulte de pratiques algorithmiques. 


Une autre caractéristique majeure de l’IA devant faire l’objet d’une attention soutenue réside dans son autonomie. Certes, même intelligent, un système informatique est « inévitablement et nécessairement contraint par sa programmation » : l’IA n’est donc pas indépendante, elle n’établit pas elle-même ses propres règles de fonctionnement. « Elle n’en demeure toutefois pas moins autonome » prévient le maître de conférences. Plus précisément, elle est conçue pour garder certaines marges de manœuvre dans la réalisation de tâches qui lui sont confiées. « C’est justement son intérêt : sa capacité à s’adapter à son environnement », commente Samir Mérabet. Conséquence : ceux qui ont conçu un outil d’intelligence artificielle ou en ont l’usage ne sont pas en mesure d’anticiper avec certitude l’ensemble des comportements à venir de la machine. De plus, la mise à jour en temps réel des données sur lesquelles elle s’appuie « rend son fonctionnement d’autant moins certain ». Le problème, c’est donc que l’autonomie va forcément créer une distance entre l’action humaine  en amont et le comportement de l’intelligence artificielle en aval. « Il n’est ainsi pas toujours évident d’imputer aux premiers les agissements de la seconde ». 


Le maître de conférences prend l’exemple de Google Suggest, qui a fait l’objet d’un arrêt de la première chambre civile, le 19 juin 2013. Ce service, qui ten

Partager l'article


0 Commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Abonnez-vous à la Newsletter !

Recevez gratuitement un concentré d’actualité chaque semaine.