1. En remplaçant les salariés aux postes les moins qualifiés, l’intelligence artificielle va augmenter le chômage et les inégalités.

Xitong Li, professeur associé en systèmes d’information à HEC Paris.

PLUTÔT VRAI – Les intelligences artificielles ont déjà commencé à remplacer des travailleurs, notamment dans l’industrie. Outre l’automatisation des chaînes de production, l’avènement de l’industrie 4.0, avec ses usines connectées en temps réel aux besoins des consommateurs et au coût de l’énergie, est une révolution aujourd’hui en cours. Le secteur des services connaît lui aussi des bouleversements, en particulier dans les domaines bancaire et financier, où des algorithmes ont déjà remplacé les traders. Quant aux employés de banque ou d’assurance, leurs effectifs ont été réduits de 39 % en trente ans… Au-delà du risque de la hausse du chômage, ces pertes d’emplois risquent de creuser les inégalités de revenus. Mais l’IA va créer de nouvelles opportunités et de nouveaux emplois, dans l’analyse de données, par exemple. L’activité liée à l’entretien, à la création ou à la programmation de ces machines va se développer. De plus, il ne faut pas négliger la part des bénéfices qui seront réinvestis par les entreprises. En Chine, par exemple, une chaîne de restaurants qui utilise des robots pour servir les clients a embauché des chefs cuisiniers pour améliorer la qualité du menu. Mais pour que ces pertes d’emploi soient réellement compensées, il faudra que les pouvoirs publics investissent massivement dans des programmes de formation et de requalification. Dans l’intervalle, on peut s’attendre à une période de transition difficile… qui pourrait durer vingt ou trente ans.

2. En croisant les données client, l’intelligence artificielle va accroître la consommation de masse.

Anne-Laure Sellier (H.95), professeure de marketing à HEC Paris et membre du comité de Hi ! Paris.

intelligence artificielle et être humain

FAUX – L’IA modifie déjà notre consommation : lorsque des internautes se rendent sur des sites d’agences de voyages, par exemple, ce sont des IA qui leur suggèrent des destinations ou des activités. Mais loin d’intensifier la consommation, l’IA peut jouer un rôle dans le processus de « déconsommation » nécessaire face à la crise climatique. Elle permet déjà de décongestionner le trafic en Ile-de-France, ce qui contribue à rendre l’air plus respirable. Mais ses usages peuvent aussi être délétères. Par exemple, l’entreprise Clearview a récemment été condamnée pour s’être constitué, à partir de photographies récupérées illégalement sur des réseaux sociaux, une immense banque d’images destinée à des algorithmes de reconnaissance faciale. Ce genre de procédés, s’approprier des données personnelles à des fins commerciales ou sécuritaires, ne doit pas être toléré. Mais je suis plutôt optimiste sur ce point : même un régime autoritaire comme la Chine s’oriente vers une forme de RGPD pour protéger les données. Par ailleurs, de plus en plus de start-up utilisent l’IA une démarche de déconsommation. C’est le cas, par exemple, de l’application Optimiam, accompagnée par l’Incubateur HEC, qui réduit le gaspillage alimentaire des restaurants grâce à des promotions flash géolocalisées.

3. L’intelligence artificielle est plus impartiale que l’humain.

Christophe Perignon, doyen associé en charge de la recherche à HEC Paris, cofondateur de RunMyCode.org, service d’archivage de données scientifiques, et de Cascad.tech, agence de certification de la reproductibilité de la recherche, créée en partenariat avec le CNRS.

FAUX – Il est tentant de penser que le jugement d’un algorithme sera plus neutre que celui d’un humain, lequel est influencé par ses goûts ou normes culturelles. Mais c’est faux. Une intelligence artificielle a même tendance à exacerber nos biais. L’exemple le plus frappant est celui d’un algorithme développé par Amazon pour sélectionner les CV de postulants à des postes à responsabilités. Pour choisir les meilleurs candidats, le programme a scruté le profil des over achievers de la boîte, et il a constaté qu’il s’agissait en grande majorité d’hommes. Il a donc massivement rejeté les candidatures féminines, aggravant la prédominance masculine dans l’entreprise. Un autre élément peut conduire une IA à faire preuve de discrimination : les données partielles. Au mois de janvier, Deliveroo a été condamné par la justice italienne pour discrimination. En effet, l’algorithme de mise en relation des livreurs avec les restaurants pénalisait les employés ayant cumulé des périodes d’absence, y compris lorsque les absences étaient dues à un arrêt maladie. Pourquoi ? Parce que le programme n’avait pas cette information… Le problème, c’est que ces bugs risquent de se multiplier. Aux États-Unis, l’algorithme d’un organisme de crédit a été récemment épinglé pour avoir refusé d’accorder des prêts à tous ceux qui avaient payé les services d’un avocat spécialisé dans les cas de divorce ou d’un site de rencontres extraconjugales. Son argument ? Une personne divorcée a moins de chances d’être solvable !

4. La mainmise des grandes entreprises technologiques sur les données empêche l’exercice d’une libre concurrence dans le secteur de l’IA.

Thierry Foucault (Dh.84), professeur de finance à HEC et codirecteur scientifique du centre de recherche Hi ! Paris, créé par HEC Paris et l’École polytechnique.

intelligence artificielle

PLUTÔT VRAI – Le marché des données est actuellement monopolisé par une poignée d’opérateurs, en particulier les GAFAM et Twitter. Ces acteurs ont accès à une base de données du fait de leur business model, qui repose sur la gratuité du service et des bénéfices réalisés grâce à la monétisation des données de leurs utilisateurs. Or plus ils possèdent de données, plus leur service devient efficace, et plus ils attirent d’usagers. Cette spirale, que l’on appelle « effet de réseau », rend difficile l’entrée d’un nouvel arrivant sur le marché des données. Des pistes existent cependant pour favoriser la concurrence. L’une d’elles serait d’imposer une interopérabilité, soit la possibilité de passer d’un système à un autre. En France, c’est ce qui se fait dans le secteur des télécoms avec la portabilité du numéro, obligatoire depuis 2011. On pourrait imaginer des pratiques similaires pour les réseaux sociaux ou autres plateformes. Aux États-Unis, cela fait plus de vingt ans que les plateformes boursières, qui recourent massivement à l’intelligence artificielle, ont obligation de ré-adresser les ordres d’achat ou de vente à leurs concurrents lorsque ceux-ci offrent des conditions plus avantageuses. Une autre mesure, plus radicale, menace les big tech : le démantèlement pour abus de position dominante. Ce qui est arrivé en 1914 à la compagnie pétrolière Standard Oil, scindée en une trentaine de firmes différentes. En Europe, les amendes infligées à Google ou la création du RGPD montrent qu’on s’oriente plutôt vers une régulation.

5. Dotée de nouveaux outils, la cybercriminalité risque de prendre des proportions incontrôlables.

Guillaume Alliel (H.16), professeur de cybersécurité à HEC Paris et fondateur de Phinasoft.

PLUTÔT VRAI – En 2020, la hausse des usages numériques et la généralisation du télétravail ont favorisé une hausse des cyberattaques. Et dans nombre de cas, les hackers ont eu recours à l’intelligence artificielle. S’il était déjà assez facile d’automatiser à grande échelle des attaques basiques, telles que l’hameçonnage (se faire passer pour une entreprise afin d’obtenir des données bancaires) ou l’envoi de rançongiciels (programmes qui prennent en otage des données), les algorithmes permettent désormais de mener des attaques ciblées comme le spear phishing (se faire passer pour un proche en faisant référence à des événements réels, avec des messages adaptés à l’interlocuteur). Mais le potentiel majeur de l’IA pour les pirates informatiques réside dans sa capacité à déceler rapidement les failles d’un système – ce qui constitue un risque important pour les secteurs de la défense, de la finance ou de la santé. Enfin, les hackers peuvent aussi pirater des intelligences artificielles existantes, soit en manipulant la donnée assimilée, soit en s’attaquant à l’algorithme lui-même. Cependant, tous ces risques sont à nuancer, car les systèmes de défense, qui bénéficieront eux aussi de ces technologies, reprendront l’avantage en termes de vitesse. Après une phase de transition délicate, durant laquelle les systèmes anciens seront très vulnérables.

6. Le développement futur de l’IA se fera au détriment de la protection des données personnelles.

Ruslan Momot, professeur à HEC Paris spécialiste des données personnelles et fournisseur de services de protection pour les entreprises du numérique.

PAS SI SIMPLE – Les assistants vocaux Alexa, Siri ou Google Home ont pour habitude de relever les mots-clés que l’on prononce pour nous faire des suggestions d’achat. Ils affirment ne pas espionner nos conversations, mais l’inquiétude est là : qu’est-ce qui les empêche de nous écouter quand on parle de nos problèmes de santé… et de nous proposer par la suite des prix plus élevés pour une mutuelle ? Au-delà de la peur d’une utilisation de ces données à notre détriment, le risque de vol de données est, lui, bien réel. Equifax, Marriott… les exemples sont légion ces dernières années. Face à cette menace, les États se sont mobilisés pour créer en 2018 le RGPD, mais le système, contraignant pour l’utilisateur, oblige à se rendre sur chaque site visité pour faire une demande d’effacement. Certains acteurs ont pris en compte l’attente de leurs clients sur ce sujet : Apple a inclus dans la dernière version d’iOS, une option de contrôle de partage de données entre applications. Résultat : 96 % des utilisateurs l’ont activé. Si les usagers se soucient de la protection de données, le respect des informations personnelles devient donc un avantage concurrentiel. Probable que les acteurs du numérique multiplient les initiatives limitant l’usage des données personnelles, quitte à perdre en personnalisation… pour regagner la confiance des usagers.

7. Dans le secteur financier, les algorithmes de trading à haute fréquence présentent un risque pour les marchés.

Bruno Biais (Dh.89), professeur de finance à HEC Paris et membre du Greghec, laboratoire de recherche CNRS-HEC Paris.

IA

PLUTÔT VRAI – On peut distinguer deux éléments dans le développement du trading des algorithmes. L’aspect « haute fréquence », c’est-à-dire le traitement très rapide des données, accélère le rythme des transactions. Le volet machine learning dote l’algorithme d’une capacité d’auto-apprentissage, à partir de l’analyse d’un immense volume de données (prix sur plusieurs marchés, pour différents types d’actifs, cotations). Ces systèmes reposent sur une intelligence artificielle qui se sert du passé pour prédire le futur, à la manière de ces ordinateurs capables de battre le champion du monde d’échecs grâce à l’analyse de millions de parties passées. Mais là où un échiquier répond à des règles constantes et définies, les marchés financiers, eux, sont en perpétuelle évolution : nombre de participants, technologies, contexte économique… Et les recettes d’hier risquent de ne pas fonctionner demain. En outre, l’usage d’algorithmes sur les marchés crée une nouvelle donne : ce sont désormais des machines qui réagissent aux décisions prises par d’autres machines, avec un risque d’emballement. C’est ce qu’il s’est passé lors du flash crash de 2010 : un trader a utilisé un algorithme trop ancien qui s’est mis à vendre à tout-va. Les autres algorithmes ont immédiatement réagi en écoulant eux aussi leur stock d’actions, provoquant une chute brutale des cours. Si la situation a finalement été maîtrisée, un tel incident pourrait très bien se reproduire aujourd’hui, avec des conséquences beaucoup plus graves. Le rapport bénéfices-risques de ces technologies paraît donc assez faible.

8. En matière de santé, l’intelligence artificielle va contribuer à accroître l’espérance de vie de façon significative.

Laurent Alexandre (H.90), urologue, entrepreneur, chroniqueur et écrivain

PLUTÔT FAUX – Prétendre que l’intelligence artificielle va accélérer l’innovation dans tous les secteurs de la santé serait naïf. Certes, il y a des domaines où l’IA, et notamment le deep learning, peut favoriser l’innovation. La radiologie, l’anatomopathologie (l’étude des lésions de tissus biologiques) ou encore certaines analyses génétiques pourrait en bénéficier. Mais dans de nombreuses autres sphères médicales telles que le séquençage ADN, elle n’apporte rien de plus que les techniques statistiques traditionnelles. Quant à la chirurgie robotique, elle fonctionne aujourd’hui exclusivement sur les ordres du chirurgien. On peut imaginer une automatisation sur des opérations standardisées comme la prostate, mais une autonomie totale sur des opérations plus complexes où l’on ouvre le ventre du patient est totalement inenvisageable au moins pour les vingt prochaines années : l’intelligence artificielle serait incapable de faire face à une situation imprévue. Au-delà des bénéfices que pourrait présenter l’IA pour le secteur de la santé, son usage se heurte à certaines réticences. En effet, 99 % des outils reposant sur une intelligence artificielle sont aujourd’hui produits et utilisés par les GAFAM américains et les BATX chinois, qui disposent d’un quasi-monopole sur ces technologies. Leur intrusion dans le domaine médical pose un problème de souveraineté, que les pouvoirs publics ont tout intérêt à conserver.

9. L’intelligence artificielle a un rôle à jouer dans la lutte contre le changement climatique

Geoffrey Guilly (Trium.17), cofondateur de AItenders, qui aide les sociétés à répondre à des appels d’offres complexes en s’appuyant sur l’intelligence artificielle.

PAS SI SIMPLE – L’intelligence artificielle n’est pas une technologie qui va révolutionner les choses, il s’agit d’un outil qui s’appuie, pour l’essentiel, sur la data actuelle et permet d’améliorer la productivité de toute une série de processus qui sont déjà connus et utilisés aujourd’hui. Si elle est associée à des technologies old school, j’entends par là des pratiques carbonées qui dégradent la planète, son usage peut être tout à fait néfaste pour le climat. Par exemple, le gain de productivité apporté par l’IA pour la réalisation de véhicules autonomes va augmenter considérablement les usages et le taux d’utilisation des véhicules. Or tous les essais sont actuellement réalisés sur des véhicules qui roulent au pétrole. Si les expérimentations ne sont pas menées sur des véhicules électriques, l’optimisation de la voiture du futur n’a aucun sens ! Si les véhicules restent carbonés, la voiture autonome pourrait bien constituer une évolution néfaste. La bonne solution consisterait donc à réserver les gains de productivité potentiels apportés par l’IA aux seuls technologies et procédés respectueux de l’environnement.

10. La prise de décisions par une intelligence artificielle soulève la question de la responsabilité légale et morale des machines.

Pablo Baquero, professeur assistant de droit et intelligence artificielle à HEC et chercheur au Smart Law Hub d’HEC Paris.

VRAI – La prise de décision par des algorithmes suscite de nombreuses controverses et ce, dans des domaines très divers. Se posent d’abord des questions morales, commeavec le logiciel Compas utilisé aux États-Unis pour déterminer si un détenu devrait être libéré avant la fin de sa peine et qui s’est révélé défavoriser les prisonniers noirs. Et il y a aussi des questions légales, avec par exemple les voitures autonomes : qui sera responsable en cas d’accident ? Le conducteur, le constructeur, le développeur de l’algorithme ? Même les décisions prises par des IA dans le secteur de la notation de crédit ont des implications légales, puisqu’elles ont un impact sur des droits fondamentaux comme l’accès à la propriété. Devant ce constat, le RGPD propose désormais que toute personne s’estimant lésée par un algorithme puisse faire appel à un « humain dansla boucle » capable de revoir la décision. Le problème, c’est que les systèmes d’IA sont devenus tellement complexes que même un expert ayant accès au code source aurait du mal à comprendre ou expliquer sa logique. De nombreuses équipes de chercheurs, dont je fais partie avec des data-scientifiques et des spécialistes du droit, se mobilisent pour tenter de proposer des systèmes explicables d’un point de vue légal et dont les décisions se plient à la fois aux lois et aux valeurs morales. Nous avons d’ores et déjà proposé d’utiliser des knowledge graphs pour mieux comprendre comment les critères de décision s’imbriquent et j’ai bon espoir que nous contribuerons au développement de systèmes d’intelligence artificielle plus responsables.

Dans la même rubrique : 10 idées reçues sur le Brexit

Published by