Discours Randall kroszner

Les développements récents en matière de technologie et d’intelligence artificielle (IA) offrent un énorme potentiel d’innovation et de croissance de la productivité. Mais ils créent également de nouveaux risques pour la stabilité financière. Dans ce discours, Randy soulignera la distinction entre une innovation fondamentalement perturbatrice et une innovation plus progressive, ainsi que les différents défis réglementaires liés à la gestion de ces deux types de changement. Il discutera également de l’importance pour le Comité de politique financière et le Comité de l’infrastructure des marchés financiers de réfléchir à ces questions dans le contexte de leurs objectifs primaires et secondaires. 

C’est un plaisir d’être à CityWeek pour discuter d’un sujet qui a le pouvoir de transformer le paysage des services financiers et, avec lui, la façon dont nous envisageons les risques pour la stabilité financière.

J’ai abordé ce sujet avec mes deux casquettes à la Banque d’Angleterre : en tant que membre externe du Comité de stabilité financière (FPC) de la Banque, chargé d’identifier, de surveiller et d’atténuer les risques systémiques ; et le Comité des infrastructures des marchés financiers (FMIC), qui supervise les infrastructures des marchés financiers. Chaque comité a un rôle dans la protection et le renforcement de la stabilité financière au Royaume-Uni. Tous deux sont attentifs aux opportunités et aux risques présentés par la technologie financière et l’intelligence artificielle (IA).

J’ai l’intention de parler de la manière dont je pense que les deux commissions devraient aborder les développements dans ces domaines. Mon point principal est que le Royaume-Uni doit saisir les opportunités d’innovation et de croissance de la productivité. Cela signifie prendre au sérieux les objectifs secondaires de chaque Comité : pour le FPC qui soutient la politique économique du gouvernement ; et pour FMIC, cela facilite l’innovation dans la fourniture de services FMI – en plus de nos responsabilités en matière de stabilité financière.

La productivité compte pour nous tous. Une productivité plus élevée signifie une croissance économique plus forte, des salaires réels plus élevés, une rentabilité accrue et une augmentation des recettes fiscales.note de bas de page[1]

La faible croissance de la productivité au Royaume-Uni ces dernières années a longtemps été évoquée. Au cours de la décennie 2012 à 2022, par exemple, le taux de croissance de la production horaire a été en moyenne de 0,5 % au Royaume-Uni, alors qu’il était le double de ce taux aux États-Unis et dans l’ensemble de l’OCDE.note de bas de page[2] Depuis début 2023, la production horaire a augmenté en moyenne de 0,6 % par trimestre aux États-Unis, alors qu’elle s’est contractée en moyenne de 0,1 % par trimestre au Royaume-Uni.note de bas de page[3]

Récemment, on a beaucoup parlé du rôle que l’investissement technologique et l’innovation peuvent jouer dans l’explication des différences de productivité – et c’est un point que nous, régulateurs et décideurs politiques, devrions prendre au sérieux.note de bas de page[4] ,note de bas de page[5] Cependant, garantir à la fois la stabilité financière et l’innovation est particulièrement difficile lorsque nous sommes confrontés au potentiel d’innovation fondamentalement disruptive que l’IA pourrait apporter, par rapport au cas plus traditionnel où l’innovation et le changement sont plus progressifs.

Dans ce discours, je discute d’abord de l’importance de l’innovation et de l’impact potentiellement fondamentalement perturbateur de l’IA. J’établis ensuite une distinction entre les défis réglementaires liés à l’innovation incrémentale plus traditionnelle et l’innovation fondamentalement disruptive.

Cette discussion m’a ensuite amené à esquisser un cadre de réflexion sur l’IA. En particulier, je me concentrerai sur deux des nombreuses questions liées à l’IA, à savoir l’interprétabilité des modèles et le potentiel de désalignement. Les grands modèles linguistiques (LLM) impliquent des algorithmes dynamiques complexes, des interactions et des pondérations qui sont souvent extrêmement difficiles à interpréter pour pouvoir donner une « explication » de la façon dont le modèle a produit un résultat particulier.note de bas de page[6]

Je fais une analogie avec la « main invisible » du marché qui agit comme une sorte de procédure de découverte générant des innovations dans les produits et services qui peuvent être tout aussi difficiles à expliquer.

Enfin, même si une grande partie du terrain ici est nouveau et que les défis peuvent souvent sembler intimidants, voire difficiles à envisager, cela ne constitue pas une excuse pour l’inaction. D’une part, nous pouvons tirer les leçons des expériences passées. En outre, il existe des domaines dans lesquels les décideurs politiques peuvent agir pour garantir que le paysage autour des développements technologiques et de l’IA soit propice à la fois à l’innovation et à la stabilité financière.

L’importance de l’innovation

La Banque peut faire beaucoup pour soutenir et promouvoir les gains d’innovation et de productivité que les nouvelles technologies passionnantes peuvent apporter.

En effet, la loi de 2023 sur les services et marchés financiers a introduit un nouvel objectif secondaire pour la Banque, à travers le FMIC, visant à faciliter l’innovation dans la fourniture de services de contreparties centrales et de dépositaires centraux de titres en vue d’améliorer la qualité, l’efficacité et l’économie des services. .note de bas de page[7]

Cela me donne, en tant que décideur politique et régulateur, un objectif clair : garantir que les entreprises et les services qu’elles proposent soient capables d’évoluer avec le monde qui les entoure, tout en maintenant leur résilience conformément à l’objectif de stabilité financière de la Banque.

Des changements se produisent déjà dans le monde des services financiers avec l’adoption généralisée de la technologie financière. Selon l’ enquête 2022 sur l’apprentissage automatique (ML) menée par la Banque et la FCA, 72 % des personnes interrogées dans le secteur des services financiers ont déclaré utiliser ou développer des applications de ML. Les entreprises développent ou utilisent principalement le ML pour l’engagement client (28 %), la gestion des risques (23 %) et les fonctions de support telles que les ressources humaines et les services juridiques (18 %). L’engagement de l’industrie suggère que les entreprises, en particulier les grandes institutions financières traditionnelles, utilisent généralement le ML pour améliorer leur efficacité et leur productivité globales.

Il existe de nombreuses estimations de l’impact que l’IA et la technologie peuvent apporter à la croissance de la productivité. Un récent rapport de Goldman Sachs suggère que l’IA générative pourrait augmenter la croissance annuelle de la productivité du travail aux États-Unis et au Royaume-Uni d’un peu moins de 1,5 point de pourcentage et augmenter le PIB mondial annuel de 7 % sur une période de 10 ans après une adoption généralisée.note de bas de page[8] McKinsey estime que l’IA générative pourrait permettre une croissance mondiale de la productivité du travail allant jusqu’à 0,6 pour cent par an d’ici 2040, en fonction du taux d’adoption de la technologie et de la manière dont les travailleurs sont redéployés.note de bas de page[9]

L’impact précis qu’auront l’IA et la technologie sur l’économie se résume donc à une question de rapidité et d’échelle, avec beaucoup d’incertitude. On a souvent noté, par exemple, que la machine à vapeur a été brevetée en 1769, mais qu’il a fallu encore 60 ans avant que la vapeur puisse rivaliser avec l’eau en tant que source d’énergie dans l’économie britannique.note de bas de page[dix]

Chad Syverson, mon collègue de la Booth School of Business, offre une perspective utile sur la question du timing et de la mesure qu’il convient, à mon avis, de garder à l’esprit. Il note que si les nouvelles technologies (comme l’IA) génèrent une quantité importante d’investissements dans les actifs incorporels, alors, étant donné la façon dont nous mesurons habituellement les choses, il y aura un modèle particulier pour mesurer la productivité : elle sous-estimera la véritable croissance de la productivité au début de la diffusion de l’économie. nouvelle technologie et l’exagérer plus tard. Lui et ses co-auteurs appellent cela la courbe en J de productivité ( Figure 1 ).note de bas de page[11]

Figure 1 : La courbe en J de productivité, stylisée

Notes de bas de page

Syverson arrive à la conclusion optimiste que les développements des deux dernières années suggèrent que nous pourrions être au point où – aux États-Unis du moins – la croissance mesurée de la productivité pourrait commencer à sous-estimer la croissance réelle de la productivité. Aux États-Unis, il note que les flux bruts de main-d’œuvre – embauches plus départs en proportion de l’emploi – sont environ 10 % supérieurs à leur moyenne de 2015-2019. Et parmi les séparations, le ratio démissions/licenciements atteint des sommets historiques. Selon Syverson, cela peut être associé à une croissance de la productivité. Cela nous donne quelque chose à surveiller de près au cours des deux prochaines années.

Innovation et changement fondamentalement perturbateurs versus incrémentaux

Ainsi, si l’innovation technologique et l’IA ont la capacité de déclencher une croissance de la productivité – ce qui est excellent pour les objectifs secondaires du FPC et du FMIC ici à la Banque – où cela nous mène-t-il pour atteindre notre objectif de stabilité financière ?

Le premier point que je souhaite souligner ici concerne le rythme potentiel du changement.

Le FPC a été créé à la suite de la crise financière mondiale (GFC) et chargé d’identifier, de surveiller et d’atténuer les risques systémiques.

Nous pouvons prendre des mesures – comme augmenter le taux de coussin contracyclique de fonds propres (CCyB) du Royaume-Uni ou intervenir directement sur les marchés comme nous l’avons recommandé à la Banque lors de la crise de l’investissement axé sur le passif (LDI) – pour maintenir la stabilité. Mais il s’agit d’un processus de surveillance constant, qui examine souvent des changements relativement mineurs dans les données, afin de déterminer si et quand il est approprié d’agir.

Lorsque l’innovation est progressive, il est plus facile pour les régulateurs de comprendre les conséquences de leurs actions et d’entreprendre un travail raisonnable en prenant des mesures réglementaires qui correspondent à la réalisation de leurs objectifs de stabilité financière.

Bien entendu, il existe toujours la possibilité de conséquences imprévues, mais les commentaires des acteurs du marché et de l’industrie aideront à en sensibiliser les régulateurs.

Lorsque l’innovation est progressive, les données provenant d’activités (récentes) peuvent fournir des indications, tant aux acteurs du marché qu’aux régulateurs, sur l’impact probable de l’innovation et permettre au moins une analyse approximative des coûts et des avantages de la réglementation. Dans un certain sens, étant donné que l’innovation est progressive, l’expérience récente peut fournir un cadre de discussion et de débat – de la même manière que le FPC considère actuellement le cadre approprié du CCyB.

Mais lorsque l’innovation est perturbatrice, il est beaucoup plus difficile pour les régulateurs de savoir quelles mesures prendre pour atteindre leurs objectifs de stabilité financière et quelles pourraient être les conséquences imprévues tant sur la stabilité que sur la croissance et l’innovation.

Les données récentes ne sont donc peut-être pas particulièrement éclairantes. Il peut peut-être y avoir des analogies avec les « grandes » innovations passées (j’ai déjà fait référence à la machine à vapeur), mais n’importe quel cadre comporterait des erreurs types bien plus importantes.

Il se peut qu’il n’existe pas de cadre commun pour évaluer l’impact probable de l’innovation ou les conséquences (volontaires et imprévues) de l’action réglementaire. Dans cet état du monde, les désaccords risquent de devenir plus fondamentaux sur la manière de parvenir à la stabilité financière et le dialogue entre les entreprises, les régulateurs et autres peut manquer de clarté et de compréhension.

Les régulateurs devraient toutefois être ouverts à de nouvelles approches susceptibles de façonner ces cadres. Ceux-ci peuvent soutenir une innovation sûre, comme c’est l’intention du Digital Securities Sandbox (DSS) sur lequel nous menons des consultations avec la FCA. Le DSS est un régime qui permettra aux entreprises d’utiliser des technologies en développement, telles que la technologie des registres distribués, pour l’émission, la négociation et le règlement de titres tels que des actions et des obligations. Le DSS dure cinq ans et aidera les régulateurs à concevoir un régime permanent favorable à la technologie pour le marché des valeurs mobilières. Ma collègue Sasha Mills en parlera davantage plus tard dans la journée.

Cette initiative est un excellent moyen de contribuer à tracer une voie de transition vers un nouveau régime potentiel favorable à la technologie dans ce domaine. Mais les innovations fondamentalement disruptives – telles que ChatGPT et les outils d’IA ultérieurs – impliquent souvent le potentiel d’une mise à l’échelle extraordinairement rapide qui teste les limites des outils de réglementation. Dans de telles circonstances, une approche bac à sable pourrait ne pas être applicable et les décideurs politiques pourraient eux-mêmes devoir innover davantage face à des changements perturbateurs.

La main invisible de la machine : interprétabilité et désalignement

Dans le contexte des débats sur les opportunités et les risques d’une innovation fondamentalement disruptive en matière d’IA, une préoccupation majeure concerne « l’interprétabilité » des modèles, à savoir comprendre comment et pourquoi un modèle génère les résultats qu’il produit, et cela peut devenir de plus en plus difficile à réaliser. l’IA devient plus avancée.note de bas de page[12]

L’expert en IA Stuart Russell décrit les systèmes d’apprentissage profond comme des « boîtes noires – non pas parce que nous ne pouvons pas examiner leurs composants internes, mais parce que leurs composants internes sont en grande partie impossibles à comprendre ».note de bas de page[13] Si nous ne parvenons pas à comprendre pleinement la technologie, qu’est-ce que cela signifie pour la stabilité financière ?

Dans la façon dont j’aborde la question, cela est analogue aux défis liés à l’explication du « comment et du pourquoi » de nombreuses innovations qui découlent de la concurrence sur le marché – le marché en tant que « procédure de découverte », comme l’a décrit Hayek. Souvent, le moment « Eurêka » reste un mystère : comment s’est fait le saut vers quelque chose de nouveau ? Polanyi et Hayek soulignent les connaissances tacites ou inarticulées fondamentales dans les processus de découverte du marché (et je dirais également dans les processus non marchands), tout comme les connaissances « tacites » ou « inarticulées » dans les algorithmes et la pondération des données des LLM.note de bas de page[14] ,note de bas de page[15] ,note de bas de page[16]

Je crois donc qu’il existe un parallèle entre la « main invisible » de la machine ou LLM et le processus de découverte qui génère de nouvelles idées et de nouveaux produits jamais imaginés auparavant. Les complexités et la dynamique difficiles à interpréter des LLM partagent des éléments de la connaissance tacite ou inarticulée des processus humains marchands (et non marchands), car ils résolvent des problèmes et génèrent des innovations d’une manière qui peut être difficile à expliquer.note de bas de page[17]

Comme pour le marché, ce n’est pas parce que nous ne pouvons pas pleinement comprendre et expliquer le « comment et le pourquoi » qu’il y a un problème. De nombreux résultats en matière d’innovation et de productivité pourraient être perdus si nous n’autorisons que les résultats provenant de modèles que nous pouvons pleinement interpréter – tout comme nous ne rejetons pas les innovations pour lesquelles le moment « Eurêka » ne peut pas être pleinement expliqué.

Nous devons également reconnaître que l’IA explicable fait l’objet de recherches importantes et que ce que nous entendons par explicabilité devra peut-être évoluer par rapport à la façon dont nous l’avons pensé à l’ère des effets causals et de la modélisation de régression. Nous sommes potentiellement dans une nouvelle ère et les régulateurs devraient s’engager à comprendre ces évolutions.

Je voudrais également dire un mot sur le désalignement – ​​il s’agit d’une préoccupation selon laquelle dès que les systèmes d’IA peuvent agir et planifier conformément à certains objectifs spécifiques, ils peuvent, aussi inoffensifs qu’ils soient au départ, commencer à ne plus s’aligner sur les besoins et les valeurs de l’humanité. dans la poursuite de leur objectif principal.note de bas de page[18]

Même si un désalignement n’est pas toujours inévitable, c’est clairement un élément que le FPC, en tant que comité intrinsèquement axé sur les risques, devrait prendre en compte. En effet, il y a quelques semaines à peine, Jon Hall, mon collègue du FPC, a souligné les risques potentiels liés au fait que les réseaux neuronaux deviennent ce qu’il appelle des « agents de trading profond » et la possibilité que leurs incitations ne soient pas alignées sur celles des régulateurs et du bien public. Selon lui, cela pourrait contribuer à amplifier les chocs et à réduire la stabilité du marché.

Ce problème de désalignement est un problème auquel les décideurs politiques et les régulateurs devront s’attaquer. Jon fait une proposition pour atténuer ce risque, affirmant que les réseaux neuronaux devraient être formés pour respecter une « constitution » ou un ensemble de règles réglementaires qui réduiraient le risque de comportement nocif.

Je suis relativement optimiste quant à notre capacité à aborder ce problème et je suis réceptif à la manière dont Jon le résout. En effet, dans le contexte du changement perturbateur mentionné ci-dessus, son idée de « constitution » pourrait peut-être être combinée et testée dans un bac à sable comme moyen de guider les nouvelles innovations de manière à soutenir la stabilité financière. Dans les cas où des changements fondamentalement perturbateurs évoluent si rapidement qu’une approche bac à sable peut ne pas être applicable, une approche « constitutionnelle » peut être la plus appropriée à adopter.

Donc, pour moi, au moins certains des défis d’interprétabilité et de désalignement de l’IA et des LLM ne sont pas nouveaux mais familiers mais dans un contexte différent. Néanmoins, étant donné le potentiel d’évolution rapide et les changements qu’elle peut engendrer, cela pose encore des défis que les régulateurs et les marchés doivent prendre en compte.

Résilience opérationnelle

En tant que décideurs politiques et régulateurs, nous pouvons, en tant que décideurs politiques et régulateurs, jeter dès maintenant les bases des défis futurs grâce à la résilience opérationnelle. J’entends par là la capacité des acteurs du système financier à prévenir les perturbations opérationnelles, telles que les cyberattaques et les défaillances des processus internes, à y répondre, à s’en remettre et à en tirer des leçons. La résilience opérationnelle devient de plus en plus importante pour la stabilité financière à mesure que l’IA et la fintech jouent un rôle plus important dans la fourniture de services financiers.

Nous pouvons débattre de la direction exacte dans laquelle les développements de la technologie financière et de l’IA nous mènent, mais nous pouvons tous convenir qu’une plus grande adoption des nouvelles technologies nous expose à davantage de risques. Premièrement, comme le souligne Sasha Mills , certaines technologies peuvent accroître les menaces émanant d’acteurs malveillants – comme l’IA ou l’informatique quantique exploitées pour rendre les cyberattaques plus puissantes.

Deuxièmement, un recours accru à des technologies communes pourrait amener plusieurs entreprises ou infrastructures de marchés financiers (IMF) à réagir de la même manière lors d’un incident, et une telle corrélation ou un tel comportement grégaire pourrait amplifier les impacts.

Troisièmement, le risque de concentration apparaît lorsque l’on dépend d’un petit nombre de prestataires pour un service donné, ce qui signifie qu’un incident chez l’un d’entre eux pourrait avoir un impact disproportionné sur le système.

Pour moi personnellement, la corrélation et le point de rassemblement sont ici cruciaux. Une leçon clé pour les régulateurs et les décideurs politiques est l’importance de veiller à ce que les modèles ne fonctionnent pas tous de la même manière. Cela crée le risque classique que les conséquences involontaires de la réglementation induisent involontairement une plus grande corrélation et une plus grande concentration. Il est donc important, dans une approche « constitutionnelle » qui prévoit des garde-fous, que les régulateurs continuent à autoriser la concurrence et les alternatives afin d’éviter une conséquence involontaire de génération d’une plus grande corrélation et d’un comportement grégaire qui pourrait remettre en cause la stabilité financière.

En mars, le FPC a publié notre approche macroprudentielle de la résilience opérationnelle , reflétant son importance croissante dans notre agenda. Dans cette publication Financial Stability in Focus, nous avons clairement indiqué que notre approche est tournée vers l’avenir, reconnaissant d’emblée le caractère inévitable du changement dans la prestation de services et les modèles économiques.

La nécessité d’un dialogue permanent

Il est encore relativement tôt pour examiner toutes ces questions. Mais ce qui me paraît clair, c’est que l’essor des nouvelles technologies implique une approche réfléchie de la part du FPC et du FMIC – nous devons rester vigilants, mais aussi en mode écoute, suivre les évolutions et désireux de mieux comprendre, conformément à certains des principes clés. énoncée dans la Déclaration de Bletchley issue du AI Safety Summit l’année dernière.note de bas de page[19] Plus précisément, pour moi : l’IA a le potentiel de transformer et d’améliorer le bien-être humain ; qu’il doit être conçu, développé, déployé et utilisé de manière sûre, de manière à être centré sur l’humain, digne de confiance et responsable ; et que tous les acteurs ont un rôle à jouer pour garantir la sécurité de l’IA, y compris les nations, les organismes internationaux et le monde universitaire.

Nous devrions trouver des moyens positifs de discuter ensemble de ces changements. L’histoire a montré que l’innovation déclenche des appels à la réglementation, qui à leur tour déclenchent une réaction négative de la part des personnes concernées. Rien n’indique que l’IA sera différente. Mais nous pouvons être prêts à tenir cet inévitable débat de manière plus réfléchie et plus éclairée.note de bas de page[20]

La leçon clé pour moi est qu’il est essentiel d’établir des relations, de faciliter le dialogue et d’être ouvert les uns envers les autres. Je note qu’à la suite du Forum public-privé sur l’IA (AIPPF) de la Banque et de la FCA, elles envisagent désormais de créer un consortium industriel de suivi.Ouvre dans une nouvelle fenêtre.

Conclusion

Alors, où en sommes-nous? La croissance de la productivité est essentielle pour stimuler la croissance des salaires réels et soutenir la croissance économique, en particulier lorsque le nombre d’heures travaillées dans une économie peut diminuer à mesure que la population vieillit et croît plus lentement (ou est, dans certains pays, en déclin). L’innovation est un moteur fondamental de la croissance de la productivité, c’est pourquoi il est précieux d’intégrer la promotion de l’innovation dans les objectifs du FMIC.

L’IA est peut-être la réponse à certains de ces défis, mais elle pourrait impliquer une innovation et un changement fondamentalement disruptifs qui apporteraient à la fois d’énormes avantages et des risques potentiels.

Le défi consiste donc à développer un cadre réglementaire qui favorise l’épanouissement de la créativité et de l’innovation tout en tenant compte des risques potentiels pour la stabilité financière.

Je crois qu’une analogie entre la « main invisible » du LLM et la « main invisible » humaine traditionnelle du processus de découverte fournit une lentille utile à travers laquelle considérer ces questions et nous encourage à ne pas rejeter l’innovation d’emblée parce que nous Je ne peux pas entièrement comprendre et expliquer comment il a été généré.

Parallèlement, je veux m’assurer que le FPC et le FMIC, en tant que régulateurs et gardiens de la stabilité financière, sont correctement équipés pour relever les défis à venir – cela signifie approfondir continuellement et consciemment notre compréhension des problèmes afin que nous puissions prendre pleinement part aux conversations sur l’opportunité et la comment nous devrions réagir aux évolutions.

En attendant, nous avons beaucoup à faire pour continuer à faciliter l’innovation et la croissance là où nous le pouvons tout en veillant, dans la mesure du possible, à mettre en place des garde-fous, peut-être par le biais d’une approche « constitutionnelle », pour garantir que l’innovation se déroule dans un cadre manière favorable à la stabilité financière. Il ne sera pas facile d’atteindre ces deux objectifs ensemble, c’est pourquoi un dialogue continu avec les parties prenantes sera essentiel – et j’espère que cela se poursuivra lors de conférences comme celle-ci.

Je remercie Maighread McCloskey pour son aide dans la préparation de ces remarques. J’aimerais également remercier Rachel Adeney, Anthony Avis, Andrew Bailey, Sandra Batten, Sarah Breeden, Lai Wah Co, Alex Gee, Bernat Gual-Ricart, Jonathan Hall, Jonathan Haskel, Adrian Hitchins, Owen Lock, Harsh Mehta et Michael. Yoganayagam pour leurs commentaires et contributions utiles. Les opinions exprimées ici ne sont pas nécessairement celles du Comité de politique financière (FPC) ou du Comité de l’infrastructure des marchés financiers.

  1. Silvana Tenreyro, ancienne membre du MPC, a également montré que cela est également associé à de meilleurs indicateurs de soins de santé et de bien-être .
  2. Organisation de coopération et de développement économiques (OCDE)
  3. Bureau américain des statistiques du travail, mai 2024Ouvre dans une nouvelle fenêtreet Office des statistiques nationales, mai 2024Ouvre dans une nouvelle fenêtre
  4. Yann Coatanlem (février 2024), « Pourquoi l’Europe est à la traîne en matière de technologie »Ouvre dans une nouvelle fenêtre
  5. Chad Syverson (2023), « Changements structurels dans l’économie mondiale : contraintes structurelles sur la croissance » : remarques lors du symposium de Jackson Hole 2023Ouvre dans une nouvelle fenêtre
  6. Livre blanc AWS, Interprétabilité versus explicabilitéOuvre dans une nouvelle fenêtre
  7. Voir Banque d’Angleterre, Rapport annuel 2023 sur la supervision des infrastructures des marchés financiers par la Banque d’Angleterre.Ouvre dans une nouvelle fenêtre
  8. Briggs et Kodnani, (2023), « Le potentielOuvre dans une nouvelle fenêtreEffets importants de l’intelligence artificielle sur la croissance économique
  9. McKinsey, (2023), « Le potentiel économique de l’IA générative : la prochaine frontière de productivité »Ouvre dans une nouvelle fenêtre
  10. Nicholas Crafts (2003), « Steam en tant que technologie à usage général : une perspective de comptabilité de croissance »Ouvre dans une nouvelle fenêtre
  11. Brynjolfsson, Rock et Syverson, (2021), « La courbe en J de productivité : comment les actifs incorporels complètent les technologies à usage général »Ouvre dans une nouvelle fenêtre
  12. Voir, par exemple, Zhao et al (2023). « Explicabilité des grands modèles de langage : une enquête »Ouvre dans une nouvelle fenêtre
  13. Stuart Russell (2023), Stuart Russell témoigne sur la réglementation de l’IA lors d’une audience du Sénat américainOuvre dans une nouvelle fenêtre
  14. Michael Polanyi, La dimension tacite
  15. FA Hayek, La compétition comme procédure de découverte
  16. Voir aussi Donal Lavoie, Planification économique nationale : Que reste-t-il ?
  17. Voir également Manning, Zhu et Horton (2024), « Sciences sociales automatisées : modèles linguistiques en tant que scientifiques et sujets ».Ouvre dans une nouvelle fenêtre
  18. Voir, par exemple, Yoshua Bengio (2023), « AI Scientists : Safe and Useful AI ?Ouvre dans une nouvelle fenêtre Bien entendu, les « mauvais acteurs » peuvent explicitement essayer d’utiliser l’IA ainsi que d’autres outils d’une manière qui n’est pas conforme aux objectifs juridiques et sociaux.
  19. Voir la Déclaration de Bletchley des pays participant au Sommet sur la sécurité de l’IA, les 1er et 2 novembre 2023.Ouvre dans une nouvelle fenêtre
  20. Benedict Evans a un point de vue utile sur les échanges entre les acteurs du marché et les régulateurs et suggère qu’il y a généralement trois raisons pour lesquelles les gens, ou les entreprises technologiques, disent généralement « non » à une nouvelle réglementation.La première, qu’il décrit comme la valeur par défaut, est qu’ils n’aiment tout simplement pas ça. Même si le changement est possible, il peut s’avérer délicat, peu pratique ou coûteux. Alors ils s’y opposent. La deuxième raison est que le changement proposé aura des conséquences inattendues et drastiques dont les régulateurs ne se rendent pas compte. La troisième raison qu’il évoque pour dire non est qu’une proposition émanant d’un régulateur peut tout simplement être techniquement impossible, même si elle est souhaitable. (Benedict Evans, 2023, « Quand la technologie dit « non »Ouvre dans une nouvelle fenêtre)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

error: Content is protected !!