Séminaire du DIC

Séminaire DIC-ISC-CRIA - 20 février 2025 par Herbert ROITBLAT

Herbert ROITBLAT - 20 février 2025 à 10h30 au PK-5115 (201, ave President-Kennedy, 5e étage)

TITRE : Theories of Artificial Intelligence

RÉSUMÉ 

GenAI models are computationally complex, but conceptually simple.  They are trained to fill in the blanks.  Model semantics is limited to word distribution patterns (Harris, 1956), yet many claim that GenAI models are capable of deep cognitive processes (such as reasoning and understanding). These assertions imply that cognitive processes can spontaneously emerge from these behavioral patterns—that a theory of cognition can be constructed at the purely behavioral level of word use patterns.  We have seen that movie before, but Chomsky (1959/1967) and a good deal of research with humans and animals, peaking in the 1980s, have demonstrated that a purely behavioral theory of cognition is not viable.  Those same research methods could be applied to the analysis of the latest forms of artificial intelligence, but their relevance is rarely recognized.  Instead, much of what passes for theoretical analysis of GenAI models is based on the logical fallacy of “affirming the consequent.” The models behave as if they had underlying cognitive processes, but their proponents fail to consider whether other explanations (e.g., stochastically parroting training data) could also explain the observations.  I will discuss the internal structure of GenAI models and how to understand them.  I will also offer some theoretical suggestions for approaching understanding and artificial general intelligence.

BIOGRAPHIE

Herbert Roitblat, is lead data scientist for Egnyte’s research and development in artificial intelligence. Formerly professor of Psychology, Marine Biology, and Second Language Acquisition, University of Hawaii, Roitblat’s work on how dolphins recognize targets underwater with biosonar led to significant contributions to early neural network research and a patent on a binaural sonar. His more recent work is on artificial intelligence: “Algorithms Are Not Enough: Creating General Artificial Intelligence” (MIT Press, 2020) argues that algorithms and neural network models cannot fully capture the complexity of human cognition or animal intelligence and suggests what is needed to achieve artificial general intelligence.  

RÉFÉRENCES:

Bender, E. M., et al. (2021) On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM. 610-623.

Chomsky, N. (1967) A Review of B. F. Skinner’s Verbal Behavior. 142-143.

Harris, Z. (1954). Distributional structure. Word, 10(23): 146-162.

Huang K., & Chang, J.-C. (2023) Towards Reasoning in Large Language Models: A Survey. Findings of the Association for Computational Linguistics: ACL 2023, pages 1049–1065.

Roitblat, H. L. (2024). An Essay concerning machine understanding. arXiv preprint arXiv:2405.01840.

Roitblat, H. L. (2020). Algorithms are not enough: Creating general artificial intelligence. Mit Press.

Roitblat, H. L. (2017). Animal cognition. In: Bechtel & Graham, eds, A Companion to Cognitive Science, Wiley.

Vidéo du séminaire à venir.

Séminaire DIC-ISC-CRIA - 13 février 2025 par Olivier GEORGEON

Olivier GEORGEON - 13 février 2025 à 10h30 au PK-5115 (201, ave President-Kennedy, 5e étage)

TITRE : Robotique développementale ancrée dans l'expérience moto-sensorielle

RÉSUMÉ 

La recherche en intelligence artificielle développementale puise certaines inspirations dans les théories du comportement animal de von Uexküll, l'épistémologie génétique et la psychologie développementale de Piaget, et l'épistémologie constructiviste de von Glasersfeld. Depuis la première implémentation d'un "schema mechanism" Piagétien par Drescher en 1991, ces recherches continuent à investiguer les questions clés associées : la motivation intrinsèque, la construction de sens, l'autonomie constitutive, le passage à l'échelle en monde ouvert, tout en tentant de les appliquer à la robotique autonome. Cette communication présente notre contribution à ces questions avec la plateforme de robotique libre PetitCat. Le robot PetitCat implémente l'hypothèse de l'ancrage de la connaissance dans des boucles d'interaction moto-sensorielles situées dans le temps et l'espace physique. Nous utilisons "moto-sensoriel" plutôt que "sensorimoteur" pour souligner le rôle clé de l'action, et l'exploitation de certains signaux sensoriels comme des feedbacks pas nécessairement représentationnels--idées déjà présentes chez Piaget et Wiener, puis approfondies par la théorie de l'enaction.

BIOGRAPHIE

Olivier GEORGEON est maître de conférences à l’Université Catholique de Lyon. Ses recherches portent sur l’apprentissage artificiel développemental, notamment les approches constructivistes appliquées à la robotique autonome. Il a développé des algorithmes pour des agents autonomes motivés intrinsèquement et a exploré la construction autonome de la mémoire spatiale et l’inférence énactive A person wearing glasses smiling

Description automatically generateddans des environnements tridimensionnels. Georgeon a reçu une formation interdisciplinaire avec un diplôme d’ingénieur en informatique de l’École Centrale de Marseille et un doctorat en psychologie cognitive de l’Université Lumière Lyon

RÉFÉRENCES:

Georgeon, O., Lurie, D., and Robertson, P. (2024). Artificial Enactive Inference in Three-Dimensional World. Cognitive Systems Research  84: 101234.

Schneider H. Georgeon O. (2024). Grounding artificial general intelligence with robotics: The PetitCat project.  Proceedings of Brain inspired Cognitive Architectures (BICA). August 17 2024. Seattle.

Vidéo du séminaire à venir.

Séminaire DIC-ISC-CRIA - 6 février 2025 par Michael ARBIB

Michael ARBIB - 6 février 2025 à 10h30 au PK-5115

TITRE : The Evolution of the Construction-Ready Brain

RÉSUMÉ 

Humans, like animals, have perceptions, actions, and thoughts that they cannot put into words. The challenge is to understand how humans gained the ability to put so much into words, describing not only what is but also what is not and what could possibly be, and in this way came to construct a diversity of physical and symbolic worlds (Arbib et al., 2023, 2024). Building on modeling brain mechanisms for sensorimotor interaction with the world, we have explored both “how the brain got language” (Arbib, 2012) and what happens “when brains meet buildings” (Arbib, 2021). The little explored relation between these two studies is rooted in the notion of “construction” as used in a physical sense in architecture and in a symbolic sense as the tool for assembling utterances hierarchically. This talk offers hypotheses that address the question of how biological evolution yielded humans with the “construction-ready brains” and bodies that made us capable of the cultural evolution that created the diversity of our mental and physical constructs that we know today. The framework for all this is EvoDevoSocio – the idea that biological evolution yields biological mechanisms for both development and adult function of members of a species, but that social interaction is an important part of that environment, and that in humans cultural evolution has played the crucial role in changing the social, physical and increasingly symbolic and technological environments in which most humans now develop. The bridge between the two forms of construction is provided by the rooting of pantomime in manual action.

BIOGRAPHIE

Michael ARBIB, University Professor Emeritus and Professor Emeritus of Computer Science, Biomedical Engineering, Biological Sciences, and Psychology at the University of Southern California (USC). He is currently also an Adjunct Professor of Psychology at UCSD. Arbib’s research bridges neuroscience, computer science, and cognitive science, with a focus on the coordination of perception and action in frogs, rats, monkeys and humans. He applies schema theory and neural network analysis to study brain function, robotics, and machine vision. Known for the Mirror System Hypothesis, he explores language evolution through neural mechanisms for action understanding. More recently, he has explored the neuroscience of the experience of buildings, the design of buildings, and what it might mean for buildings to have “brains.

RÉFÉRENCES:

Arbib, M. A. (1964). Brains, machines, and mathematics. McGraw-Hill.

Arbib, M. A., & Caplan, D. (1979). Neurolinguistics must be Computational. Behavioral and Brain Sciences, 2, 449-483. [My thanks to Stevan Harnad for founding this important journal.]

Arbib, M. A. (Ed.). (2003). The handbook of brain theory and neural networks, Second Edition. MIT press.

Arbib, M. A. (2005). From monkey-like action recognition to human language: An evolutionary framework for neurolinguistics. Behavioral and Brain Sciences, 28(2), 105-124.

Arbib, M. A. (2012). How the brain got language: The mirror system hypothesis. Oxford University Press

Arbib, M.A. (2021). When Brains Meet Buildings: A Conversation Between Neuroscience and Architecture, Oxford University Press.

Arbib, M. A. (2023). Pantomime within and Beyond the Evolution of Language. pp. 16-57. In: Żywiczyński, P., Wacewicz, S., Boruta-Żywiczyńska, M., & Blomberg, J. (Eds.) Perspectives on Pantomime: Evolution, Development, Interaction. Benjamins.

Arbib, M. A., Fragaszy, D. M., Healy, S. D., & Stout, D. (2023). Tooling and construction: From nut-cracking and stone-tool making to bird nests and language. Current Research in Behavioral Sciences, 5, 100121

Arbib, M.A., Barham, L., Braun, R., Calder, B., Fox, M., Healy, S., Memmott, P., Smith, M., Stiphany, K., and Watkins, T. (2024) How Humans Came to Construct Their Worlds. A CARTA Symposium. Abstracts and videos of the talks are at https://carta.anthropogeny.org/events/how-humans-came-construct-their-worlds.

Séminaire DIC-ISC-CRIA - 30 janvier 2025 par Toufik MECHOUMA

Toufik MECHOUMA - 30 janvier 2025 à 10h30 au PK-5115

TITRE :  Réduire l’opacité des LLMs par l’injection de syntaxe, de vision et de sens

RÉSUMÉ 

Les grands modèles de langage (LLM) tels que GPT ou BERT, bien que puissants, souffrent d'une opacité importante qui rend leur fonctionnement interne difficile à comprendre. Leur complexité provient de millions, voire de milliards de paramètres, ce qui limite leur explicabilité et complique l'interprétation de leurs décisions. Cette "boîte noire" pose des défis éthiques et pratiques. Comprendre pourquoi et comment un modèle génère une réponse devient crucial pour favoriser la confiance et permettre une adoption responsable de ces technologies. Des approches comme les techniques d'explicabilité ou les modèles hybrides tentent d'atténuer ces problèmes en combinant puissance et interprétabilité. Comment peut-on répondre au problème d'opacité et d'inexplicabilité des grands modèles de langage en proposant l'injection de connaissances syntaxiques et visuelles, tout en améliorant l'encodage du sens des mots pour les rapprocher de leurs représentations conceptuelles et contextuelles ?

BIOGRAPHIE

Toufik MECHOUMA est un professionnel des TI, avec dix ans d'expérience dans le domaine du pétrole et du gaz. Il a débuté sa carrière dans l'apprentissage automatique en 2020 au sein d'une entreprise canadienne. Il a rejoint le programme d'informatique cognitive de l'UQAM en tant que doctorant en 2019. Il travaille pour le Collège LaSalle en tant que professeur d'IA. Les recherches de Toufik portent sur le traitement automatique du langage naturel d'un point de vue cognitif et computationnel. Il travaille sur l'interprétabilité des LLM et l'encodage du sens des mots à travers des architectures cognitives multimodales. Toufik n'est ni un symboliste pur ni un connexionniste pur, il pense que la fusion des deux approches est l'avenir de l'IA. Il aime lire sur la catégorisation, la conceptualisation et la perception dans les sciences cognitives. L'une des idées les plus influentes à laquelle il croit fermement est que les images et les mots sont à la fois des symboles et représentent donc la surface, tandis que la machine devrait aller plus loin, jusqu'à l'informatique conceptuelle.

RÉFÉRENCES

Toufik Mechouma , Ismaïl Biskri , Jean Guy Meunier : Reinforcement of BERT with Dependency-Parsing Based Attention Mask. ICCCI (CCISVolume) 2022: 112-122

▪ Toufik Mechouma , Ismaïl Biskri , Serge Robert : Reinforcement of BERT with Dependency-Parsing Based Attention Mask. ICCCI (CCIS Volume) 2022: 112-122

▪ Toufik Mechouma , Ismaïl Biskri , Serge Robert : LingBERT, Linguistic

Knowledge Injection into Attention Mechanism based on a Hybrid Masking Strategy.ICMLA MIAMI USA 2024.

▪ Syntax-Constraint-Aware SCABERT: Syntactic Knowledge as a Ground Truth

Supervisor of Attention Mechanism via Augmented Lagrange Multipliers, ICICT, London UK 2025.

▪ Toufik Mechouma , Ismaïl Biskri , Serge Robert: VLG-BERT: Towards Better Interpretability in LLMs through Visual and Linguistic Grounding 2025 NLP4DH Albuquerque, USA

Séminaire DIC-ISC-CRIA - 23 janvier 2025 par Marco LOPES et Nicolas GOULET

Marco LOPES et Nicolas GOULET - 23 janvier 2025 à 10h30 au PK-5115 (201, ave President-Kennedy, 5e étage)

TITRE : Le Dictionnaire : Un Petit Modèle de Langue pour le Lexique Mental

RÉSUMÉ 

Lorsque nous lisons ou entendons un mot dont le sens nous échappe, nous pouvons chercher sa définition dans un dictionnaire. Si dans la définition nous lisons un autre mot au sens inconnu, nous pouvons chercher sa propre définition, répétant le processus autant que nécessaire. Cependant, une langue ne peut être apprise en utilisant que la recherche de définitions dans un dictionnaire : le sens de certains mots doit être acquis au préalable. Combien de mots doivent alors être connus pour pouvoir apprendre tous les autres? Trouver le plus petit ensemble de tels mots - un ensemble d’ancrage minimal - est formellement équivalent à l'identification d’un transversal de circuits de cardinalité minimale d’un graphe de dictionnaire. Quels sont les mots retrouvés dans ces ensembles, et comment et quand apprenons-nous leurs sens?

BIOGRAPHIE

Marco LOPES Professeur de linguistique, Université de São Paulo, est spécialisé en syntaxe, sémantique et linguistique informatique. Ses recherches portent sur les cadres grammaticaux formels, le traitement du langage naturel et l’interface entre la théorie linguistique et l’IA. Lopes contribue activement à faire progresser notre compréhension de la structure du langage et de l'intégration du langage machine.

Nicolas GOULET complète sa maîtrise en informatique à l'UQÀM. Ses recherches portent sur l'analyse théorique des graphes des dictionnaires numériques.

RÉFÉRENCES:

Abdenbi, M., Massé, A. B., Goupil, A., Lapointe, M., & Lavoie, M. (2024). Enumerating Minimum Feedback Vertex Sets in directed graphs with union-cat trees. RAIRO-Theoretical Informatics and Applications58, 18.

Abdenbi, M., Massé, A. B., Goupil, A., & Marcotte, O. (2024). On the Confluence of Directed Graph Reductions Preserving Feedback Vertex Set MinimalityarXiv preprint arXiv:2406.16390.

Fernandes, R., & Lopes, M. (2024, September). Open-source LLMs vs. NMT Systems: Translating Spatial Language in EN-PT-br Subtitles. In Proceedings of the 16th Conference of the Association for Machine Translation in the Americas (Volume 2: User Track) (pp. 152-153).

Rodrigues, E. J., Santos, P. E., Lopes, M., Bennett, B., & Oppenheimer, P. E. (2020). Standpoint semantics for polysemy in spatial prepositionsJournal of Logic and Computation30(2), 635-661.

Séminaire DIC-ISC-CRIA - 28 novembre 2024 par Grégoire BORST

Grégoire BORST - 28 novembre 2024 à 10h30 au PK-5115

TITRE : L’influence de l’IA sur le développement de la cognition

RÉSUMÉ

L'IA est de plus en plus présente dans nos quotidiens. Si elle force nos cerveaux adultes à s'adapter, elle soulève des questions quant à ses effets potentiels sur les cerveaux des enfants et des adolescents en plein développement. L'enjeu de cette conférence est de présenter les mécanismes du développement neurocognitif de l'enfant et de l'adolescent et d'interroger comment l'IA peut affecter ces mécanismes

BIOGRAPHIE

Grégoire BORST est professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université Paris Cité. Ses recherches portent sur les fonctions cognitives de haut niveau telles que la métacognition, la régulation émotionnelle et le contrôle cognitif. Il a reçu le Prix Dagnan-Bouveret de l’Académie des Sciences Morales et Politiques pour ses recherches en psychologie cognitive et éducation.

RÉFÉRENCE

Borst, G. (2023). La Neuroéducation–LaPsyDÉ (UMR CNRS 8240). L'Année psychologique, (2), 387-392.

Séminaire DIC-ISC-CRIA - 21 novembre 2024 par Shahab BAKHTIARI

Shahab BAKHTIARI - 21 novembre 2024 à 10h30 au PK-5115

TITRE : La généralisation en apprentissage perceptif visuel

RÉSUMÉ 

L’Apprentissage Perceptif Visuel (APV) améliore la sensibilité visuelle grâce à la pratique, mais il se généralise rarement à de nouvelles conditions de test, un phénomène semblable au surapprentissage en apprentissage automatique. Le degré de généralisation de l’APV varie selon les tâches, limitant son application pratique en rééducation visuelle et formation d’experts (radiologues, etc.). Je discuterai des théories expliquant cette généralisation et présenterai les recherches de mon laboratoire sur la NeuroIA, un modèle computationnel visant à prédire et améliorer la généralisation de l’APV.

BIOGRAPHIE

Shahab BAKHTIARI est professeur adjoint au département de psychologie de l’Université de Montréal et membre associé de l’Institut d’intelligence artificielle Mila Québec. Ses recherches portent sur les réseaux neuronaux et leur rôle dans l’apprentissage perceptif humain, en explorant les liens entre l’intelligence artificielle et les mécanismes cérébraux. Bakhtiari détient un doctorat en neurosciences de l’Université McGill, avec une expertise en perception visuelle, apprentissage profond et apprentissage de représentation dans les systèmes neuronaux.

RÉFÉRENCE

Bakhtiari, S., Mineault, P., Lillicrap, T., Pack, C., & Richards, B. (2021). The functional specialization of visual cortex emerges from training parallel pathways with self-supervised predictive learningAdvances in Neural Information Processing Systems34, 25164-25178.

Zador, A., Escola, S., Richards, B., Ölveczky, B., Bengio, Y., Boahen, K., Botvinick, M., Chklovskii, D., Churchland, A., Clopath, C. and DiCarlo, J., (2023). Catalyzing next-generation artificial intelligence through NeuroAINature communications14(1), p.1597.

Bakhtiari, S. (2024). Representational asymmetries in neural networks: why should we care?

Séminaire DIC-ISC-CRIA - 14 novembre 2024 par Philippe BEAUDOIN

Philippe Beaudoin - 14 novembre 2024 à 10h30 au PK-5115

TITRE : La programmation pilotée par des prompts : Vers une approche raisonnée

RÉSUMÉ

Il n’y a pas si longtemps, la communauté scientifique considérait l’ingénierie des prompts comme une forme de “bidouillage”. La véritable science se situait au niveau des modèles. Deux ans après le lancement de ChatGPT, il semble toutefois que les modèles de langage deviennent une commodité, tandis que les prompts se transforment en une nouvelle couche logicielle. Pourtant, la programmation pilotée par des prompts en est encore à ses débuts. Concevoir des logiciels à grande échelle, robustes et maintenables sur la base de prompts est une tâche ardue, même pour des applications tolérantes aux erreurs, comme les chatbots. Cette nouvelle couche logicielle nécessite de toute urgence une approche rigoureuse, semblable à celle que nous avons appliquée au reste de la pile de développement grâce à l’ingénierie logicielle. Dans cette présentation, nous aborderons l’approche interne de numeno.ai pour une programmation pilotée par des prompts de haute qualité. Nous parlerons de la couche intermédiaire de primitives fonctionnelles basées sur des prompts que nous avons développée, ce qui nous a permis de multiplier par 10 la vitesse de mise en production, de test et de maintenance de notre logiciel. Nous présenterons également certains des outils que nous utilisons quotidiennement et en quoi ils diffèrent de leurs équivalents dans la pile d’ingénierie logicielle traditionnelle.

BIOGRAPHIE

Philippe BEAUDOIN est cofondateur de numeno, une plateforme basée à Montréal utilisant l'IA pour aider les utilisateurs à personnaliser leur contenu. Ancien chercheur chez Google DeepMind, il se concentre sur l'utilisation de l'IA pour un engagement plus significatif, donnant aux utilisateurs plus de contrôle sur leur expérience numérique. Son travail à numeno met l'accent sur la curation basée sur des principes éthiques comme la transparence et l'autonomie. Beaudoin s'intéresse également aux implications éthiques de l'IA, cherchant à concevoir des systèmes qui favorisent le bien-être humain plutôt que des algorithmes d'optimisation axés sur le profit.

RÉFÉRENCE

Roy N, Posner I, Barfoot T, Beaudoin P, Bengio Y, Bohg J, Brock O, Depatie I, Fox D, Koditschek D, Lozano-Perez T. (2021). From machine learning to robotics: Challenges and opportunities for embodied intelligencearXiv preprint arXiv:2110.15245.

Séminaire DIC-ISC-CRIA - 7 novembre 2024 par Guillaume LAJOIE

Guillaume LAJOIE - 7 novembre 2024 à 10h30 au PK-5115

TITRE: Beyond parameters: Learning in-context without plasticity in neural networks

RÉSUMÉ

Les réseaux neuronaux peuvent approximer un large éventail de fonctions si une attribution de crédit appropriée est mise en place. Les théories de l’apprentissage se sont concentrées sur l’ajustement des paramètres d’un réseau, tels que les poids de connectivité, afin de minimiser les erreurs sur des tâches spécifiques. Dans le cerveau, ces modifications sont facilitées par des mécanismes de plasticité synaptique, tandis que les réseaux profonds utilisent la descente de gradient directe. Certains processus d’apprentissage dans le cerveau ne reposent pas uniquement sur ces mises à jour paramétriques. Ils exploitent des mécanismes d’attribution de crédit basés sur l’activité pour réaliser un apprentissage rapide, induit par les entrées, de manière non paramétrique. En IA, les grands modèles de fondation pré-entraînés sur des objectifs prédictifs simples montrent une expressivité remarquable dans l’apprentissage en contexte, en utilisant uniquement les activations évoquées par les entrées. Je présenterai des résultats démêlant les rôles de l’apprentissage paramétrique et non paramétrique. J’explorerai l’expressivité des réseaux neuronaux qui apprennent uniquement à partir des entrées et j’examinerai l’impact des objectifs de méta-formation paramétrique sur cette expressivité. Cette recherche vise à fournir des outils pour mieux comprendre l’apprentissage induit par les entrées dans le cerveau et l’apprentissage en contexte dans les grands systèmes d’IA pré-entraînés.

 

BIOGRAPHIE

Guillaume LAJOIE est professeur associé à l’Université de Montréal et chercheur au Mila (Institut québécois d’intelligence artificielle). Ses travaux se situent à l’intersection des neurosciences et de l’apprentissage automatique, en particulier sur la compréhension des dynamiques neuronales et comment les modèles inspirés du cerveau peuvent améliorer les systèmes d’IA.

RÉFÉRENCES

Ezekiel Williams, Avery Hee-Woon Ryoo, Thomas Jiralerspong, Alexandre Payeur, Matthew G. Perich, Luca Mazzucato, Guillaume Lajoie (2024) Expressivity of Neural Networks with Random Weights and Learned Biases.  arXiv preprint arXiv:2407.00957.

Séminaire DIC-ISC-CRIA - 23 octobre 2024 par Emily BENDER

TITRE: Sense-making with artificial interlocutors and risks of language technology

RÉSUMÉ

Les humains donnent du sens au langage en contexte, en s’appuyant sur leur propre compréhension du monde, y compris leur propre modèle de la compréhension du monde de leur interlocuteur. Dans cette présentation, j’examinerai divers risques potentiels qui surviennent lorsque les humains appliquent cette capacité de construction de sens aux interactions avec les interlocuteurs artificiels. Que se passe-t-il dans les conversations où un des interlocuteurs n’a pas accès (ou a un accès extrêmement limité) au sens, et toute la tache interprétative repose sur l’autre interlocuteur ? J’explorerai brièvement les implications que cela peut avoir pour la conception des technologies linguistiques.

BIOGRAPHIE

Emily M. BENDER est professeure de linguistique et professeure associée à l’École d’informatique et à l’École d’information de l’Université de Washington. Ses recherches portent sur l’ingénierie grammaticale multilingue, la sémantique computationnelle et les impacts sociétaux des technologies linguistiques. En 2022, elle a été élue Fellow de l’Association américaine pour l’avancement des sciences (AAAS).

RÉFÉRENCES

Bender, E. M. (2024). Resisting Dehumanization in the Age of “AI”Current Directions in Psychological Science, 33(2), 114-120.

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. In Proceedings of the 58th annual meeting of the association for computational linguistics (pp. 5185-5198).

Lien vidéo

Suivez-nous