Auteur : Dagenais, Mylène

Séminaire DIC-ISC-CRIA - 3 octobre 2024 par Rishabh AGARWAL

Rishabh AGARWAL - 3 octobre 2024 à 10h30 au local PK-5115

Titre : Many-Shot In-Context Learning

RÉSUMÉ :

Les grands modèles de langage (LLMs) excellent en apprentissage in-context (ICL) avec peu d’exemples. Les fenêtres de contexte élargies permettent d’explorer l’ICL avec des centaines ou milliers d’exemples : apprentissage à nombreux exemples. Cela améliore les performances sur des tâches variées. L’ICL à nombreux exemples peut être limité par le nombre d’exemples humains disponibles. Pour y remédier, nous explorons l’ICL renforcé et non supervisé. (1) L’ICL renforcé utilise des raisonnements générés par le modèle. (2) L’ICL non supervisé se base uniquement sur des questions spécifiques au domaine. Ces méthodes sont particulièrement efficaces pour les tâches de raisonnement complexe.

                               Abstract : Large language models (LLMs) excel at few-shot in-context learning (ICL): learning from a few examples provided in context at inference, without any weight updates. Newly expanded context windows allow us to investigate ICL with hundreds or thousands of examples: many-shot learning. Going from few-shot to many-shot yields significant performance gains across a wide variety of generative and discriminative tasks. Many-shot ICL can be bottlenecked by the available number of human-generated examples. To mitigate this, we explore Reinforced and Unsupervised ICL. (1) Reinforced ICL uses model-generated chain-of-thought rationales in place of human examples. (2) Unsupervised ICL removes rationales from the prompt altogether and prompts the model only with domain-specific questions. Both Reinforced and Unsupervised ICL can be quite effective in many-shot regime learning, particularly on complex reasoning tasks. Unlike few-shot learning, many-shot learning is effective at overriding pretraining biases; it can learn high-dimensional functions with numerical inputs, and it performs comparably to fine-tuning. Our analysis also reveals the limitations of next-token prediction loss as an indicator of downstream ICL performance.

BIOGRAPHIE:

Rishabh AGARWAL est chercheur principal chez Google DeepMind à Montréal et professeur adjoint à McGill. Après une année avec Geoffrey Hinton à Google Brain, il a fait son doctorat à Mila sous la direction d’Aaron Courville et Marc Bellemare. Ses recherches portent sur l’apprentissage par renforcement profond, avec des applications aux problèmes réels.

RÉFÉRENCES:

Agarwal, Rishabh, et al. "Many-shot in-context learning.arXiv preprint arXiv:2404.11018 (2024).


Agarwal, Rishabh, et al. (2021): "Deep reinforcement learning at the edge of the statistical precipice." Advances in neural information processing systems 34 29304-29320.

Soutenance de thèse - François LEWIS - 3 octobre 2024 - Doctorat en informatique cognitive

SOUTENANCE DE THÈSE - Vous êtes tous cordialement invités!

JEUDI 3 octobre 2024

9h30

TELUQ, Vidéoconférence en Zoom: https://teluq.zoom.us/j/85012917721?pwd=FUj65oGIg1j7kxTYFdnqW5au6lc2XK.1

TITRE: Pertinence de l'ajout d'une composante sérieuse personnalisée à un jeu vidéo d'action dédié à la rééducation en lecture d'élèves ayant des difficultés d'apprentissage

Présenté par

François LEWIS, personne étudiante au doctorat en informatique cognitive, UQAM/TELUQ

Résumé

Notre projet de thèse vise à comprendre et modéliser les connaissances relatives à la conception de logiciels personnalisés pour l’apprentissage de la lecture, dédiés aux enfants qui présentent des symptômes dyslexiques et un déficit d’attention. Par la suite, évalue son efficacité pour un enseignement adaptatif.
Selon Cardoso-Leite et Bavelier (2014), les jeux vidéo d’action en 3D améliorent l’attention du haut vers le bas. L’attention descendante correspond aux facteurs internes de l’individu notamment ses connaissances et ses objectifs. On considère que l’attention descendante facilite l’apprentissage. De plus, plusieurs recherches ont démontré les avantages des jeux vidéo d’action en 3D en milieu éducatif, notamment sur l’amélioration de la concentration et la motivation.
Notre hypothèse de départ va comme suit : en intégrant une dimension sérieuse personnalisée à l’élève à un jeu vidéo d’action en 3D, il est possible d’augmenter la vitesse de lecture, diminuer le nombre d’erreurs lors d’un test calibré de lecture tout en conservant la motivation des utilisateurs.
Dans un premier temps, l’étude a développé un système informatique cognitif adapté au public cible, par la suite, intègre les éléments sérieux proposés dans une copie du système, et finalement, évalue le logiciel en milieu naturel pour valider son efficacité.

Jury d'évaluation:

Margarida ROMERO, professeure au département de philosophie, Université Côte-d'Azur (membre externe)

Hakim LOUNIS, professeur au département d'informatique, UQAM (membre externe)

Isabelle SAVARD, professeure au département d'éducation, TELUQ (membre interne)

Patrick PLANTE, professeur au département d'éducation, TELUQ (codirecteur de recherche)

Daniel LEMIRE, professeur au département des sciences et technologie, TELUQ (directeur de recherche)

Soutenance de thèse - Francis LAREAU - 27 septembre 2024 - Doctorat en informatique cognitive

SOUTENANCE DE THÈSE   - Vous êtes cordialement invités en présentiel !

VENDREDI  27 septembre 2024

9h30

UQAM, Pavillon President-Kennedy, local PK-2265

TITRE : Lecture et Analyse Argumentaire de Texte Assistées par Ordinateur (LAATAO): Détection automatique d'argument dans les textes de haut niveau théorique.

Présenté par

Francis LAREAU, personne étudiante au doctorat en informatique cognitive, UQAM

Résumé

Ce travail de recherche vise à appliquer les méthodes de lecture et d'analyse de texte assistées par ordinateur (LATAO) à des textes de haut niveau théorique en explorant plus particulièrement les dimensions d'assistance à la fouille d'argument (argument mining). Il vise le développement d'un système informatique dont le but est d'effectuer la tâche de détection automatique d'arguments.  Dans un premier temps, nous présentons les assises théoriques d'un tel système dont, notamment, l'analyse du discours, la lecture et l'analyse de texte assistées par ordinateur, l'argumentation, les modèles computationnels de l'argumentation ainsi que leurs différentes applications.  Dans un deuxième temps, nous présentons le système de fouille d'argument de manière à saisir les différents objets informatiques en jeu ainsi que les étapes opératoires comme la définition du corpus, la préparation du corpus, la détection des arguments et la représentation des résultats.  Dans un troisième temps, nous explorons plus en détail l'étape de détection de composantes argumentatives et des relations à l'intérieur et entre les arguments en explicitant les différentes représentations et les divers outils informatiques permettant une telle détection.  Au terme de cette exploration, une théorie novatrice de l'argumentation est présentée ainsi que diverses hypothèses de recherche à propos de composantes argumentatives importantes telles que les contextes de citation et les thèses principales.  À cet effet,deux expériences sont effectuées afin de tester les hypothèses de recherche.  Les résultats de la première expérience montrent que la détection automatique de l'appartenance des contextes de citation à une structure argumentative particulière est possible.  La combinaison d'une représentation textuelle basée sur ChatGPT sans surentrainement et d'un classifieur de type SVM semble donner de bons résultats, mais l'approche la plus performante apparait être une combinaison de la représentation BERT de base surentrainée sur nos données de la régression logistique avec validation croisée.  Les résultats de la deuxième expérience montrent que la détection automatique de la thèse principale est possible.  L'approche la plus performante pour la détection de la thèse principale apparait être une modèle ensembliste combinant une mesure de similitude entre la section "introduction" et les énoncés de la section "discussion", l'emplacement de la thèse principale dans le texte et la présence (ou non) de certains connecteurs de discours.  Dans la structure du résumé, l'approche fondée sur l'emplacement s'est avérée plus performante.

Mots clés:

Argumentation; fouille d'arguments; texte de haut niveau théorique; analyse de discours; Lecture et Analyse de Texte Assistées par Ordinateur (LATAO); Lecture et Analyse Argumentaire de Texte Assistées par Ordinateur (LAATAO).

Jury d’évaluation : 

Marcello Vitali-Rosati, professeur titulaire au département des littératures de langue française de l'Université de Montréal, (membre externe)

Motasem Alrahabi, Coordonnateur scientifique en Humanités Numériques à l'Université de la Sorbonne (membre externe)

Hakim Lounis, professeur au département d'informatique de l'Université du Québec à Montréal (membre interne et présidente du jury)

Pierre Poirier, Professeur au département de philosophie de l'Université du Québec à Montréal

Roger Villemaire, professeur au département d'informatique de l'Université du Québec à Montréal (codirecteur de recherche)

Séminaire DIC-ISC-CRIA – 19 septembre 2024 par Mounir A. BOUKADOUM

Mounir A. BOUKADOUM - 19 septembre 2024 à 10h30 au PK-5115

TITRE: Le méta-apprentissage en quelques coups (few-shot learning)

RÉSUMÉ:

Grâce aux progrès réalisés dans l’architecture et l’entraînement des réseaux de neurones artificiels, l’intelligence artificielle a fait des bonds spectaculaires dans la résolution de problèmes complexes de classification, de prédiction et, dans une certaine mesure, de prise de décision. Cependant, cette prouesse impose souvent d’importantes contraintes à satisfaire au préalable, dont de grands ensembles d’entraînement des réseaux neuronaux. Cette condition est difficile à remplir dans de nombreux domaines de la science et de l’ingénierie où l’acquisition de données peut être difficile, coûteuse ou soumise à des règles. La présentation aborde les façons de travailler avec des ensembles de données d’entraînement de petite taille et comment le méta-apprentissage, une forme d’apprentissage par transfert où plusieurs petits modèles sont fédérés, peut conduire à des solutions efficaces. Elle présente l’apprentissage en quelques coups, un exemple de méta-apprentissage basé sur la comparaison, avec deux exemples d’application.

BIOGRAPHIE:

Mounir A. BOUKADOUM est professeur titulaire au Département d’informatique de l’Université du Québec à Montréal (UQÀM). Ses recherches se concentrent principalement sur l’ingénierie microélectronique et bio-inspirée, notamment l’intelligence artificielle et la modélisation de réseaux de neurones pour des fonctions d’apprentissage. Il est directeur du laboratoire MicroPro et du ReSMiQ, ainsi que co-fondateur de la conférence IEEE NEWCAS. Mounir Boukadoum a publié largement dans les domaines des systèmes neuronaux et des technologies bio-inspirées.

RÉFÉRENCES:

Souaker, F., & Boukadoum, M. (2024, February). Light Siamese Neural Network Architecture for Image Comparison. In 2024 IEEE 15th Latin America Symposium on Circuits and Systems (LASCAS) (pp. 1-5). IEEE.

S Tam, M Boukadoum, A Campeau-Lecours, B Gosselin (2022,June).Convolutional neural network and few-shot learning for embedded gesture recognition. In 2022 20th IEEE Interregional NEWCAS Conference (NEWCAS), pp. 114-118

Séminaire DIC-ISC-CRIA – 4 avril 2024 par Piek VOSSEN

Piek Vossen - 4 avril 2024

Titre : Referential Grounding

Résumé :

LLMs or “Foundation models” are good at generalizing from observations but are they also good at individuation, reference and remembering? Grounding is often interpreted as an association across modalities. Multimodal models learn through fusion and co-attention from paired signals such as images and textual descriptions. But if the representation of each modality is a generalization what does that tell us about the referential grounding of individual people and objects in specific situations? Explicit extensional individuation of things and situations is a fundamental problem for LLMs because they are continuous and not discrete. In my research, I focus on identity, reference and perspective by analyzing different ways of framing in text that describe the same referentially grounded events and by developing embodied conversational AI models that create an extensional memory by observation and communication within real world environments.

Biographie :

Piek Vossen is Professor of Computational Lexicology at the Vrije Universiteit Amsterdam, where he directs the Computational Linguistics and Text Mining Lab. His research focuses on modeling understanding of language by machines. Within the Hybrid Intelligence program, he currently investigates how human and AI memories can be aligned through communication and their differences can be leveraged for collaborative tasks.

Références :

L. Remijnse, P. Vossen, A. Fokkens, and S. Titarsolej, Introducing frege to fillmore: a framenet dataset that captures both sense and reference, 2022, Proceedings of the 13th Conference on Language Resources and Evaluation (LREC 2022), pages 39–50

P. Vossen, F. Ilievski, M. Postma, A. Fokkens, G. Minnema, and L. Remijnse, “Large-scale cross-lingual language resources for referencing and framing,” in Proceedings of the 12th language resources and evaluation conference, 2020, p. 3162–3171

S. B. Santamaría, T. Baier, T. Kim, L. Krause, J. Kruijt, and P. Vossen, “EMISSOR: A platform for capturing multimodal interactions as episodic memories and interpretations with situated scenario-based ontological references,” Proceedings of the first workshop beyond language: multimodal semantic representations, in conjunction with iwcs2022, 2021.

P. Vossen, L. Bajčetić, S. Báez Santamaria, S. Basić, and B. Kraaijeveld, “Modelling context awareness for a situated semantic agent,” in Proceedings of 11th international and interdisciplinary conference on modeling and using context, context 2019, 2019

Séminaire DIC-ISC-CRIA – 28 mars 2024 par Matt FREDRIKSON

Matt Fredrikson - 28 mars 2024

Titre : Transferable Attacks on Aligned Language Models

Résumé :

Large language models (LLMs) undergo extensive fine-tuning to avoid producing content that contradicts the intent of their developers. Several studies have demonstrated so-called "jailbreaks", or special queries that can still induce unintended responses, these require a significant amount of manual effort to design and are often easy to patch. In this talk, I will present recent research that looks to generate these queries automatically. By a combination of gradient-based and discrete optimization, we show that it is possible to generate an unlimited number of these attack queries for open-source LLMs. Surprisingly, the results of these attacks often transfer directly to closed-source, proprietary models that are only made available through APIs (e.g. ChatGPT, Bard, Claude)--despite substantial differences in model size, architecture, and training. These findings raise serious concerns about the safety of using LLMs in many settings, especially as they become more widely used in autonomous applications.

Biographie :

Matt Fredrikson’s research aims to enable systems that make secure, fair, and reliable use of machine learning. His group group focuses on finding ways to understand the unique risks and vulnerabilities that arise from learned components, and on developing methods to mitigate them, often with provable guarantees.

Références:

Zou, A., Wang, Z., Kolter, J. Z., & Fredrikson, M. (2023). Universal and transferable adversarial attacks on aligned language models. arXiv preprint arXiv:2307.15043.

Papernot, N., McDaniel, P., Jha, S., Fredrikson, M., Celik, Z. B., & Swami, A. (2016, March). The limitations of deep learning in adversarial settings. In 2016 IEEE European symposium on security and privacy (EuroS&P) (pp. 372-387). IEEE.

Séminaire DIC-ISC-CRIA – 21 mars 2024 par Pierre-Yves OUDEYER

Pierre-Yves OUDEYER – 21 mars 2024

TITRE: Autotelic Agents that Use and Ground Large Language Models

RÉSUMÉ:

Developmental AI aims to design and study artificial agents that are capable of open-ended learning. I will discuss two fundamental ingredients: (1) curiosity-driven exploration mechanisms, especially mechanisms enabling agents to invent and sample their own goals (such agents are called ‘autotelic’; (2) language and culture enabling enabling agents to learn from others’ discoveries, through the internalization of cognitive tools. I will discuss the main challenges in designing autotelic agents (e.g., how can they be creative in choosing their own goals?) and how some of them require language and culture to be addressed. I will also discuss using LLMs as proxies for human culture in autotelic agents, and how autotelic agents can leverage LLMs to learn faster, but also to align and ground them on the dynamics of the environment they interact with. I will also address some of the current main limitations of LLMs.

BIOGRAPHIE:

Pierre-Yves OUDEYER and his team at INRIA Bordeaux study open lifelong learning and the self-organization of behavioral, cognitive and language structures, at the frontiers of AI and cognitive science. In the field of developmental AI, we use machines as tools to better understand how children learn, and to study how machines could learn autonomously as children do and could integrate into human cultures. We study models of curiosity-driven autotelic learning, enabling humans and machines to set their own goals and self-organize their learning program. We also work on applications in education and assisted scientific discovery, using AI techniques to serve humans, and encourage learning, curiosity, exploration and creativity.

T Karch, C Moulin-Frier, PY Oudeyer (2022) Language and Culture Internalisation for Human-Like Autotelic AI Nature Machine Intelligence 4 (12), 1068-1076 https://arxiv.org/abs/2206.01134

Carta, T., Romac, C., Wolf, T., Lamprier, S., Sigaud, O., & Oudeyer, P. Y. (2023). Grounding large language models in interactive environments with online reinforcement learning. ICML https://arxiv.org/abs/2302.02662

Colas, C., Teodorescu, L., Oudeyer, P. Y., Yuan, X., & Côté, M. A. (2023). Augmenting Autotelic Agents with Large Language Models. arXiv preprint arXiv:2305.12487. https://arxiv.org/abs/2305.12487

Séminaire DIC-ISC-CRIA – 14 mars 2024 par Andy LÜCKING

Andy LÜCKING - 14 mars 2024

TITRE: Gesture Semantics: Deictic Reference, Deferred Reference and Iconic Co-Speech

RÉSUMÉ:

Language use is situated in manifold ways, including the exploitation of the visual context and the use of manual gestures (multimodal communication). I will survey recent theoretical advances concerning the semantics and the semantic contribution of co-verbal deictic and iconic gestures. Multimodal communication challenges traditional notions of reference and meaning developed in formal semantics. Computationally tractable models of deictic and deferred reference and iconic gestures are proposed instead. These models specify language/perception interfaces for two concrete phenomena that are central to situated language. Inasmuch as LLMs lack perception and embodiment, these phenomena are currently, but not in principle, out of reach. I will conclude by pointing out *what* is needed for an LLM to be capable of deferred reference and iconic gestures.

BIOGRAPHIE:

Andy LÜCKING is Privatdozent at Goethe University Frankfurt. His work contributes to theoretical linguistics and computational semantics, in particular to a linguistic theory of human communication, that is, face-to-face interaction within and beyond single sentences. Besides publishing on deixis and iconicity in manual gesture, Andy is the main author of Referential Transparency Theory, the current semantic theory of plurality and quantification. His work on the perception of iconic gestures received an IEEE best paper award.

Andy Lücking, Alexander Henlein, and Alexander Mehler (2024). Iconic Gesture Semantics. In review. Manuscript available on request.

Andy Lücking and Jonathan Ginzburg (2023). Leading voices: Dialogue semantics, cognitive science, and the polyphonic structure of multimodal interaction. Language and Cognition, 15(1). 148–172.

Andy Lücking, Thies Pfeiffer and Hannes Rieser (2015). Pointing and Reference Reconsidered. In: Journal of Pragmatics 77: 56–79. DOI: 10.1016/j.pragma.2014.12.013.

Séminaire DIC-ISC-CRIA – 29 février 2024 par Alessandro LENCI

Alessandro LENCI – 29 février 2024

TITRE: The Grounding Problem in Language Models is not only about Grounding

RÉSUMÉ:

The Grounding Problem is typically assumed to concern the lack of referential competence of AI models. Language Models (LMs) that are trained only on texts without direct access to the external world are indeed rightly regarded to be affected by this limit, as they are ungrounded. On the other hand Multimodal LMs do have extralinguistic training data and show important abilities to link language with the visual world. In my talk, I will argue that incorporating multimodal data is a necessary but not sufficient condition to properly address the Grounding Problem. When applied to statistical models based on distributional co-occurrences like LMs, the Grounding Problem should be reformulated in a more extensive way, which sets an even higher challenge for current data-driven AI models.

BIOGRAPHIE:

Alessandro LENCI is Professor of linguistics and director of the Computational Linguistics Laboratory (CoLing Lab), University of Pisa. His main research interests are computational linguistics, natural language processing, semantics and cognitive science.

Lenci A., & Sahlgren (2023). Distributional Semantics, Cambridge, Cambridge University Press.

Lenci, A. (2018). Distributional models of word meaning. Annual review of Linguistics, 4, 151-171.

Lenci, A. (2023). Understanding Natural Language Understanding Systems. A Critical Analysis. Sistemi Intelligenti, arXiv preprint arXiv:2303.04229.

Lenci, A., & Padó, S. (2022). Perspectives for natural language processing between AI, linguistics and cognitive science. Frontiers in Artificial Intelligence, 5, 1059998.

Séminaire DIC-ISC-CRIA – 22 février 2024 par Gary LUPYAN

Gary LUPYAN – 22 février 2024

TITRE : What counts as understanding?

RÉSUMÉ:

The question of what it means to understand has taken on added urgency with the recent leaps in capabilities of generative AI such as large language models (LLMs). Can we really tell from observing the behavior of LLMs whether underlying the behavior is some notion of understanding? What kinds of successes are most indicative of understanding and what kinds of failures are most indicative of a failure to understand? If we applied the same standards to our own behavior, what might we conclude about the relationship between between understanding, knowing and doing?

BIOGRAPHIE:

Gary Lupyan: is Professor of Psychology at the University of Wisconsin-Madison. His work has focused on how natural language scaffolds and augments human cognition, and attempts to answer the question of what the human mind would be like without language. He also studies the evolution of language, and the ways that language adapts to the needs of its learners and users.

Liu, E., & Lupyan, G. (2023). Cross-domain semantic alignment: Concrete concepts are more abstract than you think. Philosophical Transactions of the Royal Society B. DOI: 10.1098/rstb.2021-0372 Duan, Y., & Lupyan, G. (2023). Divergence in Word Meanings and its Consequence for Communication. In Proceedings of the Annual Meeting of the Cognitive Science Society (Vol. 45, No. 45)

van Dijk, B. M. A., Kouwenhoven, T., Spruit, M. R., & van Duijn, M. J. (2023). Large Language Models: The Need for Nuance in Current Debates and a Pragmatic Perspective on Understanding (arXiv:2310.19671). arXiv.

Aguera y Arcas, B. (2022). Do large language models understand us? Medium. Titus, L. M. (2024). Does ChatGPT have semantic understanding? A problem with the statistics-of-occurrence strategy. Cognitive Systems Research, 83.

Pezzulo, G., Parr, T., Cisek, P., Clark, A., & Friston, K. (2024). Generating meaning: Active inference and the scope and limits of passive AI. Trends in Cognitive Sciences, 28(2), 97–112.

Suivez-nous