Bannière Faculté des sciences DIC
 
Description
Titre : Archive des séminaires DIC 2006-2011
Nombre : 3/12
Etat : Possibilité de réserver
Lieu : Vous trouverez sur cette page les anciens séminaires (2006-2011) programmés par le DIC et correspondant aux cours DIC9270 et DIC9271.


Réservation : 45
Résumé
Affect ou Cognition en éducation ? Voilà une question que l'on s'est longtemps posé, à tort pendant plusieurs années. En effet, les sciences cognitives, grâce entre autre aux avancées technologiques, ont démontré depuis les dernières années l'apport de ses deux dimensions à l'éducation et au raisonnement humain.
L'humain, un cocktail (parfois) savant des deux, se sert d'affect et d'émotion dans ses prises de décisions et processus d'apprentissage quotidiens.
De plus, l'informatisation de pratiquement tous les pans de la société et la miniaturisation des technologies ont permis aux chercheurs d'espérer mesurer et quantifier ses deux dimensions afin d'enrichir la machine dans le but d'espérer mieux "comprendre" l'apprenant avec qui elle interagit. Mais à quel point sommes-nous vraiment capable de mesurer de façon pertinente ces dimensions? Sommes-nous aptes à modéliser le tout efficacement dans l'ordinateur?
Dans cette présentation, je décrirai le fonctionnement de divers types de capteurs, de plus en plus discrets, mesurant des réactions physiologiques (battement cardiaques, réaction électro-dermale de la peau, suivi oculaire, ondes cérébrales) servant à discrétiser ces dimensions affectives et cognitives de l'humain.
Ensuite, j'expliquerai l'apport de chacun de ces capteurs aux systèmes tutoriels en fonction d'affect et de cognition.
Je terminerai la présentation avec quelques perspectives concernant l'utilisation de capteurs physiologiques dans les systèmes tutoriels de demain.

Biographie
Pierre Chalfoun est un étudiant au doctorat à l'Université de Montréal où il s'intéresse aux systèmes tutoriels intelligents (STI), au cerveau et à l'intelligence émotionnelle. Ses recherches doctorales touchent à plusieurs disciplines dont l'informatique cognitive, l'intelligence émotionnelle et plus particulièrement les capteurs physiologiques et leur apport à l'apprentissage. Ses principaux intérêts de recherche sont la modélisation des processus cérébraux et émotionnels reliés au raisonnement, les agents intelligents dans les STI et les interactions homme-machine de façon générale.

Résumé
La récente et rapide évolution des technologies sans fil entraine une forte demande en termes de ressources spectrales. Pour pallier à ce problème il faut une bonne gestion et une utilisation plus efficace du spectre. C’est dans ce cadre que des études sont menées dans le domaine de la radio cognitive.
La radio cognitive est un système qui permet à un terminal de pouvoir interagir avec son environnement. Cela signifie que celui-ci sera capable de percevoir son environnement, de le modéliser et de s’y adapter. Il pourra donc détecter les fréquences libres et les utiliser, contribuant ainsi à une meilleure efficacité spectrale.
La radio cognitive sera présentée, dans ce séminaire, dans ses différents aspects : Principes, Architecture et Applications.

Biographie
Wessam Ajib a le titre de professeur à l’université du Québec à Montréal depuis juin 2005. Il a suivi un stage postdoctoral à l'École Polytechnique de Montréal entre juin 2004 et juin 2005. Il a travaillé avec Nortel Networks entre octobre 2000 et juin 2004, Ottawa, On, Canada comme un architecte de réseaux sans fil cellulaire de troisième génération; après avoir obtenu son Ph.D de l'École Nationale Supérieure des Télécommunications (ENST), Paris, France avec félicitations en Janvier 2001. Il a reçu un Diplôme d'Études Approfondies de l'ENST en 1997 avec mention Très Bien et un diplôme d'ingénieur de l'Institut Nationale Polytechnique de Grenoble (INPG). Mr. Ajib a reçu en 1997 la bourse d'allocation de recherche qui lui a été accordée par le ministère de recherche et d'éducation nationale de France. Ses intérêts de recherche contiennent communication sans-fil, réseaux sans-fil, accès multiple et conception de nouveaux protocoles MAC, ordonnancement de trafic. Il est l'auteur ou co-auteur de plusieurs articles de journaux et de conférences dans ces domaines.

Résumé
Pour créer des systèmes tutoriels intelligents capables d’assister des apprenants dans des activités de résolution de problèmes, un auteur doit leur fournir des connaissances du domaine. L'approche traditionnelle est de les spécifier à la main, ce qui est coûteux en temps, et s'applique difficilement à des domaines difficiles à formaliser. Comme alternative, nous proposons l’utilisation d’algorithmes de fouille de données pour l’extraction automatique de modèles de tâches à partir de démonstrations. Pour l’extraction automatique, des algorithmes de fouille de données ont été développés respectivement pour la recherche de motifs séquentiels et de règles séquentielles. L’approche a été appliquée avec succès dans un système tutoriel intelligent développé en collaboration avec l’Agence Spatiale Canadienne pour l’enseignement de la manipulation du bras robotisé Canadarm2.
Dans cette présentation, nous présenterons tout d’abord nos travaux dans ce projet, puis nous présenterons brièvement nos travaux récents pour développer de nouveaux algorithmes de fouille de données pour la recherche de règles séquentielles, ainsi qu’une seconde application des algorithmes dans un agent cognitif.

Biographie
Philippe Fournier-Viger a obtenu son doctorat en informatique cognitive à l’UQAM (2010). Il a fait un postdoctorat en fouille de données à Taiwan (2011) puis, depuis septembre 2011, il est professeur adjoint à l’Université de Moncton. Ses principaux intérêts de recherche sont la conception d’algorithmes de fouille de données, l’intelligence artificielle, les systèmes tutoriels intelligents, les architectures cognitives, la modélisation cognitive et les agents intelligents.

Résumé
Pendant tout le processus de séquençage des génomes, l’informatique à travers différents algorithmes a joué un rôle inestimable. Avec la disponibilité maintenant de plusieurs génomes séquencés (dont celui de l’humain), l’informatique nous aide également à comprendre les mécanismes de fonctionnement des multitudes de gènes qui composent un génome. Elle a contribué à la mise en place de moteurs de navigation des génomes basés sur plusieurs bases de données et interfaces Web. Elle contribue aussi à la prédiction de nouveaux gènes, des régions fonctionnelles, des régions régulatrices, à travers des algorithmes de comparaison de génomes et d'algorithmes d'apprentissage machine. Au cours de cette présentation, je vous présenterai les principaux problèmes, leur formalisation informatique et les techniques utilisés pour les résoudre. Je présenterai les mécanismes de représentation de ces connaissances prédites pour les rendre accessible à la communauté scientifique.

Biographie
Abdoulaye Baniré Diallo est professeur Département d'informatique de l'Université du Québec à Montréal depuis 2007. Il détient un doctorat en informatique de l'Université McGill à Montréal. Il est membre régulier du laboratoire de recherche PharmaQAM et chercheur associé du Broadinstitute de M.I.T et Harvard. Ses domaines de recherche sont en bioinformatique. Il travaille particulièrement sur les problèmes de génomique comparée, inférence phylogénétique, analyse de données moléculaires manquantes, reconstruction de génomes ancestraux et plusieurs autres problématiques bioinformatiques. Il a contribué au développement de logiciels utilisés par la communauté bioinformatique (t-rex, ancestors, consensus, Angst-ML). Il participe à plusieurs projets internationaux comme le projet "Tree of life" piloté par le Broadinstitute. Son laboratoire met à la disposition de la communauté scientifique des interfaces web pour différentes applications populaires. Professeur Diallo détient deux prix internationaux (Springer et Chikiyo Hayashi) pour ses contributions dans le domaine de la classification automatisée. Ses travaux sont subventionnés par le CRSNG, PAFARC, Genome Québec.


Résumé et biographie à venir.


Résumé
Les machines de Turing ont permis le développement du computationnalisme, mais encore fallait-il leur fournir l’algorithme permettant de simuler l’intelligence. Les représentationnalistes ont proposé une hypothèse psychologique selon laquelle l’intelligence est directement simulable en algorithmisant le raisonnement logique et la manipulation des symboles; mais d’où viennent ces symboles? Les connexionnistes ont préféré l’hypothèse neuro-biologique préconisant une simulation des mécanismes neuronaux d’où pourraient émerger les phénomènes psychologiques. Dans cette approche s’intègrent les concepts d’incarnation située qui apportent des éléments de réponse à la question sur l’ancrage des symboles puisque les senseurs sont capables de perceptions sémiotiques bien avant que la conscience en permette l’interprétation en symboles. Avant d’être symboliques, les systèmes doivent d’abord être sémiotiques, capables de découvrir des signes dans les signaux physiques environnants.
En parallèle, Maturana et Varela ont émis l’hypothèse que la cognition et la vie résultaient d’un seul et même processus qu’ils nommèrent autopoïèse. De leurs travaux nous retiendrons surtout qu’un processus autopoïétique est un processus dont le produit est le processus lui- même. En d’autres mots, la vie crée et entretient la vie, et la cognition, participant à ce processus, s’auto-génère et s’auto-entretient aussi. Toute simulation basée sur une hypothèse biologique doit nécessairement tenir compte de cette contrainte. Pour être biologiquement plausible, un réseau de neurones artificiels doit donc participer à sa genèse et à son développement.
Sur le plan cognitif, précisant l’hypothèse de Newell et Simon, nous proposons donc que seuls les systèmes sémiotiques autopoïétiques sont capables d’actions d’intelligence générale.

Biographie
Pierre Vadnais est étudiant au doctorat en informatique cognitive à l’UQÀM depuis 2007. Sa recherche est basée sur l’hypothèse que des neurones dynamiques, analogiques et asynchrones sont capables de s’auto-organiser en réseaux pour s’adapter à l’environnement. Après 30 ans, de développement et implémentation en cybernétique appliquée (où il n’était surtout pas question d’IA) pour le contrôle et l’optimisation de procédés de raffinage du pétrole, il s’intéresse au paradoxe des machines capables des tâches computationnelles les plus complexes mais qui trébuchent à la moindre anicroche.

Résumé
Dans cette conférence, nous présentons la démarche de recherche mise en oeuvre dans le projet Lingot, projet pluridisciplinaire dont l’objectif est d’instrumenter la gestion de la diversité cognitive des élèves pour faciliter l’apprentissage de l’algèbre élémentaire. Les outils mis au point sont maintenant accessibles sur la plateforme de l’association Sésamaths qui est la plus utilisée en France par les enseignants de mathématiques de l’enseignement secondaire. Nous présentons la méthodologie que nous avons mise en oeuvre pour développer un outil de diagnostic de compétence et un outil d’aide à la mise en place de parcours d’apprentissage adaptés aux profils diagnostiqués.
Les résultats de nos travaux concernent (i) l’analyse de raisonnements d’élèves en identifiant plusieurs niveaux d’indicateurs de la compétence algébrique selon les utilisations du diagnostic, (ii) une modélisation assez générale du diagnostic de compétence, (iii) la mise en oeuvre d’artéfacts informatiques s’appuyant sur ces modèles et (iv) la diffusion de ces outils issus de la recherche auprès des enseignants. Enfin, nous abordons les travaux en cours concernant la modélisation des parcours d’apprentissage et le système d’aide à leur mise en place.

Biographie
Élisabeth Delozanne est maître de conférences en Informatique à l’UPMC-Sorbonne-Universités et membre de l’équipe Mocah (MOCAH - Modèles et Outils en ingénierie des Connaissances pour l'Apprentissage Humain) du LIP6 (Laboratoire d’Informatique de l’université Paris 6). Ses travaux portent sur la modélisation des connaissances dans les Environnements Informatiques pour l’Apprentissage Humain (EIAH). Elle travaille en particulier avec des didacticiens des mathématiques pour concevoir des environnements utilisés en collège au sein des projets Pépite et Lingot présentés dans cette conférence.

Résumé
La présentation décrira les grandes lignes de l'architecture cognitive Astus. Cette dernière est intégrée à une plateforme pour générer des systèmes tutoriels intelligents (STI) pour des tâches et des domaines bien définis. L'architecture Astus permet de modéliser comment un enseignant se représente un apprenant en train de résoudre un problème. Dans cette architecture, les connaissances du domaine sont modélisées sous une forme proche de celle présentée par un enseignant à un apprenant. Cette forme est aussi proche de la façon dont l'apprenant encode initialement les connaissances du domaine. Par la suite, nous aborderons comment cette architecture facilite l'interprétation des actions de l’apprenant dans l’environnement d’apprentissage, ainsi que l'intégration intégrer des connaissances que l’on veut enseigner à celles déjà maîtrisées par l’apprenant, mais nécessaires pour faire un modèle computationnel du domaine.

Biographie
André Mayers possède une maîtrise en psychologie et un doctorat en informatique. Il s'intéresse à l'ingénierie pédagogique et à la modélisation cognitive de l'expert, de l'apprenant, et de leurs interactions. En s'appuyant sur des recherches en psychologie cognitive et en intelligence artificielle, il propose de nouveaux processus et de nouvelles structures de représentation des connaissances pour construire une plateforme de STI nommé Astus. Ses travaux sont financés par le CRSNG.

Résumé
Les troubles cognitifs les plus fréquents sont ceux qui touchent le moteur de recherche cérébral. En plus de nous faire faire des gaffes, ces troubles exécutifs nous font souvent négliger des informations, des possibilités et des objectifs importants pour une situation donnée. Ils réduisent donc l'imagination à la base de la résolution de problèmes quotidiens. Le moteur de recherche cérébral est sensible à l'expertise et à l’interférence affectant la recherche de contenus. Il est aussi sensible aux motivations et à la dynamique des thèmes cognitifs qui compétitionnent pour l'accès à la conscience. Une meilleure compréhension de ces facteurs permettra de mieux simuler son fonctionnement pour mieux prédire l’erreur humaine et développer des outils pour assister les humains ayant perdu des capacités cognitives.

Biographie
Francois Richer a été formé en neuropsychologie à l’Université McGill, à l’Université de Montréal et à UCLA. Il est maintenant professeur de neuropsychologie à l'UQAM. Il a travaillé sur les bases cérébrales de l'attention et de la planification de l'action en outre avec des populations cliniques et des mesures de l'activité cérébrale. Ses travaux ont été financés par le CRSNG, les IRSC, le FQRNT, le FRSQ et le FQRSC.


Abstract
The convergence of three technologies will have a major impact on next generation of technology enhanced learning environments, namely; pervasive computing, social media and the semantic web. Each one of these technologies provides its own opportunities and challenges as their convergence has the potential to enable the development of new educational practices in situated and networked learning. In pervasive computing, the physical environment is directly related to learning goals and activities and the learning system is dynamically adapted to the learning context. Personal Learning Environments (PLE) have emerged from the combination of Web 2.0 and social media tools to support learning. From an educational perspective, these kinds of tools fit well with socio-constructivist learning approaches as they provide spaces for collaborative knowledge building and reflective practices. The semantic web provides a common framework that allows data to be shared and reused across! Web 2.0 tools and community boundaries.
The previous technologies and tools presented above can be used to conceptualize and design the next generation of learning landscapes relying on pervasive computing, social media and semantic web standards. Inquiry-Based Science Teaching in the context of History of Science and Technology is explored to find out the needed functionalities and adaptation to ensure data gathering, notification and sharing on a historical problem of technology - the swinging bridge of Brest over the Penfeld (1861-1944).

Biographie
Serge Garlatti est professeur au département informatique de Télécom Bretagne. Ses thèmes d’enseignement sont principalement l’intelligence artificielle, la représentation de connaissances et le raisonnement, les logiques standards et non standards, les systèmes d’informations contextuels, pervasifs, adaptatifs et sémantiques, le web sémantique et le web social.
Il est responsable de l’équipe de recherche SCRIPTureS (Semantic Composition & Retrieval of Information, Pictures and Services). Ses thèmes de recherche s’articulent principalement autour de l’acquisition et la représentation formelle de connaissances pour la conception de systèmes d’information sémantiques et adaptatifs fondés sur le web sémantique. Pour favoriser les interactions/coopérations homme/machine et leur donner du sens, ces connaissances sont issues des communautés de pratiques impliquées. Après l’étude des hypermédias adaptatifs, ces thématiques ont principalement été appliquées aux environnements informatiques d’apprentissage humain (EIAH). Au niveau de l’institut Télécom, il a été l’un des experts participant au groupe de travail sur les EIAH. Ce groupe s’est investi dans le domaine de l’apprentissage mobile qui est très peu représenté en France. Au travers du projet ANR P-LeaNnet (pervasive Learning Network) avec ses collègues de Télécom Sud-Paris, les travaux dans le domaine de l’EIAH ont été poursuivis pour investir le domaine de l’apprentissage pervasif et de l’apprentissage au travail.
Depuis 1991, il a participé à des projets nationaux et internationaux de recherche axés sur la représentation des connaissances, hypermédias adaptatifs, système d’apprentissage pervasifs. Il a été chef de projet de travail ensemble dans le projet CANDLE dans le domaine du e-learning. Il est impliqué dans des comités de programme de conférences nationales et internationales (EIAH, TICE, WI, AH, UMAP, ICALT, SWEL, Mlearn, etc.) et de revues nationales et internationales (Web Intelligence et Intelligent Agents, IEEE, STICEF, etc.). Il était le coordinateur scientifique de l'École thématique européenne sur l’apprentissage mobile de 2009 financée par le CNRS. Il est l'expert du projet « Personnalisation des EIAH » (l'un des projets du cluster ISLE de la région Rhône-Alpes).
Serge Garlatti's web page
    affiche

Résumé
Les systèmes logiciels ont besoin d’évoluer de façon continue afin de répondre aux besoins et aux environnements en perpétuel changement. Néanmoins, contrairement aux patrons de conception, les anti-patrons (mauvaises solutions à des problèmes récurrents de conception et d’implémentation) ont pour conséquence de freiner l’évolution de ces systèmes en rendant plus difficiles les tâches de maintenance et d’adaptation. Une détection et une correction des anti-patrons permettraient donc de faciliter l’évolution de ces systèmes. Dans cette présentation, nous nous intéressons à la détection et la correction automatiques des anti-patrons dans trois types d’architectures différentes : les architectures orientées objet, les architectures dirigées par les modèles et les architectures orientées service. Nous présenterons des méthodes et techniques adaptées à chacune de ces architectures tout en mettant en valeur leurs similitudes.

Biographie
Naouel Moha a obtenu sa maîtrise à l'université Joseph Fourier de Grenoble (France) en 2002. Elle a également obtenu son doctorat, en 2008, de l'université de Montréal et de l'université de Lille. Sa thèse de doctorat portait sur une approche qui permet la détection et la correction automatiques de défauts de conception dans les programmes orientés objet. Actuellement, Naouel Moha est professeure assistant dans le département d'informatique de l'université du Québec à Montréal. Auparavant, elle était également maître de conférence à l'université de Rennes au sein de l'équipe-projet INRIA Triskell, où elle a également réalisé son post-doctorat. Ses intérêts de recherche portent sur la qualité et l'évolution logicielles, et en particulier les techniques de refactorisation et l'identification de patrons et anti-patrons.


Résumé
Cette communication présente une recherche en cours en apprentissage automatique appliquée à la conception architecturale. Il s'agit de modéliser la production abductive de solutions architecturales dans un algorithme de Séparateurs à vaste marge (SVM). Un des problèmes centraux de la conception architecturale concerne la récupération d'un savoir-concevoir acquis au préalable et son utilisation pour la création d'une nouvelle configuration spatiale. Dans ce cadre, l'apport de l'abduction résulte de sa capacité d'introduire, dans un processus de conception donné, une nouvelle information qui sera à la source de la production architecturale. D'abord, nous examinons le fonctionnement de l'abduction en mettant l'accent sur son aspect créatif et relions cet aspect à la récupération architecturale. Ensuite, nous effectuons une brève revue des principes qui sous-tendent les algorithmes SVM et leurs rapports aux Méthodes à noyaux, pour en dégager des critères d'adéquation à l'abduction. Puis, nous approfondissons la notion de l'augmentation dimensionnelle de l'espace des connaissances préalables comme fondement de la créativité des SVM. Enfin, nous discutons du développement futur de cette recherche.

Biographie
Hassoun Karam est un chercheur post-doctoral au Laboratoire d'analyse cognitive de l'information - LANCI, à l'UQÀM. Architecte de formation, il s'intéresse à la modélisation des processus de conception architecturale. Sa thèse de doctorat (en 2010), en conception architecturale assistée par ordinateur (CAAO), a étudié le raisonnement abductif d'un point de vue sémiotique et a développé un modèle de production de configurations géométriques basé sur l'abstraction hypostatique. Sa recherche actuelle porte sur les algorithmes d'apprentissage automatique, surtout les Séparateurs à vaste marge (Support Vector Machines) et les Méthodes à noyaux (Kernel Methods). Plus spécifiquement, il étudie la capacité de découverte de ce type d'apprentissage et de son application en conception architecturale.


Abstract
Machine Learning and Semantic web are covering conceptually different sides of the same story - Semantic Web’s typical approach is top-down modeling of knowledge and proceeding down towards the data while Machine Learning is almost entirely data-driven bottom-up approach trying to discover the structure in the data and express it in the more abstract ways and rich knowledge formalisms.
The talk will discuss possible interaction and usage of Machine Learning and Knowledge discovery for Semantic Web with emphases on ontology construction. In the second half of the talk we will take a look at some research using machine learning for Semantic Web and demos of the corresponding prototype systems.
Bio
Dunja Mladenic is an expert on study and development of Machine Learning, Data/Text Mining, Semantic Technology techniques and their application on real-world problems. She is associated with the Artificial Intelligence Laboratory of the J. Stefan Institute since 1987. She got her MSc and PhD in Computer Science at University of Ljubljana in 1995 and 1998 respectively. She was a visiting researcher at School of Computer Science, Carnegie Mellon University, USA in 1996-1997 and in 2000-2001. Dunja Mladenic is or was on the Management Board of several European research and development projects. She has published papers in refereed conferences and journals, served in the program committee of international conferences and organized international events in the area of Text Mining, Link Analysis and Data Mining. She is co-editor of several books including "Data Mining and Decision Support : Integration and Collaboration", Kluwer Academic Publishers 2003, "Semantic Knowledge Management : Integrating Ontology Management, Knowledge Discovery, and Human Language Technologies" Springer 2008, "Web Mining : from Web to Semantic Web", Springer 2004, "Semantics, Web and Mining" Springer 2006, "From Web to social Web : discovering and deploying user and content profiles", Springer 2007, "Knowledge Discovery Enhanced with Semantic and Social Information" , Springer 2009.
Dunja Mladenic's web page

[ English abstract below ]
Résumé
Les modèles de Markov cachés (MMC, ou HMM pour Hidden Markov Models) sont de nos jours l’approche la plus utilisée en Reconnaissance Automatique de la Parole (RAP). Cependant, ils souffrent de plusieurs hypothèses contraignantes, parmi lesquelles la non corrélation des vecteurs acoustiques et la distribution des densités de probabilités de chaque état HMM (distributions discrètes ou multi-gaussiennes). Ces hypothèses peuvent être contournées par un réseau de neurones artificiel (e.g. Perceptron Multi-couches ou PMC) qui estime a posteriori les probabilités associées à chaque état. Les modèles hybrides MMC/PMC permettent de combiner les capacités discriminantes et la résistance au bruit d’un PMC avec la souplesse d’un MMC pour une performance de reconnaissance améliorée. De tels modèles hybrides ont été utilisés avec succès pour l’anglais britannique et américain, aussi bien que pour le Français.
De nombreuses expériences ont aussi montré la forte dépendance du taux de reconnaissance des systèmes MMC traditionnels du nombre de données d’entraînement. Cette dépendance est moindre pour les modèles MMC/PMC. En revanche, l’augmentation du nombre de données d’entraînement pour ces derniers modèles s’accompagne d’une forte augmentation du temps l’entraînement. Pour répondre à cette limitation, nous présentons une nouvelle méthode d’entraînement basée sur la fusion de données. Elle repose sur des expériences qui ont montré la possibilité d’améliorer sensiblement les performances des systèmes hybrides en combinant plusieurs traitements. L’hypothèse de départ est que, si les modèles sont entraînés sur différentes parties du fichier acoustique, ils peuvent agir sur des propriétés différentes des données, permettant ainsi une amélioration des résultats lorsque les sorties sont combinées. La combinaison se fait suivant plusieurs critères en vue de fournir le mot le plus probable. De plus, une phase de groupement des données est utilisée suivant un algorithme différent de la quantification vectorielle classique, puisque cette dernière utilise des frontières de décision dures. À ce titre, les algorithmes suivants sont comparés: C-moyennes floues (FCM : Fuzzy C-Means) et algorithmes génétiques.
L’intégration de la méthode de fusion dans le système MMC/PMC a offert une amélioration substantielle de la performance du système lorsqu’appliquée à l’entraînement du réseau pour la reconnaissance de la parole Arabe.

Biographie
Mme LAZLI Lilia est enseignante depuis l’année 2000 au département d'Informatique de l'université d'Annaba en Algérie. Elle est actuellement maître de conférences et chercheur intégré dans l’équipe GRIA. Elle a acquit les diplômes de doctorat et Magister en Informatique, spécialité: Intelligence artificielle en 2007 et 2003 respectivement. Le diplôme d’Ingénieur d’état en Informatique a été obtenu en 2000.
Les intérêts de recherche sont particulièrement orientés vers le traitement automatique du signal de parole et le signal biomédical avec les applications des paradigmes de l'intelligence artificielle pour la réalisation des systèmes de reconnaissance automatiques de la parole et d’aide au diagnostic médical. Un intérêt principal est porté vers l’application des modèles connexionnistes (MLP, LVQ et RBF), les modèles stochastiques (HMM), les modèles hybrides HMM/MLP, la logique floue et les algorithmes génétiques.
Abstract
The problem of Automatic Speech Recognition (ASR) has been an active field of study since the early fifties. The model most used for the purpose is the Hidden Markov Model (HMM), due to its legibility and the relative simplicity and effectiveness of its main algorithms. Nevertheless, several weaknesses are recognized in conjunction with HMM, of which the constraining assumptions of uncorrelated data and a priori knowledge of the relevant probabilities. Over the past years, an extension of HMM models gave rise to hybridization with artificial neural networks, particularly the Multi-Layer Perceptron (MLP). Such hybrid systems benefit from the discriminating capacity and robustness of MLPs and the flexibility of HMMs in order to obtain better performances than traditional HMMs alone, Many works have showed the effectiveness of these HMM/MLP models for speech recognition (continuous and isolated), independently of the speaker for the small vocabulary ones.
The recognition accuracy of HMM/PMC models does not suffer from the strong dependency of regular HMM on the size of the training data, but their training time does. To remedy this problem, we propose a new method of training based on data fusion. It relies on past experiments that have shown the improvement of the performance of hybrid systems by combining models. The underlying idea is that models that are trained with different part of the acoustic data file will unravel different data properties, leading to improved recognition accuracy when the results are combined. The combination is accomplished according to various criteria, with the aim of selecting the most probable word that was spoken. In addition to the fusion method, we propose a data clustering preprocessing stage that is performed with a different algorithm than vector quantization (VQ), since VQ provides a hard decision (not probabilized) in connection with the observations in the HMMs states. In this respect, the c-means and genetic algorithms are compared.
The integration of the described fusion method into the MMC/PMC hybrid model led to a substantial improvement of recognition accuracy when applied to train and recognize Arabic speech.

Résumé
De nos jours l'avènement de nouvelles technologies d'acquisition de données fait croître de manière exponentielle le volume de données stockées dans les bases de données informatiques. Les techniques d'extraction de connaissances ont été élaborées afin de permettre aux utilisateurs de disposer d'un maximum d'informations pertinentes à partir de ces données. De nombreuses approches développées durant ces deux dernières décennies ont montré leur efficacité dans ce cadre, tout en étant considérées comme utilisant des modèles de type "boîte noire". L'exposé présentera ces approches ainsi que les solutions existantes dans la littérature pour associer une sémantique aux connaissances extraites.
Cet exposé focalisera sur le cas des réseaux de neurones multicouches en classification supervisée, et celui de la recherche de motifs.

Biographie
Engelbert Mephu Nguifo is currently Professor in Computer Science at Université Blaise-Pascal, Clermont-Ferrand II, France. He received his Ph.D. (1993) in Computer Science from the University of Montpellier. His research interests are data mining, machine learning, bioinformatics, human-computer interaction, information visualization, knowledge representation and formal concept analysis.
He is also member of the ACM society and ACM-SIGKDD group, of Canadian AI society, and French AI, bioinformatics, data mining, and classification associations (AFIA, SFBI, EGC and SFC). He was the chair of CAP'2010, the French Conference on Machine Learning.
Engelbert Mephu Nguifo's web page

Abstract
This paper explores the emergence of language from the perspectives of usage-based approaches and of complex systems (CS). One of the mysteries of language development is that each of us as learners has had different language experiences and yet somehow we have converged on broadly the same language system. From diverse, often noisy samples, we end up with similar linguistic competence. How can that be ? There must be some constraints in our estimation of how language works. Some views hold that the constraints are in the learner, as expectations of linguistic universals pre-programmed in some form of innate language acquisition device. Others hold that the constraints are in the dynamics of language itself - that language form, language meaning, and language use come together to promote robust induction by means of statistical learning over limited samples. The research described here explores this question with regard English verbs, their grammatical form, semantics, and patterns of usage. It exemplifies CS principles such as agent-based emergence and the importance of scale-free distributions, and CS methods such as distributional analysis, connectionist modeling, and networks analysis.
Bio
Nick Ellis is a Professor of Psychology, Professor of Linguistics, Research Scientist in the English Language Institute, and Associated Faculty at the Centre for the Study of Complex Systems at the University of Michigan. His research interests include language acquisition, cognition, emergentism, corpus linguistics, cognitive linguistics, and psycholinguistics. His research in second language acquisition concerns (1) explicit and implicit language learning and their interface, (2) usage-based acquisition and the probabilistic tuning of the system, (3) vocabulary and phraseology, and (4) learned attention and language transfer. His emergentist research concerns include language as a complex adaptive system, networks analysis of language, scale-free linguistic distributions and robust learning, and computational modeling.
Nick Ellis's web page
poster/affiche

Résumé
Beaucoup des problèmes en intelligence artificielle et reconnaissance des formes peuvent être résolus en tant que problèmes d’optimisation que l'on résout en choisissant la meilleure alternative parmi un ensemble de solutions potentielles. En pratique, le processus revient à localiser un point dans un espace de recherche donné, qui contient toutes solutions possibles après un encodage approprié du problème à résoudre. Lorsque l’espace contient un petit nombre de points, dont la solution recherchée, l’usage de technique de recherches linéaires ou hiérarchiques suffit pour trouver cette dernière; Sinon - et c’est souvent le cas lorsque l’on définit espace de recherche par des combinaisons d'attributs, ce qui mène rapidement à l’explosion combinatoire du nombre de solutions possibles -, la recherche heuristique offre une piste de solution effective, sinon efficace. Les techniques de l’intelligence mimétique sont souvent utilisées dans ce but et plusieurs algorithmes existent qui utilisent des métaphores biologiques, éthologiques ou tirées de l’évolution naturelle. Cependant, les sources de "plagiat" ne manquent pas, et d’autres approches sont possibles. La présentation portera sur une nouvelle source d'inspiration musicale, dont l'algorithme combine des "sons d'instruments" (des valeurs de variables) afin de trouver un air mélodieux (la solution recherchée), à l’instar de ce que fait un compositeur de musique. L'approche sera illustrée à l’aide d’une application visant à détecter les défauts de conception dans les logiciels.

Biographie
Mounir Boukadoum a étudié en Algérie avant de compléter des études de second et troisième cycles universitaires aux É.-U. Il a obtenu le PhD en génie électrique, applications médicales, à l’Université de Houston en 1983 et est professeur à l’UQAM depuis 1984. Il est auteur du livre "Signaux et systèmes linéaires", publié aux éditions Guérin.
Ses intérêts en recherche, initialement orientés vers l’instrumentation et les signaux biomédicaux, portent aujourd’hui sur l’intelligence artificielle et ses applications, et sur les systèmes d'instrumentation et de communication en général.
Mounir Boukadoum a dirigé les programmes de microélectronique à l’UQAM en 1994-1997 et 1998-2004, et le doctorat en informatique cognitive en 2006-09. Il est membre fondateur de l’Institut des Sciences cognitives de l’UQAM, et fait partie du comité exécutif du Regroupement Stratégique pour les Microsystèmes du Québec (ReSMiQ).

Résumé
Les données lidar aéroportées se présentent sous forme de nuages de points 3D denses que l’ont peut interpoler pour créer des modèles numériques de surface matriciels. Dans le cas des couverts forestiers, ces modèles 3D laissent percevoir les arbres individuels qui prennent la forme de protubérances. La cartographie des ressources forestières, de la biodiversité et des stocks de carbone profiterait grandement d’informations forestières plus détaillées. Ceci implique que nous développions des méthodes de compréhension de scènes naturelles 3D et en particulier, des algorithmes de délimitation automatisée des arbres individuels. Malgré de nombreux efforts, nous sommes encore loin de parvenir à une délimitation satisfaisante. Ce qui pour l’humain va de soi est ici particulièrement difficile à transposer en une méthode de vision par ordinateur. Nous présenterons plusieurs de ces méthodes dans le contexte de la reconnaissance de formes 3D (3D pattern recognition) et du traitement d’images aux fins de compréhension de scène.

Biographie
Benoit St-Onge, docteur en géographie (Ph. D.), spécialiste de l’étude des milieux forestiers au moyen de méthodes de télédétection et de géomatique tridimensionnelles, est aussi le Directeur du département de géographie de l'UQAM. Il développe notamment des techniques de traitement de données d’altimétrie laser et d’images à haute résolution pour des fins de cartographie forestière. Il met aussi au point de nouvelles approches de stéréo-photogrammétrie numérique permettant non seulement de cartographier la forêt en 3D, mais aussi de reconstituer les changements structuraux passés au moyen de photos aériennes d’archive sur six décennies. Directeur du Laboratoire de Cartographie des Dynamiques Forestières, il travaille actuellement à mesurer rétrospectivement les fluctuations de la biomasse forestière sur plusieurs sites canadiens au cours des six dernières décennies, à développer des approches de traitements des données lidar scanneur à échantillonnage d’amplitude (scanning full waveform lidar) ainsi qu’à l’extraction automatisée d’information forestière à partir d’images à haute résolution.
À travers des collaborations avec des chercheurs en écologie forestière, il met au point des méthodes de cartographie de certains phénomènes forestiers, comme par exemple la perte de productivité causée par la paludification. Il contribue à l’amélioration des connaissances sur les dynamiques forestières et le rôle de la forêt dans le cycle global du carbone ainsi de faire avancer les méthodes de télédétection 3D appliquées aux milieux forestiers.

Résumé
Il existe des catégories qui, dans les sciences sociales, peuvent postuler au statut de « naturelles ». Prenons le cas du concept de représentation, commun aux sciences cognitives et aux sciences sociales. Voilà en effet un bon candidat à ce statut : il est étudié depuis de très nombreuses années, et depuis la fin de l’hégémonisme béhavioriste dans les sciences humaines, il est redevenu un concept central en psychologie, en sociologie et dans les sciences cognitives. Pourquoi est-ce un bon candidat ? Une réponse expéditive serait de dire que puisqu’une représentation est le résultat d’une activité mentale quelconque, alors une représentation est naturelle parce qu’explicable en termes de l’évolution du cerveau humain. L’on aura soin d’ajouter que le fait qu’une représentation soit socialement partagée ne change rien à l’affaire, puisque si elle est partagée, c’est parce que précisément chaque individu socialisé possède un cerveau qui joue alors simultanément le rôle d’un réceptacle et d’un transmetteur de représentations. En ce sens, c’est ultimement un concept de neurobiologie.
Mais il existe aussi une réponse un peu plus développée. En effet, dans les sciences sociales et dans les sciences cognitives, ce concept possède des caractères conditionnels ou normatifs assez également partagés par ces deux disciplines scientifiques. Dans un premier temps, il sera question de ces caractéristiques et de leurs relations dans la définition du concept de représentation en sciences sociales cognitives. Deuxièmement, j’essaierai d’étendre cette analyse à une hypothèse sur le rôle qu’elles jouent dans la modélisation des événements sociaux. Je conclurai en revenant sur la question du naturalisme à la lumière de ces deux brèves études.

Biographie
Jean Robillard est docteur en philosophie (Ph. D.), spécialiste de l’épistémologie des sciences sociales et de la communication, et professeur de communication à la Téluq-UQAM. Ses travaux de recherche portent sur la philosophie des sciences sociales, la communication et la cognition sociale, la théorie des modèles, la théorie des probabilités et l’épistémologie des statistiques.

Résumé
Concevoir une ontologie formelle demande une expertise certaine, qui est la plupart du temps, peu accessible à des experts de contenu. En revanche, de plus en plus d'experts utilisent la modélisation semi-formelle pour représenter leur expertise, car ce type de langage est souvent reconnu pour sa simplicité d'utilisation et sa capacité à représenter des connaissances de types déclaratifs, procédurales, stratégiques et factuels. La modélisation semi-formelle, qui constitue souvent une première démarche dans la mise en place d'une mémoire d'entreprise, n'élimine en rien la nécessité de représenter formellement la connaissance, obligeant ainsi une étape de formalisation du modèle semi-formel. Nous avons conçu une méthodologie de transformation d'un modèle semi-formel en ontologie et développé un assistant logiciel qui semi-automatise, ou automatise les processus de la méthodologie de transformation. La démarche de conception de la méthodologie et de son assistant informatique se divise en trois phases: 1) la phase de Mise en place des composants architecturaux, procéduraux et informatiques de la méthodologie est la phase initiale de la démarche; 2) la phase d'Agrégation des composants ontologiques, procéduraux et informatiques est la phase de développement et d'harmonisation des modules de l'assistant aux processus de la méthodologie; 3) la phase de confirmation est l'étape de tests et de raffinement de la fonctionnalité, de l'assistant informatique et de la méthodologie. Quatre champs disciplinaires sont concernés par cette thèse: en gestion des connaissances, notre approche offre une méthode de formalisation de la connaissance fondée sur une représentation semi-formelle de la connaissance; en ingénierie ontologique, nos travaux offrent un cadre architectural et procédural qui formalise et instrumente le processus de construction d'une ontologie à partir d'une représentation semi-formelle des connaissances; en représentation des connaissances, notre thèse approfondit l'étude d'une catégorisation formelle de la représentation des connaissances qu'elles soient déclaratives, procédurales, stratégiques ou factuelles; et finalement, d'un point de vue informatique, cette recherche présente une architecture et des outils informatiques qui formalisent et rendent exécutable le processus de transformation.
Mots-clés: Ingénierie ontologique, système expert à la formalisation, représentation de connaissances, architecture conduite par les modèles, modélisation semi-formelle, modélisation d'ontologie, transformation d'un modèle semi-formel en ontologie.


Résumé
Dans cette présentation, nous discutons et montrons les liens qui existent entre la découverte de connaissances dans les bases de données (DCD), et la représentation des connaissances et le raisonnement (particulièrement le raisonnement par classification et le raisonnement à partir de cas). Les techniques de découvertes de connaissances, et spécialement celles qui s'appuient sur l'analyse formelle de concepts (AFC) sont bien formalisées et permettent de construire des treillis de concepts à partir de données binaires ou plus complexes. Ensuite les treillis de concepts ainsi obtenus fournissent une base tangible pour la représentation des connaissances et l'ingénierie des ontologies. Les systèmes à bases de connaissances qui en résultent peuvent jouer un rôle dans divers schémas de raisonnement comme le raisonnement par classification ou le raisonnement à partir de cas, mais aussi et plus généralement en résolution de problèmes.


Biographie
Amedeo Napoli est titulaire d'une thèse d'état en informatique (1992), directeur de recherche CNRS et responsable scientifique de l'équipe Orpailleur au LORIA (équipe-projet INRIA). Cette équipe s'occupe d'extraction et de représentation des connaissances, avec des applications dans de nombreux domaines comme l'agronomie, la biologie, la chimie et la médecine.
Amedeo Napoli travaille depuis 1984 au CNRS dans le champ de l'intelligence artificielle. Il est un spécialiste des méthodes symboliques d'extraction de connaissances dans des bases de données
(ECBD) comme l'analyse formelle de concepts (AFC) et l'analyse relationnelle de concepts (ARC), l'extraction de motifs fréquents et de règles d'association (avec application à la fouille de textes).
En parallèle, il est également un spécialiste de formalismes de représentation des connaissances et de raisonnement (logiques de descriptions, raisonnements par classification et à partir de cas) et de technologie pour le Web sémantique comme la conception d'ontologies.
Amedeo Napoli participe à des projets de recherche nationaux et internationaux, dont des projets européens (Web sémantique) et des projets ANR en biologie, chimie, médecine, et traitement de documents.
Il a signé ou co-signé plus d'une centaine de publications dans des journaux ou conférences internationales ou nationales.
Quelques publications récentes.
R. Bendaoud, A. Napoli, and Y. Toussaint. Formal Concept Analysis: A unified framework for building and refining ontologies, in Proceedings of EKAW-08, A. Gangemi and J. Euzenat editors, Lecture Notes in Computer Science 5268, Springer, pages 156-171, 2008.
M.-D. Devignes, P. Franiatte, N. Messai, E. Bresso, A. Napoli, and M. Smail-Tabbone. BioRegistry: Automatic extraction of metadata for biological database retrieval and discovery. International Journal on Metadata, Semantics and Ontologies, 5(3):184-193, 2010.
M. Kaytoue-Uberall, S.O. Kuznetsov, A. Napoli, and S. Duplessis. Mining Gene Expression Data with Pattern Structures in Formal Concept Analysis, Information Science, 2010 (to be published).
N. Jay, F. Kohler and A. Napoli,
Analysis of social communities with iceberg and stability-based concept lattices, in Proceedings of the 6th International Conference on FCA (ICFCA 2008), Montréal, LNAI 4933, R. Medina and S. Obiedkov editors, pages 258-272, 2008.
M. Kaytoue, Z. Assaghir, S.O. Kuznetsov, and A. Napoli. Embedding Tolerance Relations in Formal Concept Analysis -- An Application in Information Fusion, in Proceedings of CIKM 2010, 2010 (to be published).
J. Lieber, M. d'Aquin, F. Badra, and A. Napoli. Modeling adaptation of breast cancer treatment decision protocols in the KASIMIR project. Applied Intelligence, 28(3):261-274, 2008.
N. Messai, M.-D. Devignes, A. Napoli, and M. Smaïl-Tabbone. Using Domain Knowledge to Guide Lattice-based Complex Data Exploration, in Proceedings of ECAI-10, H. Coehlo, R. Studer, and M. Woolridge editors, IOS Press, pages 847-852, 2010.
F. Pennerath, G. Niel, P. Vismara, P. Jauffret, C. Laurenço, and A. Napoli. A graph-mining method for the evaluation of bond formability, Journal of Chemical Information and Modeling, 50(2):221-239, 2010.
A. Rouane-Hacene, M. Huchard, A. Napoli, and P. Valtchev.
Using Formal Concept Analysis for discovering knowledge patterns, in Proceedings of CLA-2010, M. Kryskiewicz and S. Obiedkov editors, University of Sevilla, pages 223-234, 2010.
L. Szathmary, P. Valtchev, A. Napoli, and R. Godin, Efficient Vertical Mining of Frequent Closures and Generators in International Symposium on Intelligent Data Analysis (IDA-2009), Lecture Notes in Computer Science 5772, pages 393-404, 2009.
L. Szathmary, P. Valtchev, and A. Napoli. Finding Minimal Rare Itemsets and Rare Association Rules, in Proceedings of KSEM-2010, Y. Bi and M.-A. Williams editors, Lecture Notes in Artificial Intelligence 6291, Springer, pages 16-27, 2010.

Résumé
Nous proposons un nouveau modèle du conditionnement pavlovien qui peut être avantageusement exploité à la fois en robotique développementale et en psychologie comportementale. Celui-ci est basé sur une compétition entre deux branches de « ou bruités » (noisy or) d'un réseau bayésien. Le premier prédit un événement à venir (par exemple la récompense) et le second est un inhibiteur de ce même événement. Ces deux « ou bruités » sont construits de façon incrémentale au fur et à mesure que l'agent (animal ou robot) fait de nouvelles expériences dans son environnement. Ce modèle permet d'expliquer de nombreuses propriétés des conditionnements classique et opérant.


Biographie
Jean Marc Salotti est Professeur en informatique à l'Ecole Nationale Supérieure de Cognitique de l'Institut Polytechnique de Bordeaux. Il y enseigne notamment l'intelligence artificielle et la robotique. Il est également membre du groupe Cognitique et Ingénierie Humaine du laboratoire IMS (Intégration du Matériau au Système). Ses activités de recherche concernent deux axes : la modélisation des processus cognitifs, en particulier le conditionnement pavlovien; les simulateurs de type systèmes multi-agents à travers des applications en lien avec le développement durable ou les milieux extrêmes. Je pourrai également faire une brève présentation des travaux du groupe CIH.


Résumé
L’auteur fera le point à la mi-parcours du projet PRIOWS, financé par le CRSNG qui a débuté en janvier 2009 et se terminera à la fin de 2011. Ce projet a pour objectif général de développer les connaissances, les méthodes, les outils et les applications des ontologies pour le Web sémantique. Il donne suite à une collaboration de plus de 5 ans entre Hydro-Québec et le Centre de recherche LICEF, tout en valorisant les résultats du réseau LORNET dirigé par l’auteur, lequel a conduit à la réalisation d’une plateforme d’assemblage (TELOS) facilitant la création d’applications d’apprentissage ou de gestion des connaissances dans les organisations.
Le projet comporte une composante, GIT (gestion de l’information technique) réalisée chez Hydro-Québec, auquel participent les informaticiens et les cogniticiens du LICEF, dans un contexte d’innovation en entreprise où le système TELOS sera utilisé et consolidé. À cela s'ajoute quatre autres composantes de recherche universitaire sur les sujets suivants : la modélisation des connaissances à un niveau semi formel et leur transfert en ontologies; la modélisation des scénarios de travail ou d’apprentissage où les usagers réalisent des activités de traitement des connaissances; le traitement des ontologies, notamment pour le référencement des ressources; l’utilisation de modèles des usagers pour personnaliser les environnements Web qu’ils utilisent.
présentation en pdf

Biographie
Gilbert Paquette détient un Ph.D de l’Université du Maine (France) en Intelligence Artificielle et Education. Directeur de recherches au Centre LICEF qu’il a fondé en 1992, il est titulaire de la chaire de recherche du Canada en ingénierie cognitive et éducative (CICE). Il a été directeur du réseau canadien de recherche LORNET de 2003 à 2008. Il a reçu en 2007 un doctorat Honoris Causa de l’Université Pierre et Marie Curie (Paris VI). Ses publications récentes incluent quatre livres sur les technologies d’apprentissage et la modélisation des connaissances dont le plus récent publié aux Etats-Unis sous le titre « Visual Knowledge Modeling for Semantic Web Technologies ». Il a agit comme conférencier invité dans de nombreuses conférences internationales et il participe au comité scientifique de six revues, trois en France, une aux Etats-Unis et deux au Canada. Il est membre du World Technology Network, un réseau d’experts internationaux. Il représente le Canada sur le consortium GLOBE sur les objets d’apprentissage. Il a aussi fondé deux entreprises, Micro-Intel (1987-1991) et Cogigraph (1999-2010) et servi comme Ministre de la Science et de la Technologie du Québec (1982-1984).


Résumé
Dans ce séminaire, j’exposerai les différentes étapes de la construction automatique d'ontologies en langue arabe, à savoir : la spécification, la conceptualisation, la formalisation, l'extraction de termes et l'extraction de relations. Je présenterai quelques outils que nous avons expérimenté pour réaliser les différentes étapes et donnerai un bref aperçu sur des approches (linguistique et statistique) pour l'extraction de termes et de relations que j'ai expérimentées avec mes étudiantes. Le corpus sur lequel nous avons travaillé est celui de Kais Dukes de Leeds (c'est un corpus coranique, donc en arabe classique étiqueté et voyellé). Je détaillerai quelques résultats obtenus suite à une évaluation.

Biographie
Mme Soraya Zaidi-Ayad est maître-assistante au département d'informatique de l'université Badji Mokhtar de Annaba, Algérie.
Elle a obtenu son Magister à l'université Badji Mokhtar de Annaba (Algérie) en juillet 2006.
Elle prépare actuellement un doctorat sur la construction automatique d'ontologies en langue Arabe sous la direction du professeur Mohamed-Tayeb Laskri et de Ahmed Abdelali Ph.D en informatique à l'université New Mexico State University (USA).
Mme Soraya utilise dans son travail The Quranic Arabic Corpus, développé par Kais Dukes à l'université de Leeds (UK). Elle utilise dans son travail Gate (General Architecture for Text Engineering) développé à l'université de Sheffield (UK) par Hamish Cunningham et son équipe.
Elle s'intéresse à tous les outils NLP (Natural language Processing) et spécialement ceux adaptés à la langue Arabe et pouvant être utilisés dans les différentes étapes de la construction d’ontologies à partir de textes.
Elle est membre du groupe DZ-TAL (DZ-TAL@googlegroups.com) dont les points d'intérêt sont le traitement automatique de la langue arabe en général. Elle a intégré en 2009 le projet sur le datamining et la sécurité d'information sous la direction du Dr. Hayet Merouani.


Thèse preparée sous la direction de M. Roger Nkambou, professeur au Département d’informatique de l’UQAM, et de M. André Mayers, professeur au Département d’informatique de l’Université de Sherbrooke. Collaboration à la direction de recherche : Engelbert Mephu Nguifo, professeur à l’Université Blaise-Pascal, Clermont-Ferrand, France

Résumé
Pour construire des systèmes tutoriels intelligents capables d’offrir une assistance hautement personnalisée, une solution populaire est de représenter les processus cognitifs pertinents des apprenants à l’aide d’un modèle cognitif. Toutefois, ces systèmes tuteurs dits cognitifs ne sont applicables que pour des domaines simples et bien définis, et ne couvrent pas les aspects liés à la cognition spatiale. De plus, l’acquisition des connaissances pour ces systèmes est une tâche ardue et coûteuse en temps. Pour répondre à cette problématique, cette thèse propose un modèle hybride qui combine (1) la modélisation cognitive avec (2) une approche novatrice basée sur la fouille de données pour extraire automatiquement des connaissances du domaine à partir de traces de résolution de problème enregistrées par des utilisateurs. L’approche par la fouille de données n’offre pas la finesse de la modélisation cognitive, mais elle permet d’extraire des espaces problèmes partiels pour des domaines mal définis où la modélisation cognitive n’est pas applicable. Un modèle hybride permet de profiter des avantages de la modélisation cognitive et de ceux de l’approche de fouille de données. Plusieurs algorithmes sont présentés pour extraire et exploiter les connaissances procédurales à partir d'une base de données multidimensionnelle contenant des traces produites par des utilisateurs. Le modèle proposé a été appliqué dans un domaine mal défini : l’apprentissage de la manipulation du bras robotisé Canadarm2.


Résumé
L'ingénierie des systèmes à base de connaissances nécessite l'exploitation de connaissances pouvant provenir de diverses sources: experts du domaine fournissant des données structurées prêtes à l'usage, connaissances tacites implicitement générées par des groupes d'utilisateurs, documents pertinents, structurés ou non, etc.
Nous nous intéresserons au cas particulier des systèmes tutoriels intelligents dans lesquels un agent logiciel apporte une aide contextuelle à des utilisateurs-apprenants. Pour accomplir efficacement sa tache, cet agent a besoin de détenir à la fois des connaissances génériques sur le domaine d'apprentissage (ontologie du domaine), et des connaissances spécifiques associées aux activités de résolution de problème (tâche).
Le processus d'acquisition de ces connaissances peut être facilité par des techniques d'extraction automatique que nous proposons. D'une part, les connaissances spécifiques associés à la tâche sont extraites grâce à l'exploitation des traces générées par les utilisateurs en situation de résolution de problèmes. Un algorithme efficace de fouille de données fondé sur une combinaison de la recherche de motifs séquentiels et l'extraction de règles d'associations est utilisé. Cet algorithme extrait des règles qui servent à enrichir l'espace problème utilisé par l'agent pour le suivi du raisonnement de l'utilisateur et l'offre d'une assistance adaptée. D'autre part, les connaissances génériques sur le domaine peuvent être extraite automatiquement à partir de ressources textuelles. Le processus passe par une étape de reconnaissance des concepts formant le domaine et de leurs relations, pour ensuite transformer ce réseau de concepts en une ontologie du domaine.
Une fois mises en relation l'ontologie du domaine et les connaissances liées à la tâche, l'agent tuteur peut déterminer les stratégies les plus efficaces, et les plus personnalisées, permettant de faire progresser efficacement l'apprenant dans son expertise.

Biographie
Roger Nkambou, Ph.D.
Professeur titulaire - Département d'informatique de l'UQAM (http://www.info.uqam.ca)
Directeur - Doctorat en Informatique Cognitive (http://dic.uqam.ca)
Directeur - Laboratoire de recherche GDAC (http://gdac.uqam.ca)

Titulaire d'un Doctorat en Informatique de l'Université de Montréal (1996), Roger Nkambou a tout d'abord été chercheur post doctoral à l’Université du Québec à Montréal (UQAM) et a travaillé parallèlement comme chargé de cours à l’UQAM entre 1996 et 1997. En 1997, il a occupé son premier poste de professeur au département d’informatique de l’université de Moncton où il a participé à l’élaboration d’un nouveau programme de 2ème cycle en technologie de l’information. Il a ensuite rejoint le département de mathématiques et d’informatique de l’Université de Sherbrooke en 1999 en tant que professeur régulier. À Sherbrooke, il a été membre du comité de direction chargé de l’élaboration d’un programme de Baccalauréat en Génie-Logiciel conjoint entre la faculté des sciences et la faculté de génie. Directeur du laboratoire des systèmes intelligents et du multimédia, Roger a participé à la direction d’étudiants de maîtrise et de doctorat durant son séjour à Sherbrooke. C’est finalement à l’Automne 2000 qu’il a rejoint l’université du Québec à Montréal, d’abord comme professeur invité, et ensuite comme professeur régulier. Il dirige actuellement le laboratoire de recherche GDAC.
Parallèlement à ses activités d’enseignement et de recherche, il participe activement à de nombreux évènements de recherche à l’échelle internationale comme par exemple la présidence de la conférence internationale ITS’2008 (International Conference on Intelligent Tutoring System) qui a lieu à Montréal en juin 2008. Roger est aussi professeur associé au département d’informatique et de recherche opérationnelle de l’Université de Montréal depuis le 1er juin 1998.


Résumé
Le projet GITAN, réalisé à l'École Polytechnique de Montréal, vise à développer une grammaire faisant le lien entre des contenus textuels et des animations et permettant de ce fait le passage d'une représentation linguistique à une représentation graphique. Une telle grammaire, associée aux textes et aux animations, devrait permettre de lever l'ambiguïté inhérente aux langues naturelles et d'exploiter pleinement les capacités multimédias actuelles pour passer d'un mode de représentation abstrait à un mode de représentation graphique et concret. Après une brève présentation de l'approche générale développée dans la cadre de ce projet, nous verrons comment une analyse sémantique à large couverture peut être réalisée à partir de la sortie d'un analyseur syntaxique.


Biographie
Michel Gagnon, diplômé de l'École Polytechnique en Génie Électrique, a obtenu un Ph.D. en informatique à l'Université de Montréal. Après un séjour dans l'industrie, où il a travaillé activement sur des projets développement de correcteurs grammaticaux chez Machina Sapiens, et plus de quatre ans comme professeur à l'Universidade Federal do Paraná (Brésil), il est maintenant professeur au Département de génie informatique et génie logiciel de l'École Polytechnique depuis novembre 2002. Ses recherches se sont concentrées jusqu'à maintenant dans le domaine du traitement de la langue naturelle. Il s'est intéressé plus particulièrement aux aspects sémantiques, tant en analyse qu'en génération de texte. Ses travaux actuels à l'École Polytechnique portent principalement sur le problème du traitement de la langue et l'ingénierie des connaissances dans le contexte du web sémantique. Il travaille aussi à l'élaboration d'outils sur le web pour le support à l'apprentissage. Avec son collègue Benoît Ozell, il dirige actuellement le projet GITAN, dont l'objectif est la création d'animations 3D à partir de textes.

Site web:http://www.groupes.polymtl.ca/gitan


Résumé
L’analyse prospective de groupe visant l’action coordonnée présente des défis considérables de représentation des concepts pour les décideurs. Parmi les dimensions stratégiques on retrouve l’évaluation des besoins, la priorisation de l’importance des défis et enjeux, la perception de la faisabilité sur divers horizons dans le temps, etc. Selon que l’on soit un dirigeant-entrepreneur, ou une partie prenante, ces dimensions peuvent également varier au sujet de leur l’importance et de la faisabilité des actions à entreprendre. Comment est-il possible de représenter des concepts liés à l’importance et à la faisabilité de manière à décrire ces informations et leur intensité pour un groupe et ses sous-groupes? Comment est-il possible d’examiner les schémas de correspondance entre les éléments d’un groupe et d’identifier des « zones d’action » stratégiques à partir de ces représentations par un groupe et ses sous-groupes? Une application empirique, tirée d’une analyse menée auprès de dirigeants entrepreneurs de TPE-PME évoluant dans un dispositif d’accompagnement et, qui s’interrogent sur les actions à entreprendre pour pérenniser leurs entreprises, y est analysée.


Biographie
Martin Cloutier, Ph.D., est professeur titulaire au Département de management et technologie de l’UQAM. Il a obtenu un doctorat conjoint de l’University of Illinois at Urbana-Champaign (des B.Sc. et M.Sc. de l’Université McGill). Son programme de recherche est centré sur : 1) les systèmes d'aide à la décision par approches systémiques et appliqués aux innovations - produits, processus, organisationnelles; 2) les systèmes de mesure de la performance. Il a obtenu, à titre de chercheur principal ou de cochercheur, de multiples subventions de recherche des principaux organismes subventionnaires (FQRNT, FQRSC, CRSH, FCI, VRQ). Il fut, en 2004, le premier récipiendaire du prix Relève en recherche ESG UQAM. Il a été directeur de la maîtrise en informatique de gestion (2003-2009). Il a récemment été consulté à titre d'expert sur la mesure de l'impact économique de l'innovation (R-D) pour divers domaines et agit comme expert pour divers ministères et organismes publics au Québec, Canada et Europe. Il est invité régulièrement en Europe et en Amérique Latine pour enseigner et y mener des travaux de recherche.

Domaines de spécialisation
- Modélisation par la dynamique des systèmes
- Systèmes d'aide à la décision
- Systèmes de mesure de la performance des entreprises de technologie
- Performance économique des entreprises
- Analyses d'impacts macroéconomiques de projets technologique


Résumé
Il est possible de supposer que le langage humain est spécifique à l’espèce, et est issu de propriétés cognitives/biologiques spécifiques à l’être humain. Parmi les questions qui se posent alors, et qui constituent la problématique du domaine de recherche sur la biologie du langage, je soulèverai les suivantes: Quelles sont les propriétés des opérations qui permettent de dériver les expressions des langues naturelles ? Pourquoi observe-t-on des asymétries dans la forme de ces expressions ? Ces asymétries sont-elles mesurables expérimentalement ? Est-il possible de lier ces asymétries à ce que l’on connaît de la biologie humaine, et en particulier aux découvertes récentes en biologie cellulaire ? Comment l’informatique cognitive peut-elle bénéficier des découvertes sur le langage humain issues de la perspective biolinguistique ? Comment la biolinguistique peut-elle contribuer à la modélisation des processus cognitifs propres à la faculté du langage ?


Biographie
Professeur au Département de linguistique et de didactique des langues de l'UQAM, Anne-Marie Di Sciullo a été élue en novembre 1999 à la Société royale du Canada, Académie des lettres et des sciences humaines, en reconnaissance de l'importance de ses travaux de recherche sur les asymétries des langues naturelles et leur modélisation.
Sites web:www.interfaceasymmetry.uqam.ca
                 www.biolinguistics.uqam.ca
                 www.federation-nlp.uqam.ca

Résumé
Au cours des dix dernières années, nous avons mené diverses recherches portant sur la modélisation des connaissances à l’aide du logiciel MOT (modélisation par objets typés) auprès d’adultes en situation d’apprentissage, et ce, dans des contextes à distance ou en présence. Les modèles ont été élaborées individuellement, en dyades, en petits groupes ou en grand groupe, et les activités visaient différents buts : soutien à la compréhension de texte, représentation des connaissances associées à la réalisation de tâches professionnelles, transfert d’expertise, etc. Nous avons effectué divers types d’analyse sur les données recueillies : analyse de la qualité des modèles élaborées, analyse de l’effet sur l’apprentissage au moyen de tests, analyse des perceptions des participants sur cette activité, analyse des médiations de l’outil au cours du processus construction du modèle, analyse des échanges entre les participants au cours de séances de co-modélisation, etc. Nous ferons un survol de ces travaux empiriques dans le but de déboucher sur une discussion avec les participants sur des perspectives de recherche dans le domaine de l’informatique cognitive pouvant être envisagées sur la base de ces travaux.


Biographie
Josianne Basque détient un Ph.D. en psychologie de l’Université du Québec à Montréal. Elle est professeure titulaire à la Télé-université, où elle est responsable des programmes en technologie éducative, pour lesquels elle a conçu plusieurs cours diffusés sur le web portant sur les aspects cognitifs de l’usage des technologies de l’information et de la communication à des fins d’apprentissage et sur la conception d’environnements virtuels d’apprentissage. Chercheure régulière au Centre de recherche LICEF et chercheure associée au Centre interuniversitaire de recherche sur les technologies d'apprentissage (CIRTA), ses intérêts actuels de recherche portent sur la construction de modèles ou cartes de connaissances à des fins d’apprentissage et de transfert d’expertise, et, en général, sur l'ingénierie d’environnements virtuels d’apprentissage et leurs effets sur l’apprentissage.
Site web:www.teluq.uqam.ca/~jbasque

Résumé
On peut voir l'informatique essentiellement comme une technologie d'aide à la cognition humaine, permettant de gérer des représentations de plus en plus facilement et rapidement. De ce point de vue, l'informatique se situe dans une histoire millénaire et prend place à la suite d'autres grandes techniques cognitives comme l'écriture ou l'imprimerie. Cependant l'informatique apporte aussi de nouvelles possibilités dynamiques et interactives qui annoncent un monde nouveau (en bien comme en mal) que nous ne prévoyons encore que de manière approximative, mais que nous tenterons ici d'esquisser. En particulier on observe que l’informatique accélère la production et la diffusion de connaissances mais aussi leur fragmentation.
présentation en pdf

Résumé
Plusieurs recherches montrent que les systèmes tutoriels intelligents sont utiles, mais leurs coûts atténuent ce succès. Les outils auteurs permettent de réduire ce coût, mais un compromis doit être fait entre la facilité d'utilisation de l'outil, le coût de conception d'un STI avec cet outil, et l'efficacité du STI. La plateforme Astus permet à des initiés en informatique de créer des STI pour des domaines et des tâches bien définis en réduisant le temps nécessaire pour générer les connaissances pédagogiques et une interface utilisateur, et cela avec peu de compromis sur l'efficacité du STI. Plus particulièrement, il est possible de générer automatiquement plusieurs interactions pédagogiques contextualisées à partir des structures pour encoder les connaissances d'un domaine, et des outils sont fournis pour relier d'une façon souple et riche les connaissances et l'interface utilisateur. La plateforme Astus sera décrite et comparée à d'autres plateformes pour en montrer les avantages et les désavantages.

Biographie
André Mayers (Ph. D., M. Ps.) est professeur d'informatique à l'Université de Sherbrooke.
Il est le directeur-fondateur du groupe Astus (http://astus.usherbrooke.ca/), un groupe de recherche sur les systèmes tutoriels intelligents dont l'attention est principalement sur le développement de structures de représentation de connaissance qui simultanément favorise l'acquisition des connaissances par les apprenants et l'identification des connaissances utilisées par ces derniers lors de la résolution de problème. Il est aussi un des membres fondateurs du groupe PROSPECTUS (http://prospectus.usherbrooke.ca/), un groupe de recherche sur le forage des données.

Résumé
Les bases de données orientées colonnes ont été remises à la mode par les travaux récents de Stonebraker et al. Dans l'industrie des entrepôts de données, les termes "column oriented" ou "column store" sont devenus incontournables dans toute campagne de marketing. L'un des bénéfices des index orientées colonnes est une bonne compression par plage (run-length encoding). Ce type de compression est particulièrement souhaitable puisqu'il réduit simultanément le volume des données et le temps de calcul. Par contre, l'efficacité de la compression par plage dépend de l'ordre de relations (ou rangées) et cela est d'autant plus vrai que les tables sont volumineuses. Trouver la séquence optimale de relations est un problème NP-difficile. Nous comparons donc quelques heuristiques concernant ce problème incluant les différentes variantes du tri lexicographique, les codes de Gray, les courbes de Hilbert, etc.
Références


Biographie
Daniel Lemire est professeur titulaire. Il a été chercheur au Conseil national de recherches du Canada où il a dirigé le groupe de recherches en santé électronique. Il détient un baccalauréat et une maîtrise de l'Université de Toronto ainsi qu'un doctorat en mathématiques de l'ingénieur de l'École Polytechnique de Montréal. Ses intérêts de recherche comprennent la gestion collaborative des données, la recherche et le filtrage des informations, la théorie des bases de données, le e-Learning et les entrepôts de données. Il est l'auteur d'un blogue (http://www.daniel-lemire.com) depuis 2004.

Résumé
L'évolution de l'ontologie conduit à la détérioration de sa qualité de conception en terme de complétude vis-à-vis le domaine représenté et la non-redondance des éléments de modélisation. Ces critères de qualités sont aussi affectés, par exemple, lors d'un processus de construction d'ontologie par intégration de composants où plusieurs modules ontologiques sont assemblés, chacun représente une vue partielle du domaine. Dans ce contexte, l'intégration est plus qu'une simple juxtaposition de composants ontologiques car ces derniers peuvent se chevaucher en terme d'éléments de modélisations. De plus, le modèle ontologique intégré résultant manquerait sans doute d'une vision globale du domaine issue de la fusion des domaines partiels.
Dans ce séminaire, nous présenterons une approche de restructuration permettant la détection et la correction des problèmes de conception indiqués ci-haut. L'approche proposée est basée sur l'analyse de concepts relationnels (RCA), une extension de l'analyse formelle de concepts (FCA) pour le traitement des données relationnelles. La restructuration réaffecte les propriétés des différents types d'éléments ontologiques, notamment les concepts et les relations tout en opérant des réarrangements de portée variable sur l'ontologie conduisant éventuellement à l'abstraction de nouveaux concepts. Les aspects de l'approche proposée telles que le codage de l'ontologie dans le format d'analyse de RCA, le traitement de l'ambiguïté sémantique des éléments ontologiques de départ et la rétro-ingénierie de l'ontologie restructurée seront examinés.
Nous avons développé un prototype de restructuration d'ontologies et nous l'avons couplé avec la plateforme RCA Galicia, et de nombreuses ressources TALN telles que Wordnet et ANNIE, le système d'extraction d'information de GATE. Le référentiel d'ontologies de Protégé est utilisé à des fins d'expérimentation et de validation de l'approche.
Références
M. Huchard, M. Rouane Hacene, C. Roume, and P. Valtchev. Relational concept discovery in structured datasets. Annals of Mathematics and Arti?cial Intel ligence, 49(1-4):39–76, 2007
M. Rouane Hacene, A. Napoli, P. Valtchev, Y. Toussaint, and R. Bendaoud. Ontology learning from Text using Relational Concept Analysis. In Intl. Conf. on eTechnologies, MCETECH, IEEE Computer Society, 2008
M. Rouane Hacene, M. Huchard, A. Napoli, and P. Valtchev. A proposal for combining formal concept analysis and description logics for mining relational data. In S. Schmidt S. Kuznetsov, editor, Intl. Conf. on Formal Concept Analysis (ICFCA’2007), volume 4390 of LNCS, pages 51–65. Springer-Verlag, 2007

Biographie
Amine Mohamed Rouane-Hacene est stagiaire post-doctoral au laboratoire GDAC à l'UQAM.
Il a complété ses études d'ingénieur en informatique (1993) à l'Université d'Oran en Algérie. Amine a une maîtrise en CAO délivrée par l'Université d'Oran (1998) et un Ph.D. (2007) de l'Université de Montréal (UDM).
Sa thèse de doctorat a été préparée au laboratoire de génie logiciel à l'UdeM et portait sur l'extension de l'analyse formelle de concepts (FCA) aux données complexes telles que les données relationnelles.
Amine a aussi effectué un stage post-doctoral en France à INRIA-LORIA dans le domaine de la fouille de données et l'acquisition des connaissances.

Résumé
Two of the most important new challenges in computer sciences concern the Development of programs related with robots playing football soccer and genomics.
For both areas the importance of understanding the behaviors they assume within a task is crucial for the understanding of how they accomplish their functionalities in cooperative tasks.
In this talk, we deal with models to discover and track pattern behaviors of soccer-robot players during a match and how these models are being mapping to understand biological process such as protein-protein interactions and signalling pathways.

Résumé
Devant l'expansion des collaborations internationales, la masse croissante de ressources et textes accessibles via Internet en différentes langues et l'augmentation du nombre d'usagers ne maîtrisant pas l'anglais, de nombreux travaux ont été mis en place pour le développement d'outils pour le Traitement Automatique des Langues Naturelles (TALN).
Le premier type de recherche (RIT) permet aux usagers de préciser une requête dans une langue afin de trouver les documents pertinents dans une langue (ou plusieurs langues) différente(s). Des recherches empiriques ont montré que l'ambiguïté dans la traduction engendrée par les mots polysémiques, la manipulation des mots composés et des phrases, le manque de ressources lexicales ainsi que l'absence de mots dans les dictionnaires bilingues font partis des principaux obstacles liés à la RIT. Ces problèmes ont été reconnus pour plusieurs langues.
Le deuxième type de recherche (TAS) est un paradigme de traduction automatique où des traductions sont produites sur la base des modèles statistiques dont les paramètres sont dérivés de l'analyse des corpus bilingues des textes.
Dans cet exposé, je présenterai quelques réflexions sur la recherche d’information multilingue basée sur l’approche de dictionnaires bilingues et sur l'extraction de terminologie bilingue des corpus comparables qui servira à améliorer la performance de la RIT et ainsi enrichir les ressources lexicales bilingues existantes.
Aussi, je présenterai une approche statistique pour bâtir un moteur de traduction qui peut rapidement traduire d’une langue à l’autre à partir d’un ensemble de textes bilingues, à l’aide d’algorithmes tirés de la recherche sur l’apprentissage machine.


Biographie
Fatiha Sadat est actuellement professeure au département d'informatique à l'UQAM. Ses intérêts de recherche comprennent la recherche d'information translinguistique et multilingue, le traitement des langues naturelles, l'intelligence artificielle, les bases de données textuelles, l'informatique cognitive, etc.
Fatiha Sadat a été chercheure au Conseil National de Recherche Canada (CNRC) et a l'université d'Ottawa d'Octobre 2004 à Juillet 2007. Ses travaux étaient concentrés sur la Traduction Automatique Statistique (TAS) et l'étude morphologique de la langue arabe pour le TAS. Ses études post-doctorales ont été effectuées au National Institute of Informatics à Tokyo en association à la JSPS (subvention prestigieuse au japon). Son Doctorat en Ingénierie a été complété à l'Institut des Science et Technologie (NAIST) au Japon en septembre 2003.
Fatiha Sadat a été impliqué dans de nombreux projets internationaux asiatiques, européens (avec XEROX) ou nord américain (Université Columbia, Université d'Ottawa, CNRC, UQAM, etc.).

Résumé
Les processus d’affaires à forte concentration d’expertise ou Knowledge intensive business processes sont de processus névralgiques d’une organisation, dont les tâches sont réalisées par des experts. Les connaissances de ces experts représentent un capital important pour l’entreprise. Notre recherche vise à modéliser et instrumenter ces processus, de façon à supporter l’expert dans sa tâche et à gérer les connaissances utilisées et produites par lui. Nous allons présenter la problématique de la recherche, l’état de la question, notre approche méthodologique ainsi que l’état d’avancement de nos recherches.


Biographie
Olga Mariño est ingénieure informaticienne de l’Universidad de los Andes (Colombie). Elle détient un doctorat en informatique, profil intelligence artificielle, de l’Université Joseph Fourier (France). Pendant plus de dix ans, Olga a été professeure du département d’informatique et co-directrice du Laboratoire de Recherche en informatique pour l’éducation, LIDIE, de l’Universidad de los Andes. Dr. Mariño est actuellement professeure de l’UER sciences et technologie de la TELUQ-UQAM, directrice scientifique de la chaire de recherche en informatique cognitive et éducation et membre du centre de recherche LICEF. Elle a reçu plusieurs prix dont l’ordre Simon Bolivar du gouvernement de la Colombie, le prix du Ministre de l’Éducation du Québec, et la nomination comme membre du cercle d’excellence de l’Université du Québec.


Résumé
Le cadre général des travaux présentés est le CSCL (situations d'apprentissage collaboratif supportées par un environnement informatique), et plus particulièrement les situations fondées sur un scénario explicite (scripts CSCL). Les travaux portent sur la compréhension et la prise en compte des phénomènes liés à l'(auto)organisation des apprenants dans ce type de situations.
Le cas d'étude utilisé sera une situation de résolution collaborative d'un problème de maths (lié à une simulation) présenté comme un "challenge".
L'exposé abordera la question générale des scripts CSCL, des phénomènes d'organisation liés aux scripts CSCL (en relation à la nécessaire flexibilité des scripts notamment), de l'intérêt du modèle proposé par Bardram pour aborder ces questions (modèle inspiré de la théorie de l'Activité), et des travaux réalisés (prototype informatique) pour amener et aider les apprenants à s'organiser sur le cas d'étude abordé : système informatique développé, mises à l'essai réalisées, traces récupérées, grille d'analyse élaborée et premières constatations.


Biographie
Pierre Tchounikine est professeur d'informatique à l'Université de Grenoble (France).
Il est actuellement responsable de l'équipe MeTAH, équipe spécialisée sur les EIAH (Environnements Informatiques pour l'Apprentissage Humain).
Il a été impliqué dans de nombreux projets et réseaux d'excellence Européens sur le domaine (Kaleidoscope, Stellar).

Document de référence récent : http://membres-liglab.imag.fr/tchounikine/Precis.html (le contenu de ce document fera l'objet d'une présentation lors du colloque du CIRTA à Québec, mais l'exposé dont il est question ici est tout autre.)

Site Web : http://membres-liglab.imag.fr/tchounikine/

Résumé
Au cours des dernières décennies, nous avons appris comment le raisonnement déductif humain spontané respecte parfois, mais pas toujours, les lois fondamentales de la logique. Par ailleurs, des tests d’imagerie cérébrale commencent à nous montrer quelles zones sont activées pendant différents types de raisonnement et permettent même de distinguer des activations différentes, selon que les raisonnements sont logiquement valides ou non. L’exposé présentera certains résultats expérimentaux sur ces questions et en proposera une interprétation originale en présentant des hypothèses sur la fonction cognitive de différents types d’inférences. L’analyse insistera sur les liens entre syntaxe, sémantique et structure dans les systèmes logiques et comparera sur cette base les fonctions cognitives de certaines logiques non classiques. On en tirera ensuite des conséquences sur l’enseignement de la logique, sur la représentation des connaissances et sur la dynamique de l’acquisition des connaissances.
Serge Robert est professeur de logique, d’épistémologie et de sciences cognitives au Département de philosophie de l’Université du Québec à Montréal. Il dirige l’équipe Compétence Logique, Inférence et Cognition au Laboratoire d’Analyse Cognitive de l’Information (LANCI). Ses travaux portent principalement sur les mécanismes de fonctionnement du raisonnement humain dans la connaissance et sur l’épistémologie des sciences.


Résumé
Nous présentons des travaux dont le but est d’étudier le rôle des indices visuels (le mouvement des lèvres et de la mâchoire) dans les mécanismes de production sous-tendant la parole chez l’adulte. Par la privation sensorielle qu’elle engendre, la cécité constitue un paradigme expérimental privilégié pour mesurer l’influence de la vision dans le processus de parole. Des données de nature acoustique et articulatoire de la production des voyelles orales du français québécois produites par des adultes ayant une cécité congénitale et des adultes normo-voyants ont été analysées dans le but de mesurer l’impact de la modalité visuelle sur la réalisation des gestes articulatoires. Aussi, l’analyse de l’organisation articulatori-acoustique de ces voyelles a été effectuée afin de déterminer si les caractéristiques acoustiques des productions des deux populations étaient similaires. Ces données ont également permis de vérifier dans quelle mesure les paramètres acoustiques pouvaient refléter les configurations labiales utilisées par chaque population. L’ampleur de la projection des lèvres s’est avérée significativement plus importante chez les locuteurs voyants que chez les locuteurs aveugles. En somme, l’analyse des données a permis de confirmer notre hypothèse générale selon laquelle les locuteurs non voyants allaient produire une dynamique labiale moins importante. Or, cette distinction au plan articulatoire ne s’est pas traduite par des conséquences acoustiques dissimilaires, ce qui confirme l’existence d’un invariant de nature acoustique. Une importante variabilité est observée, ne révélant aucune tendance intergroupe spécifique. En explorant les mécanismes de production de la parole dans une perspective multimodale, ces travaux renforcent l’idée selon laquelle la vision joue un rôle fonctionnel dans la production et la perception de la parole, processus fortement interreliés.


Biographie
Lucie Ménard est professeur au Département de linguistique de l’UQAM depuis 2003. Elle est également professeur associée à l’École d’orthophonie de l’Université McGill et affiliée de recherche au Speech communication group du MIT. Elle a terminé une thèse de doctorat en sciences du langage à l’Institut de la communication parlée de Grenoble en 2002, après avoir travaillé à la constitution d’un système de synthèse de la parole en français canadien aux Laboratoires Bell Labs/Lucent Technologies. Elle dirige actuellement le laboratoire de phonétique de l’UQAM, dont les axes de recherche sont la phonétique articulatoire, la perception de la parole et la sociophonétique.

Résumé
Considérée d’abord et avant tout comme une tâche purement technique, la construction de logiciels est néanmoins de plus en plus reconnue comme une activité définitivement humaine. Tandis qu’elle constitue une tâche cognitive intense en plus de représenter «un exercice en complexes interrelations» tel qu’évoqué par Fred Brooks (Brooks, 1975), plusieurs facteurs humains sont de ce fait impliqués lors du développement d’un logiciel. La recherche présentée constitue donc une recherche empirique qui a été entreprise dans le cadre d’une étude de cas industrielle et qui a pour but d’analyser l’un des nombreux aspects humains impliqués en génie logiciel, soit le travail collaboratif ad hoc qui a lieu entre les concepteurs de logiciels au cours d’un processus de génie logiciel.
Les motivations pour l’entreprise de cette recherche sont nombreuses, entre autres, parce que certaines recherches telles que celle conduite par Perry, Staudenmayer et Votta (Perry, Staudenmayer, & Votta, 1994) aussi bien que celle menée par Robillard et Robillard (Robillard & Robillard, 2000) ont indiqué l'importance insoupçonnée de ce phénomène en terme de temps consacré par les concepteurs au cours d'un projet logiciel. En dépit de cette importante réalité, aucune étude connue n’a tenté de caractériser ce type d'activités ainsi que les communications qui en découlent afin d’en déterminer l’impact sur le processus de génie logiciel dans son ensemble. Par conséquent, il était permis de croire qu'une meilleure compréhension de ce type d'activités aiderait à mieux comprendre plusieurs aspects humains centraux du génie logiciel tels que la collaboration, la coordination et, d’un point de vue plus général, la dynamique au sein d'une équipe de concepteurs de logiciels en plus d’aider ultimement à la proposition de certaines améliorations aux processus de génie logiciel dans le but de rendre la collaboration plus efficace entre les différents intervenants impliqués lors d’un développement de logiciel.

Sébastien Cherry, Ph.D., cumule plus de 10 années d’expérience dans le domaine du développement de logiciels et ce, dans divers environnements variant de l’entreprise de logiciels en phase de démarrage à la multinationale du logiciel. Il occupe présentement la fonction d’architecte logiciel et de sécurité au sein du Groupe Finances chez Hydro-Québec où il s’affaire présentement au projet majeur de refonte complète du système de trésorerie de la société d’État au sein duquel celle-ci administre des mouvements de fonds de l’ordre de dizaines de milliards de dollars annuellement.
Sébastien Cherry obtint en septembre dernier un doctorat en génie informatique de l’École Polytechnique de Montréal.

Systems that adapt need to explore the space of possible adaptations. I will describe several biological examples where a system that adapts slowly avoids a lot of slow exploration by using a system that adapts much more rapidly to create a search space that is much easier for the slow system to explore. For example, learning changes the search space for evolution, thus allowing learning organisms to adapt their DNA much faster than organisms that do not learn. Similarly, reactions that happen at a sub-millesecond timescale in mass-spring systems change the search space for neural motor control. I will then argue that biological adaptation is entering a new phase in which computers will greatly accelerate the speed at which we learn by using rapid optimization to change the search space for learning. A designer, for example, will be able to explore the space of objective functions for evaluating designs rather than exploring the space of designs. Computer optimization is the next term in the series: Evolution, development, learning ...

Résumé
Depuis quelques années, l'approche de développement Scrum gagne en popularité. Peu de gens comprennent bien les valeurs et principes sous-jacents ainsi que l'impact de son adoption. À travers des expériences de mise en oeuvre de Scrum dans de multiples organisations, la présentation mettra en relief les aspects liés à la gestion du changement et à la gouvernance d'une organisation (interne ou externe) de développement logiciel.

Biographie
Diplômé en informatique de gestion de l’Université Laval à Québec, M. Rousseau compte plus de 12 années d’expérience en développement de systèmes informatiques et en services-conseils dont 6 ans avec les approches Agiles. Formateur agréé par Emploi Québec et certifié ScrumMaster, il effectue régulièrement des mandats de formation et d'encadrement où il transmet ses connaissances de la méthodologie Scrum et des pratiques d’ingénierie Agiles. Ces mandats lui permettent de mettre à l'avant-plan ses qualités de communicateur et son leadership.
Avant de se joindre à l'équipe de Pyxis Technologies, il a œuvré à titre d’analyste et de développeur dans plusieurs projets d’envergure à Oracle et CAE. Il a une excellente connaissance des méthodologies Agiles, du paradigme orienté objet et des différentes technologies liées au développement de solutions d’affaires Internet en utilisant la plateforme Java.

Cognitive scientists have often embraced the idea that the details of neural processing are relevant for understanding cognitive behaviour. However, the specifics of how to integrate neural and cognitive models has been lacking.
In this talk I provide a characterization of how this integration can be achieved. Specifically, I will discuss a neural modelling method, the Neural Engineering Framework (NEF), and demonstrate how to construct large-scale, cognitive models using it. I will argue that such models can provide new ways for cognitive models to contact the rich data of neuroscience. I will also show how these models can answer questions not addressed by typical cognitive models, while remaining informative about the cognitive task of interest.

La science informatique continue sa route concernant l'automatisation des tâches humaines. De nos jours, en plus de simplifier les processus industriels et les méthodes de recherche dans la science en général, elle permet de relier un très grand nombre de personnes sur la planète, facilitant ainsi les communications. Cependant, en ce qui concerne l'autonomie des systèmes et le traitement massif de l'information, elle se heurte à des problèmes de tailles, liés notamment à la cognition humaine. Est-il possible de créer une machine possédant un niveau de cognition comparable à celui de l'homme ? Est-il possible de créer une machine capable de prendre en compte son environnement de manière globale pour en synthétiser l'information utile à sa prise de décision ?

Ces questions nous ont amené à travailler sur un thème interdisciplinaire, celui de la conscience artificielle. Plusieurs années de recherche nous ont permis de développer un système capable de modifier sa structure interne afin de construire des niveaux d'abstraction géométrique permettant la représentation abstraite sur plusieurs niveaux d'un environnement bien réel. Ceci permet de travailler au niveau de la connaissance selon A. Newell et de créer des automates sans avoir besoin d'utiliser de langage de programmation.

Nous espérons que nos futurs travaux nous conduirons à mettre en place de nouvelles méthodes pour le traitement de l'information en général tout en se dirigeant vers un système générateur de faits de conscience.



Plusieurs étudiants du Doctorat en informatique cognitive, ainsi que plusieurs firmes informatiques, développent ce que l'on pourrait appeler des outils cognitifs, c'est-à-dire des artéfacts conçus pour exécuter un travail de type cognitif (analyse d'un texte, enseignement d'une matière, visualisation d'informations complexes ou nombreuses, etc.). Le succès ou l'échec de ces outils, dépend, au-delà de son simple bon fonctionnement informatique, d'un ensemble de facteurs allant des besoins réels d'une communauté à l'exécution d'une bonne stratégie de marketing. Mais il dépend aussi de facteurs proprement cognitifs, notamment de l'architecture cognitive humaine, laquelle détermine en partie la capacité des individus d'une communauté à adopter un outil cognitif. Il s'ensuit qu'une meilleure compréhension de l'architecture cognitive humaine, et notamment des aspects impliqués dans l'utilisation d'outils cognitifs, pourrait permettre de mieux prédire le succès d'un outil cognitif ou de mieux concevoir celui-ci pour assurer son succès. Cette présentation entend établir les bases d'une telle compréhension en introduisant un modèle intégré de l'architecture cognitive impliquée dans l'usage d'outils cognitifs. Le modèle présenté se veut exploratoire et suggestif, mais s'appuie sur un ensemble de travaux contemporains en psychologie cognitive et en anthropologie cognitive.


This study has to be considered as another step towards the proposal of assessment/predictive models for software product quality. We consider in this talk, both probabilistic and non-probabilistic machine-learning approaches, to predict maintainability, expressed as change impact, in object-oriented applications. Data obtained from a real system are exploited to empirically study causality hypotheses between some software internal attributes (coupling) and change impact. Models based on rules and decision trees present interesting performances; they also allow us the construction of a Bayesian network to analyze and predict change. Several scenarios are executed on the network, and the obtained results confirm that some coupling is a good indicator of change impact. All produced models can be integrated within a knowledge-based architecture.


Concevoir un agent tutoriel artificiel visant à transmettre efficacement des connaissances à un apprenant humain est un problème extrêmement délicat. Un tel système doit bien entendu tenir compte des contraintes techniques dans le domaine de l’informatique, ainsi que du multimédia nécessaire à la transmission d’informations. Mais il doit également considérer les aspects psychologiques (cognitifs, motivationnels, émotionnels, etc.) et culturels propres à la transmission de connaissances à un être humain. Les interactions entre tous ces éléments peuvent résulter de nombreux facteurs difficiles à contrôler, ce qui rend difficile ou même impossible la prévision de tous les savoirs et toutes les règles requises pour que l'agent artificiel parvienne à atteindre les buts qu'on lui a fixés. Par conséquent, une dimension fondamentale de la conception d’agents tutoriels (tout comme un problème général dans tous les agents cognitifs) est l’intégration d’un mécanisme émotionnel, d’un et peut-être de divers mécanismes d’apprentissage automatique permettant à l’agent tutoriel lui-même d’apprendre de nouvelles informations et de s’adapter aux divers contextes de l’apprentissage humain ainsi qu’aux particularités des divers apprenants.
CTS (Conscious Tutoring System) est un agent tutoriel artificiel développé au laboratoire GDAC par Dubois et al. (2006). L’objectif de cette présentation est de montrer comment nous avons intégré à CTS un mécanisme émotionnel et un algorithme d’apprentissage épisodique à l’aide des méthodes de Data Mining. Par la suite je présenterai la collaboration entre les états émotionnels et l’apprentissage épisodique dans CTS, deux éléments qui améliorent la performance de notre agent.


L'anthropologie cognitive d'E. Hutchins se démarque d'autres approches par l'importance qu'il accorde aux structures de réseaux servant à la diffusion et à l'application des connaissances au sein d'une organisation. Nous allons étudier cette caractéristique de l'anthropologie cognitive de Hutchins en nous demandant comment il parvient à établir les divers parallélismes entre les structures cognitives et les structures de réseaux (hiérarchie et rapports d'autorité) propres à une organisation. Nous étudierons en particulier les thèses méthodologiques et épistémologiques qu'il défend dans l'ouvrage intitulé "Cognition in the Wild" (1995). Ces thèses et la méthode d’analyse qui s’y déploient, sont inscrites dans un objectif général visant le développement d’une approche comparatiste d’évaluation des données d’observation obtenues grâce à l’étude de phénomènes concrets de diffusion de connaissances fixées dans des symbolismes et des normes d’action en tant qu’unités sémantiques, et par la simulation informatique de processus de distribution de ces unités. (Ce dernier aspect n’est pas explicitement traité dans l’ouvrage cité ici mais a fait l’objet de nombreuses études que Hutchins a menées en collaboration avec Brian Hazlehurst depuis plusieurs années.)
Notice biographique de Jean Robillard :

Doctorat en philosophie (Ph.D.) de l’UQAM.
Professeur de communication,
Unité d’enseignement et de recherche : Sciences humaines, Lettres et Communication
Télé-université (Teluq)
Université du Québec à Montréal

Présentement en préparation :
un Traité d’épistémologie de la communication sociale et de la cognition sociale (à paraitre à l’automne de 2009).

Enseignement :
communication organisationnelle
sciences de la communication et de l’information
épistémologie de la statistique
socio-anthropologie des sciences

Domaines et objets de recherche :
La cognition sociale:
- cognition sociale et formes culturelles (arts, medias)
- cognition sociale en contexte technologique (ontologies, réseaux sémantiques, communication électronique)
- cognition sociale et économie
- cognition sociale et organisations (normativité organisationnelle)
- cognition sociale et théories de la communication (réseaux sémantiques et formes de sémantisation)
- cognition sociale et communication sociale (modèles socio-communicationnels et processus sociaux de sémantisation)
- cognition sociale et gestion des connaissances (knowledge management), l'intelligence des affaires
- dimensions épistémologiques des modèles de la cognition sociale et de l'intelligence collective

La computationnalité et la logique:
- fondements logiques des théories cybernétiques
- théories informationnelles de la représentation
- computation et logique inductive

Les théories de l'esprit
- modèles informationnels de la représentation
- représentation et intentionnalité
- intentionnalité collective
- information et causalité
- rationalité individuelle et rationalité collective

Épistémologie des sciences (sociales)
- théorie des modèles et modélisation
- théorie de la preuve (logique, mathématique)
- théorie de la causalité
- théorie des probabilités


Contenu de la présentation:
Un court historique
La mission
Les principaux défis
Les principaux chantiers


La construction d'une ontologie implique trois activités principales qui sont généralement pilotées par un ingénieur de la connaissance :
(1) l'élicitation de la connaissance,
(2) la formalisation de la connaissance dans une ontologie et
(3) la validation syntaxique et sémantique de l'ontologie.
Le processus entier est complexe et exige des compétences élevées de l'ingénieur de la connaissance, dont la motivation première est de minimiser autant que possible l'espace entre la richesse de l'expertise réelle des experts du domaine et sa représentation formelle en ontologie.
Notre approche consiste à (1) faire participer les experts du domaine à la modélisation semi-formelle de leurs connaissances. Puis (2) transformer, par l'ingénieur de la connaissance, ce modèle semi-formel en une ontologie formelle. Et (3) valider le résultat de la transformation par l'ingénieur de connaissance en collaboration avec l’expert du domaine.
Le but de notre projet est de développer un système expert qui assistera l'ingénieur dans ce processus de transformation et de validation. Une « ontologie de transformation » servira de base de connaissances au service de la transformation à effectuer par le système expert.

Les patrons de conception sont reconnus dans la communauté du génie logiciel comme des solutions utiles pour améliorer la qualité des programme. Une bonne visualisation des patrons de conception est donc utile pour comprendre de façon efficace le fonctionnement d'un système. Actuellement la représentation standard pour visualiser les patrons de conception est celle de la notation de collaboration UML.
Plusieurs auteurs ont remarqué des lacunes dans cette représentation et ont proposé de nouvelles représentations pour remplacer le standard. Aucun de ces auteurs n'a fait d'études empiriques pour comparer ces représentations à la représentation standard. Dans le cadre de cette maîtrise, nous avons réalisé une étude empirique pour collecter des données sur les performances des ingénieurs logiciels dans le but d'évaluer l'impact de trois représentations visuelles sur la compréhension de patrons de conception et les comparer avec la représentation standard. Nous avons utilisé des oculomètres pour mesurer la charge cognitive des sujets pendant l'exécution de l'expérience. L'analyse des données collectées montre qu'effectivement pour certaines tâches il existe une représentation qui est plus efficace que la représentation standard.

Que ce soit dans un environnement professionnel ou pour un usage personnel, les systèmes d'information sont devenus partie intégrante de notre vie quotidienne. Les innovations dans ce domaine renouvèlent constamment notre manière d'apprendre, de collaborer, de nous confronter, d'échanger... en d'autres termes d'interagir avec nos semblables dans un cadre global où, peu à peu, la notion de distance est abolie. Une conscience et une compréhension des variabilités culturelles par les systèmes d’information et leurs usagers apparaissent nécessaires à une époque ou les diverses sociétés composant ce cadre global sont de plus en plus interconnectées et interdépendantes.
Dans cet exposé, nous survolerons les principaux domaines de recherche établissant des ponts entre culture et technologies de l'information, et visant:
- à intégrer des aspects culturels dans différents sous domaines des technologies de l'information ou,
- à utiliser des techniques propres à ces technologies pour améliorer notre connaissance et notre compréhension des cultures.
Cette présentation s'inspirera des travaux en lien avec l'ouvrage "Handbook of Culturally-Aware Information Technology: Perspectives and Models", actuellement en cours d'édition.

L'écriture est la première en date des grandes technologies d'aide à la cognition, et probablement encore la principale. Son histoire est complexe, des premiers systèmes pictographiques aux divers alphabets.
Nous donnerons une vue d'ensemble des principes et de l'évolution de l'écriture, de Sumer jusqu'à l'époque actuelle. Puis nous verrons que la technique de l'écriture révèle des mécanismes cognitifs sous-jacents qui contraignent les capacités humaines de représentation. Mais on verra aussi que l'informatique est en train de renouveler dans une certaine mesure nos possibilités de représentation par son caractère dynamique.

Pendant tout le processus de séquençage des génomes, l’informatique à travers différents algorithmes a joué un rôle inestimable. Avec la disponibilité maintenant de plusieurs génomes séquencés (dont celui de l’humain), l’informatique nous aide également à comprendre les mécanismes de fonctionnement des multitudes de gènes qui composent un génome. Elle a contribué à la mise en place de moteurs de navigation des génomes basés sur plusieurs bases de données et interfaces Web. Elle contribue aussi à la prédiction de nouveaux gènes, des régions fonctionnelles, des régions régulatrices, à travers des algorithmes de comparaison de génomes.
Cependant une comparaison efficace de ces génomes nécessite la reconstruction de l’histoire évolutive des nucléotides contenus dans le génome humain. Mais cette reconstruction comporte plusieurs étapes importantes dont l’identification de régions orthologues, les alignements de séquences d’ADN, la reconstruction des scénarios d’insertion et délétion suivie des substitutions, et enfin la reconstruction de l’ordre des gènes.
Au cours de cette présentation, je vous présenterai les principaux problèmes, leur formalisation informatique et les algorithmes utilisés pour les résoudre. Il est important de noter que les problèmes présentés sont une infime partie des services rendus par l’informatique dans le fascinant monde de la bioinformatique.

Cette communication s’inscrit dans une approche cognitive de la gestion stratégique et a pour objectif d’analyser un modèle d’affaires en l’appréhendant comme un système cognitif afin d’en déduire des avenues de recherche pour l’informatique cognitive.
Pour les sciences de la gestion, le modèle d'affaires est traditionnellement appréhendé comme étant l’architecture de la firme et son réseau de partenaires, créée pour mettre en marché et livrer de la valeur et du capital relationnel, en vue de générer des flux de revenus et des profits. Le modèle d'affaires peut aussi être vu comme un schéma permettant de comprendre comment coopère un réseau d’organisations pour créer et pour capturer la valeur issue d’innovations technologiques. Si les recherches actuelles proposent des conceptualisations normatives des dimensions matérielles des modèles d’affaires principalement conçus pour le commerce électronique, l’approvisionnement électronique, voire les enchères électroniques, elles n'intègrent toutefois pas explicitement les acteurs et leur diversité, leur capacité d'apprentissage ou d'autres facteurs informels telle la culture de l'organisation.
Enrichi par l’apport des sciences cognitives, le modèle d’affaires est un système cognitif dont les composantes interagissent avec d'autres composantes du contexte organisationnel. Ces microfondations du modèle d'affaires contribuent à l'émergence de capacités dynamiques en raison des interactions qu'elles entretiennent avec d'autres aspects formels ou informels de l'organisation. Un système cognitif présentent plusieurs dimensions: une dimension représentationnelle, une dimension fonctionnelle et une matérielle.
Les avenues de recherche sur les modèles d’affaires pour l’informatique cognitive vont des ontologies formelles aux outils de visualisation et d’aide à la décision.


Je décrirai des résultats sur l'apprentissage implicite et explicite des catégories par les sujets humains, par induction visuelle ainsi que par instruction verbale, et les processus cérébraux sous-jacents.
Ensuite je décrirai des résultats sur la représentation explicite des catégories dans le dictionnaire: ce qui est abordable par définition seule et ce qui doit être ancré antérieurement par apprentissage sensorimoteur.
Je finirai en décrivant les nouveaux indicateurs scientométriques de catégories scientifiques distribuées sur le web, et comment le libre accès augmente leur croissance.


Depuis près de 40 ans, le génie logiciel a évolué en tant que discipline d’ingénierie. Tandis que de nombreux chercheurs et praticiens travaillent au développement de nouvelles technologies, de nouvelles techniques et de nouveaux outils, d’autres, moins nombreux, tentent de mieux définir les éléments constituant la base de la discipline et de les consolider.
La recherche sur les fondements du génie logiciel, en plus d’être utile pour les praticiens, est d’intérêt non seulement pour les éducateurs intéressés à mieux définir le programme d’études de la discipline, mais également pour les organismes régissant les normes du génie logiciel. Ces organismes de normes ont besoin d’une base mieux définie de la discipline afin d’y appuyer un corpus intégré et cohérent de normes.
Au cours des trente dernières années, quelques rares chercheurs ont tenté d’identifier les fondements du génie logiciel. Ces fondements doivent avoir la caractéristique d’être durables et peu sensibles à l’évolution technologique. Parmi ceux-ci, les principes sont identifiés comme étant un élément fondamental, durable et peu sensible au cycle de vie court des technologies. Cependant, plus de 300 propositions de principes du génie logiciel ont été répertoriés dans la littérature sur une période de 30 ans. Devant ce nombre élevé, des questions s’imposent : qu’est-ce qu’un principe ? Comment reconnaître si ces propositions sont effectivement des principes du génie logiciel ? Comment analyser les propositions d’une façon structurée et rigoureuse ?
L’exposé présentera la démarche méthodologique entreprise pour analyser l’imposant inventaire de propositions, les principaux résultats obtenus, ainsi que l’orientation des travaux en cours et futurs.


De leurs débuts à nos jours, les méthodes de mesure de points de fonction se sont développées à partir d’approches expérimentales diverses. La modélisation mise en œuvre pour arriver à caractériser les systèmes s’est raffinée graduellement et les objets de la mesure se sont précisés. Toutefois chaque méthode a conservé une approche originale, non standardisée et pour lesquelles la convertibilité des mesures demeurent un problème majeur. Jusqu’à maintenant aucune méthode n’a pu être complètement automatisée. Plusieurs travaux ont été entrepris pour introduire UML pour cette modélisation, principalement selon les méthodes FPA et FFP.
Dans ce séminaire, nous rappellerons le chemin parcouru avec les principales méthodes et feront état de travaux menés en vue de modéliser l’application en UML pour arriver à déterminer la taille fonctionnelle des applications et amener un changement de paradigme dans le domaine de la mesure des points de fonction.


L'économie évolutive se sert de plus en plus de la dynamique de systèmes afin de modéliser le comportement des agents économiques.
La présentation expliquera l'essentiel de l'économique évolutive, de la dynamique des systèmes appliquée à l'économie et montrera une application avec le cas des clusters de biotechnologie.


Le suivi de travaux de recherche récents des étudiants au DIC révèle l’existence fréquente d’une confusion entre la recherche et le développement, manifestée par l’absence de thèse en amont des travaux ou de méthodologie originale pour leur réalisation. Souvent, les étudiants réalisent des travaux qui, malgré l’effort, se prêtent mal à la dissémination ; la fameuse recette d’Edison pour le génie est ainsi réduite à 100 % de transpiration (au grand bénéfice des directeurs de recherche quelquefois). La situation pourrait être expliquée par une confusion sur la nature d’une thèse et de ce que cela implique en matière de démarche et de méthodologie.
La présentation tentera d’éclaircir le sujet à travers une étude de cas (la transformation de modèle en génie logiciel vue comme un processus d’optimisation), montrant les étapes du processus suivi ou comment est mise en oeuvre une autre phrase célèbre : la recherche est ce que je fais lorsque je ne sais pas ce que je fais (Wernher Von Braun).
présentation en pdf

Projet de thèse dans le cadre du doctorat en informatique cognitive présenté par Éric Gingras
Directeur de recherche : Guy Bégin
Co-directeur de recherche : Serge Robert
Les systèmes informatiques sont constamment menacés par différentes nouvelles formes de dangers. Les paradigmes conventionnels associés à la protection des ordinateurs sont donc souvent mésadaptés à la protection pro-active. On ne peut plus se contenter de contrer les menaces connues, on doit également être en mesure de se protéger des nouvelles formes d'attaques qui apparaissent.
Dans le monde réel, lorsque les moyens statiques comme les serrures, détecteurs de mouvements, caméras de surveillance, etc., ne suffisent plus, on a habituellement recours à des solutions « humaines », comme des gardiens de sécurité ou des policiers, pour protéger ce qui est vulnérable. L'intérêt de l’intelligence humaine dans un contexte d'enquête est qu’elle est adaptable à la situation. L'adaptabilité se traduit par la capacité de synthétiser (recueillir, évaluer, pondérer, agréger) un contexte pour réagir de façon appropriée à celui-ci. Pourrait-on faire de même dans les systèmes informatiques en créant un agent cognitif inspiré des comportements humains ?
L'objectif de ce projet de recherche est de proposer une solution innovatrice au problème de la prévention des activités malveillantes dans les systèmes informatiques par l'utilisation de concepts issus de différents domaines des sciences cognitives. Pour ce faire, c'est un nouveau paradigme qui a été recherché pour résoudre les problèmes auxquels font face les solutions traditionnelles.
C'est la modélisation des comportements qui a permis aux sociétés humaines de survivre dans un environnement hostile qui a été choisie comme source d'inspiration. Premièrement, l'Homme a la capacité de produire un raisonnement adapté aux situations inédites. Deuxièmement, une des caractéristiques du comportement d'auto-défense humaine est la formation de communautés dans lesquelles se tissent des liens entre les individus. Et finalement, les différences entre les individus formant une population la protègent en variant les vulnérabilités de ces individus.
C'est donc en flouifiant le raisonnement d'analyse de menaces, en permettant aux systèmes de collaborer efficacement, et en faisant en sorte que les agents aient tous leurs propres systèmes de raisonnement unique, que ce projet de recherche aborde la problématique de la détection d'intrusions.

Projet de thèse dans le cadre du doctorat en informatique cognitive présenté par André Cyr
Directeur de recherche : Pierre Poirier
Co-directeur de recherche : Mounir B. Boukadoum
L’intelligence naturelle est un phénomène complexe et encore imparfaitement connu. Comprendre l’intelligence a conduit certains chercheurs à proposer des modèles d’intelligence artificielle (IA). D’autres se sont inspirés des aspects biologiques afin de réaliser des IA comparable au niveau cognitif, postulant l’existence d’une intelligence universelle regroupant le monde naturel et artificiel. La quête en vue de réaliser une IA s’appuie souvent de nos jours sur au moins trois éléments majeurs : le corps, le cerveau et l’environnement. Ce projet de thèse défend l’importance d’un quatrième élément essentiel à l’émergence de l’intelligence : la temporalité. L’hypothèse est qu’une entité cognitive qui a la possibilité d’extraire et utiliser les informations contenues dans de multiples échelles temporelles, augmentera significativement ses capacités cognitives, particulièrement en matière de résolution de problématiques reliées au temps. Notamment, les apprentissages simultanés concernant la gestion du temps passé (mémoire), du temps réel et celui du temps futur (prédiction) représentent des exemples clés des différentes facettes de la temporalité. C’est à l’aide d’un algorithme novateur de type réseaux de neurones à impulsion, d’une plate-forme de simulation de vie artificielle et d’un robot physique que se fera la démonstration du lien entre la temporalité et l’intelligence.
affiche en pdf

On suppose en général qu'une certaine expression sera perçue comme indiquant le même état mental quelle que soit la personne qui l'exprime. Mais nous allons montrer que la même expression peut prendre un sens différent selon les encodeurs et selon les décodeurs de cette expression. Nous présenterons deux études portant respectivement sur l'effet du genre de la personne porteuse de l'expression et sur la culture du décodeur.
affiche en pdf

Abstract
Web-based social networking sites are among the top attractions for Internet users. Recent estimates indicate that in terms of user connections received per day the major social networking sites are not far behind popular Internet search and email portals. Existing web-based social networking systems use centralized server-based implementations. While these implementations are easier to deploy and maintain, they have serious bottlenecks that prevent them from providing the users with sophisticated services to cultivate the best social connections.
In this talk, I present a peer-centric architecture for social utility networks. For the purposes of this talk, a social utility network is defined as a system that provides a suite of primitive functions for users to communicate and collaborate with their friends and discover new friends in a secure and trusted manner. Based on their purpose, the distributed functions can be grouped into data management, task management, and trust management.
Examples of data management include controlling access to user data, propagation and sharing of information, and searching data. Task management functions are responsible for routing tasks (e.g., questions in a customer service application) to the users with the expertise and time to process them. The trust management functions are concerned with computing trust values that quantify the strength of the social relations.
In this talk, I will expand on three primitive functions: information sharing, protection of data, and trust modeling. The objective of information sharing is to develop a protocol that is censor resistant, trustworthy, fast spreading, and low in message and processing complexities. I present a targeted gossip algorithm based on an epidemic approach that achieves many of the above objectives. The performance of targeted was evaluated using traces from the flickr.com social network. The results indicate that effective information sharing protocols for social networks can be created by combining sender reputation, on-demand recommendations, and user targeting. Next, I will discuss information protection in social networks, where a user wishes to store valuable information (e.g., profile information) in a protected manner such that only trusted members of the social network can access it. Unlike traditional distributed systems the protection requirements are naturally fuzzy so that unknown people who have the required transitive trust can see each other’s data. I briefly discuss one approach for building a protection system for social networks. Last, I discuss a new approach for trust modeling in social networks. This trust model uses ideas from gravity models to evaluate the strengths of relations in social networks.
While simulations driven by traces from existing social networks such as flickr.com and myspace.com are the primary approaches for evaluating the performance of the above methods, an emulator for social network that can provide realistic usage scenarios is being developed. This social network emulator can generate synthetic and distributed instances of social networks based on topologies extracted from actual web-based social networks. Some features that can be exploited for mapping test applications on the platform will be briefly discussed.
Brief biography
Muthucumaru Maheswaran is an assistant professor at the School of Computer Science at McGill. He received his PhD in electrical and computer engineering from Purdue University in 1998. He was an assistant professor in the Department of Computer Science at the University of Manitoba from 1998 to 2002. His current research work is focusing on various aspects of social software systems. In particular, access control, privacy, and trust management in social software systems such as online social networks and developing novel social-networking inspired solutions for security and trust management problems in online systems. In the past, he has carried out several research projects in large-scale Grid and peer-to-peer computing systems.
affiche en pdf

Les nombreuses données accumulées aux cours des siècles passés ont établi que le cortex cérébral est une structure essentielle aux fonctions supérieures du cerveau (interprétation des informations sensitives, réponse motrice volontaire, associations, raisonnement, etc ), et cette conclusion est aujourd’hui constamment confirmée par les investigations modernes. Le cortex cérébral est la partie la plus développée du cerveau des vertébrés chez qui, à quelques exceptions près, sa surface augmente proportionnellement avec le niveau de leurs facultés mentales.
Cependant il est tout aussi bien établi que le cortex cérébral ne peut fonctionner correctement sans le concours des régions sous-corticales, en particulier le thalamus et les ganglions de la base. Ainsi, par exemple, on sait aujourd’hui que des lésions de certains noyaux thalamiques entraînent des pertes de fonctions tout à fait superposables à celles causées par la destruction de grandes portions du cortex cérébral. De même des anomalies du fonctionnement des ganglions de la base, comme dans la maladie de Parkinson, provoquent de graves handicaps moteurs, cognitifs et émotionnels. Il en ressort que le cortex cérébral a besoin de la coopération des régions sous-corticales comme le thalamus et les ganglions de la base pour accomplir certaines fonctions. Cependant la nature de cette coopération reste encore mal comprise.
Dans ce séminaire, je présenterai des travaux préliminaires supportant l’hypothèse qu’un des rôles du thalamus et des ganglions de la base serait de gérer le flux des informations traitées dans le cortex. Pour ce faire, je passerai en revue les données anatomiques de la connectivité entre le cortex cérébral et ces régions sous-corticales en soulignant les circuits propices au support de la fonction de coopération proposée. Je présenterai aussi quelques réseaux de neurones illustrant la dynamique que je propose pour les divers circuits constituant la boucle cortex-ganglion de la base-thalamus-cortex.
affiche en pdf

Devant l'expansion des collaborations internationales, la masse croissante de ressources et textes accessibles via Internet en différentes langues et l'augmentation du nombre d'usagers ne maîtrisant pas l'anglais, de nombreux travaux ont été mis en place pour le développement d'outils en Recherche d'Information Translinguistique (RIT) et en Traduction Automatique Statistique (TAS).
Le premier type de recherche (RIT) permet aux usagers de préciser une requête dans une langue afin de trouver les documents pertinents dans une langue (ou plusieurs langues) différente(s). Des recherches empiriques ont montré que l'ambiguïté dans la traduction engendrée par les mots polysémiques, la manipulation des mots composés et des phrases, le manque de ressources lexicales ainsi que l'absence de mots dans les dictionnaires bilingues font partis des principaux obstacles liés à la RIT. Ces problèmes ont été reconnus pour plusieurs langues.
Le deuxième type de recherche (TAS) est un paradigme de traduction automatique où des traductions sont produites sur la base des modèles statistiques dont les paramètres sont dérivés de l'analyse des corpus bilingues des textes.
Dans cet exposé, je présenterai quelques réflexions sur la recherche d’information multilingue basée sur l’approche de dictionnaires bilingues et sur l'extraction de terminologie bilingue des corpus comparables qui servira à améliorer la performance de la RIT et ainsi enrichir les ressources lexicales bilingues existantes.
Aussi, je présenterai une approche statistique pour bâtir un moteur de traduction qui peut rapidement traduire d’une langue à l’autre à partir d’un ensemble de textes bilingues, à l’aide d’algorithmes tirés de la recherche sur l’apprentissage machine.
affiche en pdf

Dans cet exposé, nous présentons d'abord l'équipe Orpailleur du LORIA (Nancy, France) dont la spécialité est --- comme le nom le suggère --- le processus d'extraction de connaissances et les méthodes de fouille de données. Plusieurs méthodes symboliques d'extraction de connaissances sont étudiées dans l'équipe, et en particulier la classification par treillis de concepts (en accord avec la théorie de l'analyse formelle de concepts), la recherche de motifs (fréquents et rares) et l'extraction de règles d'association. En outre, plusieurs domaines d'application sont étudiés parmi lesquels figurent l'agronomie, l'astronomie, la biologie, la chimie et la médecine.
Dans cet exposé, nous rappellerons quelques bases des techniques symboliques de fouille de données (qui sont mentionnées ci-avant).
Puis nous donnerons des détails sur le processus de fouille de données et la façon dont les connaissances propres à un domaine peuvent intervenir, guider et améliorer un processus de fouille de données.
Un exemple de recherche et organisation de sites Web en biologie et un exemple de fouille de textes en astronomie seront détaillés.

TELOS est le projet intégrateur du réseau de recherche LORNET. Il s'agit d'un système fondé sur une architecteur orientée service et géré par une ontologie technique issu du modèle conceptuel du système.
Les principes d'opération de TELOS et ses principaux outils seront présentés avec quelques exemples d'application pour l'agrégation de composantes, pour la définition de plateformes en ligne pour la formation et la gestion des connaissances, et pour la scénarisation d'activités de formations.

L'acquisition des connaissances du domaine est un problème majeur dans le développement des systèmes tutoriels intelligents. Ce problème devient plus difficile lorsque le domaine est mal défini (ill-defined domain).
Après une brève introduction aux systèmes tutoriels intelligents (avec un accent particulier sur les défis liés à la construction de leurs modules experts), je présenterai une approche d'acquisition des connaissances procédurales basée sur une combinaisons de deux techniques de fouille de données : la recherche de motifs séquentiels et la découverte des règles d'association. Les connaissances procédurales sont extraites à partir d'un ensemble de traces d'usage capturées en situation de résolution de problèmes. La base de connaissances obtenue sert de cadre pour le suivi du raisonnement, la reconnaissance des plans, la validation des actions et le diagnostic des erreurs lors d'une session d'apprentissage.
L'approche a été implémentée dans RomanTutor, un système tutoriel intelligent pour l'entraînement des astronautes à l'usage du bras robotisé CanadarmII sur la station spatiale internationale. Nous montrerons comment la base de connaissances construite constitue une alternative intéressante à l'approche actuelle basée essentiellement sur l'utilisation d'un planificateur de chemin. Nous verrons que cette solution permet aussi de lever la difficulté liée à la construction d'un 'espace problème effectif' (suite à une analyse cognitive de tâches) dans des domaines mal définis.
affiche en pdf

Cette présentation met en relief le rôle crucial que les techniques modernes d'apprentissage automatique peuvent jouer dans l'optimisation des traitements pour les personnes souffrant d'épilepsie. Le défi consiste à optimiser les paramètres d'un neuro-stimulateur, en fonction de signaux EEG, de manière à minimiser la fréquence et la durée des crises.
Nous appliquons des techniques récentes d'apprentissage par renforcement (Q-itération, arbres extrêmement randomisé) pour apprendre une politique optimale de neuro-stimulation.
Nos résultats montrent que ces méthodes sont un moyen efficace de réduire l'incidence des crises d'épilepsie, tout en minimisant le montant de stimulation appliquée au cerveau.

Organizations engage in a wide variety of behavior that may be specified or described with contracts. Contracts say something about the behavior of the agents participating in the relationship. Contracts may come in many forms. The appropriateness of a given contract type is determined by the situation. In classical organization theory the agents or parties of a contract are people and organizations. But any agent that engages in behavior - software, for example - may be described with a contract.
We postulate a hardness-softness contract continuum, a new contract continuum that extends beyond the traditional-relational continuum in both directions. Key to understanding the many types of contracts is to realize that behavior may be described with varying levels of richness, from explicitly stated assertions to tacit assumptions. Hard contracts are precise, based on explicit knowledge and arrived at by the process of early knowledge binding. They are utilized to design thin architectures. On the other hand, soft contracts are imprecise, emphasize tacit knowledge, and arrived at by the process of late knowledge binding. They are utilized to design thick architectures. An organizational imperative for the 21st century manager-architects is to address the interdependencies between dynamic social processes as well as sophisticated technological and formal processes. This will promote alignment of hard and soft contracts to achieve a balanced organizational architecture that provides competitive advantage. This includes design (at any level of abstraction) along an architectural continuum that ranges from the structural to the process to the essential/cognitive architecture of the organization. The essential/cognitive architecture employs psychological contracts that are principally "understood" in terms of tacit knowledge, implicit understanding, and hidden behaviors.
Ira Sack is a Professor of Management in Stevens Institute of Technology since 1984.
He has authored numerous publications on organizational architecture and design, information systems, business foundations of e-commerce, intelligent agents, business and information modeling, and logic. He is coauthor of Organization Modeling: Innovative Architectures for the 21st Century published by Prentice Hall and also of several advanced book chapters on various aspects of business-IT modeling. He has presented numerous papers at workshops and international workshops in such diverse areas as organizational architecture and design, business and information modeling, and strategic foundations of e-commerce. His academic accomplishments include having been one of the prime facilitators of the Stevens Institute’s Ph.D. program in Information Management and the subsequent thesis supervision of many Ph.D. students in Information Management. The Computer Journal of Standards and Interfaces has just accepted his paper entitled "Mechanisms for Communication between Business and IT Experts." His attention is now focused on working on a new book on a scientific approach to organizational design that is based on hierarchy theory as suggested but never carried out by Herbert Simon - or anyone else for that matter.

Nous allons présenter, comme alternative viable, une architecture informatique orientée service qui soutient une infrastructure technologique reposant sur les réseaux informatiques hétérogènes. Cette infrastructure, pour des communautés d'acteurs travaillant à distance et en collaboration à partir de plusieurs sites, doit satisfaire de nombreuses contraintes. Par exemple, dans le contexte des sciences en ligne (e-Sciences) et/ou laboratoires mobiles, un laboratoire en ligne permet à de nombreux utilisateurs d'interagir, par les réseaux informatiques. Ce système est composé d'un environnement de travail collaboratif, des interfaces utilisateurs ainsi que des instruments de mesure rendus accessibles par les réseaux. Nous présenterons, à l'aide des résultats de certains travaux de recherche entrepris et de ceux en cours dans notre laboratoire, comment mettre en oeuvre un environnement que nous avons appelé système de courtage de laboratoire en ligne pour l'enseignement et la recherche ainsi que les nombreux défis en recherche à surmonter en rapport avec les réseaux informatiques, la gestion des activités, des acteurs ainsi que des ressources mis en jeu afin d'assurer les réalisations de travaux pratiques à distance. L'infrastructure doit également respecter les normes et protocoles en vigueur et celles auxquelles nous comptons apporter notre contribution.
Biographie du conférencier
Hamadou SALIAH-HASSANE détient un doctorat (Ph.D.) de l'université McGill en génie électrique et informatique, une maîtrise ès sciences appliquées ainsi qu'un baccalauréat en génie de l'École Polytechnique de Montréal. Il est professeur à la Télé-université (TELUQ), l'université à distance de l'UQAM d'où il enseigne l'informatique et la réseautique et a été Directeur de l'École de technologie de l'information (ÉTI). Le conférencier est chercheur au Centre Inter-universitaire de recherche (CIRTA / LICEF) et est aussi chercheur principal au réseau de recherche sur les objets d'apprentissage LORNET du conseil canadien de recherche en science naturelle et en génie (CRSNG). Les domaines de spécialisation du conférencier sont, le génie électrique (électrotechnique, électronique et automatique), les méthodes numériques et la conception assistée par ordinateur (CAD / CAO) ainsi que les systèmes à base de connaissance.

OMNIBUS est une ontologie du domaine de l’éducation qui permet de construire des environnements d’apprentissage et des scénarios pédagogiques qui s’appuient sur des connaissances théoriques en éducation (theory-aware).
Elle résulte des efforts conduits par Mizoguchi et Bourdeau selon leur vision exposée dans le numéro spécial 2000 de IJAIED et dans l’entrevue parue dans STICEF en 2004, et publiés régulièrement depuis 2000.

Au niveau international, la formation doctorale est sujette à un débat d’envergure depuis une dizaine d’années. Non seulement y a-t-il des questionnements, mais une myriade d’expérimentations sont en marche. Ces initiatives touchent rincipalement la formation, mais aussi l’encadrement et l’évaluation de la qualité.
Nous ferons le point sur cet enjeu majeur, le doctorant étant à la fois un créateur de connaissances ou de technologies et aussi le transfert par excellence de la recherche universitaire. Pourquoi faudrait-il revoir la copie ? Quelles sont les forces et les lacunes de la formation doctorale selon la littérature ? Quels progrès mais aussi quelles limites et quelles objections rapportent-on vis-à-vis des expériences en cours ? Que faut-il retenir du colloque organisé récemment par nos trois organismes subventionnaires fédéraux sur ce sujet ?
Nous terminerons par une vision de ce que pourraient être les nouveaux standards d’excellence et de pertinence pour la formation doctorale.

Le calendrier actuel pour la recherche en ingénierie de la langue est réservé d’une manière quasi-totale pour des travaux sur l’analyse de textes par leur contenu (text-mining), l’ingénierie des connaissances, la terminologie, l’indexation, etc. Des domaines se trouvant à l’intersection de plusieurs disciplines allant de la linguistique formelle à l’informatique en passant par la philosophie, la logique, la sémiologie, la terminologie, etc. Deux approches principales sont proposées, les premières permettant d’acquérir des connaissances au moyen du principe de la cooccurrence, les deuxièmes permettant de décrire les langues et les connaissances contenues dans les textes au moyen de patrons grammaticaux. Que ce soit pour l’une ou l’autre des deux approches, des voix s’élèvent dans la communauté scientifique pour dénoncer l’hypothèse selon laquelle un expert du domaine devient dépositaire d’un système conceptuel qu’il suffirait de mettre à jour de temps à autre. Cette hypothèse s’avère non productive du fait que l’analyse de texte dépend principalement de la nature du contenu du texte sachant que celui-ci est de nature sémiotique complexe. Il est en effet formé de mots et de phrases mais c’est aussi un discours qui admet une multiplicité de point de vue. Aussi, pour assumer cette multiplicité de points de vue dans la production de technologie dédiée à l’ingénierie de la langue, il faut percevoir toute analyse comme une architecture de chaînes de traitement composées de multiples tâches ou traitements appliqués à un texte et qui assisteraient un ingénieur de la langue dans son expertise. Notre challenge est d’une part, de décrire cette perspective dans un cadre théorique qui assurerait : flexibilité, modularité, consistance et cohérence et, d’autre part, de la mettre en place à travers une plate-forme informatique SATIM.

Les utilisateurs de la mémoire corporative devraient accéder aux connaissances qui sont souvent hétérogènes et distribuées. Afin de créer et partager l’information dans la mémoire corporative efficacement beaucoup de problèmes doivent être résolus.
D’une part, on doit localiser la source d’information qui pourrait contenir les données nécessaires pour une tâche donnée. Une fois que la source d’information a été trouvée l’accès aux données doit être fourni. Ceci signifie que chaque source d’information trouvée doit collaborer avec le système qui a demandé la récupération de l’information. Le problème qui peut se présenter est l’hétérogénéité: hétérogénéité structurelle (hétérogénéité schématique) et hétérogénéité sémantique (hétérogénéité des données). Ce problème est connu dans la communauté de systèmes de base de données comme le problème d’interopérabilité.
D’autre part, les environnements dynamiques comme les intranets exigent l’évolution et l’amélioration de l’ontologie pour s’assurer qu’elle reflète le contenu de la gestion.
Pour résoudre ces problèmes nous proposerons dans le volet informatique une architecture multi agents pour piloter l’intégration et la maintenance des connaissances dans les ontologies.
Nous proposons dans le volet cognitif deux approches semi automatiques : une pour l’intégration des ontologies et l’autre pour traiter l’évolution des ontologies dans la mémoire corporative.
L’approche d’intégration est une approche hybride qui utilise l’apprentissage machine et un processus qui contrôle le voisinage sémantique. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques.
L’approche d’enrichissement des ontologies disponibles dans la mémoire corporative exploite les techniques du « textmining » pour augmenter la productivité de l’ingénierie de l’ontologie durant la tâche d’enrichissement du domaine conceptuel. La trace entre les ressources et les concepts de l’ontologie est faite par un thésaurus (exemple WordNet). Un algorithme d’apprentissage machine (Clustering) est appliqué. Les résultats des groupements sont utilisés pour dériver les changements proposés dans l’ontologie.

The usability of security systems has become a major issue in research on the efficiency and user acceptance of security systems. The design of usable yet secure user authentication methods raises crucial questions concerning how to solve conflicts between security and usability goals. User authentication is the entry point to different computing networks or facilities in which a set of services are rendered to users or a set of tasks can be performed by them. Once authenticated, users can for instance access a company’s computer system (e.g. Intranet, applications, databases, etc.) or a facility research center.
"A Security Usability Protocol for User Authentication" doctoral thesis project covers logical (e.g. access to a computer network) and physical authentication (e.g. access to a facility) - wired or wireless - of human users. Usability can be defined as "the extent to which a product can be used by specified users to achieve specified goals with effectiveness, efficiency and satisfaction in a specified context of use" [ISO9241-11:98]. Security Usability is concerned with the study of how security information should be handled in the User Interface (UI).
Authentication is a serious issue for most people and organizations doing business on the Internet and solutions are beginning to emerge for general use such as encryption, time stamping, watermarking and digital signatures. Given that security mechanisms are conceived, implemented, put into practice and violated by people, human factors should be taken into account in their design. Therefore, usability becomes a strategic issue in the development of user authentication methods. Usability of authentication mechanisms has seldom been investigated therefore a suitable security usability protocol for user authentication methods is needed.


La psychologie cognitive a établi que dans notre mémoire à long terme les connaissances sont habituellement enregistrées de manière hiérarchique (depuis Quilian). Mais contrairement à ce que la tradition rationaliste croyait, les catégories que nous construisons sont très rarement faites d’un ensemble de conditions nécessaires et suffisantes (voir Roach) et sont plutôt constituées de prototypes, selon un air de famille (family resemblance). Ces résultats ont des conséquences importantes pour la représentation des connaissances et pour d’autres problèmes en informatique cognitive. Ils exigent de voir les limites de la logique classique et d’avoir recours à des logiques plus souples, comme la logique floue. Il existe cependant une grande variété de logiques floues.
Nous aborderons quelques caractéristiques de ces logiques et évaluerons leur aptitude à représenter la connaissance humaine.

Ces dernières années le Laboratoire d'haptique de l'Université McGill a mis au point plusieurs dispositifs de production de sensations tactiles. Chacun tire parti de méthodes spécifiques basées sur la découverte d'illusions tactiles.
Dans ce séminaire, je discuterais ces dispositifs et de dévelopements récents de leurs bases théoriques. J'apporterais aussi des démonstrations portables.

Dans cet exposé nous passons en revue nos travaux de recherche des 15 dernières années sur les réseaux de neurones non supervisés de type hebbien. En effet, bien que la difficulté d'assurer la convergence et la stabilisation correcte des valeurs propres ait conduit plusieurs chercheurs à délaisser ce type de modèle au profit d'approches plus faciles mais plus restrictives sur le plan de la plausibilité et de l'efficacité, nous croyons qu'utilisés dans le cadre d'une architecture récurrente auto-associative, ces modèles sont les seuls qui permettent de rendre compte du processus de la catégorisation de bas niveau dans un formalisme à la fois simple, robuste, plausible et naturel. Cependant, leur utilisation en tant que modèles de la catégorisation suppose que l'on soit d'abord en mesure de résoudre le problème inhérent à ce type de système, c'est-à-dire, le contrôle de la rétroaction positive ainsi que la croissance et la stabilité des valeurs propres de la matrice de connexions.
À cet effet, nous démontrons dans un premier temps que l'utilisation d'une règle d'apprentissage à la fois hebbienne et anti-hebbienne permet, sous certaines conditions, d'assurer la stabilisation du spectre des valeurs propres, sans altérer les propriétés de rappel optimal et de robustesse de ce type de système. De plus, nous présentons les résultats de plusieurs simulations qui, en plus de confirmer ces prédictions, débouchent sur la conclusion que ces propriétés sont généralisables à tout type de situation.
En second lieu, nous démontrons que l'ajout dans le modèle d'une procédure de désapprentissage permet l'élimination dynamique du bruit dans le réseau, tout en fournissant un explication plausible du rôle du sommeil paradoxal chez les organismes vivants. Finalement, nous montrons qu'une modification de la règle de transmission en une fonction polynômiale de degré trois, permet la création d'attracteurs stables à n'importe quel endroit de l'espace de représentation, de même que la suppression automatique des attracteurs inappropriés. La discussion porte sur la généralisation de l'utilisation de tels modèles aux situations impliquant des processus hiérarchiques de catégorisation ainsi que dans le traitement de haut niveau de l'information.

Dans une première partie, je présenterai le principe et l'architecture d'un système de capture de mouvement sans marqueurs développé a l'INRIA en 2005-2006. La principale originalité de ce système réside dans sa capacité à reconfigurer les trackeurs de chaque partie du corps, en fonction d’un modèle anatomique donné en paramètre. Je présenterai les algorithmes spécifiques mis en oeuvre pour dimensionner et tracker ce modèle à partir de quatre cameras calibrées. Dans une seconde partie, je montrerai comment les mouvements ainsi capturés sont constitués en une base de mouvements réutilisables pour l’animation 3D à l’aide d'algorithmes d'adaptation à la morphologie des personnages et à l’environnement virtuel dans lequel ils évoluent.
Ce travail a ete effectue à l'INRIA Grenoble en collaboration avec le département de bio-mécanique de l'Université de Rennes et avec le studio d'animation ARTEFACTO.

L’objectif de cette recherche est de relier, de façon exploratoire, le déploiement massif des grandes applications d’entreprise au développement des sciences et technologies de la cognition (STC). Une recherche-action et des entrevues en profondeur permettent de distinguer les caractéristiques de l’espace de la stratégie (vide, programmatique, habité) qui entoure le déploiement massif des applications d’entreprise dans le secteur des services bancaires et financiers, plus précisément les guichets automatiques et le fichier central client. Si la haute direction considère les guichets automatiques comme une extension automatisée des activités routinières, le déploiement massif du fichier central client modifie l’espace de la stratégie dans ses dimensions de légitimité, d’outils et de théorie. Des processus de changements et de transformation sont alors observables dans chacun des grands domaines de l’organisation : l’apprentissage, la culture, l’information, les processus et les personnes. On peut poser, dans les limites du terrain étudié, que ces changements dans l’espace de représentation de la stratégie organisationnelle et de ses transformations procèdent d’une progression logique présente dans le développement des STC (Varela, 1988) : cognitivisme, émergence et enaction. Pratiquement, cette recherche devrait permettre de mieux gérer les attentes et d’adapter les méthodes d’évaluation pour les projets d’investissement en TI orientés vers la représentation (Informating) et l’interaction (Knowledging); d’utiliser ces projets comme levier lors de la transformation des organisations; de redéfinir l’importance des dimensions soft comme l’apprentissage, la culture et les personnes. De façon originale, cette communication cherche à exploiter le développement des recherches en STC pour élargir la nature des questions que les chercheurs en administration se posent au sujet de l’évaluation et de l’implantation des SI-TI. Pour Varela, par exemple, les TI ne sont que la partie émergée des STC.

Malgré le nombre élevé des articles scientifiques publiés chaque année (plus de deux millions et demi d'articles sont publiés dans vingt-quatre milles revues scientifiques), leur accessibilité reste encore réduite. Ainsi, l'impact scientifique attendu par les chercheurs à travers la publication de leurs articles reste limité. Pour mettre en lumière les divers aspects du sujet, nous détaillons les points suivants:
1. L'étude du contexte des publications scientifiques.
2. L'analyse des causes, des corrélations des divers facteurs qui influencent l'impact des publications scientifiques, avec un accent particulier sur le facteur accès libre.
3. L'identification des indicateurs permettant une meilleure évaluation de l'impact des publications scientifiques.
4. L'étude des modèles d'indexation (LSI, neuronal) utilisés par les systèmes de recherche et le développement d'un modèle qui se veut mieux adapté avec les publications scientifiques.
Pour conclure, nous présentons les résultats obtenus et dévoilons les prochaines activités inclues dans l'échéancier du projet de recherche.

Cette conférence se situe à l’intersection de la linguistique cognitive et de l’informatique. Elle porte sur le verbe entendre, le verbe générique d’expression de la perception auditive, mais en même temps un verbe particulièrement polysémique. Sa polysémie est très profonde puisqu’en plus de mêler de nombreux sens, elle mêle des domaines très différents, le domaine mental et le domaine sensoriel. L’analyse linguistique rencontre ici un défi. L’étude repose sur l’analyse d’un corpus informatisé construit dans le cadre de cette recherche et annoté syntaxiquement et sémantiquement en vue de l’analyse. L’analyse relève de la linguistique cognitive et propose que la sémantique du verbe soit représentée par un schéma conceptuel qui se déploie séquentiellement. L’étude est parvenue à dégager le noyau sémantique du verbe et expliquer ce qui est à l’origine de son imposante polysémie. La polysémie provient de la possibilité de ne pas exprimer toutes les séquences du schéma conceptuel et d’attribuer des valeurs différentes aux entités de chacune de ces étapes.
L’analyse s’attache également aux constructions utilisées pour exprimer la polysémie du verbe et à la sémantique aspectuelle de l’événement verbal. Une analyse cognitive a permis de proposer une explication du fonctionnement aspectuel des sens du verbe, en particulier des sens perceptuels, traditionnellement réputés problématiques.
Les connaissances linguistiques mises au jour ont été transposées dans une base de connaissances qui repose sur le principe de l’héritage et des cadres. La base de connaissances définit un lexique computationnel qui encode une série d’informations syntaxiques, sémantiques et lexicales concernant le verbe entendre. Ce lexique se situe à l’interface syntaxico-sémantique verbale et permet d’établir le liage entre les entités conceptuelles de l’analyse sémantique et les entités syntaxiques de l’analyse syntaxique. Le modèle informatique de la base de connaissances a été développé à l’aide de Protégé, un système dans lequel l’information est représentée à l’aide de cadres et de l’héritage. Les utilisations qui en seront proposées dans cette conférence sont l’exploration de la variation syntaxique et sémantique et la résolution de la polysémie verbale. Au-delà de l’analyse spécifique à un verbe particulièrement polysémique, cette recherche propose un modèle d’analyse et de représentation opérationnelle du sens qui repose sur la cognition.

Les simulations connexionnistes évolutionnaires combinent réseaux de neurones et algorithmes génétiques. La notion de modularité cognitive-neuronale désigne une architecture constituée de sous-réseaux dont les caractéristiques innées sont l'encapsulation, la localisation et la spécialisation fonctionnelle. Nous soutenons que les simulations connexionnistes évolutionnaires peuvent être utilisées pour développer une théorie de l’évolution de la modularité possédant une structure épistémologique et une méthodologie mutuellement adéquates. La méthodologie du connexionnisme évolutionnaire et la structure de la théorie sont mutuellement adéquates, car les simulations connexionnistes évolutionnaires permettent de faire des arguments par modèles (au sens logique) sur les relations d’implication et de consistance, et la théorie contient des lois qui sont des conséquences logiques de la théorie de l’évolution et des postulats neurocomputationnels. L’utilisation du connexionnisme évolutionnaire pour développer une telle théorie n’est pas qu’une possibilité abstraite ; des simulations connexionnistes évolutionnaires sont d’ors et déjà utilisées pour cette fin. Nous en produisons de nouvelles, et des tests plus approfondis sont effectués pour mieux comprendre les simulations déjà existantes. Nos résultats permettent entre autre de mieux comprendre le paradigme expérimental dominant dans ce domaine, de montrer comment l'interaction de l'apprentissage et de l'évolution permet de contourner les obstacles à l'évolution de la modularité, et comment l'évolution de biais innés spécialisés dans un module favorise la capacité de généralisation dans une tâche.


Avec l’essor de la métrologie, la prévision du trafic s’est imposée comme une branche très importante de la métrologie. La prévision du trafic est un outil puissant pour aider à la conception, la mise en place, la gestion et l’amélioration des protocoles réseaux. L’objectif de ce travail est l’application de la prévision du trafic dans différents cas où la prévision s’avère nécessaire pour l’amélioration et la mise en place de protocoles et de réseaux.
Dans ce projet, on essaie d’explorer les différents modèles de prévisions du trafic Internet notamment l’application d’un modèle neuroflou. Ainsi, on analyse les différents paramètres qui permettront d’améliorer la performance de la prévision en terme d’erreur.
Le travail porte aussi sur l’exploitation de la prévision du trafic afin d’améliorer les protocoles dans les réseaux. Nous proposons « α_SNFAQM », une nouvelle discipline de gestion de file d’attente, qui utilise la prévision du trafic pour mieux gérer les pertes au niveau des files d’attente des routeurs. Nous présentons, ensuite, les possibilités d’exploiter la prévision du trafic le cadre des réseaux optiques afin de garantir une meilleure qualité de service en terme de débit, de délai et de taux de pertes

Cette thèse illustre le rôle que l’Ingénierie Ontologique (IO) peut jouer dans les Environnements Informatiques pour l’Apprentissage Humain (EIAH). Même si ce rôle touche à la fois la conception et la diffusion de l’apprentissage, nous nous attardons sur son rôle dans la conception. Nous montrons alors comment il permet de combler le fossé du manque d’assistance aux concepteurs.
Notre but est donc de faire la preuve de la contribution possible de l’IO dans l’ingénierie des EIAH, et pour illustrer cette preuve, nous prenons l’assistance aux concepteurs pédagogiques comme exemple de situation où l’IO est utile. Nous abordons le problème en le posant de la façon suivante : « Comment assister les concepteurs pédagogiques dans leur tâche parfois complexe de design pédagogique (DP), alors que les systèmes auteurs ne leur offrent pas l’assistance nécessaire pour concevoir des scénarios sémantiquement corrects, c’est-à-dire valides en fonction des Théories et Paradigmes d'Apprentissage, d'Enseignement et du Design pédagogique (TPAED), ni le moyen de procéder à une telle validation sémantique ? »
Nous montrons que la cause principale de ce manque dans les systèmes auteurs (incluant les systèmes orientés pédagogie, orientés performance, hypermédias, adaptatifs et collaboratifs et Web, pour n’en nommer que quelques-uns) est leur faible représentation explicite du DP et des TPAED dans leur modèle pédagogique. Nous privilégions une approche d’IO basée sur le Web sémantique afin de profiter des technologies bien établies et standardisées qui en découlent, à savoir les langages Web basés sur la syntaxe XML, les services Web et les annotations sémantiques.
Pour mettre en œuvre notre thèse, nous proposons la conception d’un système d’aide permettant d’apporter au concepteur pédagogique l’assistance dont il a besoin lors de l’utilisation de tout système auteur. Nous nommons ce système CIAO, ce qui signifie qu’il s’agit d’un système d’aide à la Conception Intelligemment assistée par des Ontologies. CIAO exploite une ontologie formalisant les TPAED, dont nous assurons la construction selon une approche d’IO que nous proposons. Les services offerts au concepteur sont assurés grâce à des règles de validation syntaxique et sémantique que nous avons créées intégrées à CIAO.
Quelle que soit la situation dans laquelle l’IO est utilisée, il s’agit d’un processus complexe qu’il faut avant tout développer de façon méthodologique. Cette thèse apporte aussi une solution sur cet aspect méthodologique de l’IO, puisque nous proposons une méthode intégrée d’IO appelée, MI2O. Cette méthode est dite intégrée parce qu’elle tient compte des points forts des principales méthodes d’IO et du standard du génie logiciel (l’ontologie étant considérée comme un produit du génie logiciel).
Notre contribution peut se résumer ainsi :
(1) La méthode MI2O utilisée pour construire l’OTPAED ;
(2) L’OTPAED, une contribution originale pouvant être exploitée par tous les systèmes auteurs d’EIAH;
(3) Le système CIAO un système d’assistance réactive en design pédagogique qui donne entre autre du conseil pour la conception des scénarios pédagogiques syntaxiquement / sémantiquement valides selon une théorie déterminée. Ainsi, il offre une validation flexible de scénarios selon les standards du DP (par exemple, selon IMS - Learning Design) et des TPAED. Le prototype que nous avons développé tend à montrer le potentiel de l’IO en contexte de DP en illustrant (à travers plusieurs scénarios d’utilisation de CIAO) comment des ontologies peuvent être exploitées pour assister le concepteur pédagogique.
(4) Les règles de validation syntaxiques et sémantiques de CIAO
Mots-clés : Environnement interactif pour l’apprentissage humain, ingénierie ontologique, intelligence artificielle dans l’éducation, méthodologie, ontologie, représentation des connaissances, système auteur, système tutoriel intelligent, théories et paradigmes de l’apprentissage, de l’enseignement et du design pédagogique.


Les humains se sont dotés, au cours de l'évolution, de toutes sortes d'astuces permettant de gérer la complexité. Baars (1988), et Sloman et Chrisley (2003), soutiennent que l’attention et la conscience sont deux exemples éminents de mécanismes complémentaires permettant aux humains de considérer un grand nombre de sources d’information, tout en évitant habituellement de se faire submerger. La conscience rend possible chez l'humain un ensemble de moyens d'adaptation.
Ma recherche soutient l'hypothèse que la conscience peut enrichir significativement des agents artificiels, même si cette "conscience" n'atteint pas encore la complexité, la complétude, les modes et la réalité de la conscience humaine. La première étape consiste à déterminer les possibilités ouvertes par des mécanismes de conscience artificielle, et d'explorer s'il est techniquement envisageable d'y parvenir, et par quels moyens. Tout particulièrement, la théorie psychologique de Baars, l'atelier global, a retenu mon attention. Elle se fonde sur la modularité de l'esprit et sur les rôles partagés entre mécanismes conscients et inconscients.
Je propose ici une architecture d'agent tutoriel, une application où l'agent peut se trouver confronté à un environnement hautement complexe : un être humain. CTS (Conscious Tutoring System) a été soumis à deux scénarios inspirés de la réalité. Il y démontre sa capacité à gérer la complexité en temps réel pour assurer l'encadrement d'un astronaute en entraînement dans un environnement virtuel pour apprendre la manipulation de Canadarm2.


Pour des raisons à la fois sociales et techniques (liées notamment à l'essor d'Internet), la notion de réseau est actuellement très en vogue. Nous passerons alors en revue les principaux modèles qui sont disponibles pour formaliser des phénomènes comme les réseaux sociaux ou la structure du Web. Puis nous présenterons des applications plus récentes à la formalisation de réseaux lexicaux ou conceptuels tels que WordNet.
On verra que la modélisation permet de mettre en évidence des caractéristiques qui seraient restées inobservables sans cela.


Les nombreuses études portant sur la perception de la parole dans le bruit, la lecture labiale et l’effet McGurk ont permis de démontrer l’importance de la vision dans la perception de la parole. La vue des articulateurs que sont la mâchoire et les lèvres, sans indice acoustique, permet de reconnaître bon nombre de voyelles. Ces articulateurs visibles sont contrôlés par le locuteur grâce entre autres aux informations visuelles. Cette présentation vise à démontrer la nature bimodale de la parole (auditive et visuelle), tant au plan des représentations que de leur implémentation. Après un survol des travaux antérieurs, nous présenterons une série d’études menées dans notre laboratoire. Ces études avaient pour but d’étudier l’organisation des systèmes vocaliques du français chez douze adultes aveugles congénitaux et douze adultes voyants. Notre méthodologie impliquait des enregistrements acoustiques et des enregistrements articulatoires à l’aide de l’articulographie électromagnétique (EMA). Des différences ont été observées entre les deux groupes de sujets (aveugles et voyants). En effet, la dynamique labiale produite par les locuteurs aveugles est apparue plus réduite par rapport au même paramètre produit par les locuteurs voyants. Une variation interlocuteur est observée et est discutée en lien avec les capacités de perception. Ces résultats révèlent que la vision joue un rôle dans l’organisation acoustique des voyelles et dans le contrôle moteur des articulateurs visibles (lèvres, mâchoire) et non visibles (langue).

détails à venir ...

Les métriques sont un moyen quantitatif d'appréhender le développement logiciel et la qualité des produits développés. Travailler avec un ensemble de métriques valides et utiles n'est pas seulement une question de définition ; le processus entier inclut, entre autres étapes, la validation théorique et empirique des métriques pour assurer leur utilité.
Le présent exposé traite de validation empirique de métriques orientées-objets, par l'intermédiaire d'algorithmes d'apprentissage automatiques ; On vise à vérifier empiriquement les liens entre des décisions de conception orientée-objets, et trois attributs de qualité : l'impact du changement, la propension à engendrer des erreurs et la réutilisabilité. Plusieurs algorithmes appartenant à diverses approches de l'apprentissage automatique sont choisis et appliqués sur des données logicielles collectées à partir d'applications orientées-objets.

L'hétérogénéité des terminaux d'accès à l’Internet (PC, laptop, PDA, téléphone cellulaire,…) et des réseaux de communications (GSM, WAP, IEEE802.11, UMTS,…) en terme de caractéristiques matérielles et logicielles s'est accompagné d'une évolution des formats de contenus disponibles. Le but de ce travail de recherche est de rendre l'adaptation du contenu Internet transparente et flexible et à prendre en charge l’ensemble des formes d'adaptation : transformation structurelle, sélection d'alternatives, filtrage ou conversion de ressources, etc.
Dans cette présentation, nous exposerons notre système d'adaptation qui vise à fournir un contenu Internet adapté aux utilisateurs de différents terminaux en considérant l’ensemble des contraintes du contexte et les limitations des environnements. Ainsi, nous montrerons la manière d’adapter automatiquement ce contenu en utilisant une architecture et des protocoles spécifiques. Nous discuterons de l’apport des agents intelligents et/ou mobiles dans ce domaine.

Les comportements violents, tels ceux engendrés par la déviance sexuelle, sont des facteurs de détresse sociale et psychologique affectant de façon très importante la santé de la population. Un outil prometteur dans l’étude des processus perceptifs et moteurs en santé mentale est l’utilisation d’environnements virtuels conjuguée à la vidéo-oculographie. En effet, en combinant les périphériques de simulation à des systèmes de poursuite du mouvement oculaire, il devient possible d'isoler la portion de l'environnement virtuel utilisée par l’usagé ainsi que de suivre la dynamique des changements de cette dernière. L’analyse de ce signal permettrait la classification automatique des comportements ainsi qu’à établir la fractalité de la dynamique oculaire. Enfin, cette prise en compte du point de vue subjectif de l’usagé sur l'environnement virtuel constitue une méthode pouvant sensiblement augmenter la validité de l'ensemble de la procédure d'immersion virtuelle utilisée à des fins cliniques en santé mentale.

L'analyse formelle de concepts (AFC) est une approche aux fondements algébriques pour l'analyse de données et par transitivité, pour la fouille de données. L'AFC structure les connaissances implicites dans des tableaux (objets x attributs), appelés contextes, de deux façons mutuellement complémentaires. D'une part, sont extraits les ensembles maximaux d'attributs partagés par des objets, alias les intents, organisés en un demi-treillis par l'inclusion, et d'autre part, on construit la famille d'implications valides dans un contexte, c'est-à-dire, les pairs d'ensembles d'attributs résumant leurs co-occurrences dans les objets du contexte. Plutôt qu'en intégrale, la famille des implications est manipulée à travers une base, dite canonique ou de Duquenne-Guigues, jouant un rôle identique aux couvertures minimales en théorie des bases de données. Les tâches d'extraction des intents et de la base canonique à partir du contexte, toutes deux réputées comme problèmes difficiles, sont centraux pour l'algorithmique de l'AFC et de pour fouille de données basée sur l'AFC.
Dans cet exposé, nous les abordons du point de vue de la distribution de la charge, c'est-à-dire, avec une approche diviser-pour-régner consistant à scinder les tableaux en fragments, d'analyser ceux-ci séparément, puis de fusionner les résultats. Le défi principal de cette entreprise réside dans la nature inhéremment séquentielle du calcul de la base canonique. Celle-ci force une approche en deux temps pour la fusion, fondée sur une étude préalable des structures intermédiaires d'implications, dites hybrides, complétant les bases canoniques des fragments. Reflétant les "interactions" entre deux groupes complémentaires d'attributs du contexte, ces structures ont leur propre rôle dans une analyse de données ''par morceaux". Des algorithmes concrets pour le calcul en mode diviser-pour-régner seront présentés avec des indications à propos de leur réalisation sur des architectures parallèles.

La formation scientifique de chercheurs de pointe a été reconnue comme un enjeu de première importance par les gouvernements des pays industrialisés, dont le développement économique dépend de façon cruciale de l’innovation. Plusieurs problèmes importants hypothèquent la formation de la relève scientifique. Certains auteurs évoquent même l’existence d’une « crise cachée » du système doctoral, étant donné que plus de la moitié des étudiants au doctorat abandonnent avant de compléter la formation. Selon les enquêtes, la nature même de la formation doctorale est questionnée par des étudiants qui estiment ne pas recevoir la formation qu’ils attendent et ne se sentent pas préparés pour occuper un emploi. Dans ce contexte, une des pistes privilégiées consiste à repenser les objectifs et le modèle pédagogique de la formation doctorale. Il est proposé de mettre l’accent sur le processus (former un chercheur) plutôt que sur le produit (la thèse) et sur l’évaluation de celui-ci en termes du développement des compétences du chercheur plutôt qu’en termes de la maîtrise du contenu du domaine.
L’ambition de notre projet a été de participer à ce courant de réflexion sur la formation des chercheurs au moyen de la conception d’un environnement de formation doctorale qui permettrait d’expliciter et de développer progressivement une formation de futurs chercheurs en termes de participation aux activités du « collaboratoire ». Le prototype que nous présenterons a été réalisé dans le cadre du projet BEST. Il vise à favoriser l’accès aux études doctorales grâce aux technologies de e-learning, et à améliorer la qualité de la formation offerte en développant les compétences des chercheurs et des étudiants relativement aux pratiques de e-science et de e-recherche.


Plusieurs modèles avancés de repérage de l'information ont été développés au cours des dernières années. Ces modèles s'appuient sur l'approche traditionnelle de l'intelligence artificielle et visent à améliorer la précision du repérage en exploitant les cooccurrences des termes du corpus pour enrichir la représentation des documents. L'approche connexionniste de l'intelligence artificielle a été peu explorée dans le domaine du repérage de l'information.
La thèse porte sur l'étude comparative de modèles de repérage et couvre principalement deux aspects : 1. l'exploration de l'approche connexionniste appliquée au domaine du repérage, et 2. l'étude des cooccurrences de termes exploitées dans les modèles de repérage de l'information.
Dans la présentation, nous survolerons le développement de trois nouveaux modèles basés sur une approche connexionniste et l'implantation de six modèles de l'approche traditionnelle. Nous couvrirons ensuite une analyse congnitive des deux approches en tentant d'identifier des critères qui permettent de distinguer les modèles de chaque approche. Nous présenterons les résultats comparatifs des essais de repérage sur les neufs modèles. Nous terminerons avec les principales conclusions tirées de cette étude et les avenues de recherche pour les modèles connexionnistes.


Les techniques de reconnaissance et de synthèse vocale deviennent de plus en plus performantes et robustes, ce qui facilite la création des applications de dialogue oral humain-machine. Ce sont des applications à partir desquelles la machine dialogue avec l’humain en imitant l’acte de communication des humains. Cependant, le dialogue entre l’humain et la machine manque encore de naturel, de souplesse et parfois il reste trop rigide. Alors que les recherches se sont orientées vers l’aspect acoustique et sémantique du signal de la parole, d’autres se sont positionnées au niveau de la stratégie du dialogue, considérée comme étant importante pour contrôler les interactions orales entre l’humain et la machine.
Partant de trois hypothèses de solution : (1) aspect stratégique du dialogue est le cœur des applications de dialogue humain-machine, (2) certaines théories du dialogue humain-humain peuvent être appliquées dans le dialogue humain-machine (i.e. théories des actes de langage, théories de la communication) et (3) apprentissage machine permet à la machine d’acquérir des nouvelles connaissances (i.e. trouver une stratégie optimale du dialogue).
Nous proposons, dans le cadre de notre projet de thèse, une approche d’apprentissage machine par renforcement avec un utilisateur simulé (Pietquin et Beaufort, 2005 ; J. Schatzmann et al., 2006). Notre approche emploie l’algorithme Q-Learning et le formalisme markovien (i.e. état, action, transition) pour trouver une stratégie optimale du dialogue, laquelle sera implantée dans une application de dialogue oral humain-machine pour le domaine de réservation de chambres d’hôtel. Les résultats de notre expérience devraient démontrer la faisabilité de cette approche pour améliorer la performance des applications et pour réduire le coût de modification évolutive de stratégie du dialogue, ce qui contribue à rendre le dialogue oral plus naturel et souple entre l’humain et la machine.
Mots clés : contrôle des interactions, stratégie du dialogue, gestion du dialogue, système de dialogue oral humain-machine, apprentissage machine par renforcement, utilisateur simulé, intelligence artificielle, processus de décision de Markov, Q-Learning

L’objectif de la présente recherche est de proposer une nouvelle architecture cognitive capable d’expliquer l’apprentissage ascendant des connaissances explicites à partir des connaissances implicites ainsi que l’interaction entre ces deux types de connaissances. Bien que ces deux domaines de la cognition humaine soient inclus dans la liste des critères d’évaluation des architectures cognitives (i.e., Test de Newell, décathlon cognitif), ces derniers ont été ignorés dans le développement de la plupart des architectures cognitives présentement utilisées (i.e., ACT-R, EPIC, SOAR). Les travaux présentés proposent une solution à ce problème à l’aide d’une nouvelle architecture cognitive, TEnsor LEarning of CAusal STructure (TELECAST). Ce nouveau modèle psychologique repose principalement sur cinq postulats: 1) les connaissances implicites sont apprises sans supervision, 2) les connaissances implicites sont modélisées à l’aide de représentations sous-symboliques, 3) les connaissances explicites sont modélisées à l’aide de règles causales incertaines, 4) les connaissances explicites sont apprises de façon ascendante à partir des connaissances implicites et, 5) les connaissances implicites et explicites interagissent de façon synergique. Dans TELECAST, les connaissances implicites sont représentées par un nouveau modèle connexionniste non-supervisé capable d’apprendre la distribution conjointe des stimuli à l’aide d’une nouvelle règle d’apprentissage Hebbienne (le Joint Probability EXtractor). La distribution extraite sert à construire un réseau de connaissances Bayesien, qui est utilisé pour modéliser les connaissances explicites dans TELECAST. Ce modèle a été utilisé pour reproduire des données empiriques colligées en psychologique cognitive dans les domaines de l’inférence causale et de l’apprentissage de séquences.

Les ontologies jouent un rôle important dans la communication des systèmes d'information hétérogènes et distribués car les ontologies définissent des représentations standards des phénomènes du monde réel permettant à l’ensemble des acteurs d’une communauté de communiquer sans ambiguïté. Cependant, alors que le monde réel est supposé unique, il existe une multitude de représentations de ce monde. Chacune de ces conceptualisations est dépendante de son contexte de modélisation.
Cette présentation a pour but de montrer la nécessité d'aller au-delà de la notion d'ontologie classique pour répondre à certains besoins de représentation de l'information tels que la granularité, les différents points de vues. Les ontologies obtenues sont dites contextuelles, c'est à dire que leur interprétation varie d'un contexte à un autre.
Ensuite, nous proposons une solution permettant de combiner dans une même ontologie plusieurs contextes de modélisation. Pour ce faire, nous avons réutilisé la technique d’estampillage proposée dans les bases de données spatiales pour l’adapter aux ontologies. Comme nous nous intéressons principalement aux ontologies formelles, nous proposons une extension des Logiques de Description pour la représentation des ontologies contextuelles.

Un réseau sémantique est un graphe dans lequel les noeuds représentent des concepts, et les liens des relations sémantiques entre les noeuds. Rada et Mili (Rada & Mili, 1989) ont défini une métrique sur les réseaux sémantiques permettant d'évaluer la "distance sémantique" entre deux "documents" décrits chacun par un nombre de concepts.
Cet exposé consiste en quatre parties. Il sera d'abord (brièvement) question du modèle de réseaux sémantiques tel que proposé par Quillian (1968), et des techniques d'inférences associées (spreading activation). Ensuite, le contexte d'utilisation sera présenté (dépistage d'information dans une collection documentaire). Nous présenterons ensuite la métrique en question, et ses propriétés mathématiques. En quatrième lieu, je parlerais de la -- Ô combien importante étape de -- VALIDATION, et j'en profiterais pour médire, à tort et à raison, sur de nombreuses recherches menées dans le domaine aujourd'hui.

Vouloir connaître l'histoire d'évolution des bactériophages (ce sont des virus qui infectent les bactéries) revient à inférer le mieux possible leur phylogénie. Or, la phylogénie de ces micro-organismes est complexe par nature et difficile à interpréter à cause des mécanismes d'évolution réticulée, soit, des échanges incessants de bagage génétique inter et intra groupes d'espèces (transferts horizontaux de gènes - THG) alors que l'approche traditionnelle suggère plutôt le principe de spéciation d'espèces par lignées parentes en lignées filles (transferts verticaux de gènes).
Notre proposition de projet de thèse consiste en une plate-forme d'inférence phylogénétique des bactériophages, en particulier les dsDNA - double-stranded DNA. Cette plate-forme d'inférence phylogénétique des bactériophages repose sur la résolution de trois problématiques majeures qui ont cours présentement en phylogénie moléculaire :
- Normalisation des génomes dsDNA de nature très hétérogène,
- Détection des transferts horizontaux,
- Reconstruction de gènes ancestraux.
Tout élément de réponse à ces problématiques complète un peu plus nos connaissances sur les bactériophages, et par extension de mieux saisir le phénomène bien connu mais difficile : la résistance aux antibiotiques des bactéries.
Sur le plan cognitif, l'approche de catégorisation est retenue comme processus cognitif sous-jacent. Pour explorer les banques de données génomiques, nous utilisons la catégorisation suivant le principe de Data Mining comme processus de perception des similitudes/dissimilitudes entre les structures des données brutes ; pour prédire l'évolution réticulée, nous utilisons la catégorisation comme engin (suivant le modèle SDDS (Klahr 2000), soit le processus itératif Hypothèses/Expériences) permettant d'assister le biologiste à la découverte scientifique (par ex. Identification des THG).


Nous motiverons l'intérêt de résumer un ensemble de commentaires qu'ont émis des consommateurs sur des produits populaires (appareils photos, lecteurs MP3).
Nous présenterons l'architecture d'un système permettant de résoudre ce problème. Nous montrerons comment identifier et regrouper les informations les plus pertinentes.
Nous présenterons quelques expériences basées sur l'extraction automatique de caractéristiques et de termes et nous comparerons avec des approches existantes.
Ce travail a été fait en collaboration avec Olga Feiguina.

La programmation mimétique (« soft programming ») regroupe plusieurs paradigmes de l’intelligence artificielle récents tels les réseaux neuronaux, les réseaux génétiques et les réseaux à logique floue. Elle vise à améliorer, sinon remplacer, les approches probabilistes et symboliques utilisées en intelligence artificielle classique. Elle contribue aussi, en développant des modèles hybrides, à combler le fossé fondamental qui existe entre symbolisme et connexionnisme. Les modèles prédictifs de qualité en génie logiciels figurent parmi les nombreux domaines du savoir à avoir bénéficié de ses apports. On peut aussi citer la restructuration de systèmes existant, la métrologie et la qualité du logiciel, et la réingénierie.
La présentation fera un survol de problèmes choisis en montrant comment ils sont abordés par des techniques de la programmation mimétique.

Nous pensons, parlons et agissons grâce à la myriade de neurones qui est contenue dans notre cerveau. En effet, c’est l’activité coordonnée de ces derniers qui produit la multitude d’opérations neuronales nécessaires à exécuter ces activités de tous les jours. De nombreuses études ont démontré que les neurones contenus dans les diverses régions du cerveau contribuent de façons différentes au comportement : une tâche donnée va, en général, mobiliser de concert un nombre important de circuits neuronaux dans des aires distinctes du cerveau. Cependant, comment ces différents circuits sont choisis, recrutés et activés pour produire les comportements le plus simples est encore mal compris. Dans ce séminaire, je proposerai l’hypothèse que ce processus est au moins partiellement pris en charge par des structures dédiées à gérer le flot d’informations circulant entre les différentes régions du cerveau. En activant certaines de ces structures au bon moment, l’organisme serait alors en mesure de sélectionner et produire les opérations neuronales nécessaire à exécuter le comportement désiré.
Pour illustrer ces hypothèses, je présenterai un modèle de type réseau de neurones construit sur ces principes, qui est capable d’une part de réussir les tâches de réponse différée et de rappel de mémoire par association, et d’autre part de reproduire les activités neuronales mesurées chez le primate lors de l’exécution de ces mêmes tâches.

Les travaux pour conférer les aspects fonctionnels de la conscience à un agent artificiel vont bon train. Mais qu'en est-il de cet aspect plus éthéré, voire, pour certains, «immatériel», de la conscience qu'on nomme «conscience phénoménale» : l'effet que ça fait d'avoir un certain état mental (une perception, une douleur) ou d'être un certain type d'agent (une chauve-souris, un humain, un robot)?
Nous soutiendrons dans cette conférence que, contrairement à ce que certains affirment, cette quête n'est pas illusoire et proposerons une méthode basée, entre autres choses, sur la robotique mobile pour solutionner cette ancienne énigme.

Les créateurs d'ontologie, les chercheurs dans les humanités et les lettres, les linguistes, terminologues etc. sont confrontés à au concept de "concept".
Quel est le statut de ce concept dans ces pratiques techniques et scientifiques et comment pouvons assister informatiquement l'analyse de ces concepts? Un exemple d'application sera présentée : L'analyse conceptuelle des textes philosophiques, travail réalisé en collaboration avec Dominic Forest.

En informatique, une ontologie est une réponse au besoin de modélisation d'un domaine d'application, modélisation nécessaire pour la construction d'un produit logiciel répondant à une demande. En sciences cognitives, une ontologie a bien sûr des acceptations différentes et plus larges, que l' informatique ne doit pas oublier. Le but de notre propos est de montrer, au travers d'un modèle ontologique particulier (OK) et des résultats d'expériences (cinéma d'animation, services médicaux, ...), quelques apports réciproques des ontologies et des sciences cognitives.

J'offrirai d'abord une vue d'ensemble des études d'usage des technologies de l'information et de la communication (TIC) (définitions, modèles, méthodes), nées dans les années 1970 à partir d'un ancrage dans les sciences humaines et sociales. Au fil des ans, la première topique conceptuelle (usage, représentation, pratique) s'est progressivement élargie vers des perspectives davantage interdisciplinaires et multidimensionnelles. Je présenterai ainsi les principaux niveaux de la théorie des usages en construction dans le cadre de mon programme actuel de recherche. Je voudrais aussi esquisser à grands traits les caractéristiques de ce que j'appellerai la « mutation des usages médiatiques » qui marque la période contemporaine (capitalisme informationnel, nouvelles technologies Internet donnant naissance à des médias numériques individuels de communication de masse). Cette mutation semble annoncer l'émergence de nouvelles conditions d'usage des TIC et par conséquent, poser de nouveaux défis pour l'observation des usages.

Le groupage de trafic est un aspect important dans le transport optique des données, dont la motivation vient de l’apparition des techniques de multiplexage entre différents systèmes (et technologies) de transport ou entre différentes couches du même système de transport. Notre travail propose un ensemble d’approches basées sur les techniques cognitives pour le groupage de trafic dans les réseaux TSOBS. Il se compose de l’optimisation du multiplexage des trafics utilisateurs dans les bursts à un noeud périphérique et de l’optimisation de la commutation des trafics utilisateurs entre les bursts sur un noeud interne. En raison du long temps d’exécution de la méthode d’optimisation utilisée, les différentes solutions pour réduire ce délai sont aussi proposées. Afin d’étendre le groupage de trafic pour un ensemble des noeuds, un modèle de groupage global de trafic est proposé en considérant la coordination et la coopération des entités de groupage. Une implémentation de notre modèle de groupage de trafic est réalisée sur le simulateur de réseau NS-2.

Depuis quelques années, le design des applications orientées objet subit des changements profonds. En réaction à une complexité grandissante des frameworks utilisés pour réaliser des applications, de approches nouvelles apparaissent pour simplifier la construction des applications.
Une de ces approches consiste à introduire le concept d'un dieu chargé de créer le monde des objets avant de les animer. D'Antoine de Saint-Exupéry à Paul Watzlawick en passant par Lugwig von Bertalanffy et Arthur Koestler, nous explorerons le concept du design intelligent et de la créativité dans la conception des systèmes. Finalement, certaines idées seront explorées sur la nécessité ou non aujourd'hui de savoir programmer pour être capable d'oeuvrer dans le domaine de l'informatique cognitive. Le point de vue présenté sera celui d'une personne ayant travaillé depuis quarante ans en informatique par pur plaisir et n'implique aucune responsabilité de la part des organisateurs du séminaire.

Le logiciel libre (c'est-à-dire la production collaborative, ouverte et gratuite de logiciel) est un phénomène remarquable qui demande à être expliqué. Parmi plusieurs angles d’approche, nous privilégions ici un point de vue économique. Le logiciel présente en effet des caractéristiques économiques tout à fait particulières. Contrairement aux biens matériels, il n'est pas nécessaire d'avoir l'exclusivité d'un logiciel pour s'en servir et chaque utilisateur a souvent intérêt à ce que le logiciel ait un grand nombre d'autres utilisateurs. Cela signifie qu'il est à la fois inutile et très difficile de contrôler l'utilisation de biens intangibles, comme les programmes, par des droits de propriété classiques.
Le développement du logiciel libre est alors une réponse rationnelle et efficace aux problèmes particuliers posés par l'économie du logiciel. Les firmes privées contribuent d’ailleurs grandement à ce développement, tout en continuant à produire aussi du logiciel propriétaire. Ce serait donc une erreur d'opposer totalement le monde public du logiciel libre au monde privé du logiciel propriétaire. La réalité est plus nuancée, et il est intéressant d'essayer de comprendre quelles sont les conditions précises qui favorisent un modèle plutôt que l'autre. Mais il ne faut pas non plus négliger l’importance des facteurs culturels et sociaux dans ce domaine, qui favorisent le développement croissant d’échanges gratuits.

Speech processing has matured in recent years, and the general public has become much more used to hearing synthetic speech and talking to computers. We also note the widespread acceptance of coded speech in cellular telephones. This talk will examine the basics of speech analysis, focusing on what methods are commonly used to reduce the data rate in speech (while retaining its relevant information) in a useful compression for both coding and recognition purposes. We will also address recent ways to synthesize speech with greater naturalness qualities, via concatenation of variable-sized units. Links will be made throughout to aspects of human speech production and perception, as modern artificial intelligence tasks, such as automatic recognition and synthesis of speech, are often usefully modeled as emulations of human processes. We will further note the recent progress using statistical methods, rather than simple expert systems.

Cette conférence sera donnée en anglais.

Un environnement informatique perçu offre des possibilités nombreuses et variées d'inter-actions* pour accompagner une activité humaine pour des tâches plus ou moins formatées. Nous ne faisons pas d'hypothèse a priori sur la notion d'environnement informatique, qui peut être considéré à des niveaux de granularité très variables. Le contour (ou le périmètre) ressenti d'un environnement dépend en effet fortement du contexte d'utilisation, lequel n'a de sens que pour l'utilisateur, acteur dans son environnement. Un environnement pourra alors aller d'une simple fenêtre de configuration d'une application jusqu'à l'ensemble des outils disponibles à l'utilisateur à un instant donné.
Les composants d'un environnement informatique sont conçus sur la base d'une analyse de l'activité des futurs utilisateurs et des tâches impliquées. Ils offrent différentes possibilités d'inter-action conformément à l'analyse menée. D'autre part, beaucoup de composants sont « ouverts » aux autres et peuvent être utilisés les uns avec les autres, les uns à partir des autres**, etc. Le périmètre de l'environnement informatique conçu se révèle donc difficile à stabiliser à l'avance.
Un hiatus est donc inévitable entre environnements informatiques perçus et environnements informatiques conçus. Il nous semble donc que la question de l'accompagnement de l'activité de l'utilisateur par des « facilitateurs » d'appropriation des possibilités offertes se pose donc dans la conception même des environnements informatiques.
Après avoir précisé les notions de logiques d'utilisation et de logiques de conception qui se confrontent au moment de l'utilisation, nous proposons d'utiliser les traces d'inter-action comme support de facilitation de la gestion du hiatus par l'utilisateur. Enfin, nous présentons le processus de modélisation de l'utilisation nécessaire pour décrire les inter-actions et détaillons le modèle MUSETTE que nous proposons pour y parvenir. Nous illustrons ensuite brièvement la démarche de modélisation de l'utilisation avant de nous intéresser à la notion de « facilitateur » en fournissant des exemples dans différents cadres applicatifs.
Il ne s'agit pas ici de développer les questions épistémologiques importantes que l'approche soulève et de développer les enjeux d'une telle recherche, mais de contribuer à la réflexion sur la notion de traces et de leurs usages quand il s'agit d'environnements informatiques, ces questions seront par contre très intéressantes à discuter.
---
* Inter-action : dénote le fait que les actions de l'utilisateur et les réactions de l'environnement sont dépendantes les unes des autres dans le cadre d'une activité particulière. L'utilisateur agit avec l'environnement comme inter-médiaire avec lui-même d'abord. Il n'est pas possible de dissocier l'action de l'attente du résultat de l'action qui précisément est le lieu de la confrontation logiques d'utilisation / logiques de conception.
** Il est possible par exemple d'autoriser de réaliser un document à partir d'un tableur mais d'exploiter intensivement les possibilités d'un autre environnement comme un traitement de texte dans ce tableur (et vice-versa).


Les nouvelles technologies de l'information et de la communication sont responsables pour plusieurs des changements dans la société contemporaine, en affecte notamment la façon d'enseigner et d'apprendre. Les méthodes d'apprentissage sur le Web se trouvent aujourd'hui de plus en plus incorporées aux processus d'acquisition des connaissances. En ce moment, en plus de méthodes traditionnelles d'enseignement, en personne, il y a aussi l'enseignement à distance, omniprésente, avec l'arrivée du Web. En raison de la progression du commerce électronique, la formation à distance augmente de façon significative partout à travers le monde. Cette augmentation découle en grande partie du développement des environnements d'apprentissage en ligne qui deviennent de plus en plus adaptables aux profils des utilisateurs. En revanche, pour ce qui est du profil culturel, ces environnements ne privilégient pas encore le design des interfaces adaptées. Les utilisateurs de différents pays ont des cultures distinctes. Ils ont aussi des perceptions et des styles de vie différents. Certaines études affirment que la distance culturelle dans le design des interfaces affecte la confiance et interfère avec l'interaction des utilisateurs. Ceci, nous a motivée à développer un projet de recherche dont l'objectif est de concevoir un modèle conceptuel d'interface intégrant les éléments de la culture des utilisateurs et permettant d'adapter les interfaces des environnements d'apprentissage en ligne au profil culturel des utilisateurs favorisant ainsi leur utilisabilité. Car dans ces environnements d'apprentissage, la qualité des interactions des utilisateurs est assez importante pour justifier ces besoins.

Notre thèse s'inscrit dans le cadre du repérage de l'information (RI) sur le Web. Nous proposons une méthode originale de reformulation automatique de requêtes visant à l'amélioration de la précision des requêtes sur le Web. Notre méthode, indépendante de tout domaine de connaissances, repose sur l'hypothèse que la spécification explicite des liens syntaxiques entre les termes de la requête permet de réduire l'ambiguïté de cette dernière. Elle consiste à reformuler une requête sous forme de liste de mots en une requête constituée d'une ou plusieurs expressions. Elle se déroule en trois étapes : extraction d'expressions des résultats de la requête initiale, regroupement de ces termes en classes sémantiques selon des heuristiques simples, puis reformulation de la requête par substitution des expressions obtenues aux termes simples de la requête initiale les composant. Les deux premières étapes utilisent certaines connaissances linguistiques générales du français, mais pourraient être facilement adaptées à d'autres langues. Aucune ressource lexicale n'est utilisée dans ce processus, qui est également indépendant de toute théorie de la linguistique computationnelle. Cette méthode de reformulation de requêtes repose en revanche sur certains paramètres, qui dépendent du cadre expérimental utilisé. Nous présenterons ce dernier, ainsi que le mode d'évaluation de notre méthode. Nous montrerons que cette dernière est efficace, au sens où elle génère des reformulations non triviales, de qualité et en général aisément interprétables par un être humain. Nous n'avons toutefois pas pu montrer que du point de vue de la précision des résultats notre méthode était globalement plus performante que la méthode implicite employée par le moteur de recherche, qui prend en compte la proximité des termes de la requête dans les documents pour trier ces derniers. Nous conclurons en présentant des pistes de recherche ultérieures que nous avons identifiées au cours de notre travail concernant l'amélioration du RI sur le Web.

L'opacité du vocabulaire d'une langue germanique telle que le néerlandais et sa structure morpho-lexicale très éloignée du français sont les principales pierres d'achoppement dans la maîtrise de cette langue par les francophones de Belgique. Le lexique revêt dès lors une dimension importante dans les méthodes d'apprentissage de cette langue étrangère qui sont proposées à cette catégorie d'apprenants. Ainsi, les didacticiels de langues - en ligne sur la Toile ou sous forme de CD-ROM - comportent souvent un dictionnaire traductif, utilisable à la demande par l'étudiant. Un tel dictionnaire demeure toutefois un outil non intégré, uniquement consultable hors-contexte. Ce constat a amené les auteurs à concevoir NEDERLEX, un outil original de création d'aide en ligne à la lecture de textes néerlandais à l'usage des francophones.
NEDERLEX est conçu comme un outil interactif (à l'usage des enseignants) qui génère un produit fini (à l'usage des apprenants) sous la forme d'un site Web offrant un ensemble de textes en langue étrangère de types et de niveaux de difficulté différents. Pour chaque texte, l'outil permet d'accéder par un clic de souris à la traduction française de chaque mot néerlandais selon son contexte original, les ambiguïtés ayant été levées lors du balisage préalable du texte. Chaque traduction est reprise dans divers contextes ou « concordances » issus d'un vaste corpus bilingue aligné, qui a été constitué de manière semi-automatique à partir de sites web multilingues. Cet outil, qui peut être transposé à la lecture d'autres langues étrangères, constitue une aide précieuse pour les apprenants de tous niveaux, qui sont ainsi mieux guidés dans leur recherche de la traduction exacte des mots inconnus.

détails à venir ...

Après avoir présenté quatre approches à l'ontologie nous allons analyser l'importance de l'apport des ontologies au génie logiciel. Nous montrerons ensuite celles que certains jugent être les parties honteuses des ontologies appliquées au logiciel. Nous essayerons d'aller au-delà d'une simple polémique « pour » ou « contre » en analysant l'apport des ontologies selon trois axes : interactions machine-machine, interaction machine-humain et interaction machine-réalité muette.

La majorité du contenu diffusé sur le Web se fait dans un langage incompréhensible pour les systèmes d'information : le langage naturel! Si nous voulons automatiser la gestion des informations diffusées sur le Web, nous devons prioritairement adressée le problème de l'attribution du sens aux représentations symboliques. En sciences cognitives, l'ancrage d'un symbole dans le monde est considéré comme un élément primordial pour la création du sens au sein d'un système que l'on souhaiterait intelligent. Les travaux présentés ici abordent le problème de l'ancrage des catégories langagières du point de vue d'un agent incarnée et situé pour simuler les capacités d'interprétation. Dans ce cadre, il s'agit d'ancrer les primitives cognitives (agentivité, relateurs topologiques, contrôle, les situations statiques, cinématique et dynamiques) décrivant ces catégories et se référant aux dimensions des interactions qui ont lieu entre l'agent et son environnement. La Grammaire Applicative offre dans son modèle formel linguistique un niveau de représentation sémantico-cognitif nous permettant de faire le lien entre le perceptuel et le symbolique. Le caractère ancrée et située de notre agent sera assuré par les techniques développées par la robotique évolutive. La technologie des Algorithmes Génétiques et des Réseaux de Neurones à Impulsions sera utilisé pour obtenir un agent artificiel autonome (robot ou animat).

On considère les classes de la programmation par objets comme des universaux de la tradition philosophique. On analyse deux questions-clefs : "les classes sont-elles des objets ?"et "les classes sont-elles des types ?" du point de vue du débat médiéval sur le statut des universaux : sont-ils présents dans le monde ou sont-ils seulement des fictions qui nous servent à décrire le monde ?
On espère ainsi mettre en évidence une limitation fondamentale de l'approche par objets en informatique.