Département d'Informatique
Permanent URI for this community
Browse
Browsing Département d'Informatique by Issue Date
Now showing 1 - 20 of 247
Results Per Page
Sort Options
Item Vers Un Système De Gestion Des Connaissances Pour L’aide Au Diagnostic De Pannes Dans Un Système Industriel(2003) Anguel FouziaLa connaissance se trouve dans l’intelligence, le savoir-faire, la mémoire, l’expérience des personnes autant que dans les documents, base de données, etc. Il faut donc l’extraire pour espérer la conserver et pouvoir la transmettre en vue de sa réutilisation autrement dit il faut gérer ces connaissances. L’objectif de ce travail est de gérer les connaissances concernant le diagnostic de pannes dans une station de compression en développant un outil dont le but n’est pas de résoudre automatiquement le problème de diagnostic, mais d’aider l’utilisateur en lui fournissant les informations appropriées et en lui laissant la responsabilité d’une évaluation contextuelle de ces informations et ce en exploitant la mémoire construite à travers les différentes sources de connaissancesItem Construction d’ontologie à partir de textes techniques – application à l’expansion de requête utilisateur(2003) Ladjailia AmmarNotre mémoire traite de la problématique de la construction d’ontologies de domaine ou régionale, à partir de textes techniques. Nos proposons un modèle d’aide le cogniticien et les expert de domaine à la construction d’ontologie à partir de textes. Dans la première partie nous nous intéressons aux différents usages du terme «ontologie», leur classification, les méthodes de construction et leur spécification. Puis nous abordons la problématique de la construction d’ontologie à partir des textes techniques. A la repense de cette problématique, nous proposons, dans la première partie une méthode linguistique quantitative d’acquisition des termes à partir des textes, puis nous structurons les syntagmes sous forme d’un réseau, dans lequel chaque syntagme est relié à sa tête et à ses expansions. A partir de ce réseau, le module d'analyse distributionnelle construit pour chaque terme du réseau l'ensemble de ses contextes terminologique. Un autre module (CAH) rapproche ensuite les termes, pour construire les classes des termes, sur la base de mesures de proximité distributionnelle. L'ensemble de ces résultats est utilisé comme aide à la construction d'ontologie à partir de corpus spécialisés. Notre ontologie est destinée à l'expansion de la requête par suggestion à l'utilisateur de termes de plus ou moins liés à ceux de sa requête.Item une indexation a base d'ontologies pour le filtrage d'informations sur le web(2005) ZIANI RadouaneItem UN SYSTEME HYBRIDE AG/PMC POUR LA RECONNAISSANCE DE LA PAROLE ARABE(2005) Lotfi AMIARiii RESUME Une des innovations récentes en intelligence artificielle (IA) est l’intégration de ses multiples paradigmes dans des systèmes dits systèmes hybrides intelligents. Nombre de recherches dans ce contexte s’orientent vers l’intégration des réseaux de neurones et des algorithmes génétiques. Le problème de la reconnaissance automatique de la parole (RAP) est un domaine d’étude active depuis les années 50. Parmi les modèles les plus utilisés dans ce domaine, les réseaux de neurones (RNs), plus particulièrement, le perceptron multi-couches (PMC). Dernièrement, une extension de ces modèles a été mise au point donnant naissance aux modèles hybrides. Notre contribution rentre dans le cadre de la reconnaissance des chiffres Arabe isolés indépendamment du locuteur. Après extraction des paramètres acoustiques du signal vocal, en utilisant l’analyse RASTA- PLP (RelAtive SpecTrAl processing-Perceptual Linear Predictive), nous proposons après, un système hybride pour l’entraînement et la reconnaissance qui permet de rejoindre les capacités discriminantes , la résistance au bruit des Perceptrons Multi-Couches (PMCs) et la capacité des Algorithmes Génétiques (AGs) pour l’optimisation d’un ensemble de paramètres par une recherche globale, en vue de trouver un système de reconnaissance vocale optimal de meilleurs performances.Item DIMINUTION DE LA SURCHARGE COGNITIVE ET AMELIORATION DE L’INTERFACE APPRENANT DANS UN HYPERMEDIA EDUCATIF(2005) SOLTANI MohamedCes dernières années ont vu émerger ce que les médias de l'information n ' ont pas hésité à nommer "la révolution des nouvelles technologies". La démocratisation de l'ordinateur et l'avènement du Web au début des années 90, nous ont fait pleinement rentrer dans l'ère de l'informatique grand public. L'usage de ces technologies s'impose tant dans la vie domestique que professionnelle. Cette évolution touche également, le domaine éducatif pour preuve l'apparition des TICE (Technologies de l'Information, et de la Communication appliquées à l'Enseignement). En effet avec cette évolution, on assiste à l'apparition de nouveaux besoins dans la formation et l'enseignement : d'une part, ces besoins se manifestent dans trois directions : les personnes, les lieux et les moments ; c'est ce que [DEN, 95] simplifie en disant : "tous, tous le temps, partout"; d'autre part, les apprenants ont de plus en plus besoin d'un apprentissage centré sur eux- mêmes, ils demandent que leur vision soit prise en compte. L'une des réponses à l'émergence des nouveaux besoins dans le domaine éducatif ainsi que dans la formation est l'utilisation des hypermédias. Les hypermédias, dans lesquels les informations ne sont pas seulement de type texte, mais également de type image son, vidéo ou encore multimédia ont vocation à présenter l'information. Dans les applications basées sur le Web, l'information est présentée selon une approche hypermédia, mais de plus, i l est possible d'effectuer des traitements à travers l'interface Web. Dès lors, il n'est pas surprenant de constater que beaucoup de travaux de recherches sur les hypermédias ont été réalisés ou sont en cours de développement. Cette Recherche, présente l’architecture d’hypermédia éducatif dynamique générant des activités pédagogiques aux quels on tient ce compte des trois aspects très importants : - Diminution de la surcharge cognitive chez l’apprenant.. - Amélioration de l’interface apprenant (Surcharge cognitive). L’amélioration du format de présentation des informations dans les documents techniques est un moyen important de favoriser leur compréhension. Les avancées technologiques récentes incitent d’ailleurs à de nouveaux efforts d’analyse du potentiel des documents techniques électroniques en terme de compréhension. Dans cette recherche en propose des recommandations et des précautions qu’on doit les prendre en considération dans la conception des documents pédagogiques afin de favoriser leurs compréhensions. Nous avons présenté un modèle inspiré des recherches sur les interfaces adaptatives et de celles sur les systèmes d'aide à l'apprentissage dans les hypermédias, qui cherche à mettre en relation les différentes dimensions du modèle apprenant, du contexte et des stratégies possible d'organisation de l’aide. Le modèle cherche à intégrer non seulement les dimensions cognitives de la tâche d'apprentissage, mais également les dimensions motivationnelles et sociales de l'activité. Nous présentons un modèle d’interface conçu pour faciliter la navigation (pour le problème de désorientation) et la définition du soutien dans un hypermédia d'apprentissage, afin d’aider l’apprenant dans sa progression. Le modèle permet même l'adaptation de ce soutien en fonction des préférences de l'apprenant. Dans notre modèle on a proposés des recommandations qui vent améliorés même d’autres hypermédias, dont le but de diminuer la surcharge cognitive chez l’apprenant. L’amélioration de l’interface apprenant, pour que ce dernier puisse se consacrer exclusivement à l’acquisition de connaissances sans surcharge cognitive de nature procédurale de l’interface.Item NESSR : Un système neuro-expert pour la reconnaissance de la parole (Neural Expert System for Speech Recognition)(2005) Halima ABIDET-BAHIAussi loin que remonte l’histoire des hommes ce sont leurs rêves et fictions qui ont porté leurs plus grandes découvertes. Créer une machine dotée de facultés sensorielles et motrices similaires à celles de l’homme, et en particulier une machine qui saurait comprendre et interagir avec un dialogue est un vieux rêve de l’humanité. Mais bien que le rêve que font les humains en ce qui est de machines qui les comprennent est relativement ancien, nous ne disposons pas aujourd’hui encore de telles machines qui puissent fonctionner dans des environnements « normaux ». C’est cette fiction et bien d’autres qui annoncèrent l’avènement de l’intelligence artificielle, et qui portent ceux à quoi aspire cette discipline. En effet, l’intelligence artificielle est une orientation de la recherche qui tente de reproduire par des automates des facultés de l’homme. Si l’on considère une tâche cognitive telle que la reconnaissance de la parole, certains pensent (et nous en faisons partie) que l’une des voies à suivre pour doter un automate de cette faculté est de mimer les mécanismes utilisés chez l’homme à cette fin. A cet effet, il a été établi de longue date, que pour mémoriser ses connaissances ou mener un raisonnement, l’homme utilise des réseaux neuronaux (nous appelons neuronal ce qui est biologique, et connexionniste ce qui correspond à cette qualification pour les automates) ; d’autre part, ce qui fait la richesse du raisonnement humain est sa symbolique et c’est ainsi donc que dès son avènement l’intelligence artificielle se trouve à balancer entre les deux paradigmes majeurs que sont : l’IA symbolique et l’IA connexionniste [Hilario, 95]. Aujourd’hui encore, l’intelligence artificielle continue de connaître des développements importants dans le domaine de la modélisation des processus cognitifs, et un des axes intéressants de ces développements est l’orientation vers des approches hybrides qui incorporent plusieurs paradigmes dans le même système [Sun, 97]. Parmi ces paradigmes l’intégration neurosymbolique constitue une voie principale de la complémentarité entre les deux approches connexionniste et symbolique [Boz, 95], essayant ainsi de trouver des solutions aux inconvénients et limites de chacune d’entre elles et d’apporter des résultats satisfaisants à des problèmes complexes du monde réel.Item Vers une automatisation de la construction des ontologies(2005) Allalga A. WahidMalgré le consensus établi sur l'importance des ontologies, vues comme une conceptualisation partagée d'un domaine, pour le développement et l'interopérabilité entre applications informatiques où il y a une nécessité de manipuler explicitement la connaissance, leur utilisation reste très restreinte, ceci est dû au fait que leur élaboration, qui se fait le plus souvent manuellement, s'avère être une tâche laborieuse, coûteuse et se relevant plus du savoir-faire que de l'ingénierie. Etant convaincu que ce travail de développement ne peut être réalisé d'une manière totalement automatique, nous proposons, dans ce mémoire, les prémisses d'une méthodologie et d’une architecture générale d'un système susceptible d’assister le concepteur tout au long de la construction des différents éléments composants l'ontologie. Notre approche se démarque par le fait que le développement se fait d'une façon incrémentale, ce qui constitue de notre point de vue une aide précieuse pour l'utilisateur dans sa tâche de maintenance de l'ontologie. Dans un autre cadre de travail, nous proposons quelques principes à suivre pour développer des ontologies bilingues, ce type d’ontologies devient une clé de voûte pour la réussite de systèmes de traduction automatique ou de recherche d’informations multilinguesItem MODELISATION DE L’ELEVE DANS UN ENVIRONNEMENT INTERACTIF D’APPRENTISSAGE HUMAIN(2005) Bourouaieh DouadiCe mémoire aborde la modélisation de l’élève dans un environnement interactif d’apprentissage humain. Après une revue de la discipline on se focalise sur le modèle élève, son rôle et ses mécanismes. L’approche retenue est celle de l’ouverture du modèle. On cherchera par un système floue, dans un cadre global de modélisation, à adapter cette ouverture à l’élève. Cette adaptation passe par la régulation du pouvoir de l’élève sur son modèleItem Définition d’une heuristique hybride pour résoudre un problème de planification de personnel dans un milieu hospitalier(2005) ZEDAIRIA AbdallahV RESUME Pour toutes leurs activités, les êtres humains ont besoin de planifier dans le temps leur acquisition de certaines ressources. La théorie de la planification traite des modèles mathématiques mais analyse également des situations réelles forts complexes. Quoique l'état de l'art est assez riche, les contributions existantes restent loin d'être complètes et optimales. Remarquons que la planification du personnel, et en particulier le personnel hospitalier, qui est soumise à une variété de contraintes -parfois contradictoires-, est un problème NP- difficile au sens fort. Par conséquent, des méthodes heuristiques doivent être utilisées pour le résoudre. Dans cette étude, nous nous sommes donnés comme objectif principal la résolution d’un problème concret de génération hebdomadaire d'emplois du temps de médecins dans un service de radiologie. Ce problème possède des contraintes de types très variés. Nous avons mis en œuvre un algorithme génétique pour l’optimisation de coût d’affectation des médecins aux postes. Le critère d'optimalité est la minimisation de la somme des mesures de violation des contraintes pour la rendre nulle. Étant donnée l'importance de ces problèmes, de nombreuses méthodes de résolution ont été développées en recherche opérationnelle (RO) et en intelligence artificielle (IA). Ces méthodes peuvent être classées sommairement en deux grandes catégories : les méthodes exactes (complètes) qui garantissent la complétude de la solution et les méthodes approchées (incomplètes) qui perdent en complétude pour gagner en efficacité. Le principe essentiel d'une méthode exacte consiste généralement à énumérer, souvent de manière implicite, l'ensemble des solutions de l'espace de recherche. Malgré les progrès réalisés, le temps de calcul nécessaire pour trouver une solution risque d'augmenter exponentiellement avec la taille du problème. Les méthodes exactes rencontrent généralement des difficultés face aux applications de tailles importantes.Item MODELISATION D’UN SYSTEME HYPERMEDIA ADAPTATIF DYNAMIQUE A BASE D’ONTOLOGIE (HADYAT)(2006) Lamia MahnaneDans l’enseignement traditionnel, les interactions entre apprenants et enseignants sont multi support (dessin au tableau, polycopiés, documents audio-visuels), multimodales (paroles, gestes, postures, regard) et adaptatives (l’enseignant modifie le déroulement de son cours pour répondre aux questions). Une des difficultés pour l’enseignant consiste à savoir adapter non seulement le contenu d’un cours à différents niveaux d’apprenants, mais aussi la communication de ce cours à des apprenants ayant des niveaux très différents. Vis à vis de cette multi modalité et du caractère adaptatif de ces interactions humaines, les outils actuels des environnements interactifs pour l'apprentissage humain (EIAH) semblent limités. Afin d’améliorer l’adaptabilité et motiver l’apprenant, nous proposons le système HADYAT (système Hypermédia Adaptatif DYnamique A base d’onTologie) qui est constitué des composants standards des hypermédias adaptatifs dynamiques et les hypermédias générant des activités pédagogiques : modèle du domaine, modèle de l’apprenant, modèle des activités pédagogiques et la base des documents multimédias. Par couplage avec les systèmes tuteurs intelligents émotionnel et les systèmes auto compositions d’un document hypermédia à base d’ontologie. Les hypermédias adaptatifs dynamiques sont fondés sur des informations provenant de sources hétérogènes. La réutilisation, la communication, le partage et la recherche d’information est des enjeux des hypermédias adaptatifs dynamiques. En effet, l’ontologie est une solution pour répondre à un besoin de modélisation et de représentation. Notre approche nécessite de représenter différents types de connaissance (modèle du domaine, modèle de l’apprenant, modèle d’adaptation, modèle d’évaluation et modèle de synchronisation). La séparation de ces différentes catégories de connaissance facilite leurs évolutions et leurs maintenances. Pour supplanter la richesse de communication humaine, ce système doit enrichir les interactions homme machine par une communication adaptative (conseil adaptatif, explication adaptative, simulation, question adaptative et geste émotionnel)Item Expansion de requête à l'aide d'une ontologie Arabe dans le domaine juridique(2006) Soraya ZaidiNotre mémoire traite la problématique de la recherche d'information sur le Web, celle en Arabe en particulier plus spécialement dans le domaine juridique. Les moteurs de recherche actuels se basent, dans leur recherche, sur des mots clés, ces mots sont traités syntaxiquement, la sémantique est omise d'où un grand nombre de documents retournés non pertinents ce qu'on appelle bruit. Différentes techniques ont été proposées pour réduire le taux de ce bruit et améliorer la précision de la recherche. Nous avons présenté un grand nombre de ces techniques et nous avons opté pour celle que nous avons jugée intéressante pour notre cas, en l'occurrence l'expansion de la requête à l'aide d'une ontologie. La raison de notre choix est que d'un coté les ontologies représentent un avenir prometteur pour le Web sémantique, qui est à son tour, l'héritier supposé du Web actuel, d'un autre coté les ontologies n'ont pas encore été expérimentées dans la recherche d'information en langue Arabe, dans le domaine juridique (du moins jusqu'à la rédaction de ce travail). Nous traitons donc, dans ce travail le problème de la construction d'une ontologie en langue Arabe dans le domaine juridique, dans le but d'étendre une requête Arabe et la soumettre à un processus de recherche pour réduire le bruit et améliorer la précision. Mondialisation oblige, nous tentons de permettre à un utilisateur potentiel d'effectuer une recherche avec une requête Arabe pour l'obtention de documents Anglais ou Français, ceci en soumettant sa requête à un système de traduction automatique libre d'utilisation sur le Web, tel que Tarjim, ainsi que l'expansion de la requête traduite à l'aide de la base lexicale qui représente une ontologie générique. Nous décrivons les différentes étapes de la construction manuelle de notre ontologie relative au domaine juridique, à l’aide de l’éditeur d’ontologies Protégé-2000 et ce à partir d'articles publiés sur le Web concernant spécialement le domaine cité. Nous avons essayé d'établir la hiérarchie avec la méthode descendante, nous essayons de donner à chaque concept sa définition et nous comptons lui attacher ses variantes les plus représentatives du domaine juridique. Nous traitons à la fin quelques exemples illustratifs concernant l'expansion de la requête, pour essayer de donner une évaluation préliminaire de l'approche adoptée.Item RECONNAISSANCE DE L’ECRITURE ARABE MANUSCRITE A BASE DES MACHINES A VECTEURS DE SUPPORTS(2006) Mehennaoui ZahraLa reconnaissance de l’écriture, et particulièrement l’écriture manuscrite reste un défi d’actualité. Différentes techniques de reconnaissance de formes ont été utilisées pour la résolution de ce problème, certaines ont donné des résultats remarquables. Malheureusement, les techniques classiques se basent sur le principe de minimisation du risque empirique et souffrent des problèmes de sur-apprentissage et du grand nombre de paramètres à fixer par l’utilisateur. Pour tenter de résoudre ces problèmes, une nouvelle direction dans le domaine de l’apprentissage statistique a émergé de la théorie de Vapnik et les machines à vecteurs de support et leurs applications dans le domaine de la reconnaissance des formes. Le travail présenté dans ce mémoire s’intègre dans le cadre général de la reconnaissance automatique de l’écriture arabe manuscrite, et répond à la nécessité d’expérimenter une nouvelle méthode d’apprentissage : les machines à vecteurs de support (SVM : Support Vectors Machines), appliqué à la reconnaissance des caractères arabes manuscrits. Avant de décider la classe d’appartenance du caractère en entrée, il est nécessaire d’effectuer un certain nombre de traitements : binarisation, lissage, normalisation et extraction de contour. Afin de caractériser nos images de caractères arabes, nous avons opté pour une combinaison entre des caractéristiques statistiques provenant de la distribution des pixels, et des caractéristiques structurelles basées sur les motifs géométriques de l’alphabet arabeItem Un modèle basé Template Matching/ Réseau de Neurones pour la Reconnaissance des visages(2006) Yessaadi SabrinaLa reconnaissance automatique des visages est l’un des plus importants domaines de biométrie, elle se base sur la reconnaissance des individus en utilisant le visage comme principale caractéristique. Ce domaine est très actif, ceci est sans doute dû à la multiplicité et la variété des champs d’application, dont on peut citer : les compagnies gouvernementale, les sociétés sécuritaires, l’inerraction homme-machine et la vision par ordinateur. Les recherches dans cet axe sont nombreuses et plusieurs approches ont été proposées, tel que : l’Analyse en Composantes Principales (ACP), l’Analyse en Composantes Indépendantes (ACI), les Réseaux de Neurones Artificiels (RNA) et les techniques de mise en correspondance par motif “ Template Matching ”,..., etc. Dans cette thèse, on proposera un modèle pour la reconnaissance automatique des visages, en combinant entre deux approches de l’Intelligence Artificielle. Les images utilisées sons représentées en forme d’intensité de pixel, avec une vue frontale des visages. Chaque visage sera décrit par un vecteur de caractéristiques représentant les trois principales composantes du visage qui sont : les yeux, le nez et la bouche. On utilisera pour la description de ces caractéristiques la théorie des moments invariants, et plus particulièrement, les invariants de Hu. Ces moments vont construire l’ensemble des vecteurs de caractéristiques utilisés comme entrées pour l’apprentissage et le test du réseau de neurones, en fin le réseau établira son identification et sa décision finales. La base des images sera indexée en utilisant la méthode d’indexation des images basée sur leur contenu locale.Item UNE COMBINAISON DE CLASSIFIEURS POUR LA RECONNAISSANCE DES VISAGES HUMAINS(2006) Amirouche RadiaLa reconnaissance automatique des visages humains demeure toujours un réel challenge dans le domaine de la recherche, ceci est dû essentiellement à la nature même de cette biométrie qu’est le visage très riche en informations sociales, et fortement dynamique à la fois , à cause des variations de l’environnement, le vieillissement, la pilosité….chose qui rend la tâche de reconnaissance plus complexe ; De ce fait, une multitude de méthodes déployées pour résoudre ce problème; mais malgré la pléthore de techniques élaborées et les énormes progrès atteints , il n’existe pas une méthode qui soit à elle seule invariante à toutes les variations que peut subir ce stimulus. Pour essayer de cerner la maximum de ces changements , une nouvelle tendance a vu le jour visant à faire participer plusieurs classifieurs , et à combiner leurs raisonnements et leurs résultats en vue d’augmenter le taux de reconnaissance. Dans ce projet, un comité de trois classifieurs a été mis au point dont les membres sont une approche globale qui est celle de l’Analyse en Composantes Principales (ACP), une approche géométrique du plus proche voisin , et enfin une approche également géométrique toujours celle du plus proche voisin, mais à laquelle on a introduit la notion du floue, ces trois classifieurs auront en entrée l’image du visage à reconnaître ; L’ensemble des images provient de trois bases distinctes (ORL, OWN, GRIA ), ces dernières ont été sujet à une série d’opérations de prétraitements (normalisation, binarisation, lissage), après quoi, la transformée de Hough appliquée sur elles, permettra d’en extraire le vecteur des caractéristiques représentant chaque visage; En sortie, chacun des classifieurs fournira une liste des identités susceptibles d’être celles du visage test, accompagnées de mesures de confiance. Une règle de combinaison sera appliquée sur ces dernières afin d’obtenir une décision unifiée avec un taux d’erreur réduit.Item Une Evaluation Qualitative et Quantitative des approches de Séparation des préoccupations basée sur les patrons de conception et leur utilisation pour l’Intelligence Artificielle et les systèmes Multi-Agents(2006) Abdel Hakim HannousseLes problèmes les plus fréquemment capturés dans la conception orientée objets sont : l’enchevêtrement et la dispersion du code source des programmes. Le premier peut apparaître quand plus d’une préoccupation sont utilisées dans une même application et ça influe négativement sur la réutilisabilité de ses codes source. Le deuxième peut apparaître dans le cas où le code d’une préoccupation d’une application a été totalement dispersé et on ne peut pas l’encapsuler dans une seule entité, de ce fait, son code devient non réutilisable. Ces deux problèmes : enchevêtrement et dispersion du code influent sur le processus de développement des logicielles de différentes manières : mauvaise traceabilité, manque de productivité, peu de réutilisation, et de qualité ainsi qu’une difficulté de l’évolution. Afin de résoudre ces problèmes, plusieurs techniques sont actuellement considérées, elles tentent d’augmenter le taux d’expression de l’approche orientée objets. Ces techniques sont connues sous l’appellation : Approches Avancées de Séparation des Préoccupations. Parmi ces approches on peut citer : la Programmation Orientée Aspects, les Filtres de Composition et la séparation multidimensionnelle des préoccupations. D’un autre coté, les patrons de conception représentent des descriptions abstraites de solutions de problèmes sous certaines contraintes. Les patrons de conception rassemblent les connaissances des experts dans la conception des logiciels suite à de multiples expériences aboutis. Les patrons de conception peuvent nous aider à développer des logiciels plus flexibles et plus faciles à maintenir. En plus, ils permettent à des débutants de maîtriser rapidement les bonnes pratiques de programmation et comprendre plus aisément les systèmes logiciels existants. Le but principal de ce travail consiste à démontrer l’efficacité de l’utilisation des patrons de conception comme benchmark pour l’évaluation des approches avancées de séparation des préoccupations. Notre idée consiste à implémenter les patrons de conceptions en utilisant à la fois l’approche orientée objets et les approches avancées de séparation de préoccupations et à comparer le code résultant on utilisant des métriques qualitatives et quantitatives. Notre étude prend comme domaine d’application les systèmes multi-agents et particulièrement ceux qualifiés de réactifs, qui englobent les systèmes orientés objets. Une brève discussion sur l’utilisation des patrons de conception dans le domaine de l’I.A est apportée afin de tirer profit de l’application de notre approche dans un cadre réel prometteur.Item SACA : un Système d’Apprentissage Collaboratif(2007) Yacine LafifiOn assiste à un intérêt de plus en plus important pour l’apprentissage collaboratif. En effet, plusieurs systèmes favorisant une telle stratégie d’apprentissage ont été mis en œuvre. Bien que ces systèmes offrent des moyens et des outils multiples pour faciliter la collaboration entre les apprenants, ils souffrent de quelques insuffisances. Ces dernières concernent principalement la non prise en compte des besoins réels des apprenants lors d’une collaboration entre eux. Notre premier objectif est de concevoir un système d’apprentissage collaboratif baptisé SACA (Système d’Apprentissage Collaboratif à base d’Agents) prenant en compte les besoins des apprenants voulant collaborer. Pour ce faire, des outils de recherche de collaborateurs ont été développés. Ils se basent sur l’utilisation de quelques critères relatifs aux niveaux cognitifs et sociaux des apprenants(leurs compétences), leurs comportements lors des processus de collaboration précédents, etc. Afin de maximiser les chances de trouver des collaborateurs respectant les besoins exprimés par un apprenant, plusieurs types de recherche ont été développés. A part la collaboration, une autre activité pédagogique importante est l’évaluation des connaissances des apprenants. Elle permet de mesurer le degré d’assimilation des connaissances par les apprenants, d’une part, et de favoriser l’apprentissage collaboratif lors de la résolution collaborative des exercices et des problèmes, d’autre part. Notre deuxième objectif est d’offrir aux évalués une panoplie de formes d’évaluation de leurs connaissances. L’accent est mis sur un nouveau mode d’évaluation qui combine les deux modes d’évaluation individuel et collaboratif. L’objectif primordial est de maximiser les interactions entre les apprenants et de développer leurs compétences sociales. L’évaluation dans SACA est basée sur l’utilisation d’un certain nombre de paramètres liés à la population. Ces paramètres concernent les modèles d’exercices, leurs nombres, leurs présentations, etc. Chacune des activités pédagogiques présentées précédemment est réalisée par un agent artificiel composant SACA. D’autres agents sont associés aux autres acteurs du système les assistant dans leurs tâches. Tous les agents collaborent afin d’atteindre les objectifs du système. SACA a été implémenté et testé avec un certain nombre d’étudiants universitaires. Les premiers résultats furent très satisfaisants.Item INTELLIGENCE ARTIFICIELLE(2007) Lilia LAZLI BOUKHALFAl'intelligence Artificielle (IA) continue de connaître des développements importants dans le domaine de la modélisation des processus cognitifs. Un des axes intéressant de ces développements est l’orientation vers les approches hybrides qui incorporent plusieurs paradigmes dans un même système. Les modèles de Markov cachés (HMM – Hidden Markov Models) sont de nos jours l’approche la plus utilisée en reconnaissance de la parole. Pourtant, ils souffrent de nombreuses hypothèses contraignantes parmi lesquelles le fait que les vecteurs acoustiques sont supposés non corrélés ou encore l’hypothèse sur la distribution des densités de probabilités de chaque état HMM (distributions discrètes ou multi gaussiennes). Ces hypothèses peuvent être contournées en utilisant un perceptron multi-couches (MLP – Multi Layer Perceptrons). Ce réseau de neurones estime les probabilités a posteriori utilisées par chaque état des HMM. Les modèles hybrides HMM/MLP ont déjà été utilisés avec succès pour l’Anglais britannique et américain aussi bien que pour le Français. Dans ce travail, nous rapportons les résultats obtenus des modèles hybrides HMM/MLP utilisés pour l’entraînement et la reconnaissance de la parole Arabe isolée sur une base personnelle qui permet de rejoindre les capacités discriminantes, la résistance au bruit des MLP et la souplesse des HMM afin d’obtenir de meilleures performances que les HMM classiques. De très bons résultats du système hybride ont été obtenus par rapport à un reconnaisseur classique utilisant les HMM discrets. De nombreuses expériences ont déjà montré qu’une forte amélioration du taux de reconnaissance des systèmes HMM (Modèles de Markov cachés) traditionnels est observée lorsque plus de données d’entraînement sont utilisées. En revanche, l’augmentation du nombre de données d’entraînement pour les modèles hybrides HMM/ANN (Modèles de Markov cachés/Réseaux de neurones artificiels) s’accompagne d’une forte augmentation du temps nécessaire à l’entraînement des modèles mais pas ou peu des performances du système. Pour pallier cette limitation, nous rapportons dans ce travail les résultats obtenus avec une nouvelle méthode d’entraînement basée sur la fusion de données. Cette méthode a été appliquée dans un système de reconnaissance de la parole arabe. Ce dernier est basé d’une part, sur une segmentation floue (application de l’algorithme c-moyennes floues) et d’une autre part, sur une segmentation à base des algorithmes génétiques. L’intégration de ces algorithmes dans le reconnaisseur hybride a offert une amélioration significative de la performance du système hybride proposé.Item Modélisation et gestion de la maintenance dans les systèmes de production(2007) Laallam Fatima ZohraL'activité de supervision et de contrôle des turbines à gaz dans les processus industriels est une tache très complexe et nécessite une grande expérience. Cette expérience est acquise au fil des années, ce qui fait du départ d’un expert en retraite une grande perte du savoir faire. De même, ces experts ne sont pas disponibles à tout moment et dans chaque site. Le problème consiste donc à capturer ce savoir faire et permettre ainsi un cumule d’expérience dans le but de la construction d’une mémoire d’entreprise. On propose une approche à base d’ontologie, pour capturer ce savoir faire, que nous avons appelée MACE (Méthode d’Analyse et de Conception des Connaissances). Le travail présenté donc concerne l’ingénierie ontologique, et plus particulièrement l’utilisation des ontologies dans les systèmes à base de connaissances. Après une étape de construction, qui a aboutit à un modèle formel en utilisant un modèle sémantique ; nous avons procédé à l’opérationnalisation de l’ontologie conçue. Grâce à l’éditeur d’ontologies Protégé2000, l’ontologie a été traduite dans un langage lisible par la machine pour obtenir l’ontologie «OntoTurb-Protégé2000 ». Pour permettre l’exploitation de cette ontologie, on a procédé à la modèlisation de l’inférence en se basant sur la spécification de l’objectif opérationnel par scénario d’usage. Enfin l’outil JessTab est utilisé pour l’intégration des contextes d’usage dans JESS. On a obtenu ainsi notre système d’aide au diagnostic « OntoTurb- Expert » dont le but n’est pas de résoudre automatiquement le problème de diagnostic, mais d’aider l’utilisateur en lui fournissant les informations appropriées et en lui laissant la responsabilité d’une évaluation contextuelle de ces informations.Item Une Approche Hybride pour la Séparation des Préoccupations avec Résolution de Conflits durant l’Ingénierie des Besoins(2007) Abdelkrim AMIRATLes techniques telles que les cas d'utilisation, les points de vue et les buts aident à séparer les préoccupations des utilisateurs, mais elles ne prennent pas en compte leur uniformité avec les conditions et les contraintes globales. La détection prématurée des aspects complète ces approches en fournissant des moyens systématiques pour manipuler de telles préoccupations. Les aspects ne peuvent pas être localisés, ils sont dispersés dans tous les artéfacts du cycle de vie du logiciel. Ceci réduit la modularité des artéfacts et peut, par conséquent, mener à de sérieux problèmes de maintenance et à un faible taux de réutilisabilité. Malheureusement, les approches conventionnelles de développement de logiciel orientées aspect sont principalement conçues pour identifier les aspects au niveau du code et peu de travaux traitent l'impact des préoccupations transversales dans les premières phases du cycle de développement de logiciel. Dans cette thèse, nous présentons une méthodologie pour séparer les « aspects » durant les premières phases du cycle de développement de logiciel de manière générale et en particulier pendant la phase de l'analyse des besoins. Notre contribution se décline en trois volets : Le premier volet concerne la proposition d’une étude comparative entre les approches classiques non-orientées aspect et les approches orientées aspect. Le deuxième volet concerne la définition d’une démarche de description des concepts de base de notre approche. L’approche proposée est une approche hybride qui traite en même temps les besoins fonctionnels en utilisant le modèle de cas d’utilisation et les besoins non-fonctionnels en utilisant le NFR avec une représentation XML inspirée du modèle PREview. Enfin, le dernier volet concerne la proposition d’un modèle de validation des résultats obtenus.Item Construction d’un Environnement Pédagogique Adaptatif basé sur les Modèles et Techniques du Web Sémantique(2008) Amel YESSADAujourd’hui, il existe une forte demande pour des systèmes qui permettent à des apprenants avertis et autonomes de se former tout au long de la vie. Notre travail de thèse concerne l’exploration des moyens techniques et pédagogiques permettant de monter efficacement des formations en ligne et personnalisées. Précisément, nous travaillons sur la construction d’un environnement pédagogique adaptable à différentes demandes de formation, c'est-à-dire, à différents objectifs et profils apprenants, et à différents domaines de formation et stratégies pédagogiques. Sur le plan de la pédagogie, notre objectif est d’offrir un environnement constructiviste centré sur l’apprenant, qui assiste les apprenants dans la réalisation de leurs objectifs d’apprentissage tout en leur permettant d’être libres de décider de leur rythme et de la manière d’appréhender leurs activités pédagogiques. Sur le plan technique, cet environnement se base sur (i) les modèles et les technologies du Web sémantique et particulièrement les ontologies pour la description formelle, partagée et explicite des connaissances relatives à l’apprentissage (connaissances sur le domaine, la pédagogie et l’apprenant). D’une part, les ontologies améliorent l’interopérabilité et l’adaptation des composants du système pédagogique. D’autre part, elles sont utilisées pour annoter les ressources pédagogiques du Web et faciliter leur réutilisation dans le contexte d’une formation donnée, (ii) la technologie des hypermédias adaptatifs pour la présentation des cours et la mise en œuvre d’une approche constructiviste de l’apprentissage.