Mémoires de Magistère
Permanent URI for this collection
Browse
Browsing Mémoires de Magistère by Issue Date
Now showing 1 - 20 of 60
Results Per Page
Sort Options
Item Vers Un Système De Gestion Des Connaissances Pour L’aide Au Diagnostic De Pannes Dans Un Système Industriel(2003) Anguel FouziaLa connaissance se trouve dans l’intelligence, le savoir-faire, la mémoire, l’expérience des personnes autant que dans les documents, base de données, etc. Il faut donc l’extraire pour espérer la conserver et pouvoir la transmettre en vue de sa réutilisation autrement dit il faut gérer ces connaissances. L’objectif de ce travail est de gérer les connaissances concernant le diagnostic de pannes dans une station de compression en développant un outil dont le but n’est pas de résoudre automatiquement le problème de diagnostic, mais d’aider l’utilisateur en lui fournissant les informations appropriées et en lui laissant la responsabilité d’une évaluation contextuelle de ces informations et ce en exploitant la mémoire construite à travers les différentes sources de connaissancesItem Construction d’ontologie à partir de textes techniques – application à l’expansion de requête utilisateur(2003) Ladjailia AmmarNotre mémoire traite de la problématique de la construction d’ontologies de domaine ou régionale, à partir de textes techniques. Nos proposons un modèle d’aide le cogniticien et les expert de domaine à la construction d’ontologie à partir de textes. Dans la première partie nous nous intéressons aux différents usages du terme «ontologie», leur classification, les méthodes de construction et leur spécification. Puis nous abordons la problématique de la construction d’ontologie à partir des textes techniques. A la repense de cette problématique, nous proposons, dans la première partie une méthode linguistique quantitative d’acquisition des termes à partir des textes, puis nous structurons les syntagmes sous forme d’un réseau, dans lequel chaque syntagme est relié à sa tête et à ses expansions. A partir de ce réseau, le module d'analyse distributionnelle construit pour chaque terme du réseau l'ensemble de ses contextes terminologique. Un autre module (CAH) rapproche ensuite les termes, pour construire les classes des termes, sur la base de mesures de proximité distributionnelle. L'ensemble de ces résultats est utilisé comme aide à la construction d'ontologie à partir de corpus spécialisés. Notre ontologie est destinée à l'expansion de la requête par suggestion à l'utilisateur de termes de plus ou moins liés à ceux de sa requête.Item une indexation a base d'ontologies pour le filtrage d'informations sur le web(2005) ZIANI RadouaneItem UN SYSTEME HYBRIDE AG/PMC POUR LA RECONNAISSANCE DE LA PAROLE ARABE(2005) Lotfi AMIARiii RESUME Une des innovations récentes en intelligence artificielle (IA) est l’intégration de ses multiples paradigmes dans des systèmes dits systèmes hybrides intelligents. Nombre de recherches dans ce contexte s’orientent vers l’intégration des réseaux de neurones et des algorithmes génétiques. Le problème de la reconnaissance automatique de la parole (RAP) est un domaine d’étude active depuis les années 50. Parmi les modèles les plus utilisés dans ce domaine, les réseaux de neurones (RNs), plus particulièrement, le perceptron multi-couches (PMC). Dernièrement, une extension de ces modèles a été mise au point donnant naissance aux modèles hybrides. Notre contribution rentre dans le cadre de la reconnaissance des chiffres Arabe isolés indépendamment du locuteur. Après extraction des paramètres acoustiques du signal vocal, en utilisant l’analyse RASTA- PLP (RelAtive SpecTrAl processing-Perceptual Linear Predictive), nous proposons après, un système hybride pour l’entraînement et la reconnaissance qui permet de rejoindre les capacités discriminantes , la résistance au bruit des Perceptrons Multi-Couches (PMCs) et la capacité des Algorithmes Génétiques (AGs) pour l’optimisation d’un ensemble de paramètres par une recherche globale, en vue de trouver un système de reconnaissance vocale optimal de meilleurs performances.Item DIMINUTION DE LA SURCHARGE COGNITIVE ET AMELIORATION DE L’INTERFACE APPRENANT DANS UN HYPERMEDIA EDUCATIF(2005) SOLTANI MohamedCes dernières années ont vu émerger ce que les médias de l'information n ' ont pas hésité à nommer "la révolution des nouvelles technologies". La démocratisation de l'ordinateur et l'avènement du Web au début des années 90, nous ont fait pleinement rentrer dans l'ère de l'informatique grand public. L'usage de ces technologies s'impose tant dans la vie domestique que professionnelle. Cette évolution touche également, le domaine éducatif pour preuve l'apparition des TICE (Technologies de l'Information, et de la Communication appliquées à l'Enseignement). En effet avec cette évolution, on assiste à l'apparition de nouveaux besoins dans la formation et l'enseignement : d'une part, ces besoins se manifestent dans trois directions : les personnes, les lieux et les moments ; c'est ce que [DEN, 95] simplifie en disant : "tous, tous le temps, partout"; d'autre part, les apprenants ont de plus en plus besoin d'un apprentissage centré sur eux- mêmes, ils demandent que leur vision soit prise en compte. L'une des réponses à l'émergence des nouveaux besoins dans le domaine éducatif ainsi que dans la formation est l'utilisation des hypermédias. Les hypermédias, dans lesquels les informations ne sont pas seulement de type texte, mais également de type image son, vidéo ou encore multimédia ont vocation à présenter l'information. Dans les applications basées sur le Web, l'information est présentée selon une approche hypermédia, mais de plus, i l est possible d'effectuer des traitements à travers l'interface Web. Dès lors, il n'est pas surprenant de constater que beaucoup de travaux de recherches sur les hypermédias ont été réalisés ou sont en cours de développement. Cette Recherche, présente l’architecture d’hypermédia éducatif dynamique générant des activités pédagogiques aux quels on tient ce compte des trois aspects très importants : - Diminution de la surcharge cognitive chez l’apprenant.. - Amélioration de l’interface apprenant (Surcharge cognitive). L’amélioration du format de présentation des informations dans les documents techniques est un moyen important de favoriser leur compréhension. Les avancées technologiques récentes incitent d’ailleurs à de nouveaux efforts d’analyse du potentiel des documents techniques électroniques en terme de compréhension. Dans cette recherche en propose des recommandations et des précautions qu’on doit les prendre en considération dans la conception des documents pédagogiques afin de favoriser leurs compréhensions. Nous avons présenté un modèle inspiré des recherches sur les interfaces adaptatives et de celles sur les systèmes d'aide à l'apprentissage dans les hypermédias, qui cherche à mettre en relation les différentes dimensions du modèle apprenant, du contexte et des stratégies possible d'organisation de l’aide. Le modèle cherche à intégrer non seulement les dimensions cognitives de la tâche d'apprentissage, mais également les dimensions motivationnelles et sociales de l'activité. Nous présentons un modèle d’interface conçu pour faciliter la navigation (pour le problème de désorientation) et la définition du soutien dans un hypermédia d'apprentissage, afin d’aider l’apprenant dans sa progression. Le modèle permet même l'adaptation de ce soutien en fonction des préférences de l'apprenant. Dans notre modèle on a proposés des recommandations qui vent améliorés même d’autres hypermédias, dont le but de diminuer la surcharge cognitive chez l’apprenant. L’amélioration de l’interface apprenant, pour que ce dernier puisse se consacrer exclusivement à l’acquisition de connaissances sans surcharge cognitive de nature procédurale de l’interface.Item Vers une automatisation de la construction des ontologies(2005) Allalga A. WahidMalgré le consensus établi sur l'importance des ontologies, vues comme une conceptualisation partagée d'un domaine, pour le développement et l'interopérabilité entre applications informatiques où il y a une nécessité de manipuler explicitement la connaissance, leur utilisation reste très restreinte, ceci est dû au fait que leur élaboration, qui se fait le plus souvent manuellement, s'avère être une tâche laborieuse, coûteuse et se relevant plus du savoir-faire que de l'ingénierie. Etant convaincu que ce travail de développement ne peut être réalisé d'une manière totalement automatique, nous proposons, dans ce mémoire, les prémisses d'une méthodologie et d’une architecture générale d'un système susceptible d’assister le concepteur tout au long de la construction des différents éléments composants l'ontologie. Notre approche se démarque par le fait que le développement se fait d'une façon incrémentale, ce qui constitue de notre point de vue une aide précieuse pour l'utilisateur dans sa tâche de maintenance de l'ontologie. Dans un autre cadre de travail, nous proposons quelques principes à suivre pour développer des ontologies bilingues, ce type d’ontologies devient une clé de voûte pour la réussite de systèmes de traduction automatique ou de recherche d’informations multilinguesItem MODELISATION DE L’ELEVE DANS UN ENVIRONNEMENT INTERACTIF D’APPRENTISSAGE HUMAIN(2005) Bourouaieh DouadiCe mémoire aborde la modélisation de l’élève dans un environnement interactif d’apprentissage humain. Après une revue de la discipline on se focalise sur le modèle élève, son rôle et ses mécanismes. L’approche retenue est celle de l’ouverture du modèle. On cherchera par un système floue, dans un cadre global de modélisation, à adapter cette ouverture à l’élève. Cette adaptation passe par la régulation du pouvoir de l’élève sur son modèleItem Définition d’une heuristique hybride pour résoudre un problème de planification de personnel dans un milieu hospitalier(2005) ZEDAIRIA AbdallahV RESUME Pour toutes leurs activités, les êtres humains ont besoin de planifier dans le temps leur acquisition de certaines ressources. La théorie de la planification traite des modèles mathématiques mais analyse également des situations réelles forts complexes. Quoique l'état de l'art est assez riche, les contributions existantes restent loin d'être complètes et optimales. Remarquons que la planification du personnel, et en particulier le personnel hospitalier, qui est soumise à une variété de contraintes -parfois contradictoires-, est un problème NP- difficile au sens fort. Par conséquent, des méthodes heuristiques doivent être utilisées pour le résoudre. Dans cette étude, nous nous sommes donnés comme objectif principal la résolution d’un problème concret de génération hebdomadaire d'emplois du temps de médecins dans un service de radiologie. Ce problème possède des contraintes de types très variés. Nous avons mis en œuvre un algorithme génétique pour l’optimisation de coût d’affectation des médecins aux postes. Le critère d'optimalité est la minimisation de la somme des mesures de violation des contraintes pour la rendre nulle. Étant donnée l'importance de ces problèmes, de nombreuses méthodes de résolution ont été développées en recherche opérationnelle (RO) et en intelligence artificielle (IA). Ces méthodes peuvent être classées sommairement en deux grandes catégories : les méthodes exactes (complètes) qui garantissent la complétude de la solution et les méthodes approchées (incomplètes) qui perdent en complétude pour gagner en efficacité. Le principe essentiel d'une méthode exacte consiste généralement à énumérer, souvent de manière implicite, l'ensemble des solutions de l'espace de recherche. Malgré les progrès réalisés, le temps de calcul nécessaire pour trouver une solution risque d'augmenter exponentiellement avec la taille du problème. Les méthodes exactes rencontrent généralement des difficultés face aux applications de tailles importantes.Item MODELISATION D’UN SYSTEME HYPERMEDIA ADAPTATIF DYNAMIQUE A BASE D’ONTOLOGIE (HADYAT)(2006) Lamia MahnaneDans l’enseignement traditionnel, les interactions entre apprenants et enseignants sont multi support (dessin au tableau, polycopiés, documents audio-visuels), multimodales (paroles, gestes, postures, regard) et adaptatives (l’enseignant modifie le déroulement de son cours pour répondre aux questions). Une des difficultés pour l’enseignant consiste à savoir adapter non seulement le contenu d’un cours à différents niveaux d’apprenants, mais aussi la communication de ce cours à des apprenants ayant des niveaux très différents. Vis à vis de cette multi modalité et du caractère adaptatif de ces interactions humaines, les outils actuels des environnements interactifs pour l'apprentissage humain (EIAH) semblent limités. Afin d’améliorer l’adaptabilité et motiver l’apprenant, nous proposons le système HADYAT (système Hypermédia Adaptatif DYnamique A base d’onTologie) qui est constitué des composants standards des hypermédias adaptatifs dynamiques et les hypermédias générant des activités pédagogiques : modèle du domaine, modèle de l’apprenant, modèle des activités pédagogiques et la base des documents multimédias. Par couplage avec les systèmes tuteurs intelligents émotionnel et les systèmes auto compositions d’un document hypermédia à base d’ontologie. Les hypermédias adaptatifs dynamiques sont fondés sur des informations provenant de sources hétérogènes. La réutilisation, la communication, le partage et la recherche d’information est des enjeux des hypermédias adaptatifs dynamiques. En effet, l’ontologie est une solution pour répondre à un besoin de modélisation et de représentation. Notre approche nécessite de représenter différents types de connaissance (modèle du domaine, modèle de l’apprenant, modèle d’adaptation, modèle d’évaluation et modèle de synchronisation). La séparation de ces différentes catégories de connaissance facilite leurs évolutions et leurs maintenances. Pour supplanter la richesse de communication humaine, ce système doit enrichir les interactions homme machine par une communication adaptative (conseil adaptatif, explication adaptative, simulation, question adaptative et geste émotionnel)Item Expansion de requête à l'aide d'une ontologie Arabe dans le domaine juridique(2006) Soraya ZaidiNotre mémoire traite la problématique de la recherche d'information sur le Web, celle en Arabe en particulier plus spécialement dans le domaine juridique. Les moteurs de recherche actuels se basent, dans leur recherche, sur des mots clés, ces mots sont traités syntaxiquement, la sémantique est omise d'où un grand nombre de documents retournés non pertinents ce qu'on appelle bruit. Différentes techniques ont été proposées pour réduire le taux de ce bruit et améliorer la précision de la recherche. Nous avons présenté un grand nombre de ces techniques et nous avons opté pour celle que nous avons jugée intéressante pour notre cas, en l'occurrence l'expansion de la requête à l'aide d'une ontologie. La raison de notre choix est que d'un coté les ontologies représentent un avenir prometteur pour le Web sémantique, qui est à son tour, l'héritier supposé du Web actuel, d'un autre coté les ontologies n'ont pas encore été expérimentées dans la recherche d'information en langue Arabe, dans le domaine juridique (du moins jusqu'à la rédaction de ce travail). Nous traitons donc, dans ce travail le problème de la construction d'une ontologie en langue Arabe dans le domaine juridique, dans le but d'étendre une requête Arabe et la soumettre à un processus de recherche pour réduire le bruit et améliorer la précision. Mondialisation oblige, nous tentons de permettre à un utilisateur potentiel d'effectuer une recherche avec une requête Arabe pour l'obtention de documents Anglais ou Français, ceci en soumettant sa requête à un système de traduction automatique libre d'utilisation sur le Web, tel que Tarjim, ainsi que l'expansion de la requête traduite à l'aide de la base lexicale qui représente une ontologie générique. Nous décrivons les différentes étapes de la construction manuelle de notre ontologie relative au domaine juridique, à l’aide de l’éditeur d’ontologies Protégé-2000 et ce à partir d'articles publiés sur le Web concernant spécialement le domaine cité. Nous avons essayé d'établir la hiérarchie avec la méthode descendante, nous essayons de donner à chaque concept sa définition et nous comptons lui attacher ses variantes les plus représentatives du domaine juridique. Nous traitons à la fin quelques exemples illustratifs concernant l'expansion de la requête, pour essayer de donner une évaluation préliminaire de l'approche adoptée.Item RECONNAISSANCE DE L’ECRITURE ARABE MANUSCRITE A BASE DES MACHINES A VECTEURS DE SUPPORTS(2006) Mehennaoui ZahraLa reconnaissance de l’écriture, et particulièrement l’écriture manuscrite reste un défi d’actualité. Différentes techniques de reconnaissance de formes ont été utilisées pour la résolution de ce problème, certaines ont donné des résultats remarquables. Malheureusement, les techniques classiques se basent sur le principe de minimisation du risque empirique et souffrent des problèmes de sur-apprentissage et du grand nombre de paramètres à fixer par l’utilisateur. Pour tenter de résoudre ces problèmes, une nouvelle direction dans le domaine de l’apprentissage statistique a émergé de la théorie de Vapnik et les machines à vecteurs de support et leurs applications dans le domaine de la reconnaissance des formes. Le travail présenté dans ce mémoire s’intègre dans le cadre général de la reconnaissance automatique de l’écriture arabe manuscrite, et répond à la nécessité d’expérimenter une nouvelle méthode d’apprentissage : les machines à vecteurs de support (SVM : Support Vectors Machines), appliqué à la reconnaissance des caractères arabes manuscrits. Avant de décider la classe d’appartenance du caractère en entrée, il est nécessaire d’effectuer un certain nombre de traitements : binarisation, lissage, normalisation et extraction de contour. Afin de caractériser nos images de caractères arabes, nous avons opté pour une combinaison entre des caractéristiques statistiques provenant de la distribution des pixels, et des caractéristiques structurelles basées sur les motifs géométriques de l’alphabet arabeItem Un modèle basé Template Matching/ Réseau de Neurones pour la Reconnaissance des visages(2006) Yessaadi SabrinaLa reconnaissance automatique des visages est l’un des plus importants domaines de biométrie, elle se base sur la reconnaissance des individus en utilisant le visage comme principale caractéristique. Ce domaine est très actif, ceci est sans doute dû à la multiplicité et la variété des champs d’application, dont on peut citer : les compagnies gouvernementale, les sociétés sécuritaires, l’inerraction homme-machine et la vision par ordinateur. Les recherches dans cet axe sont nombreuses et plusieurs approches ont été proposées, tel que : l’Analyse en Composantes Principales (ACP), l’Analyse en Composantes Indépendantes (ACI), les Réseaux de Neurones Artificiels (RNA) et les techniques de mise en correspondance par motif “ Template Matching ”,..., etc. Dans cette thèse, on proposera un modèle pour la reconnaissance automatique des visages, en combinant entre deux approches de l’Intelligence Artificielle. Les images utilisées sons représentées en forme d’intensité de pixel, avec une vue frontale des visages. Chaque visage sera décrit par un vecteur de caractéristiques représentant les trois principales composantes du visage qui sont : les yeux, le nez et la bouche. On utilisera pour la description de ces caractéristiques la théorie des moments invariants, et plus particulièrement, les invariants de Hu. Ces moments vont construire l’ensemble des vecteurs de caractéristiques utilisés comme entrées pour l’apprentissage et le test du réseau de neurones, en fin le réseau établira son identification et sa décision finales. La base des images sera indexée en utilisant la méthode d’indexation des images basée sur leur contenu locale.Item UNE COMBINAISON DE CLASSIFIEURS POUR LA RECONNAISSANCE DES VISAGES HUMAINS(2006) Amirouche RadiaLa reconnaissance automatique des visages humains demeure toujours un réel challenge dans le domaine de la recherche, ceci est dû essentiellement à la nature même de cette biométrie qu’est le visage très riche en informations sociales, et fortement dynamique à la fois , à cause des variations de l’environnement, le vieillissement, la pilosité….chose qui rend la tâche de reconnaissance plus complexe ; De ce fait, une multitude de méthodes déployées pour résoudre ce problème; mais malgré la pléthore de techniques élaborées et les énormes progrès atteints , il n’existe pas une méthode qui soit à elle seule invariante à toutes les variations que peut subir ce stimulus. Pour essayer de cerner la maximum de ces changements , une nouvelle tendance a vu le jour visant à faire participer plusieurs classifieurs , et à combiner leurs raisonnements et leurs résultats en vue d’augmenter le taux de reconnaissance. Dans ce projet, un comité de trois classifieurs a été mis au point dont les membres sont une approche globale qui est celle de l’Analyse en Composantes Principales (ACP), une approche géométrique du plus proche voisin , et enfin une approche également géométrique toujours celle du plus proche voisin, mais à laquelle on a introduit la notion du floue, ces trois classifieurs auront en entrée l’image du visage à reconnaître ; L’ensemble des images provient de trois bases distinctes (ORL, OWN, GRIA ), ces dernières ont été sujet à une série d’opérations de prétraitements (normalisation, binarisation, lissage), après quoi, la transformée de Hough appliquée sur elles, permettra d’en extraire le vecteur des caractéristiques représentant chaque visage; En sortie, chacun des classifieurs fournira une liste des identités susceptibles d’être celles du visage test, accompagnées de mesures de confiance. Une règle de combinaison sera appliquée sur ces dernières afin d’obtenir une décision unifiée avec un taux d’erreur réduit.Item Une Evaluation Qualitative et Quantitative des approches de Séparation des préoccupations basée sur les patrons de conception et leur utilisation pour l’Intelligence Artificielle et les systèmes Multi-Agents(2006) Abdel Hakim HannousseLes problèmes les plus fréquemment capturés dans la conception orientée objets sont : l’enchevêtrement et la dispersion du code source des programmes. Le premier peut apparaître quand plus d’une préoccupation sont utilisées dans une même application et ça influe négativement sur la réutilisabilité de ses codes source. Le deuxième peut apparaître dans le cas où le code d’une préoccupation d’une application a été totalement dispersé et on ne peut pas l’encapsuler dans une seule entité, de ce fait, son code devient non réutilisable. Ces deux problèmes : enchevêtrement et dispersion du code influent sur le processus de développement des logicielles de différentes manières : mauvaise traceabilité, manque de productivité, peu de réutilisation, et de qualité ainsi qu’une difficulté de l’évolution. Afin de résoudre ces problèmes, plusieurs techniques sont actuellement considérées, elles tentent d’augmenter le taux d’expression de l’approche orientée objets. Ces techniques sont connues sous l’appellation : Approches Avancées de Séparation des Préoccupations. Parmi ces approches on peut citer : la Programmation Orientée Aspects, les Filtres de Composition et la séparation multidimensionnelle des préoccupations. D’un autre coté, les patrons de conception représentent des descriptions abstraites de solutions de problèmes sous certaines contraintes. Les patrons de conception rassemblent les connaissances des experts dans la conception des logiciels suite à de multiples expériences aboutis. Les patrons de conception peuvent nous aider à développer des logiciels plus flexibles et plus faciles à maintenir. En plus, ils permettent à des débutants de maîtriser rapidement les bonnes pratiques de programmation et comprendre plus aisément les systèmes logiciels existants. Le but principal de ce travail consiste à démontrer l’efficacité de l’utilisation des patrons de conception comme benchmark pour l’évaluation des approches avancées de séparation des préoccupations. Notre idée consiste à implémenter les patrons de conceptions en utilisant à la fois l’approche orientée objets et les approches avancées de séparation de préoccupations et à comparer le code résultant on utilisant des métriques qualitatives et quantitatives. Notre étude prend comme domaine d’application les systèmes multi-agents et particulièrement ceux qualifiés de réactifs, qui englobent les systèmes orientés objets. Une brève discussion sur l’utilisation des patrons de conception dans le domaine de l’I.A est apportée afin de tirer profit de l’application de notre approche dans un cadre réel prometteur.Item atouage robuste des images basé sur la transformée en ondelettes discrète(2008) Bakhouche AmaraDans ce mémoire, une nouvelle méthode de tatouage robuste est proposée. Elle est basée sur une approche de tatouage additive et non aveugle. Elle opère dans le domaine transformé à partir de la DWT (transformée en ondelettes discrète). Il s’agit de tatouer des images fixes en niveau de gris ou en couleur de tailles 512x512. Dans cet axe de recherche, en l’occurrence le tatouage des images et des données numériques, les objectifs recherchés sont multiples. Néanmoins, le plus sollicité est la protection du droit d’auteur suite à une distribution toujours moins contrôlable sur des réseaux de communication tels que l’Internet. Les schémas de tatouage proposés, dans ce mémoire, effectuent des modifications sur les coefficients d’ondelettes par l’insertion d’un signal de tatouage de façon multiple et parallèle selon la technique d’étalement de spectre. Les résultats expérimentaux montrent que les schémas proposés sont robustes face à plusieurs attaques, soit volontaires (la falsification à titre d'exemple) ou non volontaires (compression, Bruit Gaussien, filtrage, modifications de luminance et de contraste, transformations géométriques tel que la rotation, le cropping et le changement d'échelle...etc). Cependant, ces approches restent altérables dans le cas d’attaques successives comme la compression et modifications de luminance.Item CONCEPTION D’UN SYSTEME ACOUSTICO-ANATOMIQUE POUR L’IDENTIFICATION DU LOCUTEUR : ARCHITECTURE ET PARAMETRISATION(2008) Feriel DEBBECHE GUERIDDe nos jours, l’identification des utilisateurs est devenue une véritable nécessité. Dans cette optique, l’identification des personnes sur la base de leur voix est une technique biométrique prometteuse et compétitive en même temps pour plusieurs raisons. Elle est, en particulier, le seul moyen biométrique pour de nombreux types d’application. La voix présente cependant un vrai challenge pour les chercheurs, dû à sa variabilité intrinsèque et extrinsèque. Ce travail s’inscrit dans le cadre général de la Reconnaissance Automatique du Locuteur, domaine très fertile. Plus particulièrement, l’Identification Automatique du Locuteur en mode indépendant du texte et dans le cas où nous disposons de très peu de données d’apprentissage. L’approche de modélisation que nous utilisons est une approche intéressante qui consiste à représenter le Locuteur non plus de façon absolue mais relativement à un ensemble de Locuteurs bien appris. Chaque Locuteur est représenté par sa localisation dans un espace optimal de voix propres (Eigen Voices). Dans ce projet, nous présentons un système d’Identification Automatique du Locuteur (IAL) où l’espace de représentation est construit par l’Analyse en Composantes Principales (ACP). La localisation des nouveaux Locuteurs dans cet espace est faite par projection orthogonale. Notre système, dédié aux applications de très haute sécurité, repose essentiellement sur une idée originale qui consiste à exploiter, à côté des paramètres acoustiques pour la paramétrisation du Locuteur, des paramètres anatomiques. Ainsi, nous proposons une architecture acoustico-anatomique pour l’identification du Locuteur. Cette architecture se base principalement sur un algorithme de fusion de données hétérogènes. Etant donné que les données que nous fusionnons sont entachées d’imprécision et d’incertitude, nous utilisons les principes de la théorie des possibilités pour les fusionner. Cette fusion qui nous ramène à une nouvelle paramétrisation du Locuteur, i. e. un vecteur acoustico anatomique représentatif de ce dernier, a pour but de renforcer le taux d’identification et d’apporter une dimension biométrique au système.Item Analyse du signal ECG par les ondelettes(2008) ABID TarekL’électrocardiogramme (ECG) est un outil de mesure de l’activité électrique du cœur. Il offre l’opportunité au médecin de décider de l’état structurel et fonctionnel du cœur d’un patient. Dans ce travail, nous nous intéressons plus particulièrement à l’analyse et à la détection automatique des événements (appelés ondes) constituants ce signal ECG. Il est enregistré par groupe de trois voies. En ECG traditionnel la détection se fait voie par voie. En ECG automatisé il s'agit tout d’abord d'opter pour une représentation unique de l'ensemble de toutes les voies. Plusieurs représentations ont été abordées. Notre approche se base sur l’utilisation de la transformée en ondelette eu égard le signal utilisé et la localisation du début de l’onde QRS. Nous avons choisi l’ondelette de Daubechies, car sa forme est proche de celui du complexe QRS. Pour chaque ondelette de Daubechies (db2, db3,..., db10) et pour chaque niveau de décomposition nous avons calculé l’erreur entre le pointeur référé (donnée du médecin) et le pointeur calculéItem L’identification de l’émotion des apprenants dans les plates-formes de E-learning(2008) Iness NEDJI MILATl'internet à révolutionné le domaine de l’enseignement avec l’avènement d’un nouveau mode d’apprentissage basé sur les TIC : l’e-learning ou la formation à distance. Cependant, plusieurs études, portant sur les coûts et retours sur investissement du e-learning, ont montré que ce mode de télé-enseignement a généré des problèmes de difficulté d'apprentissage dû en partie et à des degrés divers à la négligence de la prise en compte des états émotionnels des apprenants. En effet, la pertinence de l’apprentissage implique le suivi des apprenants et particulièrement la gestion des aspects intellectuels et socio-émotionnels [P97], [SC], [BB02], [F04], [G04], [NH04]. Dans le contexte éducatif classique, l'observation et l'identification de l'état émotionnel de l'apprenant permettent à l'enseignant d'entreprendre des actions qui vont influencer la qualité de l'apprentissage et son exécution, chose qui n'est pas totalement prise en charge dans le contexte de l'enseignement à distance. Pour favoriser l’apprentissage, les dispositifs de e-learning doivent tenir compte des états émotionnels de l’apprenant. Cette prise en compte pose un problème de mise en œuvre, car les processus mentaux et les expressions émotionnelles de l’apprenant ne sont pas directement observables par la machine et les méthodes d’identification émotionnelle les plus objectives et les moins intrusives, recourent à des capteurs externes (webcams, microphones...etc.) en vue d’examiner le maintien de la posture, le regard et les expressions faciales de l’apprenant dans l’expression non verbale [P97, F04,9,NH04] et l’analyse des prosodies, le ton de la voix et les fréquences dans l’expression verbale [P97,15,17,18,21]. C’est dans le contexte verbal, que nous situons notre travail pour tenter d’apporter des réponses à l’identification émotionnelle des apprenants dans une session d’apprentissage. Pour cela, nous menons une réflexion sur les techniques, les moyens, les méthodes et les outils capable d’assurer cette identification à travers une analyse à deux niveaux linguistiques, prosodiques et textuels, de la parole d’un locuteur apprenant dans le cadre d’un dialogue homme-machine dans une plateforme de e- learning. Mots clés : reconnaissance émotionnelle, indices prosodiques, indices textuels, parole, SVM, e-learning, apprenant, agent. LItem Identification des Types de Jours Météorologiques et des Dépendances Météo-Paramètres de Pollution par RNA: Application à la Région d’Annaba.(2008) Soufiane KHEDAIRIADans le but de l’identification des types de jours météorologiques pour la région d’Annaba, Nous avons proposé une approche basée sur la classification non supervisée -clustering-. Cette approche permet d’identifier les groupes d'objets similaires (types de jours -clusters-) à partir des données météorologiques captées par la station de l’aéroport d’Annaba pendant la période 1995 à 1999. L’approche proposée est basée sur deux niveaux de classifications : la carte auto-organisatrice de Kohonen (SOM) pour le premier niveau et la classification par partition pour le deuxième niveau. Pour découvrir la méthode la plus appropriée à utiliser pour regrouper les unités de la SOM, nous avons procédé à une comparaison basée les performances des algorithmes de classification automatique les plus utilisés tel que : l’algorithme PAM (Partitioning Around Medoids), K-moyennes, et la classification hiérarchique (méthode de Ward). Une analyse quantitative basée sur deux catégories de critères (internes et externes) et qualitative sont utilisées pour valider et interpréter les résultats obtenues de la classification. Cette approche a permet d’extraire six classes qui sont liés directement aux conditions météorologiques typiques de la région. L’approche de classification à deux niveaux a été également évaluée en utilisant une base de données collectée par la station SAMASAFIA, dont les clusters météorologiques obtenus ont été utilisés pour étudier l’influence des paramètres météorologiques (par cluster) sur la pollution atmosphérique dans cette région. Une analyse linéaire basée sur l’ACP (analyse en composantes principales), et non linéaire basée sur un model neuronal (perceptron multicouches) ont été effectuées. Les résultats obtenus sont très satisfaisants ou plusieurs relations et conclusions ont été tirées.Item COLLAGRID: Environnement Collaboratif à base de GRID(2008) Hafed ZARZOURAvec l’expansion de l’Internet de nouvelles formes de collaboration tendent à se développer entre communautés du savoir. De fait, l’architecture de service GRID OGSA (Open Grid Service Architecture) est née sur la base d'un passage d'une vision orientée système vers une vision orientée service fondée sur des standards ouverts et plus précisément des services à état. Ce mémoire a pour but de présenter une architecture générique d’un environnement collaboratif flexible sur le Web offrant aux membres d’une communauté virtuelle des solutions de travail intégré pour atteindre des objectifs communs en deux modes de collaboration à savoir le mode synchrone et asynchrone, en s’appuyant sur les nouvelles orientations de l’architecture de service GRID OGSA couplée à une solution de Bureau partagé. Le concept de bureau partagé est introduit comme une nouvelle dimension d’interaction entre les participants de différentes communautés virtuelles des sessions collaboratives et les instances des services GRID. GRID vise à réaliser le partage flexible, sûr, et coordonné des ressources distribuées géographiquement en les rendant homogènes, ainsi que la résolution coopérative des problèmes au sein d’une organisation virtuelle. Notre approche a été validée selon un scénario de construction interactive d’une ontologie partagée sur les turbines à gaz pour l’exploitation en milieu industriel.
- «
- 1 (current)
- 2
- 3
- »