Mémoires de Magistère

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 20 of 60
  • Item
    Une Approche semi-automatique pour l'indexation de documents anciens
    (2009) BENMOHAMED Abderrahim
    Actuellement, toutes les bibliothèques proposent une interface via le web permettant l'accès aux ressources numériques dont elles disposent. Ces dernières sont supposées numérisées, classées et catégorisées, indexées, et sauvegardées dans des formats bien définis. L'objectif global de notre travail de recherche est le développement d'une plate-forme permettant la sauvegarde, l'indexation et la recherche des documents anciens. Nous focalisons dans ce travail la présentation d'une nouvelle approche d'indexation et de recherche de documents anciens. La description retenue est une modélisation du document via une représentation du contenu en utilisant les descripteurs de contour. Mots-clés : Anciens Manuscrits Arabes, Indexation de Documents, Recherche par le Contenu, chaîne de code, Traitement d’Images.
  • Item
    Analyse du signal ECG par les ondelettes
    (2008) ABID Tarek
    3 Résumé L’électrocardiogramme (ECG) est un outil de mesure de l’activité électrique du cœur. Il offre l’opportunité au médecin de décider de l’état structurel et fonctionnel du cœur d’un patient. Dans ce travail, nous nous intéressons plus particulièrement à l’analyse et à la détection automatique des événements (appelés ondes) constituants ce signal ECG. Il est enregistré par groupe de trois voies. En ECG traditionnel la détection se fait voie par voie. En ECG automatisé il s'agit tout d’abord d'opter pour une représentation unique de l'ensemble de toutes les voies. Plusieurs représentations ont été abordées. Notre approche se base sur l’utilisation de la transformée en ondelette eu égard le signal utilisé et la localisation du début de l’onde QRS. Nous avons choisi l’ondelette de Daubechies, car sa forme est proche de celui du complexe QRS. Pour chaque ondelette de Daubechies (db2, db3,..., db10) et pour chaque niveau de décomposition nous avons calculé l’erreur entre le pointeur référé (donnée du médecin) et le pointeur calculé. Nous avons montré que l’ondelette de Daubechies d’ordre 9 (db9) est la plus performante car elle permet de localiser 62.58% et 52,26 % de cas avec une erreur dans l’intervalle [-5,+5] et [-4,+4] respectivement. Le meilleur niveau de décomposition était le niveau 4
  • Item
    Systèmes de Prédiction Basée Web : Applications aux Séries Temporelles
    (2010) Karima BENLEMBAREK
    Nous assistons au développement de la technologie Web et de l’évolution de l’Internet et leurs avantages offerts aux différents domaines et applications. Parmi les domaines qui ne sont pas encore au diapason de cette évolution, se trouve le domaine énergétique. Les compagnies énergétiques ont besoin d’une prédiction à court terme de la demande de la charge électrique et afin de réaliser une gestion avec succès, plusieurs méthodes et applications sont utilisées. Cependant, la plupart des travaux réalisés pour la prédiction à court terme de la charge électrique, en utilisant les réseaux de neurones, sont réalisés en monoposte. Donc, nous nous intéressons légitimement à ce problème et afin de publier les applications de prédiction crées et les partager en multipostes, notre mémoire se focalise sur la technologie Web et a pour objectif de réaliser un système de prédiction basé Web appliqué aux données traitées comme séries temporelles en utilisant l’un des paradigmes le plus populaire de l’intelligence artificielle (IA) : les réseaux de neurones artificiels (RNA). Nous avons réalisé un système de prédiction de 24 pas (heures) en avant en utilisant le type des RNA le plus utilisé pour la prédiction : le Perceptron Multi Couches (PMC). Ce modèle permet de prédire la charge électrique algérienne traitée comme série temporelle. Cette application est réalisée en langage de programmation C# sous l’environnement de développement Visual Studio 2008. Toujours dans le domaine de prédiction à court terme et sous le même langage de programmation, un autre système de prédiction basé Web a été réalisé dans le but de confirmer l’applicabilité de l’approche de modélisation, à savoir un système de l’échangeur de chaleur.
  • Item
    Reconnaissance de l’Ecriture Arabe par Systèmes Flous
    (2010) NEMOUCHI Soulef
    L‟objectif de notre travail de recherche est d‟adresser la problématique de la reconnaissance automatique de l‟écriture arabe manuscrite par les méthodes statistiques. Nous avons trouvé que le problème majeur de la lecture automatique de caractères manuscrits cursifs étant la segmentation d'un tracé en éléments constituants, dans ce cadre, nous nous sommes intéressés à l‟approche globale en évitant le problème de segmentation. Les méthodes classiques choisies, dites statistiques, sont efficaces mais ne peuvent s‟appliquer qu‟à des écritures à vocabulaire restreint dans le cadre d‟un système avec une phase d‟apprentissage. Nous constatons que la performance d‟un système de reconnaissance optique de l‟écriture arabe manuscrite dépend de toutes les phases du processus de reconnaissance depuis l‟acquisition jusqu‟à la classification. Nous avons mis l‟accent sur deux phases les plus étudiées dans les travaux existants : l‟extraction des primitives et la classification. Nous avons orienté notre recherche vers les approches basées sur les concepts de la logique floue : application de l‟algorithme FCM pour la classification automatique des mots arabe manuscrit, en essayant ainsi de trouver des solutions aux inconvénients de l‟algorithme classique K-Means, et d‟obtenir des résultats plus performants. Nous avons implémenté aussi l‟algorithme KPPV, ce dernier ne nécessite aucune hypothèse sur la forme des classes d‟apprentissage par contre, il nécessite un grand nombre d‟observations pour être précis. De plus il a été beaucoup utilisé en reconnaissance de l‟écriture manuscrite. Et le dernier classifieur choisi, c‟est le réseau PNN ; ce type de réseaux est généralement utilisé pour des problèmes de classification. Leurs résultats sont ensuite combinés en utilisant deux méthodes de combinaison sans apprentissage : la méthode de vote simple et celle de la somme pondérée.
  • Item
    Recerche d'infomation dans le WEB ubiquitaire
    (2010) Hakim Ghers
    Résumé L'informatique ubiquitaire devient aujourd’hui une réalité, grâce à la mise en réseau d’un nombre croissant de dispositifs informatiques par le biais de technologies réseaux et de l’Internet. Le Web ubiquitaire est vu alors, comme une synthèse de l’Internet et de l’informatique ubiquitaire qui étend le Web existant, la coordination de dispositifs mobiles, la sensibilité au contexte, l’adaptation à l’hétérogénéité des réseaux et des sources d’information et également, la mise en disponibilité des nouvelles technologies de l’information et de la communication au service des utilisateurs, à n’importe quel moment, à partir de n’importe quel endroit et avec n‘importe quel dispositif mobile. Cependant, rechercher de l’information pertinente, dans un volume important du Web ubiquitaire est une tache à la fois cruciale et très complexe. Ce mémoire s’intéresse principalement à deux aspects : d’une part, celui de la sensibilité au contexte, quoi doit fournir un système de recherche d’information dans le Web ubiquitaire. En fait, cet aspect inclut, l’adaptation de l’information retournée à l’utilisateur en fonction de la mobilité et de changement très important du contexte de la recherche dans l’environnement ubiquitaire d’exécution. Et d’autre part, celui de l’augmentation de la charge du réseau. Cet aspect englobe, la croissance massive des informations véhiculées à travers les réseaux, à cela, vient s'ajouter un surcroît par les informations contextuelles qu’un système de recherche d’information dans le Web ubiquitaire doit les traiter. Pour cela, nous avons pris en compte le contexte de la recherche comme étant une multitude de niveau de caractéristiques qui influence directement la qualité et la vitesse d’extraction de l’information pertinente. De plus, nous avons proposé une architecture basée rôle et agent mobile. Nous avons présenté, également, un modèle d’agent mobile à base de rôle adaptable, sensible au contexte dynamiquement, pour s’adapter aux variations de son environnement de recherche ubiquitaire. Le comportement de l’agent mobile de recherche proposé est construit principalement à partir d’un assemblage de rôles de recherche de granularité faible, il s’agit, de micro- composants remplaçables dont leur configuration se réalise en fonction de la variabilité du contexte de la recherche. Ainsi, l’agent peut se déplacer à travers les réseaux avec un ensemble restreint de rôles de recherche étant donné qu’à tout serveur d’information, il existe une base spécifique de rôles de recherche. De cette façon, l’agent visitant un serveur sélectionne sur la base de ses paramètres de recherche les rôles adéquats, à fin d’enrichir son comportement et de même, il peut contribuer à l’évolution de cette base de rôle par déposition de nouveaux rôles, ou bien par adaptation des rôles existants. Ceci réduit la charge au niveau de l’agent mobile et donc le trafic de son déplacement, et par conséquent, réduction de la charge totale des réseaux
  • Item
    Comparaison de plusieurs méthodes pour la prédiction de la Charge Electrique Nationale
    (2009) Yassine HAMMOUCHE
    ii Résumé Les compagnies de gestion électrique ont besoin d'une prédiction à court terme de la demande de la charge électrique afin de programmer les installations de sa production. Les erreurs de prédiction peuvent mener à des risques et insuffisances dans la génération et distribution de la quantité de la charge électrique vers les utilisateurs. Les recherches dans cet axe sont nombreuses. Plusieurs pays ont abouti à modéliser la série représentant la variation de leur charge électrique. Ces recherches se basent sur plusieurs approches telles que les modèles Box-Jenkins, les Réseaux de Neurones Artificiels, le filtre de Kalman, etc. Mais la méthode Box-Jenkins et les Réseaux de Neurones Artificiels restent les plus répandues. Ce travail s'inscrit dans le cadre de la prédiction des séries temporelles, Plus particulièrement, la prédiction de la charge électrique. Des techniques sont appliquées pour prédire la charge électrique Algérienne. Quatre modèles sont proposés dans le cadre de ce travail. Les deux premiers se focalisent sur la prédiction d'un seul pas en avant. Un modèle se base sur la méthode Box- Jenkins qui représente dans la littérature la base de comparaison de toutes autres techniques. Les résultats obtenus par cette méthode sont comparés avec ceux obtenus par un modèle Réseau de Neurones Artificiels de type Perceptron Multi Couches. Généralement, un seul pas est insuffisant pour bien fonder la gestion de la ressource. Sur cette base, il est plus intéressant de chercher une prédiction à plusieurs pas en avant. Dans ce contexte, deux modèles sont proposés. Le premier modèle fournit un vecteur de 24 valeurs comme sortie du Réseau de Neurones Artificiels représentant les 24 pas de prédiction. Les résultats sont comparés avec les résultats du deuxième modèle qui consiste à classer les données en 24 classes selon l'heure. Par la suite, on prédit chaque heure séparément pour obtenir 24 prédictions reflétant les 24 pas.
  • Item
    Concurrence entre recherche approximative et classification pour la recherche d'images de documents Arabes dégradés
    (2010) Abderrahmane KEFALI
    D‟importants fonds documentaires existent actuellement dans les bibliothèques, musées et autres institutions à caractères pédagogiques ou sociopolitiques. Les documents historiques des civilisations anciennes et les archives nationales sont l‟exemple typique de telles richesses qui représentent le patrimoine, l‟histoire et la dignité des nations. La conservation de ces documents et leur accès à un grand nombre est constituée aujourd‟hui un besoin incontournable. Une méthode de conservation consiste à les numériser et les stocker sous format image, mais seule, la simple numérisation n‟est pas suffisante pour les rendre accessibles à grand public. En effet, l‟accès à ces collections nécessite des stratégies d‟indexation et de recherche efficaces. Dans la plupart du temps, les index sont crées manuellement. Si cette approche est possible pour un petit nombre de documents, son coût et effort deviennent très élevés pour des larges collections. L‟OCR peut être une alternative pour les documents imprimés ou les documents manuscrits avec un lexique limité. Dés que les documents soient dégradés et avec un lexique plus large, l‟OCR devient inefficace, surtout dans le cas des documents arabes qui présentent d‟autres difficultés relatives essentiellement aux traitements de l‟écriture arabe. Le travail présenté dans ce mémoire s‟intègre dans la démarche de sauvegarde et de valorisation de documents patrimoniaux dont la communauté internationale a pris conscience de l‟intérêt. Bien que nous nous intéressons aux images d‟anciens documents arabes textuels, nous proposons un système permettant la recherche de ces documents par des requêtes textuelles, sans recourir à une reconnaissance du contenu afin d‟éviter le coût élevé et l‟effort ardu de l‟OCR. Afin d‟atteindre les objectifs visés, le système proposé regroupe plusieurs traitements issus principalement du domaine de l‟analyse de documents : binarisation, segmentation, extraction de caractéristiques, codage,...etc. et du domaine de la recherche d‟information, notamment les techniques d‟arbres de suffixes et la recherche approximative
  • Item
    L’identification de l’émotion des apprenants dans les plates-formes de E-learning
    (2008) Iness NEDJI MILAT
    l'internet à révolutionné le domaine de l’enseignement avec l’avènement d’un nouveau mode d’apprentissage basé sur les TIC : l’e-learning ou la formation à distance. Cependant, plusieurs études, portant sur les coûts et retours sur investissement du e-learning, ont montré que ce mode de télé-enseignement a généré des problèmes de difficulté d'apprentissage dû en partie et à des degrés divers à la négligence de la prise en compte des états émotionnels des apprenants. En effet, la pertinence de l’apprentissage implique le suivi des apprenants et particulièrement la gestion des aspects intellectuels et socio-émotionnels [P97], [SC], [BB02], [F04], [G04], [NH04]. Dans le contexte éducatif classique, l'observation et l'identification de l'état émotionnel de l'apprenant permettent à l'enseignant d'entreprendre des actions qui vont influencer la qualité de l'apprentissage et son exécution, chose qui n'est pas totalement prise en charge dans le contexte de l'enseignement à distance. Pour favoriser l’apprentissage, les dispositifs de e-learning doivent tenir compte des états émotionnels de l’apprenant. Cette prise en compte pose un problème de mise en œuvre, car les processus mentaux et les expressions émotionnelles de l’apprenant ne sont pas directement observables par la machine et les méthodes d’identification émotionnelle les plus objectives et les moins intrusives, recourent à des capteurs externes (webcams, microphones...etc.) en vue d’examiner le maintien de la posture, le regard et les expressions faciales de l’apprenant dans l’expression non verbale [P97, F04,9,NH04] et l’analyse des prosodies, le ton de la voix et les fréquences dans l’expression verbale [P97,15,17,18,21]. C’est dans le contexte verbal, que nous situons notre travail pour tenter d’apporter des réponses à l’identification émotionnelle des apprenants dans une session d’apprentissage. Pour cela, nous menons une réflexion sur les techniques, les moyens, les méthodes et les outils capable d’assurer cette identification à travers une analyse à deux niveaux linguistiques, prosodiques et textuels, de la parole d’un locuteur apprenant dans le cadre d’un dialogue homme-machine dans une plateforme de e- learning. Mots clés : reconnaissance émotionnelle, indices prosodiques, indices textuels, parole, SVM, e-learning, apprenant, agent. L
  • Item
    COLLAGRID: Environnement Collaboratif à base de GRID
    (2008) Hafed ZARZOUR
    Avec l’expansion de l’Internet de nouvelles formes de collaboration tendent à se développer entre communautés du savoir. De fait, l’architecture de service GRID OGSA (Open Grid Service Architecture) est née sur la base d'un passage d'une vision orientée système vers une vision orientée service fondée sur des standards ouverts et plus précisément des services à état. Ce mémoire a pour but de présenter une architecture générique d’un environnement collaboratif flexible sur le Web offrant aux membres d’une communauté virtuelle des solutions de travail intégré pour atteindre des objectifs communs en deux modes de collaboration à savoir le mode synchrone et asynchrone, en s’appuyant sur les nouvelles orientations de l’architecture de service GRID OGSA couplée à une solution de Bureau partagé. Le concept de bureau partagé est introduit comme une nouvelle dimension d’interaction entre les participants de différentes communautés virtuelles des sessions collaboratives et les instances des services GRID. GRID vise à réaliser le partage flexible, sûr, et coordonné des ressources distribuées géographiquement en les rendant homogènes, ainsi que la résolution coopérative des problèmes au sein d’une organisation virtuelle. Notre approche a été validée selon un scénario de construction interactive d’une ontologie partagée sur les turbines à gaz pour l’exploitation en milieu industriel.
  • Item
    Analyse du signal ECG par les ondelettes
    (2008) ABID Tarek
    L’électrocardiogramme (ECG) est un outil de mesure de l’activité électrique du cœur. Il offre l’opportunité au médecin de décider de l’état structurel et fonctionnel du cœur d’un patient. Dans ce travail, nous nous intéressons plus particulièrement à l’analyse et à la détection automatique des événements (appelés ondes) constituants ce signal ECG. Il est enregistré par groupe de trois voies. En ECG traditionnel la détection se fait voie par voie. En ECG automatisé il s'agit tout d’abord d'opter pour une représentation unique de l'ensemble de toutes les voies. Plusieurs représentations ont été abordées. Notre approche se base sur l’utilisation de la transformée en ondelette eu égard le signal utilisé et la localisation du début de l’onde QRS. Nous avons choisi l’ondelette de Daubechies, car sa forme est proche de celui du complexe QRS. Pour chaque ondelette de Daubechies (db2, db3,..., db10) et pour chaque niveau de décomposition nous avons calculé l’erreur entre le pointeur référé (donnée du médecin) et le pointeur calculé
  • Item
    atouage robuste des images basé sur la transformée en ondelettes discrète
    (2008) Bakhouche Amara
    Dans ce mémoire, une nouvelle méthode de tatouage robuste est proposée. Elle est basée sur une approche de tatouage additive et non aveugle. Elle opère dans le domaine transformé à partir de la DWT (transformée en ondelettes discrète). Il s’agit de tatouer des images fixes en niveau de gris ou en couleur de tailles 512x512. Dans cet axe de recherche, en l’occurrence le tatouage des images et des données numériques, les objectifs recherchés sont multiples. Néanmoins, le plus sollicité est la protection du droit d’auteur suite à une distribution toujours moins contrôlable sur des réseaux de communication tels que l’Internet. Les schémas de tatouage proposés, dans ce mémoire, effectuent des modifications sur les coefficients d’ondelettes par l’insertion d’un signal de tatouage de façon multiple et parallèle selon la technique d’étalement de spectre. Les résultats expérimentaux montrent que les schémas proposés sont robustes face à plusieurs attaques, soit volontaires (la falsification à titre d'exemple) ou non volontaires (compression, Bruit Gaussien, filtrage, modifications de luminance et de contraste, transformations géométriques tel que la rotation, le cropping et le changement d'échelle...etc). Cependant, ces approches restent altérables dans le cas d’attaques successives comme la compression et modifications de luminance.
  • Item
    Vers Un Système De Gestion Des Connaissances Pour L’aide Au Diagnostic De Pannes Dans Un Système Industriel
    (2003) Anguel Fouzia
    La connaissance se trouve dans l’intelligence, le savoir-faire, la mémoire, l’expérience des personnes autant que dans les documents, base de données, etc. Il faut donc l’extraire pour espérer la conserver et pouvoir la transmettre en vue de sa réutilisation autrement dit il faut gérer ces connaissances. L’objectif de ce travail est de gérer les connaissances concernant le diagnostic de pannes dans une station de compression en développant un outil dont le but n’est pas de résoudre automatiquement le problème de diagnostic, mais d’aider l’utilisateur en lui fournissant les informations appropriées et en lui laissant la responsabilité d’une évaluation contextuelle de ces informations et ce en exploitant la mémoire construite à travers les différentes sources de connaissances
  • Item
    MODELISATION D’UN SYSTEME HYPERMEDIA ADAPTATIF DYNAMIQUE A BASE D’ONTOLOGIE (HADYAT)
    (2006) Lamia Mahnane
    Dans l’enseignement traditionnel, les interactions entre apprenants et enseignants sont multi support (dessin au tableau, polycopiés, documents audio-visuels), multimodales (paroles, gestes, postures, regard) et adaptatives (l’enseignant modifie le déroulement de son cours pour répondre aux questions). Une des difficultés pour l’enseignant consiste à savoir adapter non seulement le contenu d’un cours à différents niveaux d’apprenants, mais aussi la communication de ce cours à des apprenants ayant des niveaux très différents. Vis à vis de cette multi modalité et du caractère adaptatif de ces interactions humaines, les outils actuels des environnements interactifs pour l'apprentissage humain (EIAH) semblent limités. Afin d’améliorer l’adaptabilité et motiver l’apprenant, nous proposons le système HADYAT (système Hypermédia Adaptatif DYnamique A base d’onTologie) qui est constitué des composants standards des hypermédias adaptatifs dynamiques et les hypermédias générant des activités pédagogiques : modèle du domaine, modèle de l’apprenant, modèle des activités pédagogiques et la base des documents multimédias. Par couplage avec les systèmes tuteurs intelligents émotionnel et les systèmes auto compositions d’un document hypermédia à base d’ontologie. Les hypermédias adaptatifs dynamiques sont fondés sur des informations provenant de sources hétérogènes. La réutilisation, la communication, le partage et la recherche d’information est des enjeux des hypermédias adaptatifs dynamiques. En effet, l’ontologie est une solution pour répondre à un besoin de modélisation et de représentation. Notre approche nécessite de représenter différents types de connaissance (modèle du domaine, modèle de l’apprenant, modèle d’adaptation, modèle d’évaluation et modèle de synchronisation). La séparation de ces différentes catégories de connaissance facilite leurs évolutions et leurs maintenances. Pour supplanter la richesse de communication humaine, ce système doit enrichir les interactions homme machine par une communication adaptative (conseil adaptatif, explication adaptative, simulation, question adaptative et geste émotionnel)
  • Item
    MODELISATION DE L’ELEVE DANS UN ENVIRONNEMENT INTERACTIF D’APPRENTISSAGE HUMAIN
    (2005) Bourouaieh Douadi
    Ce mémoire aborde la modélisation de l’élève dans un environnement interactif d’apprentissage humain. Après une revue de la discipline on se focalise sur le modèle élève, son rôle et ses mécanismes. L’approche retenue est celle de l’ouverture du modèle. On cherchera par un système floue, dans un cadre global de modélisation, à adapter cette ouverture à l’élève. Cette adaptation passe par la régulation du pouvoir de l’élève sur son modèle
  • Item
    UN SYSTEME HYBRIDE AG/PMC POUR LA RECONNAISSANCE DE LA PAROLE ARABE
    (2005) Lotfi AMIAR
    iii RESUME Une des innovations récentes en intelligence artificielle (IA) est l’intégration de ses multiples paradigmes dans des systèmes dits systèmes hybrides intelligents. Nombre de recherches dans ce contexte s’orientent vers l’intégration des réseaux de neurones et des algorithmes génétiques. Le problème de la reconnaissance automatique de la parole (RAP) est un domaine d’étude active depuis les années 50. Parmi les modèles les plus utilisés dans ce domaine, les réseaux de neurones (RNs), plus particulièrement, le perceptron multi-couches (PMC). Dernièrement, une extension de ces modèles a été mise au point donnant naissance aux modèles hybrides. Notre contribution rentre dans le cadre de la reconnaissance des chiffres Arabe isolés indépendamment du locuteur. Après extraction des paramètres acoustiques du signal vocal, en utilisant l’analyse RASTA- PLP (RelAtive SpecTrAl processing-Perceptual Linear Predictive), nous proposons après, un système hybride pour l’entraînement et la reconnaissance qui permet de rejoindre les capacités discriminantes , la résistance au bruit des Perceptrons Multi-Couches (PMCs) et la capacité des Algorithmes Génétiques (AGs) pour l’optimisation d’un ensemble de paramètres par une recherche globale, en vue de trouver un système de reconnaissance vocale optimal de meilleurs performances.
  • Item
    Utilisation des traces comme outils réflexifs pour les apprenants et les enseignants à distance
    (2009) CHEBAH Anissa
    Dans un contexte de formation à distance, une dimension importante à prendre en compte est le suivi pédagogique par un tuteur, un des points essentiels identifiés pour diminuer la proportion d’abandon des apprenants. Cependant, le temps passé par le tuteur pour suivre chaque apprenant devient vite rédhibitoire et il est nécessaire de proposer de nouveaux outils pour le réduire. Le problème de la surcharge de travail du tuteur dans le suivi des apprenants est lié au fait qu’il a une multitude de tâches à réaliser (supervision de l’ensemble des apprenants, interventions auprès des apprenants, traitement d’une grande quantité de messages, etc.) ; d’où son besoin d’outils pour assurer ses différentes tâches. Le problème de la perception du déroulement des activités par le tuteur est généralement mis en avant. En effet, il est très difficile pour le tuteur d’intervenir au bon moment et de manière adaptée car il travaille « en aveugle ». Les travaux sur l’instrumentation des activités du tuteur ont principalement visé à répondre à ces problèmes. Notre problématique va dans ce sens, dans la mesure où on vise à proposer un modèle de perception des activités des apprenants distants. Ce modèle se base sur la collecte de données d’interactions appelées traces. Pour le tuteur l’accès à des données relevant des traces numériques permet de poser une relation avec l’apprenant fondée sur des faits et non sur des données subjectives incertaines.
  • Item
    Une Architecture Fondée Sur Les Services Pour La Prise En Compte Du Contexte Dans Les Systèmes D’information Ubiquitaires
    (2010) Ismail BOUACHA
    Les systèmes pervasifs ont pour objectif de rendre l‟information disponible partout et à tout moment. Ces systèmes doivent pouvoir être utilisés dans différents contextes selon l‟environnement de l‟utilisateur, son profil, sa localisation ...etc. Les architectures SOA (Service Oriented Architecture) sont un paradigme permettant à des individus, organisations et systèmes de fournir ou de consommer des services. Ces derniers ont une description abstraite indépendante de leurs implémentations et ils sont faiblement couplés, ce qui offre des avantages de maintenance et d‟évolution. En pratique, ces architectures peuvent s‟appuyer sur des services web, CORBA, RPC..., et elles sont décrites en définissant 3 axes principaux : les données d‟échanges utilisées par les services (Schémas XML), les interfaces des services (WSDL) et l‟orchestration de services qui est une implémentation des comportements de services (BPEL). Ces dernières années, les travaux existant dans le domaine de la sensibilité au contexte d‟utilisation se penchent vers l‟utilisation de l‟approche dirigée par les modèles pour prendre en compte le contexte. Cependant, ces travaux se basent sur des significations et représentations différentes des informations contextuelles, (jusqu'à présent il n‟existe pas un méta modèle standard pour le contexte). Sur le plan pratique, la plupart des outils de transformations qui supportent l‟approche MDA sont spécifiques à des plateformes et ne permettent pas de prendre en compte les informations contextuelles. Nous nous positionnons dans le domaine de la modélisation des services web pour la prise en compte du contexte par une approche dirigée par les modèles. Ainsi il est possible d‟exploiter le contexte dès les premières étapes du cycle de développement des services. Nous nous basons sur la modélisation du contexte dans le langage UML, et nous s‟appuyons sur le méta modèle ContextUML proposé dans [Shen05] pour la modélisation des services web. De plus nous proposons une transformation automatique des modèles obtenus à partir de l‟étape de la modélisation vers la plateforme service web.