Mémoires de Magistère
Permanent URI for this collection
Browse
Browsing Mémoires de Magistère by Title
Now showing 1 - 20 of 60
Results Per Page
Sort Options
Item Analyse du signal ECG par les ondelettes(2008) ABID TarekL’électrocardiogramme (ECG) est un outil de mesure de l’activité électrique du cœur. Il offre l’opportunité au médecin de décider de l’état structurel et fonctionnel du cœur d’un patient. Dans ce travail, nous nous intéressons plus particulièrement à l’analyse et à la détection automatique des événements (appelés ondes) constituants ce signal ECG. Il est enregistré par groupe de trois voies. En ECG traditionnel la détection se fait voie par voie. En ECG automatisé il s'agit tout d’abord d'opter pour une représentation unique de l'ensemble de toutes les voies. Plusieurs représentations ont été abordées. Notre approche se base sur l’utilisation de la transformée en ondelette eu égard le signal utilisé et la localisation du début de l’onde QRS. Nous avons choisi l’ondelette de Daubechies, car sa forme est proche de celui du complexe QRS. Pour chaque ondelette de Daubechies (db2, db3,..., db10) et pour chaque niveau de décomposition nous avons calculé l’erreur entre le pointeur référé (donnée du médecin) et le pointeur calculéItem Analyse du signal ECG par les ondelettes(2008) ABID Tarek3 Résumé L’électrocardiogramme (ECG) est un outil de mesure de l’activité électrique du cœur. Il offre l’opportunité au médecin de décider de l’état structurel et fonctionnel du cœur d’un patient. Dans ce travail, nous nous intéressons plus particulièrement à l’analyse et à la détection automatique des événements (appelés ondes) constituants ce signal ECG. Il est enregistré par groupe de trois voies. En ECG traditionnel la détection se fait voie par voie. En ECG automatisé il s'agit tout d’abord d'opter pour une représentation unique de l'ensemble de toutes les voies. Plusieurs représentations ont été abordées. Notre approche se base sur l’utilisation de la transformée en ondelette eu égard le signal utilisé et la localisation du début de l’onde QRS. Nous avons choisi l’ondelette de Daubechies, car sa forme est proche de celui du complexe QRS. Pour chaque ondelette de Daubechies (db2, db3,..., db10) et pour chaque niveau de décomposition nous avons calculé l’erreur entre le pointeur référé (donnée du médecin) et le pointeur calculé. Nous avons montré que l’ondelette de Daubechies d’ordre 9 (db9) est la plus performante car elle permet de localiser 62.58% et 52,26 % de cas avec une erreur dans l’intervalle [-5,+5] et [-4,+4] respectivement. Le meilleur niveau de décomposition était le niveau 4Item Apprentissage hybride adaptatif pour les systèmes évolutifs(2013) MAMINE SanaLe travail présenté dans ce document se situe dans le domaine général de l’apprentissage automatique. Il se concentre principalement sur les problèmes posés au niveau des systèmes évolutifs qui sont censés avoir la capacité d’intégrer, dans un système déjà entraîné, de nouvelles connaissances telles que de nouvelles données d’apprentissage ou de nouvelles classes. L’adaptabilité ou la capacité d’évolution représente l'une des limitations les plus fondamentales des techniques d’apprentissage qui sont actuellement relativement efficaces dans le cas statique. De ce fait, les méthodes classiques sont souvent inefficaces pour répondre aux nouveaux besoins des applications actuelles où des flux continus de gros volumes de données sont disponibles. L’apprentissage adaptatif ou incrémental concerne des problèmes complexes, dynamiques et évolutifs, avec des données de natures et d'origines différentes, hétérogènes et bruitées. Ce type d’apprentissage représente l’une des préoccupations majeures de la communauté de l’apprentissage automatique et constitue un champ de recherche ouvert qui a fait l’objet plusieurs types de travaux. Nous avons appréhendé cette problématique en étudiant l’apport de l’hybridation des paradigmes du soft-computing sur la capacité d’adaptabilité et d’évolution de l’apprentissage. Notre intérêt se focalise principalement sur les méthodes connexionnistes, les algorithmes génétiques et la logique floue. Nous nous sommes concentrés sur l’étude de leurs possibilités d’hybridation dans le cadre de la conception de systèmes intelligents évolutifs. Dans ce cadre, nous proposons un système hybride de classification d’images capable de s’adapter de manière incrémentale aux changements de l’environnement. Ce système est conçu en utilisant une intégration d’approches issues du soft computing dans le domaine applicatif de la classification d’images. L’approche proposée pour la classification adaptative incrémentale d’images est basée sur un système neuro-flou évolutif qui consiste à apprendre des règles de classification par un réseau de neurones flou, puis optimiser ces règles par les algorithmes génétiques. La base d’images utilisée pour l’évaluation de ce système est la base « Image Segmentation » de l’UCI Machine Learning Repository.Item atouage robuste des images basé sur la transformée en ondelettes discrète(2008) Bakhouche AmaraDans ce mémoire, une nouvelle méthode de tatouage robuste est proposée. Elle est basée sur une approche de tatouage additive et non aveugle. Elle opère dans le domaine transformé à partir de la DWT (transformée en ondelettes discrète). Il s’agit de tatouer des images fixes en niveau de gris ou en couleur de tailles 512x512. Dans cet axe de recherche, en l’occurrence le tatouage des images et des données numériques, les objectifs recherchés sont multiples. Néanmoins, le plus sollicité est la protection du droit d’auteur suite à une distribution toujours moins contrôlable sur des réseaux de communication tels que l’Internet. Les schémas de tatouage proposés, dans ce mémoire, effectuent des modifications sur les coefficients d’ondelettes par l’insertion d’un signal de tatouage de façon multiple et parallèle selon la technique d’étalement de spectre. Les résultats expérimentaux montrent que les schémas proposés sont robustes face à plusieurs attaques, soit volontaires (la falsification à titre d'exemple) ou non volontaires (compression, Bruit Gaussien, filtrage, modifications de luminance et de contraste, transformations géométriques tel que la rotation, le cropping et le changement d'échelle...etc). Cependant, ces approches restent altérables dans le cas d’attaques successives comme la compression et modifications de luminance.Item COLLAGRID: Environnement Collaboratif à base de GRID(2008) Hafed ZARZOURAvec l’expansion de l’Internet de nouvelles formes de collaboration tendent à se développer entre communautés du savoir. De fait, l’architecture de service GRID OGSA (Open Grid Service Architecture) est née sur la base d'un passage d'une vision orientée système vers une vision orientée service fondée sur des standards ouverts et plus précisément des services à état. Ce mémoire a pour but de présenter une architecture générique d’un environnement collaboratif flexible sur le Web offrant aux membres d’une communauté virtuelle des solutions de travail intégré pour atteindre des objectifs communs en deux modes de collaboration à savoir le mode synchrone et asynchrone, en s’appuyant sur les nouvelles orientations de l’architecture de service GRID OGSA couplée à une solution de Bureau partagé. Le concept de bureau partagé est introduit comme une nouvelle dimension d’interaction entre les participants de différentes communautés virtuelles des sessions collaboratives et les instances des services GRID. GRID vise à réaliser le partage flexible, sûr, et coordonné des ressources distribuées géographiquement en les rendant homogènes, ainsi que la résolution coopérative des problèmes au sein d’une organisation virtuelle. Notre approche a été validée selon un scénario de construction interactive d’une ontologie partagée sur les turbines à gaz pour l’exploitation en milieu industriel.Item Comparaison de plusieurs méthodes pour la prédiction de la Charge Electrique Nationale(2009) Yassine HAMMOUCHEii Résumé Les compagnies de gestion électrique ont besoin d'une prédiction à court terme de la demande de la charge électrique afin de programmer les installations de sa production. Les erreurs de prédiction peuvent mener à des risques et insuffisances dans la génération et distribution de la quantité de la charge électrique vers les utilisateurs. Les recherches dans cet axe sont nombreuses. Plusieurs pays ont abouti à modéliser la série représentant la variation de leur charge électrique. Ces recherches se basent sur plusieurs approches telles que les modèles Box-Jenkins, les Réseaux de Neurones Artificiels, le filtre de Kalman, etc. Mais la méthode Box-Jenkins et les Réseaux de Neurones Artificiels restent les plus répandues. Ce travail s'inscrit dans le cadre de la prédiction des séries temporelles, Plus particulièrement, la prédiction de la charge électrique. Des techniques sont appliquées pour prédire la charge électrique Algérienne. Quatre modèles sont proposés dans le cadre de ce travail. Les deux premiers se focalisent sur la prédiction d'un seul pas en avant. Un modèle se base sur la méthode Box- Jenkins qui représente dans la littérature la base de comparaison de toutes autres techniques. Les résultats obtenus par cette méthode sont comparés avec ceux obtenus par un modèle Réseau de Neurones Artificiels de type Perceptron Multi Couches. Généralement, un seul pas est insuffisant pour bien fonder la gestion de la ressource. Sur cette base, il est plus intéressant de chercher une prédiction à plusieurs pas en avant. Dans ce contexte, deux modèles sont proposés. Le premier modèle fournit un vecteur de 24 valeurs comme sortie du Réseau de Neurones Artificiels représentant les 24 pas de prédiction. Les résultats sont comparés avec les résultats du deuxième modèle qui consiste à classer les données en 24 classes selon l'heure. Par la suite, on prédit chaque heure séparément pour obtenir 24 prédictions reflétant les 24 pas.Item CONCEPTION D’UN SYSTEME ACOUSTICO-ANATOMIQUE POUR L’IDENTIFICATION DU LOCUTEUR : ARCHITECTURE ET PARAMETRISATION(2008) Feriel DEBBECHE GUERIDDe nos jours, l’identification des utilisateurs est devenue une véritable nécessité. Dans cette optique, l’identification des personnes sur la base de leur voix est une technique biométrique prometteuse et compétitive en même temps pour plusieurs raisons. Elle est, en particulier, le seul moyen biométrique pour de nombreux types d’application. La voix présente cependant un vrai challenge pour les chercheurs, dû à sa variabilité intrinsèque et extrinsèque. Ce travail s’inscrit dans le cadre général de la Reconnaissance Automatique du Locuteur, domaine très fertile. Plus particulièrement, l’Identification Automatique du Locuteur en mode indépendant du texte et dans le cas où nous disposons de très peu de données d’apprentissage. L’approche de modélisation que nous utilisons est une approche intéressante qui consiste à représenter le Locuteur non plus de façon absolue mais relativement à un ensemble de Locuteurs bien appris. Chaque Locuteur est représenté par sa localisation dans un espace optimal de voix propres (Eigen Voices). Dans ce projet, nous présentons un système d’Identification Automatique du Locuteur (IAL) où l’espace de représentation est construit par l’Analyse en Composantes Principales (ACP). La localisation des nouveaux Locuteurs dans cet espace est faite par projection orthogonale. Notre système, dédié aux applications de très haute sécurité, repose essentiellement sur une idée originale qui consiste à exploiter, à côté des paramètres acoustiques pour la paramétrisation du Locuteur, des paramètres anatomiques. Ainsi, nous proposons une architecture acoustico-anatomique pour l’identification du Locuteur. Cette architecture se base principalement sur un algorithme de fusion de données hétérogènes. Etant donné que les données que nous fusionnons sont entachées d’imprécision et d’incertitude, nous utilisons les principes de la théorie des possibilités pour les fusionner. Cette fusion qui nous ramène à une nouvelle paramétrisation du Locuteur, i. e. un vecteur acoustico anatomique représentatif de ce dernier, a pour but de renforcer le taux d’identification et d’apporter une dimension biométrique au système.Item Concurrence entre recherche approximative et classification pour la recherche d'images de documents Arabes dégradés(2010) Abderrahmane KEFALID‟importants fonds documentaires existent actuellement dans les bibliothèques, musées et autres institutions à caractères pédagogiques ou sociopolitiques. Les documents historiques des civilisations anciennes et les archives nationales sont l‟exemple typique de telles richesses qui représentent le patrimoine, l‟histoire et la dignité des nations. La conservation de ces documents et leur accès à un grand nombre est constituée aujourd‟hui un besoin incontournable. Une méthode de conservation consiste à les numériser et les stocker sous format image, mais seule, la simple numérisation n‟est pas suffisante pour les rendre accessibles à grand public. En effet, l‟accès à ces collections nécessite des stratégies d‟indexation et de recherche efficaces. Dans la plupart du temps, les index sont crées manuellement. Si cette approche est possible pour un petit nombre de documents, son coût et effort deviennent très élevés pour des larges collections. L‟OCR peut être une alternative pour les documents imprimés ou les documents manuscrits avec un lexique limité. Dés que les documents soient dégradés et avec un lexique plus large, l‟OCR devient inefficace, surtout dans le cas des documents arabes qui présentent d‟autres difficultés relatives essentiellement aux traitements de l‟écriture arabe. Le travail présenté dans ce mémoire s‟intègre dans la démarche de sauvegarde et de valorisation de documents patrimoniaux dont la communauté internationale a pris conscience de l‟intérêt. Bien que nous nous intéressons aux images d‟anciens documents arabes textuels, nous proposons un système permettant la recherche de ces documents par des requêtes textuelles, sans recourir à une reconnaissance du contenu afin d‟éviter le coût élevé et l‟effort ardu de l‟OCR. Afin d‟atteindre les objectifs visés, le système proposé regroupe plusieurs traitements issus principalement du domaine de l‟analyse de documents : binarisation, segmentation, extraction de caractéristiques, codage,...etc. et du domaine de la recherche d‟information, notamment les techniques d‟arbres de suffixes et la recherche approximativeItem Construction d’ontologie à partir de textes techniques – application à l’expansion de requête utilisateur(2003) Ladjailia AmmarNotre mémoire traite de la problématique de la construction d’ontologies de domaine ou régionale, à partir de textes techniques. Nos proposons un modèle d’aide le cogniticien et les expert de domaine à la construction d’ontologie à partir de textes. Dans la première partie nous nous intéressons aux différents usages du terme «ontologie», leur classification, les méthodes de construction et leur spécification. Puis nous abordons la problématique de la construction d’ontologie à partir des textes techniques. A la repense de cette problématique, nous proposons, dans la première partie une méthode linguistique quantitative d’acquisition des termes à partir des textes, puis nous structurons les syntagmes sous forme d’un réseau, dans lequel chaque syntagme est relié à sa tête et à ses expansions. A partir de ce réseau, le module d'analyse distributionnelle construit pour chaque terme du réseau l'ensemble de ses contextes terminologique. Un autre module (CAH) rapproche ensuite les termes, pour construire les classes des termes, sur la base de mesures de proximité distributionnelle. L'ensemble de ces résultats est utilisé comme aide à la construction d'ontologie à partir de corpus spécialisés. Notre ontologie est destinée à l'expansion de la requête par suggestion à l'utilisateur de termes de plus ou moins liés à ceux de sa requête.Item Découverte des préférences des apprenants dans unenvironnement de e-learning(2012) Amor BOULEDROUALa recherche d’information a pour objectif de faciliterla disponibilité des données pour l’utilisateur et de rendre l’information sélectionnéefacilement accessible à l’usager et exploitable. Chaque utilisateur, ou communauté d’utilisateur, peut être définit, par un ensemble de préférences individuelles représentées sous forme de couples (attribut, valeur), par des ordonnancements de critères ou par des règles sémantiques spécifiques à chaque utilisateur. Ces modes de spécification servent à décrire le centre d’intérêt de l’utilisateur, le niveau de qualité des données qu’il désire ou des modalités de présentation de ces données. L’ensemble de ces informations est représenté dans un modèle d’utilisateur appelé souvent profil. L’objectif de cette thèse est de proposer un système de question réponse qui permet de répondre aux questions posé par l’apprenant. Tout en assurant la mise à jour du profil utilisateurà partir de ces questionsappliquéune mise àjourau profil de l’utilisateur.Item Définition d’une heuristique hybride pour résoudre un problème de planification de personnel dans un milieu hospitalier(2005) ZEDAIRIA AbdallahV RESUME Pour toutes leurs activités, les êtres humains ont besoin de planifier dans le temps leur acquisition de certaines ressources. La théorie de la planification traite des modèles mathématiques mais analyse également des situations réelles forts complexes. Quoique l'état de l'art est assez riche, les contributions existantes restent loin d'être complètes et optimales. Remarquons que la planification du personnel, et en particulier le personnel hospitalier, qui est soumise à une variété de contraintes -parfois contradictoires-, est un problème NP- difficile au sens fort. Par conséquent, des méthodes heuristiques doivent être utilisées pour le résoudre. Dans cette étude, nous nous sommes donnés comme objectif principal la résolution d’un problème concret de génération hebdomadaire d'emplois du temps de médecins dans un service de radiologie. Ce problème possède des contraintes de types très variés. Nous avons mis en œuvre un algorithme génétique pour l’optimisation de coût d’affectation des médecins aux postes. Le critère d'optimalité est la minimisation de la somme des mesures de violation des contraintes pour la rendre nulle. Étant donnée l'importance de ces problèmes, de nombreuses méthodes de résolution ont été développées en recherche opérationnelle (RO) et en intelligence artificielle (IA). Ces méthodes peuvent être classées sommairement en deux grandes catégories : les méthodes exactes (complètes) qui garantissent la complétude de la solution et les méthodes approchées (incomplètes) qui perdent en complétude pour gagner en efficacité. Le principe essentiel d'une méthode exacte consiste généralement à énumérer, souvent de manière implicite, l'ensemble des solutions de l'espace de recherche. Malgré les progrès réalisés, le temps de calcul nécessaire pour trouver une solution risque d'augmenter exponentiellement avec la taille du problème. Les méthodes exactes rencontrent généralement des difficultés face aux applications de tailles importantes.Item Developpement d'une chaine d'outils en fonction du nouveau standard fondationnel UML(2014) ZAHOUI Anissa AmelItem DIMINUTION DE LA SURCHARGE COGNITIVE ET AMELIORATION DE L’INTERFACE APPRENANT DANS UN HYPERMEDIA EDUCATIF(2005) SOLTANI MohamedCes dernières années ont vu émerger ce que les médias de l'information n ' ont pas hésité à nommer "la révolution des nouvelles technologies". La démocratisation de l'ordinateur et l'avènement du Web au début des années 90, nous ont fait pleinement rentrer dans l'ère de l'informatique grand public. L'usage de ces technologies s'impose tant dans la vie domestique que professionnelle. Cette évolution touche également, le domaine éducatif pour preuve l'apparition des TICE (Technologies de l'Information, et de la Communication appliquées à l'Enseignement). En effet avec cette évolution, on assiste à l'apparition de nouveaux besoins dans la formation et l'enseignement : d'une part, ces besoins se manifestent dans trois directions : les personnes, les lieux et les moments ; c'est ce que [DEN, 95] simplifie en disant : "tous, tous le temps, partout"; d'autre part, les apprenants ont de plus en plus besoin d'un apprentissage centré sur eux- mêmes, ils demandent que leur vision soit prise en compte. L'une des réponses à l'émergence des nouveaux besoins dans le domaine éducatif ainsi que dans la formation est l'utilisation des hypermédias. Les hypermédias, dans lesquels les informations ne sont pas seulement de type texte, mais également de type image son, vidéo ou encore multimédia ont vocation à présenter l'information. Dans les applications basées sur le Web, l'information est présentée selon une approche hypermédia, mais de plus, i l est possible d'effectuer des traitements à travers l'interface Web. Dès lors, il n'est pas surprenant de constater que beaucoup de travaux de recherches sur les hypermédias ont été réalisés ou sont en cours de développement. Cette Recherche, présente l’architecture d’hypermédia éducatif dynamique générant des activités pédagogiques aux quels on tient ce compte des trois aspects très importants : - Diminution de la surcharge cognitive chez l’apprenant.. - Amélioration de l’interface apprenant (Surcharge cognitive). L’amélioration du format de présentation des informations dans les documents techniques est un moyen important de favoriser leur compréhension. Les avancées technologiques récentes incitent d’ailleurs à de nouveaux efforts d’analyse du potentiel des documents techniques électroniques en terme de compréhension. Dans cette recherche en propose des recommandations et des précautions qu’on doit les prendre en considération dans la conception des documents pédagogiques afin de favoriser leurs compréhensions. Nous avons présenté un modèle inspiré des recherches sur les interfaces adaptatives et de celles sur les systèmes d'aide à l'apprentissage dans les hypermédias, qui cherche à mettre en relation les différentes dimensions du modèle apprenant, du contexte et des stratégies possible d'organisation de l’aide. Le modèle cherche à intégrer non seulement les dimensions cognitives de la tâche d'apprentissage, mais également les dimensions motivationnelles et sociales de l'activité. Nous présentons un modèle d’interface conçu pour faciliter la navigation (pour le problème de désorientation) et la définition du soutien dans un hypermédia d'apprentissage, afin d’aider l’apprenant dans sa progression. Le modèle permet même l'adaptation de ce soutien en fonction des préférences de l'apprenant. Dans notre modèle on a proposés des recommandations qui vent améliorés même d’autres hypermédias, dont le but de diminuer la surcharge cognitive chez l’apprenant. L’amélioration de l’interface apprenant, pour que ce dernier puisse se consacrer exclusivement à l’acquisition de connaissances sans surcharge cognitive de nature procédurale de l’interface.Item Environnement collaboratif synchrone basé services web destiné pour la gestion des connaissances(2009) Mohamed Saïd Mehdi MENDJELLe développement fulgurant des technologies de l’information, des réseaux et des moyens de communication est à l’origine d’une expansion prodigieuse de l’internet. Nous traversons une nouvelle ère où la démocratisation de l’internet et le passage à la société de l’information conduisent à un processus de globalisation incitant à la mise en relation des personnes et à la constitution d’équipes virtuelles réparties partout dans le monde. C’est ainsi l’ère des plates- formes collaboratives construites dans des domaines différents (gestion des connaissances, enseignement à distance, Télémédecine, etc.), intégrant plusieurs outils de collaboration (synchrones et asynchrones) et offrant des possibilités d’interaction et d’échange d’informations entre des groupes de personnes situés dans des endroits différents. L’arrivé de l’architecture orientée service et des technologies des services web a apporté de nouvelles solutions à ces plates-formes collaboratives , notamment au niveau de la réactivité et de l’évolutivité, en mettant en place des services ou des modules de collaboration évolutifs et recomposables au gré des besoins des utilisateurs, et au niveau de la flexibilité et de l’hétérogénéité, en faisant communiquer des services de natures différentes, qui peuvent devenir à leur tour des nouveaux services consommables par d’autres plates-formes. Le but de ce mémoire est ainsi de proposer une infrastructure collaborative basée sur un ensemble d’outils de collaboration synchrones conçus sous forme de services et qui peuvent être consommés par n’importe quelle plate-forme offrant ce type de technologies.Item Expansion de requête à l'aide d'une ontologie Arabe dans le domaine juridique(2006) Soraya ZaidiNotre mémoire traite la problématique de la recherche d'information sur le Web, celle en Arabe en particulier plus spécialement dans le domaine juridique. Les moteurs de recherche actuels se basent, dans leur recherche, sur des mots clés, ces mots sont traités syntaxiquement, la sémantique est omise d'où un grand nombre de documents retournés non pertinents ce qu'on appelle bruit. Différentes techniques ont été proposées pour réduire le taux de ce bruit et améliorer la précision de la recherche. Nous avons présenté un grand nombre de ces techniques et nous avons opté pour celle que nous avons jugée intéressante pour notre cas, en l'occurrence l'expansion de la requête à l'aide d'une ontologie. La raison de notre choix est que d'un coté les ontologies représentent un avenir prometteur pour le Web sémantique, qui est à son tour, l'héritier supposé du Web actuel, d'un autre coté les ontologies n'ont pas encore été expérimentées dans la recherche d'information en langue Arabe, dans le domaine juridique (du moins jusqu'à la rédaction de ce travail). Nous traitons donc, dans ce travail le problème de la construction d'une ontologie en langue Arabe dans le domaine juridique, dans le but d'étendre une requête Arabe et la soumettre à un processus de recherche pour réduire le bruit et améliorer la précision. Mondialisation oblige, nous tentons de permettre à un utilisateur potentiel d'effectuer une recherche avec une requête Arabe pour l'obtention de documents Anglais ou Français, ceci en soumettant sa requête à un système de traduction automatique libre d'utilisation sur le Web, tel que Tarjim, ainsi que l'expansion de la requête traduite à l'aide de la base lexicale qui représente une ontologie générique. Nous décrivons les différentes étapes de la construction manuelle de notre ontologie relative au domaine juridique, à l’aide de l’éditeur d’ontologies Protégé-2000 et ce à partir d'articles publiés sur le Web concernant spécialement le domaine cité. Nous avons essayé d'établir la hiérarchie avec la méthode descendante, nous essayons de donner à chaque concept sa définition et nous comptons lui attacher ses variantes les plus représentatives du domaine juridique. Nous traitons à la fin quelques exemples illustratifs concernant l'expansion de la requête, pour essayer de donner une évaluation préliminaire de l'approche adoptée.Item Identification des Types de Jours Météorologiques et des Dépendances Météo-Paramètres de Pollution par RNA: Application à la Région d’Annaba.(2008) Soufiane KHEDAIRIADans le but de l’identification des types de jours météorologiques pour la région d’Annaba, Nous avons proposé une approche basée sur la classification non supervisée -clustering-. Cette approche permet d’identifier les groupes d'objets similaires (types de jours -clusters-) à partir des données météorologiques captées par la station de l’aéroport d’Annaba pendant la période 1995 à 1999. L’approche proposée est basée sur deux niveaux de classifications : la carte auto-organisatrice de Kohonen (SOM) pour le premier niveau et la classification par partition pour le deuxième niveau. Pour découvrir la méthode la plus appropriée à utiliser pour regrouper les unités de la SOM, nous avons procédé à une comparaison basée les performances des algorithmes de classification automatique les plus utilisés tel que : l’algorithme PAM (Partitioning Around Medoids), K-moyennes, et la classification hiérarchique (méthode de Ward). Une analyse quantitative basée sur deux catégories de critères (internes et externes) et qualitative sont utilisées pour valider et interpréter les résultats obtenues de la classification. Cette approche a permet d’extraire six classes qui sont liés directement aux conditions météorologiques typiques de la région. L’approche de classification à deux niveaux a été également évaluée en utilisant une base de données collectée par la station SAMASAFIA, dont les clusters météorologiques obtenus ont été utilisés pour étudier l’influence des paramètres météorologiques (par cluster) sur la pollution atmosphérique dans cette région. Une analyse linéaire basée sur l’ACP (analyse en composantes principales), et non linéaire basée sur un model neuronal (perceptron multicouches) ont été effectuées. Les résultats obtenus sont très satisfaisants ou plusieurs relations et conclusions ont été tirées.Item Identification d’opinions dans les journaux arabes(2009) Lazhar FAREKRésumé Après une demande croissante en matière d’analyse de textes véhiculant des critiques, des opinions ou des jugements, le traitement automatique des langues a donné naissance à une nouvelle discipline appelée fouille de données d’opinions (opinion-mining). Cette discipline est un résultat de l’intersection de trois disciplines : le traitement automatique des langues, la linguistique et la philosophie. Elle n’est pas intéressée par l’étude des thèmes d’un document mais par les opinions exprimées dans les textes. Dans ce présent mémoire, nous avons proposé une approche d’identification d’opinions basée sur une analyse symbolique des textes, qu’on testé sur un ensemble de textes journalistiques de la langue arabe. Cette dernière, malgré ses particularités syntaxiques, morphologiques et sémantiques, présente l’axe sur lequel s’articule notre travail. Nous avons inspiré notre approche, après une étude comparative de trois approches utilisées en classification de sentiments : l’approche symbolique basée sur l’analyse syntaxique des textes, l’approche statistique basée les techniques d’apprentissage automatique, et la troisième approche, est une hybridation des deux premières. Son fonctionnement est basé sur l’extraction des expressions subjectives qui reflètent des jugements personnels sur des sujets divers. Notre approche, se base sur un modèle de représentation d’opinion, qui considère qu’une opinion est conformée de quatre éléments : prédicat, source, sujet et contenu. L’identification de chaque élément nécessite un ensemble règles linguistiques bien définies. Deux éléments appelés polarité et intensité, ont été ajoutés à ce modèle pour calculer l’orientation sémantique globale de l’opinion en fonction de ces constituants. Les opinions identifiées sont ensuite classifiées selon leurs orientations sémantiques et leurs intensités, en cinq catégories : positive forte, positive faible, négative forte, négative faible, et neutre. Notons, que notre travail a été l’un des 26 articles acceptés parmi les 62 articles soumis à la conférence IC2009.Item Indexation et recherche de documents par le contenu(2012) BENCHALEL AMIRBien que les domaines de traitement d’images et de reconnaissance de formes aient fait des progrès considérables dans différents champs d’application, les étapes de localisation et de caractérisation adéquates d’objets restent des processus très délicats et non triviaux. Caractériser des objets par leur forme est une tâche délicate dans plusieurs applications de vison par ordinateur. Différentes approches théoriques très intéressantes existent mais qui, néanmoins, restent très couteuses en terme de temps de calcul. Dans la recherche d’image par le contenu (RIC) « Content-Based Image Retrieval (CBIR)» la forme est une caractéristique de bas niveau. Elle doit satisfaire différentes propriétés : invariance, robustesse, compacité, complexité faible et mesurabilité perceptible. Dans les domaines où l’image possède un contenu complexe, mélange entre objets textuels et objets graphiques par exemple, les images doivent être tout d’abord segmentées en texte/graphique. On parle alors de séparation texte/graphique. L’objectif de notre travail est de faire une étude bibliographique et expérimentale des différentes manières de caractériser des objets qu’on rencontre dans les images. Nous nous intéressons néanmoins à deux classes uniquement qui sont les objets textuels et non-textuels. Nous allons étudier et implémenter un très grand nombre de descripteurs de formes très connus dans la littérature qu’on va tester dans le domaine de la séparation texte/graphique. Nous allons aussi présenter AdaBoost avec les arbres de décision, les réseaux de neurones artificiels, C-means et Fuzzy C-means et les implémenter dans un même système. Beaucoup de test vont être effectués, les classifieurs vont être testés sur chacun des descripteurs indépendamment et en combinaison. Nous allons également présenter et implémenter notre méthode de segmentation automatique d’image basée sur la transformée de distance. Le résultat sera un nouveau jeu de test assez conséquent composé d’objets textes et objets graphiques mais séparés automatiquement évidemment avec quelques erreurs. Nous montrerons par la suite que les résultats de validation prouvent encore une fois la robustesse de la méthode AdaBoost avec un temps de réponse très appréciable. De point de vue descripteurs, nous noterons que ce sont les moments de Hu qui ont donné les meilleurs résultatsItem La qualité de service d’un streaming vidéo Dans un réseau ad hoc (égale à égal)(2012) SAADANE HOUDALa qualité de service (QoS) des applications est facteur déterminant dans la mesure des performances des services réseau, ô combien nombreux à nos jours. Dans ce travail nous nous intéressons à la qualité de service (QoS) de la transmission vidéo dans les réseaux Ad Hoc. Cette qualité se traduit par un ensemble de paramètres permettant d’adapter les applications, dans notre cas le streaming vidéo, à la qualité et la nature du réseau Ad Hoc afin d’utiliser ses ressources de façon optimale et efficace. La définition de ces paramètres nécessite une connaissance aigue des protocoles de signalisation et de routage des réseaux Ad Hoc (pair à pair). L’objectif de notre étude est d’améliorer les performances des réseaux Ad Hoc en travaillant sur la qualité de service au niveau des délais de transmission de bout en bout et de minimiser les pertes, et cela dans le cas des transmissions vidéo très répandues chez les utilisateurs. Dans ce travail, nous avons accentué notre étude sur la description, l’étude et l’analyse de certaines configurations de réseaux Ad Hoc, ensuite nous avons mis en œuvre un outil de la simulation pratique dans le cas des services streaming vidéo. Cette dernière a été utilisée pour analyser le réseau MANET assujetti à un nombre de paramètres de QoS. Le logiciel utilisé est l’OPNET, afin de maîtriser la nature du trafic multimédia, et pouvoir analyser la qualité des transmissions de paquets telle que délai, gigue et bande passante dans nos simulations.
- «
- 1 (current)
- 2
- 3
- »