Département d'Informatique
Permanent URI for this community
Browse
Browsing Département d'Informatique by Title
Now showing 1 - 20 of 242
Results Per Page
Sort Options
Item Accélération de l’Apprentissage des SVMs pour le traitement de bases de données de grandes tailles : Application à la reconnaissance des mots arabes isolés(2015) CHAIBI SoniaLa révolution numérique a facilité considérablement la capture, la saisie et le stockage des données à un coût pratiquement nul. Comme conséquence de ceci, des énormes quantités de données de grandes dimensions (Images, Video …ect) sont stockées dans des bases de données de façon continuelle. La classification de telles bases de données est un problème délicat qui apparaît dans de nombreuses disciplines de l’informatique telle que la reconnaissance de l’écriture arabe manuscrite. Raison pour laquelle le développement de méthodes de classification automatiques pour ces bases de données est primordial. Les Séparateurs à Vaste Marge est une méthode de classification qui montre de bonnes performances dans divers problèmes tels que le traitement d’image, la catégorisation de textes ou le diagnostique médical et ce même sur des ensembles de données de tailles importantes. Néanmoins, la réalisation d’un programme d’apprentissage par SVMs se ramène à résoudre un problème de programmation quadratique (QP) dont la taille mémoire et le temps nécessaires pour sa résolution sont linéairement liés à la taille des exemples utilisés. Quand on a affaire à des bases de données de grandes tailles, la mise en œuvre des SVMs devient encore plus couteuse en espace mémoire et en temps d’exécution. Pour surmonter cette insuffisance des SVMs, une nouvelle proposition utilisant le partitionnement K-moyenne au sein d’un espace réduit du vecteur caractéristique des données est développée dans thèse. Nos résultats montrent qu'il est désormais possible d'utiliser les SVMs pour classifier des bases d’une taille d'exemples importante. La reconnaissance des noms manuscrits des Wilayas Algériennes en est un exemple type traité avec succès dans cette thèse.Item ADAPTABILITE DE LOGICIELS DANS L’EMBARQUE(2016) Abdelghani ALIDRALes nouvelles problématiques introduites par l’omniprésence du logiciel dans différentes branches de l’industrie afin de faire face à la complexité croissante des systèmes et à l'incertitude de leur environnement, ont poussé les ingénieurs logiciels à se tourner vers l'auto-adaptation. Les systèmes auto-adaptatifs sont capables de faire face à un environnement en constante évolution et à des exigences émergentes qui peuvent être inconnues au moment de la conception. La construction de tels systèmes de façon rentable et de manière prévisible est un défi majeur de l'ingénierie des systèmes logiciels. Dans cette perspective, le paradigme des Lignes de Produits Logiciels Dynamiques (LPLD) qui se base sur la notion de caractéristique a apporté un apport considérable. Dans cette thèse, nous avons étudié les différentes approches les plus notables pour l’adaptabilité des systèmes embarqués et nous avons mis en relief leurs limites dans le contexte de la prise de décision. Particulièrement, nous avons mis l’accent sur le fait que ces travaux implémentent la prise de décision sur de simples règles Evénement-Condition Action. Ce type de règles ne permettent pas de prendre en charge des scenarios omis ou non prévus au moment de la conception, ou avec des stratégies orientées objectifs qui reportent la planification de l’adaptation au moment de l’exécution en associant des valeurs de fitness aux configurations cibles et en sélectionnant la meilleure d’entre elles. Ces approches proposent des outils supports ayant une complexité calculatoire très importante (en termes de consommation de ressources et de temps d’exécution). Les ressources et le temps sont deux facteurs critiques dans le cas de l’adaptabilité à l’exécution. Dans ce sens, les approches existantes ne sont pas appropriées pour les systèmes embarqués modernes. Cette thèse appréhende le défi de la prise de décision dans les systèmes logiciels embarqués adaptables comme étant un problème de premier plan en ne prenant en considération que le processus de prise de décision qui doit vérifier un certain nombre de contraintes liées aux paramètres du temps et des ressources disponibles. Dans cet ordre d’idée, nous avons défini la notion de dépendance transitive entre les caractéristiques, sur laquelle une nouvelle approche pour le raisonnement sur les modèles de caractéristiques a été proposée dans cette thèse. Afin de supporter la prise de décision, nous avons défini une variante améliorée de l’algorithme génétique pour la sélection de caractéristique, capable d’implémenter le problème particulièrement délicat de l’auto-guérison dans les systèmes embarqués temps réel. En outre, et afin d’analyser les modèles de caractéristiques nous avons implémenté un outil support qui présente l’avantage d’être plus efficace et performant tant sur le plan qualité que sur le plan du temps de calcul.Item Adaptation automatique des systèmes complexes observables dans des environnements dynamiques et incertains(2022-06-21) Ali BoukehilaCe mémoire présente une approche multi-agents pour la simulation d'un système complexe adaptatifs, auto-organisationnel et incertain. L'objectif de cette approche est de détecter l'appariation de comportements imprévus dans le système. L'étude de plusieurs modèles de simulation de vie artificielle ont été utilisé afin de nous aider à comprendre le phénomène de l'émergence. Le modèle que nous avons impliqué dans l'élaboration de notre algorithme de détection est le modèle de simulation multi-agents Boids. Boids est un programme de vie artificielle défini par Reynolds simulant le vol d'un groupe de oiseaux. Détecter et essentiellement comprendre la naissance d'un comportement émergent en utilisant les interactions comme principale ressource est l'objet de cette étude. Nous proposons un algorithme basé sur les interactions entre agents pour identifier les comportements inattendus émergents dans le modèle Boids. Les trois principales contributions de ce travail sont: 1) Utilisation des interactions comme métriques, 2) Détection de l'émergence au moment où elle se produit, 3) Eviter le besoin de stocker les données de simulation pour une analyse post-mortem. Une analyse préalable des interactions est effectuée pour classer les interactions du système. Les résultats montrent que l'algorithme a pu détecter l'apparition de groupes, c'est-à-dire l'émergence dans le modèle Boids. Les résultats de la simulation sont fournis pour illustrer l'efficacité de l'approche proposée. Le modèle proposé est utilisé au sein d’un système multi-agents. Ce dernier, modélisé sous forme d’agent, la flexibilité, le coté autonome des agents est adaptée pour étudier les systèmes complexes adaptatifs et incertains. Un système de simulation a été implémenté pour prouver la faisabilité de l'approche proposée, il vise à détecter des comportements qui sont difficile à prédire, ainsi qu'à les identifier. Le système a été testé avec plusieurs scénarios de vol de oiseaux. L’approche a permis de détecter ces comportements dans le système.Item Adaptation contextuelle et personnalisation pour les systèmes d’information ubiquitaires(2016) Mohamed-Salah BENSELIML‟évolution gigantesque de l‟informatique ubiquitaire nécessite énormément d‟efforts quant à la conception et à la réalisation des systèmes d‟information modernes. Aujourd‟hui, le génie logiciel présente une grande tendance vers le développement d‟applications destinées aux environnements ubiquitaires. Cette tendance sera contrainte par les modalités de prise en charge des paramètres spécifiques de l‟ubiquité (mobilité, hétérogénéité, distribution, etc.). Les applications visées cherchent à satisfaire les préférences de l‟utilisateur de plus en plus nomade et exigeant. La meilleure solution pour atteindre cette satisfaction est de concevoir des applications qui peuvent s‟adapter aux changements continus subis par le contexte d‟utilisation et qui peuvent fournir des informations plus pertinentes et personnalisées. L‟objectif de notre étude est de proposer des moyens et des outils capables d‟assurer un certain degré d‟adaptation et de personnalisation dans les systèmes d‟information ubiquitaires. Par cette proposition, nous visons à enrichir le domaine de la sensibilité au contexte par des concepts qui peuvent contribuer au développement d‟applications contextuellement adaptables. Notre contribution s‟articule autour de trois volets : premièrement, la séparation des préoccupations contextuelles en introduisant le processus 3TUP (3 Track Unified Process) qui permet d‟étudier les contraintes contextuelles indépendamment des autres types de contraintes (métiers et techniques). Deuxièmement, la personnalisation du langage UML (Unified Modeling Language) en proposant un profil UML destiné à la modélisation dans le domaine du context-awareness. Et troisièmement, l‟adaptation contextuelle des applications en intégrant le modèle contextuel (représentation du contexte d‟utilisation seulement) dans le cycle de vie de la MDA par une opération de fusion de modèles. A la fin de cette étude, nous construisons quatre diagrammes UML (classes, cas d‟utilisation, séquences et activités) d‟un exemple en utilisant les nouvelles notations du profil proposé.Item Algorithmes évolutionnaires pour la génération distribuée des espaces d’états dans un environnement dynamiques(2015) DJEHAICHIA BrahimLa vérification formelle des systèmes est un besoin important, en particulier lorsqu’il s’agit de systèmes critiques. L’un des problèmes rencontré lors de la vérification de ces systèmes est le problème de l’explosion combinatoire de l’espace d’états. Une solution pour pallier ce problème consiste en calcul distribué de cet espace. Ceci suppose que le calcul s’effectue sur un réseau. Des solutions existent dans la littérature mais qui ne prennent pas en considération la dynamicité du système distribué. Pour cela nous envisageons la proposition d’algorithmes évolutionnaires pour la génération d’espace d’états dans un environnement dynamique. En effet la recherche d’une distribution optimale prenant en compte deux objectifs contradictoires, à savoir l’équilibrage de charge et la réduction des arcs intersites, reste un problème difficile. D’où la nécessité de rechercher des solutions inspirées de la nature.Item Alignement D’ontologies Hétérogènes Basé Sur Les Raisonneurs(2019-03-02) Saida GherbiLa construction d‘ontologies se base sur la réutilisation d‘ontologies déjà existantes, car la conception d‘ontologies à partir de zéro (from scratch) est un processus long, couteux et très laborieux, parallèlement, elle accentue le phénomène de l‘hétérogénéité des ontologies. Dans ce contexte, l‘alignement des ontologies est la solution pour réaliser plusieurs applications telles que l‘intégration et le rapprochement de ces différentes structures. Cette thèse présente une approche d'appariement d'ontologies appelée ONTMAT1, vise à fournir automatiquement des relations de correspondance entre les deux ontologies hétérogènes à travers divers calculs de similarité entre leurs entités en utilisant des règles d'inférence basées sur la logique de description. Tout d'abord, le problème de recherche des alignements les plus pertinents, cohérents et significatifs est abordé. Ensuite, une stratégie qui garantit la flexibilité et l'évolutivité de l'application grâce à une combinaison de différents appariements est suggérée. De plus, un raisonneur et un dictionnaire WordNet ont été utilisés pour résoudre les problèmes de correspondance habituels rencontrés avec les synonymes. Des exemples illustratifs sont ensuite présentés pour expliquer l'approche développée. L'approche a été simulée et testée en ligne dans le cadre de la tâche de conférence de Ontology Alignment Evaluation Initiative (OAEI) 2019. Les résultats obtenus sont détaillés ici avec des remarques sur les résultats.Item Alignement sémantique des ontologies de grande Taille(2013) Warith-Eddine DJEDDILes ontologies sont des nouvelles formes d'organisation et contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue aux problèmes d'hétérogénéité à savoir : l'hétérogénéité syntaxique, l'hétérogénéité terminologique, l'hétérogénéité conceptuelle et l'hétérogénéité sémiotique. Dans ce cadre, l'alignement s'impose comme une solution, afin de permettre l’interopérabilité et le partage des données. Etant données deux ontologies, l’alignement (appariement ou mise en correspondance) consiste en la production d’un ensemble de correspondances entre les entités. Ces entités peuvent être des concepts, des propriétés ou encore des instances. Cependant la génération automatique des correspondances entre deux ontologies est d’une extrême difficulté qui est due aux divergences (conceptuelle, habitudes, etc.) entre communautés différentes de développement des ontologies. De plus, la problématique d’alignement se pose avec acuité lorsque le nombre et le volume des schémas de données sont importants. En effet, dans les domaines d’applications réelles où les ontologies sont volumineuses et complexes, les exigences de l’exécution du temps et de l’espace mémoire sont les deux facteurs significatifs qui influencent directement la performance d’un algorithme d’alignement. Cette thèse apporte des réponses au problème de l’alignement et de l'hétérogénéité des sources de données. Nous présentons notre système d’alignement XMap++, qui est capable d'élaborer un mapping sémantique en tenant compte du contexte des sources à aligner. Ainsi, nous proposons des stratégies de matching qui peuvent être combinées de façon dynamique en prenant en considération les spécificités sémantiques des concepts. En particulier, le module aligneur supporte quatre modes de combinaison dynamique (e.g. moyenne, pondération dynamique, pondération avec les RNA, fonction sigmoïde) qui leur confère la capacité de choisir parmi les mesures de similarité des entités (e.g., terminologique, linguistique et structurelle) le degré de confiance approprié a chaque matcher pour aligner une entité donnée, considérant des caractéristiques sémantiques spécifiques (e.g. type de données, nature de contenu, etc.). Nous proposons également le principe du vieil adage « diviser pour mieux régner » afin de nous permettre de profiter des différents processeurs disponibles sur la machine pour mener à bien nos calculs lors de l’alignement de ces ontologies de grande taille.Item ALLOCATION DE RESSOURCES DANS LE CLOUD COMPUTING(2016) Mohamed Raouf HABESLe problème de la conception de système multi-agents a reçu une attention croissante ces dernières années. Quand on parle d’agent, il faut le prendre au sens large, car les agents peuvent être sous-forme de robot, personne virtuelle, programme agissant pour le compte d’une tierce personne … Dans cette thèse, nous nous sommes focalisés sur l’application des systèmes multi agents pour l’allocation de ressources dans le cloud. Chaque agent peut avoir sa propre configuration en termes de capacités, préférences, objectifs et contraintes. De plus, la négociation de ressources pour des fins de locations en elle-même est plus complexe par rapport à celle de l’achat, ce qui rend une solution automatisée optimale à ce problème difficile à réaliser. La négociation automatisée est l’approche la plus répandue dans le domaine d’application pour l’allocation de ressources multi-agent. Mais vue que les problèmes pratiques réels impliquent l’incertitude, des agents à intérêt personnels, et l’existence de multiple partenaires et compétiteurs commerciaux, la génération d’une solution optimale en vertu de tels paramètres n’est pas envisageable par rapport aux ressources informatiques de nos jours. C’est pour cela, que dans cette thèse nous avons eu recours à des approches approximatives moins gourmandes en ressources qui sont des approches de négociation de type décentralisées. Où l’acheteur et le vendeur impliqués dans le contrat doivent se mettre d’accord sur le prix des ressources négociées ainsi que sur pénalité de désengagement en cas où une des deux parties ne serait plus intéressée par le contrat en question. Trois contributions ont été proposées dans ce sens, la première consistait à se fier à l’indicateur de confiance de l’autre partie du contrat lors du choix du partenaire commercial, la deuxième à explorer plus en profondeur l’espace d’accords de l’acheteur lors de la formulation de l’offre de ce dernier et la troisième est la stratégie de classification des offres reçues par le vendeur afin d’en retenir que celles considérées comme les plus intéressantes. Nous avons comparé expérimentalement nos approches, en utilisant des scénarios représentatifs et des charges de travail différentes paItem Analyse du signal ECG par les ondelettes(2008) ABID TarekL’électrocardiogramme (ECG) est un outil de mesure de l’activité électrique du cœur. Il offre l’opportunité au médecin de décider de l’état structurel et fonctionnel du cœur d’un patient. Dans ce travail, nous nous intéressons plus particulièrement à l’analyse et à la détection automatique des événements (appelés ondes) constituants ce signal ECG. Il est enregistré par groupe de trois voies. En ECG traditionnel la détection se fait voie par voie. En ECG automatisé il s'agit tout d’abord d'opter pour une représentation unique de l'ensemble de toutes les voies. Plusieurs représentations ont été abordées. Notre approche se base sur l’utilisation de la transformée en ondelette eu égard le signal utilisé et la localisation du début de l’onde QRS. Nous avons choisi l’ondelette de Daubechies, car sa forme est proche de celui du complexe QRS. Pour chaque ondelette de Daubechies (db2, db3,..., db10) et pour chaque niveau de décomposition nous avons calculé l’erreur entre le pointeur référé (donnée du médecin) et le pointeur calculéItem Analyse du signal ECG par les ondelettes(2008) ABID Tarek3 Résumé L’électrocardiogramme (ECG) est un outil de mesure de l’activité électrique du cœur. Il offre l’opportunité au médecin de décider de l’état structurel et fonctionnel du cœur d’un patient. Dans ce travail, nous nous intéressons plus particulièrement à l’analyse et à la détection automatique des événements (appelés ondes) constituants ce signal ECG. Il est enregistré par groupe de trois voies. En ECG traditionnel la détection se fait voie par voie. En ECG automatisé il s'agit tout d’abord d'opter pour une représentation unique de l'ensemble de toutes les voies. Plusieurs représentations ont été abordées. Notre approche se base sur l’utilisation de la transformée en ondelette eu égard le signal utilisé et la localisation du début de l’onde QRS. Nous avons choisi l’ondelette de Daubechies, car sa forme est proche de celui du complexe QRS. Pour chaque ondelette de Daubechies (db2, db3,..., db10) et pour chaque niveau de décomposition nous avons calculé l’erreur entre le pointeur référé (donnée du médecin) et le pointeur calculé. Nous avons montré que l’ondelette de Daubechies d’ordre 9 (db9) est la plus performante car elle permet de localiser 62.58% et 52,26 % de cas avec une erreur dans l’intervalle [-5,+5] et [-4,+4] respectivement. Le meilleur niveau de décomposition était le niveau 4Item Analyse et compression de la vidéo multivues(2014) BEKHOUCH AmaraItem Analyse et recherche dans les réseaux sociaux: Vers la caractérisation et l’identification significative d’une identité de structure noyau possible au sein d’un processus évolutionnaire décrivant la dynamique d’un réseau social(2017) Bilel HamadacheLes réseaux sociaux en ligne se prolifèrent et se diversifient dramatiquement dans différents environnements, permettant de se socialiser, être plus participatifs, de se regrouper, de partager et d’interagir. En parallèle, l’analyse des réseaux sociaux qui cherchait classiquement à découvrir les rôles de leaderships, les structures communautaires, etc. profite de la variété des données sociales et s’évolue également. Mais on s’attend à ce que ces nouveaux progrès soient au service de la gestion, l’innovation des organisations et les challenges des investigations, en se focalisant dans ce travail sur des réseaux qui émergent dans les intranets des organisations et les plateformes de collaborations. Même s’ils sont noyés dans le web social, ces réseaux sociaux doivent être spatialement ou contextuellement référencés. C’est notre point de départ à la recherche des interprétations plus significatives, plus bénéfiques. Nous cherchons dans cette thèse à sonder profondément dans ce type de réseaux afin de comprendre des phénomènes complexes, voir les structures sous-jacentes qui peuvent se produire derrière les besoins de partage d’informations, la durabilité des interactions, dynamique des groupes ainsi que leur sémantique. De ce fait, et à partir des motifs d’analyse ou de fouille, bien motivés, nous concevons des approches plus conceptuelles que statistiques. Nous ajoutons ainsi plus de dimensionnalité : Dynamicité temporelle ou richesse sémantique qui exigerons la définition de méta-modèles de réseaux sociaux. En particulier, nous essayons d’aller au-delà des conceptions statiques pour caractériser, modéliser et révéler une identité significative d’un noyau dominant le processus évolutionnaire d’un réseau social d’une organisation. Une classe élite qui affichera un comportement typique qui réunit tous les concepts de persistance, de centralité et de stabilité de centralité dans le temps. D’autre part, cela nous ouvre la voie pour étudier quelques aspects de modélisation sémantiques qui seront abordés dans le domaine métier du e-learning Social, au-delà des représentations topologiques. Nous verrons que le potentiel, la connectivité, l’esprit de collectivité seront paramétrés et varient sémantiquement selon différents points de vue.Item Analyse et Reconnaissance des Activités Humaines à partir des Séquences Vidéo(2019) LADJAILIA AmmarL’objectif principal de cette thèse est la reconnaissance et l’analyse auto matiques des activités humaines à partir de séquences vidéo afin de déterminer quelles sont les activités humaines qui se produisent. Ce domaine s’impose récem ment comme un thème de recherche fondamentale dans le domaine de la vision par ordinateur et l’apprentissage automatique. Ce problème est particulièrement difficile en raison d’énormes variations dans les aspects visuels et de mouvement des personnes et des actions, les changements de point de vue, le fond mobile, des occlusions, la présence de bruits, ainsi que l’énorme quantité de données vidéo. De nombreuses applications sont liées à ce domaine telles que la sécurité, la santé et le sport, ainsi que les voitures autonomes. Dans cette thèse, nous proposons un descripteur de mouvement basé sur l’estimation de flux optique pour la reconnaissance des actions humaines en ne prenant en compte que les caractéristiques dérivées du mouvement. La signature de l’action humaine se compose d’un histogramme contenant des caractéristiques cinématiques qui incluent les caractères locaux et globaux. Les résultats expéri mentaux réalisés sur les bases de données Weizmann et UCF101 ont confirmé le potentiel de l’approche proposée avec des taux de classification atteints de 98,76% et 70% respectivement pour distinguer les différentes actions humaines. Pour l’ana lyse comparative et l’analyse de la performance, différents types de classifieurs sont utilisés tels que KNN , Arbre de décision et SVM à la base du descripteur proposé et on a aussi utilisé le Deep Learning. Une analyse plus approfondie est effectuée pour évaluer ce descripteur en fonction des différents types de contraintes telles que la faible résolution de la vidéo et le saut des trames. Les résultats obtenus sont en harmonie avec les premières études psychologiques indiquant que le mouvement humain est adéquat pour la perception des activités humaines.Item Animation du visage à base de reconnaissance des expressions faciales(2023) BORDJIBA, YaminaLes expressions faciales jouent un rôle crucial dans l'animation faciale car elles permettent de communiquer les émotions et les intentions de manière claire et précise. Elles donnent vie aux personnages en leur permettant de montrer une gamme d'émotions et de réactions réalistes et crédibles. Les animateurs peuvent être amenés à donner manuellement des expressions faciales aux personnages virtuels. Cependant, cette tâche prend du temps et l'animateur peut manquer des expressions subtiles.Item Application et Modélisation d’un protocole de communication pour la sécurité routière(2014) Djamel BEKTACHELes réseaux VANET appartiennent à un domaine de recherche d’actualité à savoir les communications V2V et leur apport à la sécurité routière. La collision et sa prévention dans ce type de réseaux est une problématique très intéressante par sa dimension humaine et économique. En Algérie, le nombre des accidents de la route ne cesse de croître. La situation est devenue préoccupante vu le nombre de victimes qui dépasse celui recensé suite à des maladies mortelles ou des catastrophes naturelles. Dans ses conditions, la sécurité routière est devenue un sujet transversal dans le contexte de cette thèse, elle concerne l’ensemble des connaissances, dispositifs et mesures visant à éviter les accidents de la route. Des études montrent que la plupart des collisions pourraient être évitées si les usagers de la route étaient alertés juste à temps. La communication V2V est vue comme une solution prometteuse pour les systèmes de transport intelligents, elle est considérée comme l’une des solutions qui permettent aux véhicules d’échanger des informations pertinentes à savoir (position, vitesse, accélération, angle de braquage). La modélisation et la simulation sont utilisées comme outils de conception et de tests pour le développement de nouvelles approches de communications. Nous avons proposé une nouvelle architecture de communication dans un réseau VANET. La notion d’estimation des paramètres microscopiques (position, vitesse et la direction) est la clé de cette architecture, elle est basée sur la modélisation cinématique de type véhicule et la méthode de Filtre de Kalman dans les estimations des trajectoires. La communication des messages est établie entre des entités du même réseau : le véhicule en question (SV) et ses véhicules voisins (OV) par le biais d’une norme sans-fil appelée DSRC (Dedicated Short Range Communication), qu’est un nouveau standard dédié aux communications inter véhicules. Nous nous sommes intéressés dans cette thèse à la conception, la modélisation et à la simulation d’une approche de prédiction FCAA (Forecasting collision Avoidance Approach). Cette approche est basée sur la détection, la prédiction et l'évitement de la collision. L’approche proposée a été validée par la simulation de scénarios d’intersections réels extraits de la ville d’Annaba. Les résultats obtenus démontrent que l’approche FCAA dans l’évitement des collisions est validée avec un taux significatifItem Apports des Approches de Séparation Avancée des Préoccupations : Une Etude Comparative Fondée sur les Modèles de Conception(2015) OTMANE RACHEDI (DEBBOUB) Soumeyala présente thèse traite un des problèmes importants du génie logiciel qui celui du choix de l’approche de séparation des préoccupations adéquate lors du développement d’un logiciel donné. En effet, l’augmentation de la taille et de la complexité des projets logiciels a favorisé l’apparition de nombreuses approches de séparation des préoccupations, ce qui en soit rend le choix d’une approche donnée difficile. Cette difficulté s’accentue davantage lorsqu’on se rend compte que ces approches sont sophistiquées et apportent de nouveaux concepts et mécanismes qui sont parfois difficiles à maitriser même pour les développeurs expérimentés. Ce travail de recherche étudie les nouvelles approches de séparations des préoccupations. La démarche que nous avons adoptée consiste à faire une étude comparative entre trois des plus importantes approches qui existent actuellement. A cet effet, et vu le degré de sophistication des approches de séparation des préoccupations, nous avons eu recours à l’idée originale d’utiliser les patrons de conception comme des benchmarks hypothétiques et d’étudier comment les trois approches implémentent les patrons de conception. Cette idée a été efficace et nous a permis d’aboutir à des résultats prometteurs, ce que nous attendions, car les patrons de conception couvrent la plus part des problèmes liés à la conception des grands logiciels et donc ils constituent une mise à l’épreuve réelle des approches de séparation des préoccupations. Nous avons réalisé deux sortes de comparaison : quantitative et qualitative. Dans la première comparaison, nous avons utilisé les mesures structurelles et de performance, le résultat de cette dernière concerne les plus importants facteurs d’analyse des logiciels comme le couplage et la cohésion. La deuxième comparaison est qualitative, elle se base sur quelques remarques observées au cours des phases de compréhension ou d’implémentation des patrons de conceptions. Mots Clés AspectJ, JBoss AOP, CaesarJ, patrons de conception, métriques logicielles, séparation des préoccupations. LItem Apprentissage approfondi des réseaux de neurones artificiels pour l'approximation de séries temporelles(2017) Farfar kheir EddineItem Apprentissage hybride adaptatif pour les systèmes évolutifs(2013) MAMINE SanaLe travail présenté dans ce document se situe dans le domaine général de l’apprentissage automatique. Il se concentre principalement sur les problèmes posés au niveau des systèmes évolutifs qui sont censés avoir la capacité d’intégrer, dans un système déjà entraîné, de nouvelles connaissances telles que de nouvelles données d’apprentissage ou de nouvelles classes. L’adaptabilité ou la capacité d’évolution représente l'une des limitations les plus fondamentales des techniques d’apprentissage qui sont actuellement relativement efficaces dans le cas statique. De ce fait, les méthodes classiques sont souvent inefficaces pour répondre aux nouveaux besoins des applications actuelles où des flux continus de gros volumes de données sont disponibles. L’apprentissage adaptatif ou incrémental concerne des problèmes complexes, dynamiques et évolutifs, avec des données de natures et d'origines différentes, hétérogènes et bruitées. Ce type d’apprentissage représente l’une des préoccupations majeures de la communauté de l’apprentissage automatique et constitue un champ de recherche ouvert qui a fait l’objet plusieurs types de travaux. Nous avons appréhendé cette problématique en étudiant l’apport de l’hybridation des paradigmes du soft-computing sur la capacité d’adaptabilité et d’évolution de l’apprentissage. Notre intérêt se focalise principalement sur les méthodes connexionnistes, les algorithmes génétiques et la logique floue. Nous nous sommes concentrés sur l’étude de leurs possibilités d’hybridation dans le cadre de la conception de systèmes intelligents évolutifs. Dans ce cadre, nous proposons un système hybride de classification d’images capable de s’adapter de manière incrémentale aux changements de l’environnement. Ce système est conçu en utilisant une intégration d’approches issues du soft computing dans le domaine applicatif de la classification d’images. L’approche proposée pour la classification adaptative incrémentale d’images est basée sur un système neuro-flou évolutif qui consiste à apprendre des règles de classification par un réseau de neurones flou, puis optimiser ces règles par les algorithmes génétiques. La base d’images utilisée pour l’évaluation de ce système est la base « Image Segmentation » de l’UCI Machine Learning Repository.Item Apprentissage par compétences(Université Badji Mokhtar Annaba, 2023) RAHMOUNI, NesrineNos travaux portent sur les Environnements Informatiques pour l’apprentissage humain(EIAH). Nous nous intéressons particulièrement au diagnostic des compétences des apprenants. Le diagnostic des compétences permet de dresser une vue globale sur les acquis, les lacunes et les besoins de chaque apprenant facilitant ainsi la personnalisation des apprentissages. Un module de diagnostic s’appuie en général sur l’analyse des traces d’interaction de l’apprenant avec l’EIAH. Dans notre contexte en particulier, le module de diagnostic s’appuie sur les résultats d’évaluation qui sont issus des interprétations (parfois subjectives) des formateurs, ou des processus d’évaluation automatique.Item Approche de Navigation Coopérative et Autonome des Robots Mobiles (Application sur un chantier de construction)(2016) Abdelmadjid BENMACHICHECette thèse entre dans le cadre de la problématique de la navigation coopérative de robots mobiles autonomes, et se focalise principalement sur un type de système et d‟application spécifiques, en l‟occurrence, le chantier de construction. Il s‟agit ainsi de produire un environnement de robotique spécifique où les robots mobiles autonomes doivent coopérer pour prendre en charge les taches relevant de ce chantier. Notre travail offre une vision non exhaustive des thématiques de recherche associées au domaine de la robotique mobile, et présente les verrous scientifiques qui restent à lever pour aboutir au développement d‟un robot autonome. L‟autonomie de ce dernier requiert la réalisation coordonnée de taches de commande et de perception de l‟environnement. Parmi celles-ci, la navigation joue un rôle fondamental dans l‟interaction du robot avec son environnement d‟évolution. Elle consiste en la détermination de trajectoires réalisables par le robot pour suivre un chemin préétabli, tout en contournant les obstacles mobiles ou fixes. Pour effectuer cette tache, notre approche s‟appuie sur les algorithmes génétiques de plus court chemin. Le problème de navigation est alors modélisé sous la forme d‟un problème d‟optimisation sous contraintes dont la fonction fitness quantifie l‟écart entre le meilleur chemin du robot et les autres chemins aléatoires. Les obstacles sont intégrés sous forme de contraintes en pénalisant le déplacement des robots ; l‟objectif étant de permettre à ces robots de changer de position en évitant les obstacles. Notre approche a été implémentée et plusieurs cas de figures ont été testés. Les résultats obtenus démontrent la robustesse de la méthode déployée ainsi que ses performances.