Théses de doctorat
Permanent URI for this collection
Browse
Browsing Théses de doctorat by Title
Now showing 1 - 20 of 140
Results Per Page
Sort Options
Item AMELIORATION DU RAPPORT SIGNAL-SUR-BRUIT DES SIGNAUX POTENTIELS EVOQUES INDIVIDUELS PAR APPLICATION DE LA TRANSFORMEE EN ONDELETTES ASSOCIEE A LA METHODE DU BOOTSTRAP(2019-05-10) Besma BenchabaneLe potentiel évoqué cognitif se dé nit comme la modi cation de l'activité électrique du système nerveux central en réponse à une stimulation extérieure qu'elle soit auditive ou visuelle. Le potentiel évoqué cognitif est un signal transitoire noyé dans l'activité spontanée du cerveau avec un faible rapport signal sur bruit variant entre -10 dB et -15 dB. Pour extraire une réponse évoquée de l'activité spontanée du cerveau, les neurophysiologistes utilisent la moyenne des essais comme signal leur permettant d'analyser la réaction du sujet aux stimuli. L'analyse de la moyenne seule ne permet pas de voir les variations du signal à travers les enregistrements. Dans la présente étude, nous proposons une méthode basée sur la transformée en ondelettes associée à la méthode statistique du bootstrap pour extraire les signaux individuels du bruit. La méthode proposée dans ce travail a été comparée avec d'autres méthodes publiées dans la littérature technique et scienti que. Nous avons e ectué la comparaison en utilisant des signaux de simulation et des données réelles. Pour mener à bien, cette comparaison, nous avons utilisé des données réelles issu du protocole de l'onde de l'erreur. Pour comparer les performances des di érentes méthodes en simulation, nous avons utilisé comme critère, le rapport signal sur bruit et l'erreur quadratique moyenne. Pour comparer les résultats obtenus sur des signaux réels, nous avons utilisé deux méthodes d'estimation du rapport signal sur bruit, la première basée sur la moyenne alternée et la deuxième utilise la corrélation entre deux signaux successifs. Les résultats obtenus en simulation et sur les signaux réels montrent bien que les performances de la méthode que nous proposons sont supérieures aux performances des autres méthodes notamment quand le rapport signal sur bruit est faible.Item AMELIORATION DU RAPPORT SIGNAL-SUR-BRUIT DES SIGNAUX POTENTIELS EVOQUES INDIVIDUELS PAR APPLICATION DE LA TRANSFORMEE EN ONDELETTES ASSOCIEE A LA METHODE DU BOOTSTRAP(2019) Besma BenchabaneLe potentiel évoqué cognitif se dé nit comme la modi cation de l'activité électrique du système nerveux central en réponse à une stimulation extérieure qu'elle soit auditive ou visuelle. Le potentiel évoqué cognitif est un signal transitoire noyé dans l'activité spontanée du cerveau avec un faible rapport signal sur bruit variant entre -10 dB et -15 dB. Pour extraire une réponse évoquée de l'activité spontanée du cerveau, les neurophysiologistes utilisent la moyenne des essais comme signal leur permettant d'analyser la réaction du sujet aux stimuli. L'analyse de la moyenne seule ne permet pas de voir les variations du signal à travers les enregistrements. Dans la présente étude, nous proposons une méthode basée sur la transformée en ondelettes associée à la méthode statistique du bootstrap pour extraire les signaux individuels du bruit. La méthode proposée dans ce travail a été comparée avec d'autres méthodes publiées dans la littérature technique et scienti que. Nous avons e ectué la comparaison en utilisant des signaux de simulation et des données réelles. Pour mener à bien, cette comparaison, nous avons utilisé des données réelles issu du protocole de l'onde de l'erreur. Pour comparer les performances des di érentes méthodes en simulation, nous avons utilisé comme critère, le rapport signal sur bruit et l'erreur quadratique moyenne. Pour comparer les résultats obtenus sur des signaux réels, nous avons utilisé deux méthodes d'estimation du rapport signal sur bruit, la première basée sur la moyenne alternée et la deuxième utilise la corrélation entre deux signaux successifs. Les résultats obtenus en simulation et sur les signaux réels montrent bien que les performances de la méthode que nous proposons sont supérieures aux performances des autres méthodes notamment quand le rapport signal sur bruit est faibleItem Amélioration du signal de la parole par les filtres de Kalman(2022-04-02) MELLAHI TarekLes algorithmes d’amélioration de la parole ont été utilisés avec succès dans nombreux domaines tels que les téléphones portables, les téléphones mains libres, la téléconférence, la communication dans la cabine de voiture, les pro thèses auditives et les services vocaux automatisés basés sur la reconnaissance et la synthèse de la parole. Des nombreuses approches sont présentées dans la littérature. Cette thèse se concentre sur l’amélioration de la parole dégradée par un bruit blanc ou un bruit coloré d’un seul canal de réception (réception par mono-capteur). Dans ce travail, nous sommes concernés par une nouvelle conception de filtrage de Kalman itératif où les paramètres d’un modèle prédictif linéaire sont estimés à partir d’un signal de parole bruité. Cependant, lorsque le seul signal disponible est corrompu par un bruit, les performances d’amélioration du filtre de Kalman dépendent de la précision des estimations des coefficients de prédiction linéaire (LPCs) et de la variance d’excitation. Néanmoins, on sait que l’analyse de la parole par la prédiction linéaire (LPC) est sensible à la présence de bruit additif. Pour surmonter ce problème, nous présentons une analyse et une appli cation de la méthode d’amélioration des formants (FEM) basée sur les co efficients LPC en modifiant le spectre d’amplitude logarithmique du modèle LPC puis en réévaluant les nouveaux LPCs pour les implémenter au filtre de Kalman. Ces derniers LPCs sont des indicateurs utiles de la performance du filtre de Kalman. Dans les algorithmes ci-dessus, le modèle vocal est supposé linéaire. Les modèles du signal de parole non linéaires sont également considérés dans cette thèse. Pour résoudre le problème du modèle non linéaire, nous étudions deux algorithmes d’amélioration (entraînement au filtre Kalman étendu et au filtre de Kalman non parfumé (UKF) d’un perceptron multicouche (MLP)). Nos expériences d’amélioration utilisent le corpus vocal NOIZEUS où les méthodes proposées atteignent des bons résultats (objectifs et subjectifs) en comparant par des autres méthodes d’amélioration.Item Analyse et Interprétation du Signal ECG(2018-05-05) GAMOURI SabahLe signal électrocardiogramme (ECG) est un signal non stationnaire. Il traduit l’activité électrique du cœur et reflète l’état de santé du système cardiovasculaire. Ainsi, Il contient aussi des informations qui permettent la distinction des pathologies cardiovasculaires. Le taux élevé de mortalité dans le monde dû aux problèmes liés au dysfonctionnement du cœur a poussé les chercheurs à développer des techniques d'analyse et d'interprétation du signal cardiaque ECG pour permettre un bon diagnostic afin de détecter automatiquement les anomalies. Après avoir éliminé le bruit, la procédure de détection nous permettra de détecter les différentes ondes (P, QRS, T). L’extraction des paramètres pertinents et la classification ainsi que la discrimination des arythmies et des anomalies cardiaques nous serviront à faire un bon diagnostic sur la pathologie. Pour le traitement du signal ECG, nous avons étudié l’application des filtres de Kalman non linéaires récents tels que l'EKF, l’UKF et l'SRUKF avec les réseaux de neurones multicouches (MLP). Le but est de sélectionner le filtre le plus efficace au débruitage des signaux ECG synthétiques et réels bruités par différents types de bruits. Les bases de données d’arythmie et de tests du bruit de stress MIT/BIH ont été utilisées pour vérifier l’efficacité de la méthode proposée pour le traitement du signal ECG. Le filtre de l'SRUKF-MLP obtenu a donné des résultats satisfaisants en comparaison avec le meilleur filtre existant. Dans la deuxième partie du travail réalisé, nous proposons une méthode pour la reconnaissance automatique des battements cardiaques en utilisant l'EKF-MLP. Un algorithme dédié à la détection du complexe QRS est d’abord implémenté, suivi du développement d’un classificateur à base d'EKF-MLP. Les résultats expérimentaux obtenus en testant l'approche proposée sur les enregistrements ECG de la base de données MIT-BIH démontrent l'efficacité d'une telle approche avec un taux global de classification égale à 98.7%.Item Analyse et Interprétation du Signal ECG(2018) GAMOURI SabahLe signal électrocardiogramme (ECG) est un signal non stationnaire. Il traduit l’activité électrique du cœur et reflète l’état de santé du système cardiovasculaire. Ainsi, Il contient aussi des informations qui permettent la distinction des pathologies cardiovasculaires. Le taux élevé de mortalité dans le monde dû aux problèmes liés au dysfonctionnement du cœur a poussé les chercheurs à développer des techniques d'analyse et d'interprétation du signal cardiaque ECG pour permettre un bon diagnostic afin de détecter automatiquement les anomalies. Après avoir éliminé le bruit, la procédure de détection nous permettra de détecter les différentes ondes (P, QRS, T). L’extraction des paramètres pertinents et la classification ainsi que la discrimination des arythmies et des anomalies cardiaques nous serviront à faire un bon diagnostic sur la pathologie. Pour le traitement du signal ECG, nous avons étudié l’application des filtres de Kalman non linéaires récents tels que l'EKF, l’UKF et l'SRUKF avec les réseaux de neurones multicouches (MLP). Le but est de sélectionner le filtre le plus efficace au débruitage des signaux ECG synthétiques et réels bruités par différents types de bruits. Les bases de données d’arythmie et de tests du bruit de stress MIT/BIH ont été utilisées pour vérifier l’efficacité de la méthode proposée pour le traitement du signal ECG. Le filtre de l'SRUKF-MLP obtenu a donné des résultats satisfaisants en comparaison avec le meilleur filtre existant. Dans la deuxième partie du travail réalisé, nous proposons une méthode pour la reconnaissance automatique des battements cardiaques en utilisant l'EKF-MLP. Un algorithme dédié à la détection du complexe QRS est d’abord implémenté, suivi du développement d’un classificateur à base d'EKF-MLP. Les résultats expérimentaux obtenus en testant l'approche proposée sur les enregistrements ECG de la base de données MIT-BIH démontrent l'efficacité d'une telle approche avec un taux global de classification égale à 98.7%.Item ANALYSE, REGLAGE ET CONCEPTION DES CORRECTEURS PIλD μ D’ORDRE FRACTIONNAIRE POUR LA COMMANDE DES SYSTEMES(2019-05-10) Kaddour GHERFIRécemment, les opérateurs et les systèmes d’ordre fractionnaire ont investi tous les domaines de la commande classique par leur utilisation dans la conception de correcteurs et d’algorithmes pour la commande des systèmes dynamiques. Malgré l’introduction de beaucoup de correcteurs et d’algorithmes d’ordre fractionnaire, un travail de recherche continu et intensif pour le développement de nouvelles techniques de commande d’ordre fractionnaire est toujours en cours pour le rehaussement et l’amélioration de la qualité des performances et de la robustesse des systèmes de commande. Dans ce travail, des méthodes de conception de correcteurs fractionnaires en utilisant les opérateurs et les systèmes fractionnaires ont été développées pour des systèmes de commande à retour unitaire dont les processus sont représentés par un modèle du premier ordre avec retard afin d’améliorer la qualité de ses performances caractéristiques et sa robustesse. Des exemples illustratifs ont été présentés pour valider l’efficacité et la flexibilité des méthodes proposées dans la conception des correcteurs fractionnaires. Les résultats de simulation obtenus ont été comparés à ceux obtenus en utilisant des correcteurs classiques et d'ordre fractionnaires pour les mêmes systèmes pour montrer l'amélioration des performances caractéristiques et de la robustesse apportées par les correcteurs fractionnaires proposés.Item ANALYSE, REGLAGE ET CONCEPTION DES CORRECTEURS PIλD μ D’ORDRE FRACTIONNAIRE POUR LA COMMANDE DES SYSTEMES(2019) Kaddour GHERFIRécemment, les opérateurs et les systèmes d’ordre fractionnaire ont investi tous les domaines de la commande classique par leur utilisation dans la conception de correcteurs et d’algorithmes pour la commande des systèmes dynamiques. Malgré l’introduction de beaucoup de correcteurs et d’algorithmes d’ordre fractionnaire, un travail de recherche continu et intensif pour le développement de nouvelles techniques de commande d’ordre fractionnaire est toujours en cours pour le rehaussement et l’amélioration de la qualité des performances et de la robustesse des systèmes de commande. Dans ce travail, des méthodes de conception de correcteurs fractionnaires en utilisant les opérateurs et les systèmes fractionnaires ont été développées pour des systèmes de commande à retour unitaire dont les processus sont représentés par un modèle du premier ordre avec retard afin d’améliorer la qualité de ses performances caractéristiques et sa robustesse. Des exemples illustratifs ont été présentés pour valider l’efficacité et la flexibilité des méthodes proposées dans la conception des correcteurs fractionnaires. Les résultats de simulation obtenus ont été comparés à ceux obtenus en utilisant des correcteurs classiques et d'ordre fractionnaires pour les mêmes systèmes pour montrer l'amélioration des performances caractéristiques et de la robustesse apportées par les correcteurs fractionnaires proposésItem Applications des similaritons dans les systèmes de télécommunications par fibre optique à très haut débit(2017-03-15) GRAINI LeilaCette thèse a pour objectif d’appliquer les impulsions similaritons dans les systèmes de télécommunications par fibre optique à très haut débit. Tout d’abord, nous présentons une nouvelle méthode pour la génération de similaritons fonctionnant aux longueurs d’onde des télécommunications optiques, en exploitant d’avantage les caractéristiques d’une fibre microstructurée à cristal photonique en raison de sa non linéarité élevée et sa dispersion normale faible. Les propriétés intéressantes du processus d'amplification par l'effet Raman nous permet notamment d’avoir un rendement en puissance amélioré. Cette méthode permettant la génération de similaritons à spectre large, puissant, réduisant ainsi la longueur de fibre nécessaire à quelques mètres. Les résultats obtenus nous servirons des bases pour les deux applications envisagés. Pour ce qui concerne les transmissions WDM, nous étudions le concept supercontinuums à partir du spectre de simlariton optique qui après découpage spectral par un démultiplexeur optique, génère une source multi-longueurs d’onde. Il est donc possible de générer N canaux identiques ayant des longueurs d’ondes différentes avec les mêmes propriétés que l’unique source initiale. Ceci permet de réduire la complexité du système de transmission tout en entrainant l’amélioration sensible de ses performances. L’intérêt en termes de coûts est alors significatif. Quant aux transmissions OTDM, nous appliquons les propriétés des similaritons optiques principalement au domaine de la régénération d’un signal optique à très haut débit. Car pour de tels débits, l’électronique a atteint ses limites et n’est plus compétitive. L’utilisation d’une technique de régénération 2R tout optique est donc incontournable. La technique dite de Mamyshev est considérée actuellement comme l’une des plus prometteuses dans la régénération des signaux optiques. Nous combinons alors les apports de similaritons avec cette technique. Nous étudions également une configuration à deux étages qui permet de restaurer la longueur d’onde initiale en se basant sur l’élargissement auto-similaire.Item Architectures numériques versatiles avancées pour la transmission sans fil de données à très haut débit(2016-03-12) BENHAOUES AtefDans un contexte de multiplication des normes de télécommunications aux spécifications distinctes, nos travaux de recherche définissent une architecture reconfigurable pour des terminaux radio multistandard. Aujourd’hui les multiples normes et standards de télécommunications envahissent nos vies quotidiennes. Par conséquent le défi actuel est de concevoir de nouvelles architectures entièrement numériques, en plus elles sont capables de prendre en charge de nombreuses fonctions, cela conduit à éviter l'utilisation de nombreux circuits pour ces différentes fonctions. La radio logicielle a été créée pour fournir à l’utilisateur un terminal unique capable de naviguer entre les multiples standards de radiocommunication. Les premiers travaux de la radio logicielle supposent qu’avec un processeur généraliste on peut supporter l’ensemble des traitements nécessaires de plusieurs standards. Cependant l’utilisation d’un processeur généraliste ne répond pas à plusieurs contraintes tels que, la consommation, l’occupation de ressources matérielles et la puissance de calcul. Afin d'accéder à la combinaison "reconfiguration temps réel/généricité du terminal", nous avons choisi la technique de la paramétrisation et l’approche d’opérateur commun. Cette technique demande à faire une synthèse des travaux concernant les architectures numériques pour la modulation et le codage canal pour les différents standards et normes, dont le but est de trouver les similarités entre les différentes architectures. Ces similarités permettent de définir des blocs génériques pouvant être réutilisés facilement par un simple téléchargement de paramètres. Ceci permet d’obtenir un équipement multistandards reconfigurable et évolutif tout en limitant l’occupation en ressource matérielle et le temps de reconfiguration. Dans ce travail de thèse, nous avons identifié les similarités entre les unités de désétalement dans le récepteur Rake, la cellule de l’algorithme Cordic et l'élément de traitement (PE) pour le FFT-SDF (Fast Fourier Transform path Single Delay Feedback) pour proposer une architecture générique capable de prendre en charge les trois fonctionnalités. L'architecture proposée est codée en utilisant le VHDL sur un FPGA Virtex-5 et les résultats sont comparés à des travaux similaires. La mise en œuvre démontre que l'architecture proposée peut fournir une forte réduction de la consommation en logique dans le FPGA avec une très haute fréquence de travail. L’architecture proposée peut facilement prendre en charge d’autres fonctions comme le décodage de Viterbi. Dans la deuxième partie de ce manuscrit nous avons proposée deux architectures versatiles et génériques : la première architecture proposée est utilisée pour la modulation numérique de plusieurs types de modulation (QAM, PSK et FSK). La deuxième architecture proposée est utilisée pour la démodulation numérique, le code de convolution et le code de brouillage (Gold). Les deux architectures montrent une très faible consommation en ressource dans le FPGA et une fréquence de fonctionnement très grande.Item Architectures numériques versatiles avancées pour la transmission sans fil de données à très haut débit(2016) BENHAOUES AtefDans un contexte de multiplication des normes de télécommunications aux spécifications distinctes, nos travaux de recherche définissent une architecture reconfigurable pour des terminaux radio multistandard. Aujourd’hui les multiples normes et standards de télécommunications envahissent nos vies quotidiennes. Par conséquent le défi actuel est de concevoir de nouvelles architectures entièrement numériques, en plus elles sont capables de prendre en charge de nombreuses fonctions, cela conduit à éviter l'utilisation de nombreux circuits pour ces différentes fonctions. La radio logicielle a été créée pour fournir à l’utilisateur un terminal unique capable de naviguer entre les multiples standards de radiocommunication. Les premiers travaux de la radio logicielle supposent qu’avec un processeur généraliste on peut supporter l’ensemble des traitements nécessaires de plusieurs standards. Cependant l’utilisation d’un processeur généraliste ne répond pas à plusieurs contraintes tels que, la consommation, l’occupation de ressources matérielles et la puissance de calcul. Afin d'accéder à la combinaison "reconfiguration temps réel/généricité du terminal", nous avons choisi la technique de la paramétrisation et l’approche d’opérateur commun. Cette technique demande à faire une synthèse des travaux concernant les architectures numériques pour la modulation et le codage canal pour les différents standards et normes, dont le but est de trouver les similarités entre les différentes architectures. Ces similarités permettent de définir des blocs génériques pouvant être réutilisés facilement par un simple téléchargement de paramètres. Ceci permet d’obtenir un équipement multistandards reconfigurable et évolutif tout en limitant l’occupation en ressource matérielle et le temps de reconfiguration. Dans ce travail de thèse, nous avons identifié les similarités entre les unités de désétalement dans le récepteur Rake, la cellule de l’algorithme Cordic et l'élément de traitement (PE) pour le FFT-SDF (Fast Fourier Transform path Single Delay Feedback) pour proposer une architecture générique capable de prendre en charge les trois fonctionnalités. L'architecture proposée est codée en utilisant le VHDL sur un FPGA Virtex-5 et les résultats sont comparés à des travaux similaires. La mise en œuvre démontre que l'architecture proposée peut fournir une forte réduction de la consommation en logique dans le FPGA avec une très haute fréquence de travail. L’architecture proposée peut facilement prendre en charge d’autres fonctions comme le décodage de Viterbi. Dans la deuxième partie de ce manuscrit nous avons proposée deux architectures versatiles et génériques : la première architecture proposée est utilisée pour la modulation numérique de plusieurs types de modulation (QAM, PSK et FSK). La deuxième architecture proposée est utilisée pour la démodulation numérique, le code de convolution et le code de brouillage (Gold). Les deux architectures montrent une très faible consommation en ressource dans le FPGA et une fréquence de fonctionnement très grande.Optimized architectural synthesisItem Automatisation et conduite de serres (fleurs et légumes)(Université Badji Mokhtar Annaba, 2024) LACHOURI, Charaf EddineL’objectif principal de la production végétale sous serre est d’optimiser les revenus financiers des agriculteurs, ceci est réaliser en trouvant un juste équilibre entre l'optimisation de la qualité et de la quantité des produits issus de l'horticulture et la maitrise des couts financiers indispensable pour obtenir les conditions climatiques spécifiques requises pour favoriser la croissance de la plante. La croissance de la plante est principalement déterminée par les facteurs climatiques environnementaux, le niveau d'humidité et l'apport en engrais. Tandis que la serre représente un environnement clos où les paramètres climatiques et l'irrigation fertilisante sont sous contrôle. Cette thèse est structurée en quatre chapitres, Le premier chapitre (I) est réservé à la présentation d’une serre dans le cadre générale d’une gestion automatisée. Le deuxième chapitre (II) est réservé à la présentation d’un modèle de connaissance de la croissance de la plante (cas de la tomate) Le troisième chapitre (III) est réservé à la présentation d’un outil générique basé sur les concepts de la logique floue et les réseaux de neurones pour contrôler le comportement interne de la serre. Il constitue l’essence même de notre travail : l’application de cet outil générique pour contrôler le comportement de l’environnement interne d’une serre basée sur des données réelles. Le quatrième chapitre (IV) est réservé à la présentation d’une implémentation d’un contrôleur neuro-flou sur une carte FPGA.Item Codage et compression de vidéo multi-vues robuste aux erreurs de transmission(2023) Belbel; AmelThe latest multi-view video coding generation MV-HEVC exploited effectively the inter-view redundant information in multi-view videos and provided high compression efficiency. However, increasing the distance between cameras during multi-view videos acquisition created an inter-view disparity. This latter, influenced the inter-view similarities and affected the disparity estimation which required an individual estimation for each coding unit. Consequently, this increased the computational complexity of the MV-HEVC encoder.Item CODAGE ET COMPRESSION D’IMAGES POUR DES RESEAUX DE CAPTEURS SANS FIL(2014) KOUADRIA NasreddineLes réseaux de capteurs sans fil d’images sont utilisés aujourd’hui dans de nombreuses applications qui diffèrent par leurs objectifs et leurs contraintes individuelles. Toutefois, le dénominateur commun de toutes les applications de réseaux de capteurs d’images reste leur énergie qui est limitée. La contribution de cette thèse porte principalement sur l’étude et l’évaluation d’une transformée en cosinus discrète efficace en énergie.La transformée proposée peut être utilisée dans la compression d'image utilisée dans les réseaux de capteurs sans fil d’images. Il s'agit d'une combinaison de transformées en cosinus discrète de faibles complexités, récemment proposées et une approche d’une DCT zonale. Ainsi, la complexité de calcul est réduite de manière significative. Les résultats expérimentaux montrent que la transformée proposée conduit à une réduction significative des temps de calcul au niveau du nœud capteur. Ceci, se traduira par une économie en énergie. La DCT proposée est très souhaitable pour l’implantation dans les réseaux de capteurs sans fil alimentés par des batteries embarquées.Item Commande adaptative et gestion de l’énergie d’un véhicule électrique(2021-12-01) ZINE BachirThe objective of this work is to develop a battery charge estimator based on a series of charge / discharge tests (experimentation) in order to develop an accurate estimator. For this reason, we made a theoretical and experimental study of the SOC estimation technique which is a coulomb counting method. This estimate will depend on the battery technology, its electrical characteristics but also the ambient temperature. Thus, this information on the state of charge is used for energy management in an electric vehicle, in order to adapt the robust control of the motor converterItem Commande des systèmes dynamiques linéaires et non linéaires par la stratégie prédictive(2006) Mohamed Larbi SAIDILa notion de prédiction se voit de plus en plus importante dans la commande des systèmes automatiques, les décisions à prendre selon un comportement futur prédit. Dans cette optique, le travail présenté dans cette thèse s’articule autour d’une stratégie de commande utilisant un modèle de prédiction. Le but de cette thèse est de développer des techniques de commande prédictive pour les systèmes dynamiques linéaires et non linéaires. D’abord, il est énoncé la loi de commande prédictive généralisée pour les systèmes linéaire ainsi que ses différentes caractéristiques. Ensuite, la version non linéaire de cette stratégie de commande est introduite. En effet, deux approches de la commande prédictive non linéaire sont présentées, la première est basée sur l’exploitation du prédicteur neuronal à un pas dans le calcul des prédictions, et la seconde est fondée sur l’utilisation d’un réseau de neurones comme extracteur de modèle linéaire autour d’un (ou plusieurs) point(s) de fonctionnement. Enfin, dans le cadre de la lutte contre les accidents de la route, cette loi de commande prédictive est appliquée à une plateforme mobile d’un simulateur de conduite, conçu pour développer les réflexes chez les conducteurs dans les diverses situations de conduite. Les performances de cette loi de commande sont évaluées par simulation en exploitant des données réelles du véhicule.Item Commande et diagnostic des défauts de la machine asynchrone(2016) BEDBOUDI MohamedLe travail présenté dans cette thèse concerne l’application de la commande non linéaire à la machine asynchrone en présence de défaut de court-circuit entre spires des phases staoriques. Pour mener à bien ce travail, nous avons établi le modèle mathématique de la machine d’après la modélisation de Park, afin de simplifier considérablement les équations de la machine en régime transitoire. Puis, on a présenté une autre méthode de modélisation de la machine, qui est basée sur la théorie d’accouplement électromagnétique des circuits électriques, cette méthode prend en considération les défauts statoriques de la machine asynchrone. Ensuite, des méthodes de commande basées sur la théorie de la commande non linéaire ont été abordées et appliquées à la machine dans le régime sain et dans le cas du régime dégradé (en présence de défaut) afin de compenser infiniment les effets de ce défaut. La première méthode met en évidence une commande par retour d'état linéarisant basée sur les outils de l'algèbre de Lie. La deuxième, est une commande à structure variable, à savoir le mode glissant d'ordre un. Quant à la troisième, c’est une commande par mode glissant d'ordre deux. Une étude comparative entre les résultats de simulation des différentes méthodes de commande est réalisée en termes de performance et de robustesse.Item Compression d'images fixes et en stéréovision à faible complexité sur WSN(Université Badji Mokhtar Annaba, 2024-06-27) ZIDANI, NesrineProlonging the lifetime of wireless sensor networks (WSN) is the biggest challenging issue. In wireless multimedia Sensor Networks (WMSNs), sensor nodes have limited energy resource and to increase the lifetime of the network, it is necessary to design an effective fast algorithm that aims at reducing the consumed power. In this thesis we proposed an energy-efficient discrete cosine transform (DCT) approximation requiring only 12 additions. Associated with a JPEG compression chain, this DCT approximation ensures a very good rate-distortion compromise, but above all, a very low computational complexity and significant compatibility with the exact DCT.Item COMPRESSION DE DONNEES : APPLICATION EN TELEMEDECINE(2015) BOULEDJFANE BadreddineLa télémédecine est actuellement parmi les secteurs potentiels de la santé. Afin de procéder à un diagnostic, les médecins sont amenés à échanger des données entre eux, ce qui génère dans certains cas, des données considérables pouvant rapidement saturer les systèmes de transmission et de stockage. C’est à cet effet que la compression est devenue incontournable. Actuellement, la compression dans un service de radiologie est toujours en mode sans perte. En effet, la compression sans perte garantit l’intégrité des données et permet d’éviter les erreurs de diagnostic. Cependant, ce type de compression n’offre pas d’avantages en termes d’archivage et de transmission de ces données. Dans ce contexte, la compression avec perte peut être la solution la plus appropriée. La norme JPEG2000 est connue comme étant une norme très efficace pour compresser des images, mais à très faible débit, certains artefacts peuvent être visibles. À cet effet, nous proposons trois techniques de prétraitement qui permettent d’améliorer les performances de celui-ci. Le premier prétraitement consiste à améliorer la qualité des images affectées par l’effet de flou, en proposant une version améliorée du modèle sharpening en utilisant la décomposition empirique modale bidimensionnelle (BEMD). Le second prétraitement est préconisé pour les images fortement bruitées, telles que les images OCT (Optical coherence tomography). Ces images sont affectées par le bruit de speckle, à cet effet, on propose d’utiliser une version améliorée du filtrage par moyenne temporelle. Puisque ce dernier ne peut être réalisé, que si on dispose une séquence d’images, la solution adéquate est obtenue en utilisant la décomposition espace-échelle. Le dernier prétraitement est basé sur la morphologie par reconstruction pour améliorer la qualité visuelle des images compressées. Plus précisément, elle consiste à décomposer l'image d'entrée en deux sous-images de basse et haute fréquence, en utilisant un filtrage morphologique par reconstruction. Ensuite, chaque sous-image est compressée en utilisant JPEG2000, en attribuant différents débits binaires pour chaque sous-image. Pour évaluer la qualité de l'image reconstruite, une nouvelle métrique PSNRNEW, basée sur la fusion entre PSNR (Peak Signal to Noise Ratio) et le SSIM (Structural SIMilarity). Les résultats expérimentaux montrent que, à des débits faibles, le système proposé offre une meilleure qualité visuelle par rapport à l’utilisation directe de JPEG2000. En plus, la méthode proposée a été testée sur une chaine de télétransmission des images médicales. Les résultats obtenus permettent de confirmer les bons résultats non seulement en termes de qualité visuelle, mais aussi en matière de temps de transmission.Item COMPRESSION DE DONNEES : APPLICATION EN TELEMEDECINE(2015-03-12) BOULEDJFANE BadreddineLa télémédecine est actuellement parmi les secteurs potentiels de la santé. Afin de procéder à un diagnostic, les médecins sont amenés à échanger des données entre eux, ce qui génère dans certains cas, des données considérables pouvant rapidement saturer les systèmes de transmission et de stockage. C’est à cet effet que la compression est devenue incontournable. Actuellement, la compression dans un service de radiologie est toujours en mode sans perte. En effet, la compression sans perte garantit l’intégrité des données et permet d’éviter les erreurs de diagnostic. Cependant, ce type de compression n’offre pas d’avantages en termes d’archivage et de transmission de ces données. Dans ce contexte, la compression avec perte peut être la solution la plus appropriée. La norme JPEG2000 est connue comme étant une norme très efficace pour compresser des images, mais à très faible débit, certains artefacts peuvent être visibles. À cet effet, nous proposons trois techniques de prétraitement qui permettent d’améliorer les performances de celui-ci. Le premier prétraitement consiste à améliorer la qualité des images affectées par l’effet de flou, en proposant une version améliorée du modèle sharpening en utilisant la décomposition empirique modale bidimensionnelle (BEMD). Le second prétraitement est préconisé pour les images fortement bruitées, telles que les images OCT (Optical coherence tomography). Ces images sont affectées par le bruit de speckle, à cet effet, on propose d’utiliser une version améliorée du filtrage par moyenne temporelle. Puisque ce dernier ne peut être réalisé, que si on dispose une séquence d’images, la solution adéquate est obtenue en utilisant la décomposition espace-échelle. Le dernier prétraitement est basé sur la morphologie par reconstruction pour améliorer la qualité visuelle des images compressées. Plus précisément, elle consiste à décomposer l'image d'entrée en deux sous-images de basse et haute fréquence, en utilisant un filtrage morphologique par reconstruction. Ensuite, chaque sous-image est compressée en utilisant JPEG2000, en attribuant différents débits binaires pour chaque sous-image. Pour évaluer la qualité de l'image reconstruite, une nouvelle métrique PSNRNEW, basée sur la fusion entre PSNR (Peak Signal to Noise Ratio) et le SSIM (Structural SIMilarity). Les résultats expérimentaux montrent que, à des débits faibles, le système proposé offre une meilleure qualité visuelle par rapport à l’utilisation directe de JPEG2000. En plus, la méthode proposée a été testée sur une chaine de télétransmission des images médicales. Les résultats obtenus permettent de confirmer les bons résultats non seulement en termes de qualité visuelle, mais aussi en matière de temps de transmission.