Please use this identifier to cite or link to this item:
https://dspace.univ-ouargla.dz/jspui/handle/123456789/36727
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | CHARGUI, Abdelhakim | - |
dc.contributor.author | BOURABAH, Nour Eliman | - |
dc.contributor.author | BEGGARI, Khaoula | - |
dc.date.accessioned | 2024-09-18T09:14:13Z | - |
dc.date.available | 2024-09-18T09:14:13Z | - |
dc.date.issued | 2024 | - |
dc.identifier.citation | FACULTE DES NOUVELLES TECHNOLOGIES DE L'INFORMATIQUE ET DE LA COMMUNICATION | en_US |
dc.identifier.uri | https://dspace.univ-ouargla.dz/jspui/handle/123456789/36727 | - |
dc.description.abstract | La reconnaissance des émotions, qui est essentielle dans les applications d’IA telles que l’interaction homme-machine et les soins de santé, est développée dans cette thèse à l’aide de réseaux neuronaux convolutifs (CNN) et de réseaux résiduels (ResResNet). Notre mod- èle, entraîné sur l’ensemble de données Emotic, produit des sorties émotionnelles avec des dimensions discrètes, continues et catégorielles, assurant une détection précise en incor- porant des indices contextuels. Les résultats expérimentaux montrent une amélioration des performances, ce qui améliore considérablement les tâches de prédiction des émotions et ouvre la voie à des applications d’intelligence artificielle tenant compte du contexte. | en_US |
dc.language.iso | en | en_US |
dc.publisher | UNIVERSITY KASDI MERBAH OUARGLA | en_US |
dc.subject | Reconnaissance des émotions | en_US |
dc.subject | réseau neuronal convolutif | en_US |
dc.subject | Resnet | en_US |
dc.subject | Emotic | en_US |
dc.subject | Contexte | en_US |
dc.title | Context-based Emotion Recognition using deep learning model | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Département d'Electronique et des Télécommunications - Master |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
BOURABAH_BEGGARI.pdf | 14,28 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.