Modélisation et Traitement Automatique des Langues des Signes

Thèses et projets en cours

Thèses en cours

  • Analyse par traitement d'images
    2017-2020 : Valentin Belissen, "Analyse de vidéos de communication gestuelle. Application à la Langue des Signes Française", ED STIC de l'Université Paris-Saclay.
    Directrice A. Braffort, co-encadrante M. Gouiffès (groupe AMI).
  • Perception du mouvement
    2018-2021 : Félix Bigand, "Perception de la Langue des Signes Française : Contributions à la définition du style gestuel des locuteurs sourds, application à l’anonymisation des animations par capture de mouvement", ED STIC de l'Université Paris-Saclay.
    Directrice A. Braffort, co-encadrante E. Prigent (groupe CPU).
  • Traduction assistée par Ordinateur
    2018-2021 : Marion Kaczmarek, "Traduction en Langue des Signes assistée par ordinateur", ED STIC de l'Université Paris-Saclay.
    Directrice A. Braffort, co-encadrant M. Filhol.

Thèses soutenues récemment (2017)

  • Analyse du mouvement
    Mohamed Benchiheub, "Analyse et modélisation des mouvements de la langue des signes française" (fichier pdf). ED Sciences du Sport, de la Motricité et du Mouvement Humain (S2M2H). Etude réalisée à partir du corpus de capture de mouvement MOCAP1.
    Directrice A. Braffort, co-encadrant B. Berret (CIAMS, Université Paris-Sud).
  • Modélisation linguistique et grammaires formelles
    Mohammed Hadjadj, "Traduction automatique du français écrit vers la langue des signes française à partir d'une grammaire formelle" (fichier pdf). ED STIC de l'Université Paris-Saclay. Etude réalisée à partir d'un corpus parallèle Français écrit - LSF vidéo issu d'une collaboration avec WebSourd.
    Directrice A. Braffort, co-encadrant M. Filhol.

Projets et collaborations en cours

  • 2018-2021 : Projet Rosetta 2 (RObot de Sous-titrage Et Toute Traduction Adaptés. ) - PIA Grands défis du numérique
    Coordination pour le Limsi : A. Braffort.
    Développement d’un générateur automatique de sous-titrages multilingues pour les programmes de télévision et les contenus vidéo internet à destination des sourds et malentendants basés sur l’intelligence artificielle et développement d’un système automatique de représentation en langue des signes française (LSF) sous forme d’animation basée sur un avatar signant 3D.
    Partenaires : Systran, MocapLab, MFP (Multimédia France Productions/filiale deFrance Télévision), CHArt-LUTIN, CNRS-LIMSI.
  • Annotation assistée par ordinateur
    2017-2020 : Exploration de méthodes d'aide à l'annotation de vidéos de Langue des Signes Française.
    A. Braffort, dans le cadre de la thèse de H. Chaaban (groupe AMI), directrice M. Gouiffès (groupe AMI).
  • Synthèse de langue des signes
    Génération d'animations 3D à partir des représentations linguistiques développées dans l'équipe.
    M. Filhol, dans le cadre de collaborations avec J. McDonald (DePaul University à Chicago, EU) et A. Héloir (Université de Valenciennes et DFKI, DE).
  • Traduction automatique et assistée texte -> LSF
    Étude de la déverbalisation (étape clé de la traduction) pour un outillage logiciel des traducteurs en langue des signes.
    M. Filhol, dans le cadre de collaborations avec Interpretis (Toulouse) et l'Université de Genève (Suisse).

Corpus de LSF du LIMSI => ICI

Archives : anciens projets, thèses, ateliers... => ICI

Ressources en ligne sur la LSF, associations, culture... => ICI


Mise à jour : 30 novembre 2018 en flag fr flag