Thèse : Génération du comportement autonome ou semi-autonome pour agents et avatars cognitifs collaboratifs dans un environnement virtuel

Cesson-Sévigné, le 09/10/20

A propos de b<>com

Fournisseur de technologies pour les entreprises qui souhaitent accélérer leur compétitivité grâce au numérique, b<>com est au service des industries culturelles et créatives, des infrastructures numériques, de la défense, de l’industrie 4.0 et de la santé. Ses laboratoires mixent les talents de disciplines et cultures multiples dans les domaines de l’intelligence artificielle, de la vidéo et l’audio immersif, de la protection de contenus, des réseaux 5G, de l’internet des objets et des technologies cognitives… Issus des mondes industriel et universitaire, ses chercheurs et ingénieurs évoluent sur son campus de Rennes et ses sites de Paris, Brest et Lannion. Grâce à son équipe d’ingénierie avancée et ses moyens scientifiques propres, b<>com propose à ses clients des ingrédients et des solutions qui font la différence.

Descriptif du poste

La bourse de doctorat fait partie d'un projet ANR porté par b<>com en collaboration avec l'ENIB. Ce projet vise à étudier la collaboration humain-système par l’usage de la réalité mixte et augmentée en conception d’interactions avancées. En particulier, le travail de cette thèse se focalise sur l'interaction entre l'humain et le système dans un collectif mixte avatars/agents. Le but étant d'améliorer l'interaction de l'humain avec les autres entités tout en maximisant ses sentiments d'engagement et de présence dans l'environnement virtuel.

Les environnements virtuels immersifs représentent une solution intéressante qui permet à plusieurs personnes d'interagir en partageant le même espace virtuel alors que dans le monde réel elles sont géographiquement distantes. Dotés d'une représentation graphique humanoïde, appelée avatar, les utilisateurs peuvent vivre des interactions sociales en exploitant la richesse des signaux sociaux (tels que les gestes, les expressions faciales, mimiques et mouvements oculaires...). Les avatars ne représentent pas forcement que des utilisateurs réels, ils peuvent aussi bien représenter un système informatique et être des entités intelligentes autonomes qui peuplent le monde virtuels et qui sont capables d'interagir avec les autres entités présentes dans l'environnement.

Lorsque l'avatar représente un utilisateur réel, son comportement est piloté par l'utilisateur même. Cependant, il est impensable que l'utilisateur puisse sélectionner en temps réel tous les signaux verbaux et non-verbaux que son avatar devrait animer pour montrer un comportement cohérent et crédible. Pour cela, plusieurs recherches dans ce domaine ont proposé des avatars semi-autonomes, c'est à dire des entités pilotées partiellement par l'utilisateur tout en étant capable de générer automatiquement certains signaux sociaux.

Avec ce travail de thèse nous voulons avancer dans la recherche des avatars semi-autonomes en proposant un modèle capables de générer de façon autonome le comportement non-verbal de l'avatar tout en prenant en compte celui de l'utilisateur et ses ordres directs. Le but n’est pas de reproduire à l’identique le comportement de l’utilisateur, mais de développer un système capable de modéliser l’état mental de l’utilisateur à partir des données physiologiques, du contexte et des indications données par l’utilisateur pour générer les signaux communicatifs de façon autonome ou semi-autonome et ainsi faciliter les tâches collaboratives.

Le travail du doctorant sera organisé autour de quatre tâches principales :

  1. Rédiger un état de l'art : initialement, une étude approfondie de l'état de l'art sera fondamentale pour définir les signaux non-verbaux et paraverbaux nécessaires au maintien de l'interaction et à l'amélioration de l'engagement lors d'une interaction communicative.
  2. Déterminer, parmi les signaux identifiés lors de la tâche précédente, lesquels peuvent être détectés dans un contexte de RV et établir quels sont leurs liens avec les signaux physiologiques afin d’identifier les plus importants à mesurer. Une partie de cette étude portera sur l’impact de la combinaison de ces signaux.
  3. Proposer et implémenter un modèle pour la génération du comportement de l'avatar. Nous envisageons la création du modèle en deux étapes. Premièrement, un modèle pour la génération automatique des signaux communicatifs sera proposé. Ceci sera un modèle purement autonome utilisé pour les agents virtuels présents dans l’environnement virtuel. Deuxièmement, l’intégration des données physiologiques permettra d’adapter le modèle et de le rendre semi-autonome pour les avatars des utilisateurs. Certains événements de connexion pourront être liés directement à un ou plusieurs signaux physiologiques. Dans le cas d'absence des signaux ou du décalage temporel lié à l'enregistrement et l’analyse des signaux, il faudra générer de manière autonome le comportement de l'avatar.
  4. Évaluer le modèle pour vérifier d'un côté que le comportement généré est cohérent et crédible et de l'autre que l'interaction de l'humain avec les autres entités est améliorer ainsi que ses sentiments d'engagement et de présence dans l'environnement.

Le travail sera mené au Centre Européen de Réalité Virtuelle (CERV), un laboratoire reconnu et spécialisé dans la modélisation du comportement autonome et l'interaction humain/système. Plus précisément, la thèse sera menée au sein du Lab-STICC et de b<>com.

Profil recherché

Le/La candidat(e) doit avoir un Master 2 ou un diplôme d’ingénieur en Informatique, Mathématiques appliqués ou domaine connexe.

Des connaissances de traitement de données multimodales et de génération de comportements multimodaux seront considérées un atout majeur.

La connaissance de la langue française n'est pas obligatoire mais appréciée.

Modalités

  • Durée : CDD de 3 ans
  • Date de démarrage : dès que possible
  • Localisation : Brest
  • Candidature à envoyer à : job@b-com.com avec la référence du poste b<>com/Doc-HFT