FR3139684A1 - Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre - Google Patents

Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre Download PDF

Info

Publication number
FR3139684A1
FR3139684A1 FR2300191A FR2300191A FR3139684A1 FR 3139684 A1 FR3139684 A1 FR 3139684A1 FR 2300191 A FR2300191 A FR 2300191A FR 2300191 A FR2300191 A FR 2300191A FR 3139684 A1 FR3139684 A1 FR 3139684A1
Authority
FR
France
Prior art keywords
presentation
video stream
speaker
hand
control zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2300191A
Other languages
English (en)
Inventor
Philippe Duvivier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Artean
Original Assignee
Artean
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Artean filed Critical Artean
Priority to FR2300191A priority Critical patent/FR3139684A1/fr
Publication of FR3139684A1 publication Critical patent/FR3139684A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre L'invention a pour objet un procédé de gestion d’une présentation comportant des commandes pour modifier son état ainsi qu’au moins une zone de commande (40) associée à au moins une commande. Le procédé de gestion comprend une étape de mixage d’un flux vidéo de présentation et d’un flux vidéo d’intervenant en filmant un intervenant (18) pour obtenir un flux vidéo de sortie (38) visualisé par au moins l’intervenant (18), une étape de détermination en temps réel d’une position d’une partie d’une main (42) de l’intervenant, une étape de comparaison de la position déterminée de la partie de la main (42) et de la position d’au moins une zone de commande (40) et, si la position de la partie de la main (42) coïncide avec celle d’une zone de commande (40) considérée, une étape d’exécution de la commande associée à la zone de commande (40) considérée afin de modifier l’état de la présentation. Figure 4

Description

Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre
La présente demande se rapporte à un procédé de gestion d’une présentation ainsi qu’à un dispositif pour sa mise en œuvre.
Selon un mode de réalisation, une présentation comprend plusieurs diapositives qui sont affichées grâce à un système d’affichage. Certaines diapositives peuvent comprendre plusieurs éléments (texte, graphismes, images, contenus multimédias ou autres) qui peuvent être affichés simultanément ou les uns après les autres.
Cette présentation est présentée à une assistance composée de participants par un présentateur qui contrôle l’affichage des diapositives et des éléments de chacune d’elles en utilisant un périphérique comme un clavier ou une souris par exemple.
Selon une première configuration, le présentateur et l’assistance sont présents dans un même lieu. Dans ce cas, l’assistance visualise dans le même champ de vision le présentateur et la présentation. Le présentateur peut interagir avec la présentation, en pointant avec sa main certaines parties des diapositives, pour capter l’attention de l’assistance.
Selon une deuxième configuration, le présentateur et les différents participants sont situés dans des lieux différents et utilisent un système de visioconférence pour échanger.
Selon une troisième configuration, le présentateur enregistre sa présentation sous la forme d’une vidéo qu’il partage ensuite avec les participants afin qu’ils puissent la regarder ultérieurement.
Selon un premier mode de réalisation, un procédé de gestion d’une présentation comprend une étape de production d’un premier flux vidéo généré par une caméra filmant le visage du présentateur, une étape d’affichage de ce premier flux vidéo dans une première fenêtre sur l’écran présent devant chaque participant ainsi qu’une étape d’affichage de la présentation dans une deuxième fenêtre affichée sur l’écran présent devant le présentateur et chaque participant. Selon ce premier mode opératoire, le présentateur filmé contrôle l’affichage des diapositives et des éléments de chacune d’elles en utilisant un périphérique et les présente en parlant. Chaque participant visualise simultanément sur son écran une première fenêtre dans laquelle il voit le présentateur commenter la présentation ainsi qu’une deuxième fenêtre dans laquelle il voit la présentation.
Ce premier mode de réalisation n’est pas satisfaisant car le présentateur ne voit pas son assistance, qui ne peut donc pas échanger avec lui. Selon un autre inconvénient, le présentateur ne peut pas interagir avec la présentation, en utilisant des gestes par exemple, pour conserver attentive son assistance.
Pour remédier à ces inconvénients, une solution consiste à générer un flux vidéo pour chaque participant et à l’afficher dans une fenêtre sur l’écran du présentateur. La multiplication des fenêtres sur l’écran du présentateur réduit la taille de la fenêtre dans laquelle il visualise la présentation, la rendant moins lisible. Cette solution a aussi pour inconvénient la difficulté pour le présentateur et pour les participants de se concentrer simultanément sur le visage de l'intervenant et sur sa présentation.
Pour permettre aux participants d’interagir, une boîte de dialogue est affichée simultanément sur les différents écrans. Cette boîte de dialogue permet d’échanger des messages écrits en temps réel.
Toutefois, la gestion simultanée de cette boîte de dialogue et de la présentation par une seule personne est relativement difficile. Par conséquent, le présentateur est généralement aidé par un assistant qui gère la boîte de dialogue et rapporte au présentateur les interventions des participants.
Même si cette boîte de dialogue permet à l’assistance d’échanger avec le présentateur, ces interventions ne sont pas fluides.
Pour remédier au manque d’interaction entre le présentateur et la présentation, un autre mode de réalisation, décrit dans le document WO2022074613, propose de filmer le présentateur selon un plan américain et d’incruster la présentation dans le flux vidéo montrant le présentateur. Lors de la présentation, le présentateur peut positionner sa main de manière à ce qu’elle soit superposée avec une diapositive de la présentation et pointer son doigt en direction d’une partie de la diapositive. Dans ce cas, il est possible d’ajuster le niveau de transparence de la diapositive pour visualiser, par transparence, la main du présentateur derrière les éléments de la diapositive.
Cette solution permet de rendre la présentation plus interactive et de conserver plus attentive l’assistance. Toutefois, cette solution nécessite qu’un assistant contrôle le défilement des diapositives de la présentation et de leurs éléments en utilisant un périphérique comme un clavier ou une souris par exemple.
La présente invention vise à remédier à tout ou partie des inconvénients de l’art antérieur.
A cet effet, l’invention a pour objet un procédé de gestion d’une présentation configurée pour être affichée dans plusieurs états et comportant des commandes pour modifier son état, la présentation étant animée par un intervenant, le procédé de gestion comprenant une étape de mixage, en temps réel, d’un flux vidéo d’intervenant obtenu en filmant l’intervenant ainsi que d’un flux vidéo de présentation montrant la présentation dans un état donné de manière à obtenir un flux vidéo de sortie visualisé par au moins l’intervenant.
Selon l’invention, la présentation comprend au moins une zone de commande associée à au moins une commande. En complément, le procédé de gestion comprend une étape de détermination en temps réel d’une position d’une partie d’une main de l’intervenant dans des images du flux vidéo d’intervenant ou du flux vidéo de sortie, une étape de comparaison de la position déterminée de la partie de la main et de la position d’au moins une zone de commande et, si la position de la partie de la main coïncide avec celle d’une zone de commande considérée, une étape d’exécution de la commande associée à la zone de commande considérée afin de modifier l’état de la présentation dans le flux vidéo de sortie.
D'autres caractéristiques et avantages ressortiront de la description de l’invention qui va suivre, description donnée à titre d'exemple uniquement, en regard des dessins annexés parmi lesquels :
est une représentation schématique d’un montage d’un flux vidéo montrant un présentateur et d’un flux vidéo montrant une diapositive de la présentation illustrant un mode de réalisation de l’invention,
est une représentation schématique d’un écran montrant superposés un présentateur et une diapositive d’une présentation illustrant un mode de réalisation de l’invention,
est une représentation schématique d’une présentation à deux instants successifs illustrant un mode de réalisation de l’invention,
est une représentation schématique d’un écran montrant un présentateur et une présentation à deux instants successifs illustrant un mode de réalisation de l’invention,
est un diagramme d’un procédé de gestion d’une présentation illustrant un mode de réalisation de l’invention,
est une vue en perspective d’un écran positionné devant un présentateur illustrant un mode de réalisation de l’invention,
est une représentation schématique d’un présentateur, d’un participant et d’un écran montrant le présentateur et la présentation illustrant une première configuration de l’invention,
est une représentation schématique d’un présentateur, d’un participant et d’un écran montrant le présentateur, le participant et la présentation illustrant une deuxième configuration de l’invention,
est une représentation schématique d’un présentateur, d’un participant et d’un écran montrant le participant et la présentation illustrant une troisième configuration de l’invention.
Selon un mode de réalisation visible sur la , une présentation 10 comprend plusieurs diapositives 12 sur chacune desquelles figure au moins un élément 14 comme du texte, une image, un diagramme, un contenu multimédia ou autres.
Une première application est configurée pour créer la présentation 10, les diapositives 12 ainsi que les éléments 14 figurant sur les diapositives. Cette première application permet également de créer au moins une animation permettant de contrôler l’enchaînement de l’affichage des diapositives 12 et des éléments 14 des diapositives 12. Selon une configuration, les éléments 14 d’une même diapositive 12 sont tous affichés en même temps lors de l’affichage de la diapositive. Selon une autre configuration, les éléments 14 d’une diapositive sont affichés successivement, l’un après l’autre.
Selon un mode opératoire simplifié, l’animation comprend une pause entre chaque diapositive 12, le changement de diapositive 12 intervenant lorsqu’une commande est exécutée. En complément, l’animation comprend une pause entre l’affichage de chaque élément 14, l’affichage d’un nouvel élément 14 intervenant lorsqu’une commande est exécutée.
Bien entendu, l’invention n’est pas limitée à ce mode opératoire. Ainsi, les diapositives 12 ne sont pas nécessairement affichées selon un ordre préétabli. Ainsi, l’animation peut permettre de choisir l’ordre de défilement des diapositives 12.
Ainsi, la présentation 10 comprend plusieurs diapositives 12, chacune d’elles comportant au moins une apparence. Ainsi, une diapositive 12 peut comprendre plusieurs apparences s’il est possible de l’afficher dans des apparences différentes en fonction des éléments 14 présents sur la diapositive 12.
Quel que soit le mode de réalisation, la présentation 10 est configurée pour être affichée dans plusieurs états (en fonction de la diapositive 12 affichée et de son apparence) et comprend des commandes pour modifier l’état de la présentation 10.
Une deuxième application (qui peut être la première application) permet de contrôler l’état dans lequel est affichée la présentation 10. Cette deuxième application est configurée pour permettre à un intervenant d’exécuter au moins une commande pour modifier l’état de la présentation 10.
Selon un premier mode opératoire, cette présentation 10 est présentée en direct par au moins un présentateur 18 à une assistance comportant au moins un participant 20, visible sur les figures 7 à 9, le présentateur 18 et le participant 20 visualisant simultanément la présentation 10 dans un état donné. Le présentateur 18 et au moins un participant 20 sont distants et ne sont pas situés dans un même lieu. Par conséquent, un logiciel de visioconférence est utilisé pour échanger des flux vidéo entre eux.
Un dispositif de gestion de la présentation 10 comprend un premier système d’affichage 22 positionné face au présentateur 18, une première caméra 24 positionnée face au présentateur 18 et configurée pour générer un premier flux vidéo 26 montrant le présentateur 18, un deuxième système d’affichage 28 positionné devant au moins un participant 20 ainsi qu’au moins une unité de traitement 30 configurée pour traiter au moins le premier flux vidéo 26 et générer un flux vidéo de présentation 36 affiché simultanément sur les différents systèmes d’affichage 22, 28.
Selon une configuration visible sur les figures 7 à 9, le dispositif de gestion de la présentation 10 comprend également, pour au moins un participant 20, une deuxième caméra 32 positionnée face au participant 20 et configurée pour générer un deuxième flux vidéo 34 montrant le participant 20, l’unité de traitement 30 étant configurée pour traiter ce deuxième flux vidéo 34. Selon un agencement, le dispositif de gestion comprend, pour chaque participant 20, une deuxième caméra 32 positionnée face au participant 20 et configurée pour générer un deuxième flux vidéo 34 montrant le participant 20, l’unité de traitement 30 étant configurée pour traiter tous les deuxièmes flux vidéo 34.
Selon un mode de réalisation non limitatif, le dispositif de gestion de la présentation 10 comprend un premier ordinateur pour le présentateur 18 qui intègre le premier système d’affichage 22, la première caméra 24 et l’unité de traitement 30. En complément, le dispositif de gestion de la présentation 10 comprend, pour chaque participant 20 de l’assistance, un ordinateur intégrant le deuxième système d’affichage 28 ainsi que la deuxième caméra 32.
Selon une configuration, la première caméra 24 est configurée pour filmer le présentateur 18 selon un plan large, dit plan américain, montrant la partie du présentateur 18 située au-dessus du haut de ses cuisses.
Comme illustré sur la , un procédé de gestion d’une présentation 10 comprend une étape de mixage, en temps réel, d’un flux vidéo d’intervenant parmi les premier et deuxième flux vidéo 26, 34, obtenu en filmant un intervenant parmi le présentateur 18 et le (ou les) participants 20, ainsi que d’un flux vidéo de présentation 36 montrant la présentation 10 dans un état donné pour obtenir un flux vidéo de sortie 38 superposant les images du flux vidéo 26, 34 de l’intervenant et la présentation 10 dans l’état donné du flux vidéo de présentation 36.
Selon le premier mode opératoire, le logiciel de visioconférence permet d'échanger ce flux vidéo de sortie 38 entre le présentateur 18 et chaque participant 20.
Selon une configuration, l’intervenant est le présentateur 18. Le premier flux vidéo 26 et le flux vidéo de présentation 36 sont superposés de manière à ce qu’au moins le tronc du présentateur 18 soit décalé par rapport à la diapositive 12 dans le flux vidéo de sortie 38.
L’unité de traitement 30 est configurée pour mixer, en temps réel, le flux vidéo d’intervenant 26, 34 contenant une succession d’images montrant l’intervenant et le flux vidéo de présentation 36 montrant la présentation 10 dans un état donné de manière à obtenir un flux vidéo de sortie 38 superposant les images de l’intervenant du flux vidéo d’intervenant 26, 34 et la présentation 10 à l’état donné du flux vidéo de présentation 36.
Selon un mode de réalisation, le procédé de gestion de la présentation 10 comprend une étape d’ajustement de la transparence d’au moins une partie des images du flux vidéo d’intervenant 26, 34 et/ou des images du flux vidéo de présentation 36 de manière à pouvoir voir par transparence la présentation 10 à l’état donné du flux vidéo de présentation 36 et l’intervenant 18, 20 du flux vidéo d’intervenant 26, 34.
A titre d’exemple et de manière non limitative comme illustré sur la , le fond de la diapositive 12 peut être totalement transparent et les éléments 14 opaques, ce qui permet de voir le présentateur 18 en dehors des zones superposées aux éléments 14.
Bien entendu, l’invention n’est pas limitée à ce mode de réalisation pour la gestion de la transparence.
Selon une caractéristique, au moins une zone de commande 40 associée à au moins une commande est incorporée dans la présentation 10, notamment dans au moins une de ses diapositives 12. Le procédé de gestion de la présentation 10 comprend une étape de détermination en temps réel d’une position d’une partie d’une main 42 de l’intervenant (le présentateur 18 ou l’un des participants 20) qui anime la présentation 10, dans des images du flux vidéo d’intervenant 26, 34 ou du flux vidéo de sortie 38, une étape de comparaison de la position déterminée de la partie de la main 42 et celle d’au moins une zone de commande 40 et, si la position de la partie de la main 42 coïncide avec celle d’une zone de commande 40 considérée, une étape d’exécution de la commande associée à la zone de commande 40 considérée afin de modifier l’état de la présentation 10 dans le flux vidéo de sortie 38 visualisé par au moins l’intervenant.
Selon une configuration, chaque zone de commande 40 est définie par une position ainsi qu’une aire dans un repère lié à la présentation 10. Selon un mode de réalisation, une zone de commande 40 est délimitée par un quadrilatère. Dans ce cas, la position de la zone de commande 40 correspond à un point caractéristique du quadrilatère, comme l’un de ses sommets ou son centre de gravité par exemple, et l’aire correspond à la surface délimitée par le périmètre du quadrilatère.
Bien entendu, l’invention n’est pas limitée à ce mode de réalisation. D’autres formes sont envisageables pour les zones de commande 40, la position correspondant à un point caractéristique de la forme, l’aire correspondant à la surface délimitée par le périmètre de la forme.
Une même diapositive 12 peut comprendre plusieurs zones de commande 40, chacune d’elles étant associée à au moins une commande.
Selon une configuration, chaque zone de commande 40 est visible par au moins un intervenant, parmi le présentateur 18 et les participants 20, sur les diapositives 12 contenues dans le flux vidéo de sortie 38 visualisé simultanément par le présentateur 18 et les participants 20.
En variante, certaines zones de commande 40 sont invisibles. Ainsi, une première zone de commande peut être située le long d’un premier bord de chaque diapositive 12 et associée à une commande correspondant au retour à la diapositive précédente. En complément, une deuxième zone de commande peut être située le long d’un deuxième bord de chaque diapositive 12, opposé au premier bord, et associée à une commande correspondant au passage à la diapositive suivante.
Bien entendu, l’invention n’est pas limitée à ces commandes. A titre d’exemple, une commande peut correspondre à l’affichage d’une diapositive 12 donnée de la présentation 10 qui n’est pas nécessairement la suivante ou la précédente, à l’affichage d’un élément 14 et/ou à l’affichage d’un contenu multimédia. Selon un exemple, le défilement des diapositives 12 peut être réalisé de manière autonome et automatique. Dans ce cas, une commande peut correspondre à l’agrandissement d’une partie de la diapositive dans un état donné.
La première application utilisée pour créer les différentes diapositives 12 de la présentation 10 est configurée pour permettre à un utilisateur de créer des zones de commande 40 et lui permettre d’associer à chacune d’elles au moins une commande.
Selon une configuration, le procédé de gestion utilise un logiciel connu pour déterminer la position d’une partie de la main de l’intervenant (le présentateur 18 ou l’un des participants 20). Ce logiciel permet de déterminer les coordonnées d’au moins un point de la partie de la main dans un repère lié au flux vidéo dans lequel la main est présente. A titre d’exemple, le logiciel utilisé est la librairie logicielle proposée sous la dénomination « Mediapipe ».
Pour la présente demande, la position de la partie de la main 42 est considérée comme coïncidant avec la position de la zone de commande 40 si au moins un point (dont les coordonnées ont été déterminées précédemment) de la partie de la main 42 est situé dans l’aire de la zone de commande 40.
Selon un mode opératoire, la position de la partie de la main 42 est déterminée dans un deuxième repère lié au flux vidéo d’intervenant 26, 34 ou au flux vidéo de sortie 38 puis comparée avec la position de chaque zone de commande 40, la position relative des premier et deuxième repères étant connue, afin de déterminer si la position de la partie de la main 42 est située dans l’aire d’une des zones de commande 40.
Selon un mode de réalisation, l’unité de traitement 30 est configurée pour déterminer en temps réel la position d’une partie d’une main 42 de l’intervenant (le présentateur 18 ou l’un des participants 20) dans les images du flux vidéo d’intervenant 26, 34 et le flux vidéo de sortie 38, pour comparer la position de la partie de la main 42 et celle d’au moins une zone de commande 40 et, si la position de la partie de la main 42 coïncide avec celle d’une zone de commande 40 considérée, exécuter la commande associée à la zone de commande 40 considérée afin de modifier l’état de la présentation 10.
Selon un exemple simplifié illustré sur les figures 3 et 4, une présentation 10 comprend une diapositive 12 dans une première apparence à un premier instant (visible sur la partie (A) de la ) qui présente des premier et deuxième éléments 14, 14’ puis dans une deuxième apparence à un deuxième instant (visible sur la partie (B) de la ) qui présente des premier, deuxième et troisième éléments 14, 14’, 14’’. Cette diapositive 12 comprend une zone de commande 40 associée à une commande consistant à modifier l’apparence de la diapositive 12 en passant de la première apparence à la deuxième apparence.
Selon cet exemple, la présentation 10 est configurée pour faire défiler les diapositives 12 les unes après les autres, selon un ordre préétabli, en marquant une pause entre deux diapositives 12 successives et, pour chaque diapositive 12 comprenant plusieurs apparences, faire défiler les différentes apparences en marquant une pause entre deux apparences successives.
La position de chaque zone de commande 40 est connue dans un premier repère associé au flux vidéo de présentation 36.
En temps réel, l’unité de traitement 30 détermine la position de la partie de la main 42 dans un deuxième repère associé au premier flux vidéo 26, compare cette position avec la position de chaque zone de commande 40, la position relative des premier et deuxième repères étant connue, afin de déterminer si la position de la partie de la main 42 coïncide avec l’une des zones de commande 40.
Dans le cas présent, le présentateur 18 positionnant une partie de sa main 42 de telle manière qu’elle coïncide avec la zone de commande 40 sur le flux vidéo de sortie 38 (comme illustré sur la partie (A) de la ), l’unité de commande exécute la commande associée à cette zone de commande 40 qui consiste à modifier l’apparence de la diapositive 12 et afficher le troisième élément 14’’ comme illustré sur la partie (B) de la .
Plus généralement, comme illustré sur la , une base de données 44 répertorie les différents états de la présentation 10, la ou les zone(s) de commande 40 présente(s) dans chacun des états de la présentation 10 ainsi que, pour chaque zone de commande 40, sa position dans un repère associé à la présentation et/ou au flux vidéo de présentation 36 et au moins une commande qui lui est associée.
Le procédé de gestion comprend une étape de détermination 46, en temps réel, d’une position d’une partie d’une main 42 d’un intervenant (le présentateur 18 ou l’un des participants 20) dans les images du flux vidéo d’intervenant 26, 34 et le flux vidéo de sortie 38, une étape de comparaison 48 de la position de la partie de la main 42 déterminée à l’étape précédente avec la position de chaque zone de commande 40 répertoriée dans la base de données 44 et, si la position de la partie de la main 42 coïncide avec la position d’une zone de commande 40 considérée, une étape de détermination d’au moins une commande 50 associée à la zone de commande 40 considérée.
Le procédé de gestion comprend une étape de modification 52 du flux vidéo de présentation 36 connaissant l’état de la présentation 10 au moment de la comparaison et la commande déterminée à l’étape précédente. Enfin, selon un mode opératoire privilégié, le procédé de gestion comprend une étape de mixage du premier flux vidéo 26 et du flux vidéo de présentation 36 modifié à l’étape précédente afin d’obtenir le flux vidéo de sortie 38 affiché sur les différents systèmes d’affichage 22, 28 en tenant compte d’un coefficient de transparence 54 pour au moins un des flux vidéo 26, 34, 36.
Lors de la présentation, l’intervenant (le présentateur 18 ou l’un des participants 20) se voit sur son système d’affichage 22 et visualise en temps réel les gestes qu’il exécute devant son système d’affichage 22 pour contrôler le déroulé et l’état de la présentation 10. Le procédé de gestion de la présentation 10 permet de contrôler le défilement des diapositives 12 de la présentation 10 sans périphériques, uniquement grâce à des gestes. Ce procédé donne au présentateur l’illusion d’agir sur la présentation comme s’il agissait sur un écran tactile.
Selon l’invention, l’intervenant peut agir sur la présentation en étant à distance de son ordinateur et sans avoir recours à un périphérique, ce qui permet de pouvoir le filmer selon un plan large favorisant l’intégration de la communication non verbale.
Selon un mode de réalisation visible sur la , pour forcer l’intervenant qui contrôle l’état de la présentation 10 à regarder la caméra 24, 32 positionnée devant lui, cette dernière est positionnée juste au-dessus du système d’affichage 22, 28, positionné devant ledit intervenant, sur lequel il visualise le flux vidéo de sortie 38 et une cible 56 est affichée sur son système d’affichage juste en dessous de la caméra 24, 32, cette cible 56 étant configurée pour inciter l’intervenant à la regarder.
Comme décrit précédemment, selon le premier mode opératoire, le présentateur 18 peut présenter aux différents participants 20 la présentation 10 en direct. Dans ce cas, le présentateur 18 et les participants 20 voient de manière synchronisée le même flux vidéo de sortie 38 au même moment.
Selon un deuxième mode opératoire, le présentateur 18 peut gérer la présentation 10 seul et enregistrer le flux vidéo de sortie 38. Par la suite, ce dernier peut être diffusé aux différents participants 20 qui peuvent le visualiser en différé.
Selon une configuration visible sur les figures 7 à 9, le procédé de gestion comprend une étape de détection d’au moins une main 42, 42’ présente dans au moins un flux vidéo entrant parmi le premier flux vidéo 26 généré par la première caméra 24 positionnée face au présentateur 18 et au moins un deuxième flux vidéo 34 généré par une deuxième caméra 32 positionnée devant au moins un participant ainsi qu’une étape de mixage du flux vidéo de présentation 36 et d’au moins un flux vidéo entrant dans lequel est détectée une main 42, 42’ pour générer le flux vidéo de sortie 38. L’unité de traitement 30 est configurée pour détecter au moins une main 42, 42’ présente dans chacun des flux entrants parmi le premier flux vidéo 26 et tous les deuxièmes flux vidéo 34.
Cette solution permet, de manière automatique et intuitive, aux participants 20 y étant autorisés d’intervenir et d’interagir avec la présentation 10 et éventuellement sur son état.
Selon un mode opératoire, ces différents flux vidéo sont mixés en appliquant des coefficients de transparence différents pour chacun d’eux pour les distinguer lorsqu’ils sont superposés.
Comme illustré sur la , la main 42 du présentateur 18 est détectée dans le premier flux vidéo 26 généré par la première caméra 24 positionnée face au présentateur 18 et aucune main 42’ n’est détectée dans les deuxièmes flux vidéo 34 générés par les deuxièmes caméras 32 positionnées devant les participants 20. Dans ce cas, le flux vidéo de sortie 38 est obtenu en mixant le flux vidéo de présentation 36 et le premier flux vidéo 26.
Comme illustré sur la , la main 42 du présentateur 18 est détectée dans le premier flux vidéo 26 généré par la première caméra 24 positionnée face au présentateur 18 et une main 42’ est détectée dans l’un des deuxièmes flux vidéo 34 généré par l’une des deuxièmes caméras 32 positionnées devant l’un des participants 20. Dans ce cas, le flux vidéo de sortie 38 est obtenu en mixant le flux vidéo de présentation 36, le premier flux vidéo 26 et le deuxième flux vidéo 34 dans lequel est détectée la main 42’.
Comme illustré sur la , la main 42 du présentateur 18 n’est pas détectée dans le premier flux vidéo 26 généré par la première caméra 24 positionnée face au présentateur 18 et une main 42’ est détectée dans l’un des deuxièmes flux vidéo 34 généré par l’une des deuxièmes caméras 32 positionnées devant l’un des participants 20. Dans ce cas, le flux vidéo de sortie 38 est obtenu en mixant le flux vidéo de présentation 36 et le deuxième flux vidéo 34 dans lequel est détectée la main 42’.
Selon une configuration, le flux vidéo de présentation 36 et les flux vidéo entrants dans chacun desquels est détectée une main 42, 42’ sont mixés en les superposant en fonction de leur degré de priorité et/ou en fonction de leur autorisation. Selon cette configuration, un flux vidéo associé à un degré de priorité plus élevé que celui associé à un autre flux vidéo est superposé au-dessus de cet autre flux vidéo.
Selon un mode opératoire, avant de commencer à présenter la présentation 10, une base de données associe à chaque participant 20 une autorisation ou une interdiction à intervenir et/ou un degré de priorité.
Ainsi, seuls les deuxièmes flux vidéo 34 générés par les deuxièmes caméras 32 positionnées devant les participants 20 associés à une autorisation à intervenir sont analysés pour y détecter une main 42’. Les deuxièmes flux vidéo 34 générés par les deuxièmes caméras 32 positionnées devant les participants 20 associés à une interdiction à intervenir ne sont pas analysés.
Selon une configuration, le flux vidéo de présentation 36 présente le degré de priorité le plus important et est affiché superposé sur les autres flux vidéo. Le premier flux vidéo 26 est associé à un degré de priorité plus important que ceux associés aux deuxièmes flux vidéo 34. Ainsi, le premier flux vidéo 26 est positionné juste au-dessous du flux vidéo de présentation 36, les deuxièmes flux vidéo 34 étant positionnés en dessous du premier flux vidéo 26. Bien entendu, l’invention n’est pas limitée à cet ordre de superposition.

Claims (10)

  1. Procédé de gestion d’une présentation (10) configurée pour être affichée dans plusieurs états et comportant des commandes pour modifier son état, la présentation étant animée par un intervenant (18, 20), le procédé de gestion comprenant une étape de mixage, en temps réel, d’un flux vidéo d’intervenant (26, 34) obtenu en filmant l’intervenant (18, 20) ainsi que d’un flux vidéo de présentation (36) montrant la présentation (10) dans un état donné de manière à obtenir un flux vidéo de sortie (38) visualisé par au moins l’intervenant (18, 20) ; caractérisé en ce que la présentation (10) comprend au moins une zone de commande (40) associée à au moins une commande et en ce que le procédé de gestion comprend une étape de détermination en temps réel d’une position d’une partie d’une main (42) de l’intervenant dans des images du flux vidéo d’intervenant (26, 34) ou du flux vidéo de sortie (38), une étape de comparaison de la position déterminée de la partie de la main (42) et de la position d’au moins une zone de commande (40) et, si la position de la partie de la main (42) coïncide avec celle d’une zone de commande (40) considérée, une étape d’exécution de la commande associée à la zone de commande (40) considérée afin de modifier l’état de la présentation (10) dans le flux vidéo de sortie (38).
  2. Procédé de gestion selon la revendication précédente, caractérisé en ce que chaque zone de commande (40) est visible par au moins un intervenant (18, 20).
  3. Procédé de gestion selon l’une des revendications précédentes, caractérisé en ce que chaque zone de commande (40) est définie par une position ainsi qu’une aire dans un repère lié à la présentation (10) et/ou au flux vidéo de présentation (36).
  4. Procédé de gestion selon la revendication précédente, caractérisé en ce que la position de la partie de la main (42) est déterminée dans un deuxième repère lié au flux vidéo d’intervenant (26, 34) ou au flux vidéo de sortie (38) puis comparée avec la position de chaque zone de commande (40), la position relative des premier et deuxième repères étant connue, afin de déterminer si la position de la partie de la main (42) est située dans l’aire d’une des zones de commande (40).
  5. Procédé de gestion selon l’une des revendications précédentes, caractérisé en ce qu’une base de données (44) répertorie les différents états de la présentation (10) et la ou les zone(s) de commande (40) présente(s) dans chacun des états de la présentation (10) ainsi que, pour chaque zone de commande (40), sa position dans un repère lié à la présentation (10) et/ou au flux vidéo de présentation (36) et au moins une commande qui lui est associée.
  6. Procédé de gestion selon l’une des revendications précédentes, caractérisé en ce que les flux vidéo d’intervenant et de sortie (26, 34, 38) sont mixés en appliquant des coefficients de transparence différents pour chacun d’eux afin de les distinguer lorsqu’ils sont superposés.
  7. Procédé de gestion selon l’une des revendications précédentes, caractérisé en ce qu’une caméra filmant l’intervenant est positionnée juste au-dessus du système d’affichage (22, 28), positionné devant ledit intervenant, sur lequel il visualise le flux vidéo de sortie (38) et en ce qu’une cible (56) est affichée sur son système d’affichage juste en dessous de la caméra (24, 32), cette cible (56) étant configurée pour inciter l’intervenant à la regarder.
  8. Procédé de gestion selon l’une des revendications précédentes, caractérisé en ce que le procédé de gestion comprend une étape de détection d’au moins une main (42, 42’) présente dans au moins un flux vidéo entrant parmi un premier flux vidéo (26) généré par une première caméra (24) positionnée face à un présentateur (18) et au moins un deuxième flux vidéo (34) généré par une deuxième caméra (32) positionnée devant au moins un participant (20) ainsi qu’une étape de mixage du flux vidéo de présentation (36) et d’au moins un flux vidéo entrant dans lequel est détectée une main (42, 42’) pour générer le flux vidéo de sortie (38).
  9. Procédé de gestion selon la revendication précédente, caractérisé en ce qu’une base de données associe, à chaque participant (20), une autorisation ou une interdiction à intervenir et/ou un degré de priorité, en ce que le flux vidéo de présentation (36) et les flux vidéo entrants dans chacun desquels est détectée une main (42, 42’) sont mixés en les superposant en fonction de leur degré de priorité et/ou en fonction de leur autorisation et en ce que seuls les deuxièmes flux vidéo (34) générés par les deuxièmes caméras (32) positionnées devant les participants (20) associés à une autorisation à intervenir sont analysés pour y détecter une main (42’).
  10. Dispositif de gestion d’une présentation (10) permettant de mettre en œuvre un procédé de gestion selon l’une des revendications précédentes, la présentation (10) étant configurée pour être affichée dans plusieurs états et comportant des commandes pour modifier son état ainsi qu’au moins une zone de commande (40) associée à au moins une commande, la présentation étant présentée par un présentateur (18) à au moins un participant (20), le dispositif de gestion comprenant :
    1. un premier système d’affichage (22) positionné face au présentateur (18),
    2. une première caméra (24) positionnée face au présentateur (18) et configurée pour générer un premier flux vidéo (26) montrant le présentateur (18),
    3. un deuxième système d’affichage (28) positionné devant au moins un participant (20),
    4. au moins une unité de traitement (30) configurée pour :
      1. mixer, en temps réel, un flux vidéo d’intervenant (26, 34) et un flux vidéo de présentation (36) montrant la présentation (10) dans un état donné de manière à obtenir un flux vidéo de sortie (38),
      2. déterminer, en temps réel, une position d’une partie d’une main (42) d’un intervenant parmi le présentateur (18) ou l’un des participants (20) dans les images du flux vidéo d’intervenant (26, 34) et le flux vidéo de sortie (38),
      3. comparer la position de la partie de la main (42) et la position d’au moins une zone de commande (40) et,
      4. si la position de la partie de la main (42) coïncide avec celle d’une zone de commande (40) considérée, exécuter la commande associée à la zone de commande (40) considérée afin de modifier l’état de la présentation (10).
FR2300191A 2023-01-09 2023-01-09 Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre Pending FR3139684A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2300191A FR3139684A1 (fr) 2023-01-09 2023-01-09 Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2300191 2023-01-09
FR2300191A FR3139684A1 (fr) 2023-01-09 2023-01-09 Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre

Publications (1)

Publication Number Publication Date
FR3139684A1 true FR3139684A1 (fr) 2024-03-15

Family

ID=85792513

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2300191A Pending FR3139684A1 (fr) 2023-01-09 2023-01-09 Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre

Country Status (1)

Country Link
FR (1) FR3139684A1 (fr)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020085029A1 (en) * 2000-12-29 2002-07-04 Jamal Ghani Computer based interactive collaboration system architecture
US20050197578A1 (en) * 2004-03-03 2005-09-08 Canon Kabushiki Kaisha Image display method, program, image display apparatus and image display system
US20080109724A1 (en) * 2006-11-07 2008-05-08 Polycom, Inc. System and Method for Controlling Presentations and Videoconferences Using Hand Motions
US20090195638A1 (en) * 2008-02-04 2009-08-06 Siemens Communications, Inc. Method and apparatus for face recognition enhanced video mixing
US20110025818A1 (en) * 2006-11-07 2011-02-03 Jonathan Gallmeier System and Method for Controlling Presentations and Videoconferences Using Hand Motions
US20130314489A1 (en) * 2010-10-04 2013-11-28 Sony Corporation Information processing apparatus, information processing system and information processing method
US20160266864A1 (en) * 2015-03-10 2016-09-15 Zoho Corporation Private Limited Methods and apparatus for enhancing electronic presentations
US20200162274A1 (en) * 2018-11-20 2020-05-21 Dell Products, L.P. Proximity and context-based telepresence in collaborative environments
WO2022074613A1 (fr) 2020-10-08 2022-04-14 Vidiplus, Ltd Système et/ou procédé d'amélioration de contenu dans une vidéo de diffusion en continu en direct
US20220398869A1 (en) * 2021-06-09 2022-12-15 Zoom Video Communications, Inc. View layout configuration for increasing eye contact in video communications

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020085029A1 (en) * 2000-12-29 2002-07-04 Jamal Ghani Computer based interactive collaboration system architecture
US20050197578A1 (en) * 2004-03-03 2005-09-08 Canon Kabushiki Kaisha Image display method, program, image display apparatus and image display system
US20080109724A1 (en) * 2006-11-07 2008-05-08 Polycom, Inc. System and Method for Controlling Presentations and Videoconferences Using Hand Motions
US20110025818A1 (en) * 2006-11-07 2011-02-03 Jonathan Gallmeier System and Method for Controlling Presentations and Videoconferences Using Hand Motions
US20090195638A1 (en) * 2008-02-04 2009-08-06 Siemens Communications, Inc. Method and apparatus for face recognition enhanced video mixing
US20130314489A1 (en) * 2010-10-04 2013-11-28 Sony Corporation Information processing apparatus, information processing system and information processing method
US20160266864A1 (en) * 2015-03-10 2016-09-15 Zoho Corporation Private Limited Methods and apparatus for enhancing electronic presentations
US20200162274A1 (en) * 2018-11-20 2020-05-21 Dell Products, L.P. Proximity and context-based telepresence in collaborative environments
WO2022074613A1 (fr) 2020-10-08 2022-04-14 Vidiplus, Ltd Système et/ou procédé d'amélioration de contenu dans une vidéo de diffusion en continu en direct
US20220398869A1 (en) * 2021-06-09 2022-12-15 Zoom Video Communications, Inc. View layout configuration for increasing eye contact in video communications

Similar Documents

Publication Publication Date Title
US20110078591A1 (en) Multi-way video conferencing user interface
CN107430629B (zh) 计算机呈现中的视觉内容的分优先级显示
US9036043B2 (en) System and method for generating and transmitting interactive coordinated presentations
US20130014027A1 (en) Method and system for representing audiences in ensemble experiences
US7855726B2 (en) Apparatus and method for presenting audio in a video teleconference
US10225545B2 (en) Automated 3D photo booth
US10963140B2 (en) Augmented reality experience creation via tapping virtual surfaces in augmented reality
US20080303949A1 (en) Manipulating video streams
Zillner et al. 3D-board: a whole-body remote collaborative whiteboard
US20120011454A1 (en) Method and system for intelligently mining data during communication streams to present context-sensitive advertisements using background substitution
CA2911553C (fr) Composition audio-video et effets associes
FR2917931A1 (fr) Procede et systeme de mise en relation entre des personnes dans un systeme de telecommunications.
US20110210962A1 (en) Media recording within a virtual world
US20090265661A1 (en) Multi-resolution three-dimensional environment display
JPH1124603A (ja) 情報表示装置及び情報収集装置
US20060238548A1 (en) Method and systems for controlling a computer using a video image and for combining the video image with a computer desktop
US20120307005A1 (en) Generating a simulated three dimensional scene by producing reflections in a two dimensional scene
US20220116552A1 (en) System and/or Method for Enhancing Content in Live Streaming Video
US11694371B2 (en) Controlling interactivity of digital content overlaid onto displayed data via graphics processing circuitry using a frame buffer
US9292249B2 (en) System with content display management
CN1503925A (zh) 交互式远程会议显示系统
FR3139684A1 (fr) Procédé de gestion d’une présentation et dispositif pour sa mise en œuvre
Kuechler et al. Holoport-a device for simultaneous video and data conferencing featuring gaze awareness
US20130290874A1 (en) Programmatically adjusting a display characteristic of collaboration content based on a presentation rule
FR3139685A1 (fr) Procédé de gestion des interventions de différents intervenants lors d’une présentation visualisée lors d’une visioconférence et dispositif pour sa mise en œuvre

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20240315