FR3032581A1 - Procede et systeme de commande a distance - Google Patents

Procede et systeme de commande a distance Download PDF

Info

Publication number
FR3032581A1
FR3032581A1 FR1550947A FR1550947A FR3032581A1 FR 3032581 A1 FR3032581 A1 FR 3032581A1 FR 1550947 A FR1550947 A FR 1550947A FR 1550947 A FR1550947 A FR 1550947A FR 3032581 A1 FR3032581 A1 FR 3032581A1
Authority
FR
France
Prior art keywords
remote control
user
spatial
master user
capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1550947A
Other languages
English (en)
Other versions
FR3032581B1 (fr
Inventor
Anthony Chevallier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Viaccess SAS
Original Assignee
Viaccess SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Viaccess SAS filed Critical Viaccess SAS
Priority to FR1550947A priority Critical patent/FR3032581B1/fr
Publication of FR3032581A1 publication Critical patent/FR3032581A1/fr
Application granted granted Critical
Publication of FR3032581B1 publication Critical patent/FR3032581B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

L'invention concerne un procédé et un système de commande à distance d'un système à commander au moyen d'une sélection à distance d'un élément de commande, ladite sélection mettant en œuvre une capture de position d'au moins une partie du corps d'un utilisateur situé dans un périmètre spatial de capture. Le procédé selon l'invention comporte les étapes suivantes : -détection (50) d'une commande d'activation de commande à distance ; -détermination (52) d'un utilisateur maître, en fonction d'un critère prédéterminé, parmi une pluralité d'utilisateurs situés dans le périmètre spatial de capture ; -détection (54) d'une partie du corps de l'utilisateur maître, -mise en œuvre d'un suivi de position (56) de la partie du corps de l'utilisateur maître détectée et sélection (58) d'un élément de commande en fonction de la ou des positions détectées, et -action de commande (60) du système à commander en fonction de l'élément de commande sélectionné.

Description

1 Procédé et système de commande à distance La présente invention concerne un procédé de commande à distance d'un système à commander au moyen d'une sélection à distance d'un élément de commande, et un système de commande à distance associé.
L'invention se situe dans le domaine de la commande à distance, ou commande sans contact, de systèmes électroniques, appelés également systèmes à commander, munis de capteurs et de processeurs, aptes à capter et à interpréter des signaux de commande distants, permettant de sélectionner un ou plusieurs éléments de commande pour déclencher une action du système.
Un exemple classique de tel système à commander est un système de présentation de contenus multimédia, par exemple un ensemble comportant un écran de télévision et un récepteur et décodeur de contenus multimédia, ainsi qu'un ou plusieurs récepteurs de commandes à distance. Un autre exemple de tel système à commander est un système de jeu, comportant une console de jeux vidéo, munie d'un écran et d'un boîtier muni de récepteurs aptes à recevoir des commandes d'un utilisateur. Plus généralement, l'invention s'applique pour tout système à commander à distance par un utilisateur. Pour l'utilisation d'un tel système, un utilisateur dispose de manière classique d'un dispositif de télécommande avec ou sans fil, lui permettant de sélectionner un objet ou élément de commande visible sur l'écran, par exemple pour accéder à d'autres contenus, tels qu'un autre programme de télévision ou qu'un autre univers d'un jeu vidéo. L'utilisateur qui manipule la télécommande doit pointer et sélectionner, soit à l'aide d'éléments d'interface tels des flèches ou des curseurs, soit à l'aide d'un système de visée d'un élément affiché à l'écran, un élément de commande qui, une fois sélectionné, permettra de déclencher une action souhaitée du système à commander. L'utilisateur qui manipule la télécommande est maître du déclenchement des actions à mettre en oeuvre. Dans certains scénarios d'utilisation, la manipulation d'une télécommande n'est pas ergonomique, et nécessite de focaliser l'attention de l'utilisateur sur d'autres éléments que l'élément principal, par exemple le contenu qu'il est en train de visualiser. Des systèmes de commande à distance alternatifs, utilisant des capteurs de position pouvant permettre la détection de mouvement de l'utilisateur qui commande, ont été mis au point.
Par exemple, on connaît des systèmes de commande visuelle, comportant un capteur apte à détecter et à suivre le regard d'un utilisateur. Ainsi, c'est la focalisation du 3032581 2 regard de l'utilisateur sur un élément de commande qui permet le pointage et la sélection de l'élément de commande, et qui déclenche une action du système à commander. Les systèmes connus sont aptes à suivre le regard d'un utilisateur donné, placé devant un système de capture du regard.
5 Cependant, la plupart des systèmes de commande à distance au moyen du suivi du regard, et plus généralement du suivi de la gestuelle d'un utilisateur, ne fonctionnent que lorsque l'utilisateur maître est seul présent. Ces systèmes ne prennent pas en compte la présence potentielle de plusieurs utilisateurs dans un périmètre spatial de capture, correspondant au périmètre spatial dans lequel les capteurs du système de 10 commande à distance sont aptes à fonctionner. Le document US2008056542 décrit un système de commande à distance d'un système multimédia. Ce document décrit deux modes de réalisation, un premier mode appelé « playing mode » dans lequel le comportement du système multimédia est adapté au comportement collectif des personnes présentes, et un deuxième mode appelé 15 « menu mode », dans lequel un unique spectateur commande le système multimédia, au moyen du regard. Ce document ne décrit pas comment cet unique spectateur est déterminé parmi la pluralité de personnes présentes. La présente invention a pour but de remédier aux inconvénients précités de l'état de la technique, en particulier de permettre à des systèmes de commande tels que les 20 précités de fonctionner en présence d'une pluralité de personnes dans le périmètre spatial de capture. A cet effet, l'invention propose un procédé de commande à distance d'un système à commander au moyen d'une sélection à distance d'un élément de commande, ladite sélection mettant en oeuvre une capture de position d'au moins une partie du corps d'un 25 utilisateur situé dans un périmètre spatial de capture. Le procédé de commande à distance comporte les étapes suivantes : -détection d'une commande d'activation de commande à distance ; -détermination d'un utilisateur maître, en fonction d'un critère prédéterminé, parmi une pluralité d'utilisateurs situés dans le périmètre spatial de capture ; 30 -détection d'une partie du corps de l'utilisateur maître, -mise en oeuvre d'un suivi de position de la partie du corps de l'utilisateur maître détectée et sélection d'un élément de commande en fonction de la ou des positions détectées, et -action de commande du système à commander en fonction de l'élément de 35 commande sélectionné.
3032581 3 Avantageusement, l'invention permet de déterminer, parmi une pluralité d'utilisateurs présents, un utilisateur maître, et de ne considérer que les commandes de cet utilisateur pour le déclenchement d'actions du système à commander. Le procédé selon l'invention peut également présenter une ou plusieurs des 5 caractéristiques ci-dessous, prises indépendamment ou selon toutes combinaisons techniquement possibles. La détection d'une commande d'activation de commande à distance comporte la détection d'un signal reçu d'un dispositif de télécommande, apte à communiquer avec un récepteur du système à commander.
10 L'étape de détermination d'un utilisateur maître comporte la détermination de l'utilisateur qui actionne le dispositif de télécommande. L'étape de détermination d'un utilisateur maître comprend une étape de localisation spatiale du dispositif de télécommande dans une première zone spatiale, et l'étape de détection d'une partie du corps de l'utilisateur maître comprend une détection 15 dans une deuxième zone spatiale localisée par rapport à la première zone spatiale de localisation du dispositif de télécommande. L'étape de localisation spatiale du dispositif de télécommande sans fil comprend une analyse d'images captées par un dispositif d'acquisition d'images et une détection d'objet basée sur une forme et/ou une couleur prédéterminées du dispositif de 20 télécommande. L'étape de localisation spatiale du dispositif de télécommande comprend une émission d'un signal électromagnétique par le dispositif de télécommande et une capture du signal émis par au moins deux capteurs du système à commander, et une localisation spatiale du dispositif de télécommande par triangulation.
25 L'étape de détermination d'un utilisateur maître comprend les étapes de: -réception d'un signal de commande personnalisé associé à une commande donnée du dispositif de télécommande, et -détermination d'un identifiant d'un utilisateur préalablement enregistré en association avec ledit signal de commande personnalisé.
30 L'étape de détection d'une partie du corps de l'utilisateur maître comprend une détection, parmi la pluralité des utilisateurs présents dans le périmètre spatial de capture, d'un visage ou d'un iris correspondant à une image d'un visage ou d'un iris préalablement enregistrée correspondant à l'identifiant d'utilisateur déterminé. La détermination d'un utilisateur maître comprend une obtention de données de 35 chacun des utilisateurs présents dans le périmètre spatial de capture.
3032581 4 La détermination d'un utilisateur maître comprend une sélection de l'utilisateur maître en fonction de critères calculés à partir des données obtenues. Pour chaque utilisateur, les données obtenues comportent un identifiant dudit utilisateur, et la détermination d'un utilisateur maître comprend : 5 - une extraction de données pré-enregistrées relatives à chacun des utilisateurs identifiés sur la base des identifiants d'utilisateurs ; - une sélection de l'utilisateur maître en fonction de scores calculés à partir des données extraites. Le système à commander est un système de présentation de contenus multimédia 10 et dans lequel les données extraites contiennent des droits d'accès au contenu. L'identification de chacun des utilisateurs situés dans le périmètre spatial de capture comporte une détection de visage de chacun des utilisateurs présents dans le périmètre de capture et une reconnaissance de chaque visage détecté par rapport à un ensemble d'images représentatives de visages préalablement enregistrées.
15 L'identification de chacun des utilisateurs situés dans le périmètre spatial de capture comporte une obtention d'identifiant d'appareil mobile et une comparaison avec des identifiants d'appareils mémorisés préalablement. Selon un deuxième aspect, l'invention concerne un système de commande à distance d'un système à commander au moyen d'une sélection à distance d'un élément 20 de commande, ladite sélection mettant en oeuvre une capture de position d'un utilisateur situé dans un périmètre spatial de capture. Ce système comporte : -un module de détection d'une commande d'activation de commande à distance ; -une unité de calcul apte à mettre en oeuvre une détermination d'un utilisateur maître, en fonction d'un critère prédéterminé, parmi une pluralité d'utilisateurs situés dans 25 le périmètre spatial de capture ; -un module détection d'une partie du corps de l'utilisateur maître, -un capteur apte à réaliser un suivi de position de la partie du corps de l'utilisateur maître et un module de sélection d'un élément de commande en fonction de la ou des positions détectées, et 30 -un module apte à transmettre un identifiant d'une action de commande au système à commander en fonction de l'élément de commande sélectionné.Les avantages du système de commande à distance d'un système à commander selon l'invention sont analogues à ceux du procédé de commande à distance d'un système à commander. Un système de commande à distance selon l'invention comporte des moyens de 35 mise en oeuvre de l'ensemble des caractéristiques, prises dans leurs diverses variantes, 3032581 5 du procédé de commande à distance d'un système à commander tel que brièvement décrit ci-dessus. Selon un troisième aspect, l'invention concerne un programme d'ordinateur, comportant des instructions de code pour l'exécution des étapes d'un procédé de 5 commande à distance d'un système à commander tel que brièvement décrit ci-dessus, lorsque ledit programme est exécuté par un dispositif programmable. D'autres caractéristiques et avantages de l'invention ressortiront de la description qui en est donnée ci-dessous, à titre indicatif et nullement limitatif, en référence aux figures annexées, parmi lesquelles : 10 la figure 1 illustre un exemple de scénario d'utilisation d'un système de commande selon l'invention ; la figure 2 est un synoptique des principaux modules d'un système de commande selon l'invention ; la figure 3 est un organigramme des principales étapes d'un procédé de 15 commande à distance selon un mode de réalisation de l'invention ; - la figure 4 est un organigramme des principales étapes d'un procédé de détermination d'utilisateur maître selon un premier mode de réalisation de l'invention ; la figure 5 est un organigramme des principales étapes d'un procédé de détermination d'utilisateur maître selon un deuxième mode de réalisation de l'invention ; 20 - la figure 6 est un organigramme des principales étapes d'un procédé de détermination d'utilisateur maître selon un troisième mode de réalisation de l'invention. L'invention sera décrite ci-après dans son application à la commande d'un système multimédia. Il est néanmoins entendu que l'invention ne se limite pas à cette application, et 25 s'applique en général pour tout type de système à commander à distance, via la capture et l'interprétation de positions ou de mouvements corporels d'un utilisateur, qu'il s'agisse notamment de positions ou de mouvements des yeux (commande visuelle) ou d'une gestuelle corporelle, par exemple par des gestes des mains de l'utilisateur. L'invention trouve une application dans le cas où plusieurs utilisateurs sont situés 30 dans un périmètre spatial de capture des positions ou mouvements des utilisateurs, où il est utile de déterminer automatiquement, parmi les utilisateurs présents, un utilisateur maître, de ce fait habilité à commander le système. La figure 1 illustre un scénario d'utilisation d'un système de commande selon l'invention, dans lequel le système à commander 1 comporte un dispositif d'affichage 2, 35 typiquement un écran, et une unité de réception, décodage et affichage de contenus multimédia 4, connectée au dispositif d'affichage 2.
3032581 6 Une pluralité d'utilisateurs 6a, 6b, 6c et 6d dans cet exemple, sont situés dans un périmètre spatial de capture P, qui est une zone de l'espace dans laquelle un ensemble 8 de capteurs 10a, 10b, 10c, est apte à capter un signal. Par exemple, les capteurs 10a, 10b, 10c sont des caméras permettant la capture 5 d'images dans le périmètre spatial P, notamment des personnes présentes dans ce périmètre. P est alors le « champ de vision » des caméras 10a, 10b, et 10c. Dans une variante, une partie des capteurs 10a, 10b, et 10c constituent un dispositif de communication sans fil, et sont aptes à établir une telle communication avec un équipement sans fil ou mobile d'un utilisateur, tel qu'un appareil multimédia, un 10 téléphone ou une tablette. P est alors l'espace environnant le système à commander 1 dans lequel une telle communication peut être établie. Le système de commande selon l'invention comprend au moins un capteur de type caméra dédié au suivi d'une partie du corps d'un utilisateur. L'ensemble de capteurs est placé au-dessus de l'écran 2 dans l'exemple de la 15 figure 1, et est connecté à une unité de traitement 12, qui est apte à effectuer des calculs et traitements, consistant en particulier à analyser les signaux obtenus par les capteurs 10a, 10b, 10c, pour réaliser la détection de visage et/ou d'iris. L'unité de traitement 12 est également apte à analyser les signaux captés par les caméras de suivi, de façon à réaliser le suivi de regard ou de main, par exemple.
20 Dans des variantes, l'ensemble 8 de capteurs n'est pas solidaire du dispositif d'affichage, ou est solidaire de l'unité de traitement 12. Le système à commander est apte à afficher des éléments de commande 14a, 14b, 14c, 14d. Dans l'exemple de la figure 1, les éléments de commande 14a, 14b, 14c, 14d sont 25 des portions d'affichage de l'écran 2, par exemple des contenus multimédia sélectionnables par un utilisateur. De manière plus générale, les éléments de commande sont des éléments qu'un utilisateur maître du système à commander est apte à sélectionner à distance, leur sélection, optionnellement accompagnée d'un signal de commande prédéterminé, par 30 exemple en provenance d'un dispositif de télécommande, permettant de déclencher une action à effectuer par le système à commander. Par exemple, dans le scénario où chacun des éléments de commande 14a, 14b, 14c, 14d est associé à une chaîne de télévision, la focalisation du regard de l'utilisateur maître sur l'un de ces éléments, détectée par un ou plusieurs des capteurs 10a, 10b, 10c, 35 en combinaison avec une commande en provenance d'un dispositif de télécommande, induit la sélection de la chaîne de télévision associée et son affichage en plein écran.
3032581 7 Ainsi, dans le système illustré à la figure 1, l'unité de traitement 12 est apte à analyser la direction du regard du spectateur maître, à en déduire une portion d'affichage de focalisation sur l'écran, et à envoyer un signal de commande à l'unité de réception, décodage et affichage de contenus multimédia 4, qui sélectionne alors, pour affichage en 5 plein écran, la chaine de télévision associée à l'élément de commande occupant la portion d'affichage de focalisation. L'ensemble 8 de capteurs et l'unité de traitement 12 font partie d'un système de commande à distance du système à commander 1. Dans le cas où une pluralité d'utilisateurs 6a, 6b, 6c, 6d sont présents dans le 10 périmètre spatial P, le système de commande à distance selon l'invention permet de déterminer, parmi les utilisateurs présents, un utilisateur maître. Dans un mode de réalisation, l'utilisateur maître est muni d'un dispositif de télécommande 16, de préférence simplifié, c'est-à-dire comportant un faible nombre de boutons de commande, lui permettant ainsi d'agir par pression d'un bouton sans avoir à 15 focaliser son regard sur la télécommande 16. La figure 2 est un synoptique des principaux modules d'un système de commande à distance selon un mode de réalisation de l'invention. La figure 2 illustre un système de commande à distance 20, apte à commander un système à commander 22.
20 Le système de commande à distance 20 comprend un dispositif programmable comprenant une unité centrale de traitement 24, par exemple un processeur de calcul, apte à exécuter des instructions de programme d'ordinateur lorsqu'il est mis sous tension. Le système 20 comporte également une unité de stockage d'informations 26, par exemple des registres, apte à stocker des instructions de code exécutable permettant la 25 mise en oeuvre de programmes d'ordinateur comportant des instructions de code aptes à mettre en oeuvre le procédé selon l'invention. L'unité de stockage d'informations 26 comprend, dans certains modes de réalisation décrits plus en détail ci-après, des identifiants d'utilisateur Id, et des données et informations relatives aux utilisateurs, également appelées profils utilisateurs P,, 30 enregistrées dans le système de commande à distance 20. L'unité centrale de traitement 24 est apte à échanger des signaux avec des capteurs 28, 30, qui sont de préférence positionnés en fonction du positionnement spatial du système à commander 22, de manière à être aptes à capter à distance des signaux ou positions ou mouvements de commande transmis par un utilisateur maître qui a des 35 éléments à commander dans son champ de vision.
3032581 8 Par exemple, le capteur 28 est un capteur d'ondes électromagnétiques émises par un dispositif de télécommande 32, et le capteur 30 est une caméra numérique. Le nombre et le type de capteurs varie selon les applications. Le système de commande à distance 20 comprend en outre une unité 34 de 5 communications, apte à fonctionner en émission et en réception et à communiquer avec une unité 36 analogue du système à commander 22. L'unité de communications 34 est connectée à l'unité centrale de traitement 24. Le système à commander 22 comporte, outre l'unité de communications 36, une unité de traitement 38 connectée à l'unité de communications 36 et à une unité de 10 stockage d'informations 40. L'unité de traitement 38 est apte à traiter des données, par exemple des données multimédia. L'unité de stockage d'informations 40 est apte à mémoriser notamment des informations et métadonnées relatives aux données multimédia traitées. Le système à commander 22 comporte également des moyens d'affichage 42, par 15 exemple un écran d'affichage, aptes à afficher notamment des éléments de commande 44. Optionnellement, le système à commander peut comporter des éléments de commande 46, qui sont visibles par un utilisateur situé dans un périmètre spatial P donné, mais pas nécessairement affichés sur un écran d'affichage.
20 L'unité centrale de traitement 24 met en oeuvre notamment un module 25 de détermination d'un utilisateur maître parmi une pluralité d'utilisateurs présents, et un module 27 de suivi d'une partie du corps de l'utilisateur maître, permettant ensuite le suivi de cette partie du corps en coopération avec les capteurs 28, 30 , permettant la sélection à distance d'éléments à commander du système à commander.
25 Selon une variante de mise en oeuvre, le système de commande à distance et le système à commander sont intégrés dans un même système, auquel cas les unités de traitement 24, 38, ainsi que les unités de stockage d'informations 26, 40, peuvent être regroupées. En outre, dans cette variante de mise en oeuvre, les unités de communications 34, 36 sont optionnelles.
30 Les principales étapes d'un procédé de commande à distance, selon un mode de réalisation de l'invention, mises en oeuvre par l'unité centrale de traitement 24, en coopération avec les capteurs 28, 30, sont représentées schématiquement à la figure 3. Le procédé de commande à distance met en oeuvre une capture de positions d'au moins une partie du corps d'un utilisateur maître situé dans un périmètre spatial de 35 capture P donné.
3032581 9 Le procédé comprend une première étape 50 de détection d'une commande d'activation de commande à distance. Par exemple, si le système de commande à distance comprend également un dispositif de télécommande, une commande d'activation est réalisée par pression sur un 5 bouton de la télécommande, et transmission d'un signal correspondant au capteur de signaux envoyés par la télécommande. En alternative, une commande sonore, par exemple une commande vocale d'un utilisateur est envisageable. Dans ce cas, le système de commande à distance comporte un capteur de type microphone, et un module de reconnaissance de commande sonore 10 associé. Une commande implicite, résultant par exemple du démarrage du système à commander 22, peut également être utilisée. L'étape 50 d'activation est suivie d'une étape 52 de détermination d'un utilisateur maître parmi la pluralité d'utilisateurs situés dans le périmètre spatial de capture P, en 15 fonction d'un critère prédéterminé. Plusieurs modes de réalisation de l'étape de détermination d'un utilisateur maître seront décrits ci-après. L'étape 52 est suivie d'une étape 54 de détection d'une partie du corps de l'utilisateur maître, puis d'une étape 56 de suivi de la partie du corps de l'utilisateur maître détectée. Le suivi comprend la capture de positions successives, et éventuellement une 20 détection de mouvement correspondant. De préférence, une détection de visage et/ou d'iris, et un suivi du regard sont mis en oeuvre. En variante, les mains de l'utilisateur maître sont détectées, et la position des mains est suivie.
25 La position détectée permet de sélectionner un élément de commande du système à commander lors de l'étape 58. Enfin, un identifiant d'une action du système à commander, déterminée en fonction de l'élément de commande sélectionné, est transmise au système à commander lors de l'étape 60.
30 Selon une variante, la sélection de l'élément de commande de l'étape 58 est complétée par la réception d'un signal de commande, fourni par exemple par la télécommande simplifiée suite à une action sur un bouton par l'utilisateur, contribuant à déterminer un identifiant de la commande désirée. En variante, une information relative à l'élément de commande sélectionné est 35 transmise au système à commander, qui met en oeuvre l'action de commande. Par exemple, la position de l'élément de commande sélectionné dans un référentiel spatial, 3032581 10 éventuellement complétée d'un identifiant de contexte, est transmise au système à commander. La figure 4 illustre schématiquement un premier mode de réalisation de l'étape 52 de détermination d'un utilisateur maître et de l'étape de détection 54 d'une partie du corps 5 de l'utilisateur maître. Dans ce premier mode de réalisation, le système de commande comporte un dispositif de télécommande, de préférence simplifié, donc comportant un nombre de touches réduit et d'utilisation aisée. Dans ce premier mode de réalisation, l'utilisateur maître est l'utilisateur qui 10 manipule le dispositif de télécommande, et sa détection est effectuée automatiquement à partir de la localisation spatiale du dispositif de télécommande. L'étape de détermination d'un utilisateur maître comporte une mise en oeuvre de l'étape 50 par une étape 62 de détection d'un signal reçu d'un dispositif de télécommande, suivie d'une étape 64 de localisation spatiale du dispositif de 15 télécommande dans une première zone spatiale. Une deuxième zone spatiale est obtenue lors d'une étape 66, en fonction de la première zone spatiale dans laquelle la télécommande a été localisée, en prenant en compte par exemple des considérations morphologiques relatives au corps humain et à la partie du corps à détecter. Par exemple, lorsqu'on cherche à détecter le visage de 20 l'utilisateur maître, la deuxième zone spatiale est sélectionnée au-dessus de la première zone spatiale, en fonction du positionnement supposé du tronc et de la tête par rapport au bras qui tient la télécommande. Une détection de partie du corps, par exemple de visage, est ensuite effectuée lors d'une étape de détection 68, dans la deuxième zone spatiale obtenue.
25 L'étape 68 est suivie de l'étape 56 précédemment décrite. Plusieurs variantes de mise en oeuvre de l'étape 64 de localisation spatiale du dispositif de télécommande sont envisagées. Selon une première variante, une capture d'image est effectuée par un dispositif d'acquisition d'images, et une détection d'objets est effectuée, en fonction de la forme 30 géométrique de la télécommande, dont un modèle est préalablement mémorisé. La localisation spatiale par détection d'objet dans une image bidimensionnelle est une localisation spatiale plane, c'est-à-dire dans une zone spatiale à deux dimensions. Néanmoins, connaissant la taille de la télécommande, et les paramètres de la caméra effectuant l'acquisition d'images, notamment la distance focale, il est possible de localiser 35 la télécommande dans une première zone spatiale à trois dimensions.
3032581 11 Selon une deuxième variante, une capture d'image est effectuée par un dispositif d'acquisition d'images, et une détection d'objets est effectuée, en fonction de la ou des couleurs de la télécommande. De préférence des couleurs spécifiques facilement reconnaissables, combinées selon des modèles prédéterminés, sont utilisées sur une 5 portion prédéterminée du dispositif de télécommande, de manière à faciliter la détection. Selon une troisième variante, la forme et la couleur de la télécommande sont combinées pour une meilleure détection. Selon une quatrième variante, le dispositif de télécommande comporte un émetteur apte à émettre des signaux électromagnétiques ou sonores, de préférence 10 inaudibles, ces signaux étant détectés par des capteurs appropriés. De préférence, au moins deux tels capteurs sont utilisés. La réception des signaux électromagnétiques émis permet alors une localisation spatiale de l'émetteur du dispositif de télécommande, par triangulation par exemple. Selon un deuxième mode de réalisation, illustré à la figure 5, la détermination de 15 l'utilisateur maître parmi la pluralité d'utilisateurs présents et la détection de la position spatiale de l'utilisateur maître et de la partie du corps dont le mouvement est à suivre comporte les étapes suivantes. Dans ce deuxième mode de réalisation, le système de commande à distance comprend un dispositif de télécommande simplifié, dont un groupe de touches est réservé 20 à l'identification des utilisateurs. Dans ce deuxième mode de réalisation, le procédé comprend des étapes préalables d'enregistrement de chaque utilisateur en association avec une touche du dispositif de télécommande, ou plus généralement en association avec un signal de commande personnalisé. De plus, des informations relatives à l'utilisateur sont également 25 préalablement enregistrées. Par exemple, lors de l'étape d'enregistrement, le visage de l'utilisateur est pris en photo, et la photo est enregistrée dans une mémoire, en association avec un identifiant d'utilisateur et un signal de commande personnalisé. En supplément, d'autres informations relatives à l'utilisateur, par exemple des droits d'accès liés à des contenus multimédia accessibles, sont également enregistrés.
30 Lors d'une étape 70 qui est une mise en oeuvre de l'étape 50, un signal de commande personnalisé est reçu par un capteur approprié du dispositif de commande à distance. A la détection de ce signal, un identifiant d'utilisateur, préalablement mémorisé en association avec le signal de commande personnalisé, est extrait d'une mémoire du 35 système de commande à distance, lors d'une étape d'obtention d'identifiant d'utilisateur 72.
3032581 12 Ensuite, une image représentative du visage de l'utilisateur identifié, préalablement enregistrée, est extraite à l'étape d'extraction de visage 74. Une capture d'images permet d'obtenir les visages des utilisateurs présents dans le périmètre spatial de capture à l'étape 76, et une étape de détection 78 permet ensuite 5 de détecter l'utilisateur maître qui a été identifié, en utilisant le modèle de visage extrait de la mémoire et la ou les images captées. Une méthode de reconnaissance de visages par mise en correspondance peut être utilisée. En variante, toute méthode connue de reconnaissance de visage, basée sur tout type de caractéristiques morphologiques qui peuvent être obtenues par traitement 10 d'images, est applicable. En variante, la reconnaissance de visage est remplacée par la reconnaissance d'iris. De telles méthodes de reconnaissance de visage et/ou de reconnaissance d'iris sont connues de l'homme du métier, par exemple la méthode de P. Viola et M. J. Jones, décrite dans l'article « Rapid Object Detection using a Boosted Cascade of Simple 15 Features », publié dans IEEE Transactions on CVPR vol.1, 2001, et mise en oeuvre dans la bibliothèque logicielle OpenCV®. Selon un troisième mode de réalisation, illustré à la figure 6, la détermination de l'utilisateur maître parmi la pluralité d'utilisateurs présents et la détection de la position spatiale de l'utilisateur maître et de la partie du corps dont le mouvement est à suivre 20 comporte les étapes suivantes. Lors d'une étape préalable 80 d'enregistrement d'utilisateurs, chaque utilisateur est enregistré, sous la forme d'un identifiant d'utilisateur associé, et d'un ensemble de données appelé profil d'utilisateur, comprenant par exemple une ou plusieurs images représentatives du visage de l'utilisateur, ou des données d'identification d'un appareil 25 associé à l'utilisateur, par exemple un identifiant de son téléphone mobile, appelé identifiant d'appareil mobile. Le profil d'utilisateur enregistré comporte en outre des données supplémentaires, utiles pour le calcul d'un critère pour la détermination de l'utilisateur maître, qui incluent par exemple : la date de naissance, la position familiale, des droits d'accès à des types de 30 contenus vidéo. En outre, le profil de chaque utilisateur peut être mis à jour dynamiquement, en fonction de données reçues par un moyen de communication. Par exemple, le profil de l'utilisateur peut être enrichi avec des recommandations de contenus multimédia, dans le contexte de la visualisation de contenus, en provenance d'un serveur ou en provenance 35 d'un élément d'un réseau social.
3032581 13 Le profil d'utilisateur, préalablement enregistré, et dynamiquement enrichi, est mémorisé et maintenu dans une mémoire du dispositif de commande à distance, en association avec un identifiant d'utilisateur. Lors d'une étape 82, chaque utilisateur de la pluralité des utilisateurs présents 5 dans le périmètre spatial de capture est identifié en fonction de données de son profil d'utilisateur captées dans le périmètre spatial de capture, par extraction de l'identifiant d'utilisateur mémorisé en association avec le profil d'utilisateur contenant ces données. Selon une première variante, une capture d'images est effectuée, suivie d'une détection de visages et d'une reconnaissance de visages par rapport à des visages 10 enregistrés dans les profils d'utilisateurs. Selon une deuxième variante, d'autres types de données de profils d'utilisateurs, par exemple des identifiants de téléphones mobiles, sont récupérés par un capteur du système de commande à distance et permettent d'identifier les utilisateurs présents. Une combinaison de ces deux variantes est également envisageable, certains 15 utilisateurs étant identifiés au moyen d'une détection/reconnaissance de visage et d'autres utilisateurs étant identifiés au moyen d'une détection/reconnaissance d'autres types de données de profils d'utilisateurs. Lors d'une étape d'obtention de premières données d'utilisateur 84, des données relatives à chacun des utilisateurs présents sont extraites, en fonction des identifiants 20 d'utilisateur obtenus à l'étape 82. Lors d'une étape optionnelle d'obtention de deuxièmes données d'utilisateur 86, des données relatives au système à commander, par exemple aux contenus multimédia disponibles, sont obtenues du système à commander. Par exemple, des métadonnées associées aux contenus multimédia, comme 25 l'indication d'âge minimum du spectateur autorisé à regarder les contenus multimédia, sont obtenues. Enfin, lors d'une étape 88, un score est calculé pour chaque utilisateur, en fonction des premières et deuxièmes données obtenues, et d'un critère prédéterminé. L'utilisateur obtenant le meilleur score par rapport au critère prédéterminé est alors 30 sélectionné comme utilisateur maître lors de l'étape 90. Cette méthode permet de mettre en oeuvre des critères variés pour la sélection de l'utilisateur maître. Par exemple, dans le cadre d'un visionnage de contenus multimédia, le critère peut être basé sur : l'âge des utilisateurs présents, la position familiale des utilisateurs 35 permettant un contrôle parental, ou la recommandation d'un contenu par exemple accessible ou en cours de visualisation à l'un donné des utilisateurs présents.
3032581 14 De plus, le critère peut également prendre en compte les deuxièmes données relatives aux contenus. Selon une variante, le critère de sélection est un critère basé sur les fonctionnalités du système, par exemple l'utilisateur maître est celui pour lequel un score 5 de reconnaissance ou de performance de suivi de mouvement est le plus élevé. De plus, toute combinaison des critères présentés ci-dessus peut être mise en oeuvre pour calculer un score permettant de hiérarchiser les utilisateurs présents et de sélectionner l'utilisateur obtenant le meilleur score comme utilisateur maître. De préférence, le choix de critère est paramétrable par le fournisseur du système 10 à commander puis par son utilisateur, permettant ainsi à l'utilisateur du système de choisir un critère ou une combinaison de critères parmi ceux et celles auquel le fournisseur lui a préalablement donné accès.

Claims (16)

  1. REVENDICATIONS1.- Procédé de commande à distance d'un système à commander au moyen d'une sélection à distance d'un élément de commande, ladite sélection mettant en oeuvre une capture de position d'au moins une partie du corps d'un utilisateur situé dans un périmètre spatial de capture, caractérisé en ce qu'il comporte les étapes suivantes : -détection (50) d'une commande d'activation de commande à distance ; -détermination (52) d'un utilisateur maître, en fonction d'un critère prédéterminé, parmi une pluralité d'utilisateurs situés dans le périmètre spatial de capture ; -détection (54) d'une partie du corps de l'utilisateur maître, -mise en oeuvre (56) d'un suivi de position de la partie du corps de l'utilisateur maître détectée et sélection (58) d'un élément de commande en fonction de la ou des positions détectées, et -action de commande (60) du système à commander en fonction de l'élément de commande sélectionné.
  2. 2.- Procédé de commande à distance selon la revendication 1, dans lequel la détection (50) d'une commande d'activation de commande à distance comporte la détection (62) d'un signal reçu d'un dispositif de télécommande, apte à communiquer avec un récepteur du système à commander.
  3. 3.- Procédé de commande à distance selon la revendication 2, dans lequel l'étape de détermination (52) d'un utilisateur maître comporte la détermination de l'utilisateur qui actionne le dispositif de télécommande.
  4. 4.- Procédé de commande à distance selon la revendication 3, dans lequel l'étape de détermination (52) d'un utilisateur maître comprend une étape de localisation spatiale (64) du dispositif de télécommande dans une première zone spatiale, et l'étape de détection (54) d'une partie du corps de l'utilisateur maître comprend une détection (68) dans une deuxième zone spatiale localisée (66) par rapport à la première zone spatiale de localisation du dispositif de télécommande.
  5. 5.- Procédé de commande à distance selon la revendication 4, dans lequel l'étape de localisation spatiale (64) du dispositif de télécommande sans fil comprend une analyse d'images captées par un dispositif d'acquisition d'images et une détection d'objet basée sur une forme et/ou une couleur prédéterminées du dispositif de télécommande. 3032581 16
  6. 6.- Procédé de commande à distance selon l'une des revendications 4 ou 5, dans lequel l'étape de localisation spatiale (64) du dispositif de télécommande comprend une émission d'un signal électromagnétique par le dispositif de télécommande et une capture 5 du signal émis par au moins deux capteurs du système à commander, et une localisation spatiale du dispositif de télécommande par triangulation.
  7. 7.- Procédé de commande à distance selon la revendication 3, dans lequel l'étape de détermination (52) d'un utilisateur maître comprend les étapes de: 10 -réception (70) d'un signal de commande personnalisé associé à une commande donnée du dispositif de télécommande, et -détermination (72) d'un identifiant d'un utilisateur préalablement enregistré en association avec ledit signal de commande personnalisé. 15
  8. 8.- Procédé de commande à distance selon la revendication 7, dans lequel l'étape de détection (54) d'une partie du corps de l'utilisateur maître comprend une détection, parmi la pluralité des utilisateurs présents dans le périmètre spatial de capture, d'un visage ou d'un iris correspondant à une image d'un visage ou d'un iris préalablement enregistrée correspondant à l'identifiant d'utilisateur déterminé. 20
  9. 9.- Procédé de commande à distance selon la revendication 1, caractérisé en ce que la détermination (52) d'un utilisateur maître comprend une obtention (84) de données de chacun des utilisateurs présents dans le périmètre spatial de capture. 25
  10. 10.- Procédé de commande à distance selon la revendication 9, caractérisé en ce que la détermination d'un utilisateur maître comprend une sélection (90) de l'utilisateur maître en fonction de critères calculés à partir des données obtenues.
  11. 11.- Procédé de commande à distance selon la revendication 9, caractérisé en ce 30 que, pour chaque utilisateur, les données obtenues comportent un identifiant dudit utilisateur, et en ce que la détermination d'un utilisateur maître comprend : - une extraction (84) de données pré-enregistrées relatives à chacun des utilisateurs identifiés sur la base des identifiants d'utilisateurs ; - une sélection (88, 90) de l'utilisateur maître en fonction de scores calculés à 35 partir des données extraites. 3032581 17
  12. 12.- Procédé de commande à distance selon la revendication 11, dans lequel le système à commander est un système de présentation de contenus multimédia et dans lequel les données extraites contiennent des droits d'accès au contenu. 5
  13. 13.- Procédé de commande à distance selon l'une quelconque des revendications 9 à 12, dans lequel l'identification de chacun des utilisateurs situés dans le périmètre spatial de capture comporte une détection de visage de chacun des utilisateurs présents dans le périmètre de capture et une reconnaissance de chaque visage détecté par rapport à un ensemble d'images représentatives de visages préalablement enregistrées. 10
  14. 14.- Procédé de commande à distance selon l'une quelconque des revendications 9 à 13, dans lequel l'identification de chacun des utilisateurs situés dans le périmètre spatial de capture comporte une obtention d'identifiant d'appareil mobile et une comparaison avec des identifiants d'appareils mémorisés préalablement. 15
  15. 15.- Système de commande à distance d'un système à commander au moyen d'une sélection à distance d'un élément de commande, ladite sélection mettant en oeuvre une capture de position d'un utilisateur situé dans un périmètre spatial de capture, caractérisé en ce qu'il comporte : 20 -un module de détection d'une commande d'activation de commande à distance ; -une unité de calcul apte à mettre en oeuvre une détermination d'un utilisateur maître, en fonction d'un critère prédéterminé, parmi une pluralité d'utilisateurs situés dans le périmètre spatial de capture ; -un module détection d'une partie du corps de l'utilisateur maître, 25 -un capteur apte à réaliser un suivi de position de la partie du corps de l'utilisateur maître et un module de sélection d'un élément de commande en fonction de la ou des positions détectées, et -un module apte à transmettre un identifiant d'une action de commande au système à commander en fonction de l'élément de commande sélectionné. 30
  16. 16.- Programme d'ordinateur comportant des instructions de code pour l'exécution des étapes d'un procédé de commande à distance d'un système à commander selon l'une quelconque des revendications 1 à 14 lorsque ledit programme est exécuté par un dispositif programmable. 35
FR1550947A 2015-02-06 2015-02-06 Procede et systeme de commande a distance Active FR3032581B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1550947A FR3032581B1 (fr) 2015-02-06 2015-02-06 Procede et systeme de commande a distance

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1550947A FR3032581B1 (fr) 2015-02-06 2015-02-06 Procede et systeme de commande a distance
FR1550947 2015-02-06

Publications (2)

Publication Number Publication Date
FR3032581A1 true FR3032581A1 (fr) 2016-08-12
FR3032581B1 FR3032581B1 (fr) 2018-12-07

Family

ID=53491612

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1550947A Active FR3032581B1 (fr) 2015-02-06 2015-02-06 Procede et systeme de commande a distance

Country Status (1)

Country Link
FR (1) FR3032581B1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008024554A1 (fr) * 2006-08-25 2008-02-28 Verizon Data Services Llc Systèmes et procédés pour modifier un contenu sur la base d'une relation de position
US20100229194A1 (en) * 2009-03-03 2010-09-09 Sony Corporation System and method for remote control based customization
EP2595031A2 (fr) * 2011-11-16 2013-05-22 Samsung Electronics Co., Ltd Appareil d'affichage et son procédé de commande
US20130329966A1 (en) * 2007-11-21 2013-12-12 Qualcomm Incorporated Media preferences

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008024554A1 (fr) * 2006-08-25 2008-02-28 Verizon Data Services Llc Systèmes et procédés pour modifier un contenu sur la base d'une relation de position
US20130329966A1 (en) * 2007-11-21 2013-12-12 Qualcomm Incorporated Media preferences
US20100229194A1 (en) * 2009-03-03 2010-09-09 Sony Corporation System and method for remote control based customization
EP2595031A2 (fr) * 2011-11-16 2013-05-22 Samsung Electronics Co., Ltd Appareil d'affichage et son procédé de commande

Also Published As

Publication number Publication date
FR3032581B1 (fr) 2018-12-07

Similar Documents

Publication Publication Date Title
US20210397834A1 (en) Schemes for retrieving and associating content items with real-world objects using augmented reality and object recognition
US9332189B2 (en) User-guided object identification
US9958952B2 (en) Recognition system for sharing information
US9750420B1 (en) Facial feature selection for heart rate detection
US9049983B1 (en) Ear recognition as device input
US10789699B2 (en) Capturing color information from a physical environment
US9563272B2 (en) Gaze assisted object recognition
US9978174B2 (en) Remote sensor access and queuing
EP2877254B1 (fr) Procédé et appareil de commande de réalité augmentée
EP2912659B1 (fr) Augmentation de reconnaissance de parole à l'aide d'une imagerie de profondeur
US9841877B2 (en) Utilizing color descriptors to determine color content of images
US20130177296A1 (en) Generating metadata for user experiences
US20140225820A1 (en) Detecting natural user-input engagement
EP3532797A1 (fr) Photogrammétrie organisée
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
JP2010067062A (ja) 入力システム及び入力方法
US11463533B1 (en) Action-based content filtering
US9811916B1 (en) Approaches for head tracking
KR20160106653A (ko) 조정된 스피치 및 제스처 입력
FR3032581A1 (fr) Procede et systeme de commande a distance

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160812

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10