JP2020098614A - ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 - Google Patents

ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 Download PDF

Info

Publication number
JP2020098614A
JP2020098614A JP2020012242A JP2020012242A JP2020098614A JP 2020098614 A JP2020098614 A JP 2020098614A JP 2020012242 A JP2020012242 A JP 2020012242A JP 2020012242 A JP2020012242 A JP 2020012242A JP 2020098614 A JP2020098614 A JP 2020098614A
Authority
JP
Japan
Prior art keywords
user
coordinate system
reference space
axis
space coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020012242A
Other languages
English (en)
Other versions
JP6839778B2 (ja
Inventor
キム,ソクジョーン
Seokjoong Kim
キム,チュンフン
Chunghoon Kim
リー,ベンホ
Beomho Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vtouch Co Ltd
Original Assignee
Vtouch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vtouch Co Ltd filed Critical Vtouch Co Ltd
Publication of JP2020098614A publication Critical patent/JP2020098614A/ja
Application granted granted Critical
Publication of JP6839778B2 publication Critical patent/JP6839778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザーを基準とする空間座標系を利用してユーザーのモーションからジェスチャーを正確に検出する方法および装置を提供する。【解決手段】ユーザー基準空間座標系上におけるジェスチャー検出方法は、ユーザーの第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を設定しS110、ユーザー基準空間座標系上において、ユーザーの第2身体部位に対応する第2身体座標の時間による移動ベクトルの状態を分析しS130、移動ベクトルの状態の変化に基づいてユーザーのジェスチャーを検出するS140。【選択図】図18

Description

本発明はユーザー基準空間座標系上におけるジェスチャー検出方法に関するもので、より詳細には、ユーザーの身体の3次元座標検出手段(例えば3Dカメラなど、以下「3次元座標検出手段」という)に対するユーザー間の幾何学的な配置(位置および方向)とは無関係に、ユーザーを基準とする空間座標系を利用してユーザーのモーションからジェスチャーを正確に検出する方法および装置に関するものである。
身体部位の移動(モーション)を通じてのジェスチャーは、3次元座標検出手段を通じて行われ得る。例えば、3次元座標検出手段のうち3Dカメラ(ToF、structured Light、Stereo、Dual Aperture)、Radar、Lidarなどは、外部でユーザーの身体座標の位置を検出する方式である。GPS(Global Positioning System)、IPS(Indoor Positioning System)、RSSI(Received Signal Strength Indication)、ジャイロセンサー、加速度センサー、磁場センサーなどはユーザーが着用したセンサーから身体の3次元座標を検出することもできる。
ところで、従来のジェスチャー認識技術は、ユーザーが3次元座標検出手段に正確に向かい合っていない方向でモーションを行う場合、ユーザーの位置や方向によってユーザーのモーションを誤認識したり認識できない短所があった。特に一台の3次元座標検出手段で複数台の機器を制御しなければならない場合、それぞれの機器に向かってジェスチャーを行う度に3次元座標検出手段とユーザー間の幾何学的な配置(位置および方向)が変わってしまい、ユーザーのモーションを正しいジェスチャーとして認識できない短所があった。
図1は、従来のジェスチャー認識技術の問題点を例示した図面である。
図1では、ユーザー(11)が3次元座標検出手段(10)に正確に向かい合っていない状態で、斜線方向で指を最初の位置(101)の横(103)に移動させる場合を例示する。従来のジェスチャー認識技術は、このような移動を表わす空間ベクトル(105)をユーザーの意図とは異なり、指の前進や後進を意味するものと誤認識する可能性がある。またはユーザーの意図通りに認識をするとしても、認識率が非常に低くなる問題点もある。
したがって、3次元座標検出手段とユーザー間の幾何学的な配置とは無関係に、ユーザーのモーションからジェスチャーを正確に検出する技術が要請された。
本発明は、前記のような要請に応じて案出されたもので、ユーザーを基準とする空間座標系を利用してユーザーのモーションからジェスチャーを正確に検出する方法および装置を提供することを目的とする。
発明の一側面に係るユーザー基準空間座標系上におけるジェスチャー検出方法は、ユーザーの第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を設定する段階、ユーザー基準空間座標系上において、ユーザーの第2身体部位に対応する第2身体座標の時間による移動ベクトルの状態を分析する段階、移動ベクトルの状態の変化に基づいてユーザーのジェスチャーを検出する段階を含み、ユーザー基準空間座標系を設定する段階は、第1身体座標と第2身体座標とを連結する直線を基準として、ユーザー基準空間座標系の前後軸を生成する段階、生成された前後軸に直交するように、ユーザー基準空間座標系の左右軸および上下軸を生成する段階をさらに含み、ユーザー基準空間座標系の左右軸は、ユーザー基準空間座標系の上下軸に直交し、ユーザー基準空間座標系の左右軸は、ユーザーの頭の傾き、または、ユーザーが傾斜面に立っているかを参照して作成され、ユーザーが傾斜面に立っている場合、左右軸は、第1身体座標を通り、地面と平行するように生成され、上下軸は、第1身体座標を通るように生成され、ユーザーの頭が傾いている場合、上下軸は、第1身体座標を通り、第1身体座標で第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交するように生成され、左右軸は、第1身体座標を通るように生成される。
発明の他の側面に係るユーザー基準空間座標系上におけるジェスチャー検出装置は、外部の3次元身体座標検出手段から、ユーザーの第1身体部位および第2身体部位を含む複数の身体部位に対応する複数の身体座標を受信する3次元身体座標受信部、複数の身体座標に基づいて、第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を生成するユーザー基準空間座標系設定部、時間による、第2身体部位に対応する第2身体座標の移動ベクトルを生成し、移動ベクトルの状態を判断する移動ベクトル分析部、および移動ベクトルの状態の変化に基づいてユーザーのジェスチャーを検出するジェスチャー検出部を含み、ユーザー基準空間座標系は、第1身体座標および第2身体座標を連結する直線基準として、ユーザー基準空間座標系の前後軸を生成するように構成される前後軸設定部、生成された前後軸に直交するように、ユーザー基準空間座標系の左右軸を生成するように構成される左右軸設定部、生成された前後軸に直交するように、ユーザー基準空間座標系の上下軸を生成するように構成される上下軸設定部を含み、ユーザー基準空間座標系の左右軸は、ユーザー基準空間座標系の上下軸に直交し、ユーザー基準空間座標系の左右軸は、ユーザーの頭の傾き、または、ユーザーが傾斜面に立っているかを参照して作成され、ユーザーが傾斜面に立っている場合、左右軸は、第1身体座標を通り、地面と平行するように生成され、上下軸は、第1身体座標を通るように生成され、ユーザーの頭が傾いている場合、上下軸は、第1身体座標を通り、第1身体座標で第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交するように生成され、左右軸は、第1身体座標を通るように生成される。
本発明を利用すれば、3次元座標検出手段−ユーザー間の幾何学的な配置(位置および方向)とは無関係に、ユーザーを基準とする空間座標系を利用してユーザーのモーションからジェスチャーを正確に検出する方法および装置を具現することができる効果がある。
従来のジェスチャー認識技術の問題点を例示した図面。 ユーザー基準空間座標系の一例を示した図面。 図2のユーザー基準空間座標系の三軸をx軸、y軸およびz軸に対応させた図面。 ユーザー基準空間座標系の上下軸と左右軸を設定する方法の一例を示した図面。 ユーザー基準空間座標系の上下軸と左右軸を設定する方法の他の例を示した図面。 ユーザー基準空間座標系の上下軸と左右軸を設定する方法のさらに他の例を示した図面。 ユーザー基準空間座標系における移動ベクトルを例示した図面。 図7の移動ベクトルを球面座標で表現した図面。 z軸となす移動ベクトルのθ成分の大きさと移動ベクトルの方向の関係を示した図面。 x軸となす移動ベクトルのφ成分の大きさと移動ベクトルの方向の関係を示した図面。 移動ベクトルの移動状態を示した状態図(state diagram)。 仮想球面上でユーザーのジェスチャーを検出する方法を例示した図面。 多重仮想球面上でユーザーのジェスチャーを検出する方法を例示した図面。 ユーザー基準空間座標系上におけるジェスチャー検出装置の一例を示したブロック図。 図14のジェスチャー検出装置のユーザー基準空間座標系設定部をさらに詳細に示したブロック図。 図14のジェスチャー検出装置の移動ベクトル分析部をさらに詳細に示したブロック図。 図14のジェスチャー検出装置のジェスチャー検出部をさらに詳細に示したブロック図。 ユーザー基準空間座標系上におけるジェスチャー検出方法の一例を示したフローチャート。
以下、発明の内容を図面を参照してより具体的に説明する。
図2は、ユーザー基準空間座標系の一例を示した図面である。
図2に例示した通り、本発明はユーザーを基準として空間座標系を形成する。ユーザーを基準として空間座標系を形成することによって、カメラとユーザー間の幾何学的な配置に無関係にユーザーのモーションをユーザーの意図通りに解釈することができる。
ユーザー基準空間座標系では、まずユーザーの第1身体部位の座標と第2身体部位の座標を連結する直線を「前後軸」に設定する。
明細書全体において、第1身体部位の座標はユーザー基準空間座標系の原点になる。第1身体部位は例えば、ユーザーの両眼のうち片方の目を選択することができる。しかし、ユーザー基準空間座標系の原点として機能することができるのであれば、いずれの身体部位でも第1身体部位に指定され得る。また、第2身体部位はモーションがなされる身体部位となる。第2身体部位のモーションからジェスチャーが検出される。第2身体部位は例えば、ユーザーの特定の指先を選択することができる。しかし、時間の流れにつれてモーションがなされるのであれば、いずれの身体部位でも第2身体部位に指定され得る。
次に、第1身体部位で前後軸と直交する平面上で「左右軸」と「上下軸」を設定する。左右軸を先に設定すれば、上下軸は前後軸および左右軸にそれぞれ直交する軸に決定される。場合により、上下軸を先に設定し、左右軸が前後軸および上下軸にそれぞれ直交する軸に決定されるようにすることもできる。
左右軸は、ユーザーが水平と認識する軸を意味する。左右軸によってユーザーの空間は左側と右側に分割される。
また、上下軸はユーザーが垂直と認識する軸を意味する。上下軸によってユーザーの空間は上方と下方に分割される。
また、前後軸はユーザーが前後と認識する軸を意味する。前後軸によってユーザーの空間は前方と後方に分割される。
また、左右軸、上下軸および前後軸は、一般の空間座標系の表記方式においてそれぞれ、x軸、y軸およびz軸に対応させることができる。
図3は、図2のユーザー基準空間座標系の三軸を、x軸、y軸およびz軸に対応させた図面である。
図2の左右軸21は図3に示した通り、x軸31に対応させることができる。例えば、x軸31の正(+)の方向はユーザー基準空間座標系においてユーザーの「右側」に該当する。
上下軸22はy軸32に対応させることができる。例えば、y軸32の正(+)の方向はユーザー基準空間座標系においてユーザーの「上方」に該当する。前後軸20はz軸30に対応させることができる。例えば、z軸30の正(+)の方向はユーザー基準空間座標系においてユーザーの「後方」に該当する。
図4は、ユーザー基準空間座標系の上下軸と左右軸を設定する方法の一例を示した図面である。
図4に示したユーザー基準空間座標系は、左右軸が前後軸および重力方向と直交し、上下軸は前後軸および左右軸と直交するように設定される。ユーザーが平地に立っている場合であれば、(1)第1身体部位400を通り、(2)重力方向と垂直であり、(3)前後軸と第1身体部位400で直交するように左右軸を先に設定することによって、ユーザーが認識する左右方向と左右軸の方向を一致させることができる。同様に、(1)第1身体部位400を通り、(2)地表面と平行し、(3)前後軸と第1身体部位400で直交するように左右軸を設定することによって、ユーザーが認識する左右方向と左右軸の方向を一致させることもできる。
上下軸は原点400で左右軸および前後軸にそれぞれ直交する直線に決定される。
図5は、ユーザー基準空間座標系の上下軸と左右軸を設定する方法の別の例を示した図面である。
ユーザーが傾斜面に立っている場合であれば、重力方向とユーザーが認識する上下軸方向は一致しなくなる。
したがって、ユーザーが傾斜面に立っている場合に備えて、(1)第1身体部位500を通り、(2)地表面と平行し、(3)前後軸と第1身体部位500で直交するように左右軸を設定することによって、地表面53と平行するように左右軸を先に設定することによってユーザーが認識する左右方向と左右軸の方向を一致させることができる。
この場合、上下軸は原点500で左右軸および前後軸にそれぞれ直交する直線に決定される。
図6は、ユーザー基準空間座標系の上下軸と左右軸を設定する方法のさらに他の例を示した図面である。
ユーザーの頭が傾くとユーザーが認識する左右の方向が地表面と平行する方向とならない可能性がある。
ユーザーの頭が傾いてもユーザーが認識する左右軸と上下軸が不変となるように、(1)第1身体部位(例えば、左眼)(ユーザーの両眼のうち基準とするいずれか一方の眼であれば、右眼でも左眼でもよい。さらに、ユーザーの両眼のうち優れている眼を第1身体部位に使うこともできる。以下、この明細書全体において同じである。)600を通り、(2)第1身体部位600で、第1身体部位(すなわち、ユーザー基準空間座標系の原点になる身体部位。例えば左眼)600と第3身体部位(例えば、右眼)604の延長線63と直交し、(3)第1身体部位600で前後軸60と直交するように、上下軸62を設定する。
左右軸61は原点600で前後軸60および上下軸62にそれぞれ直交する直線に決定される。
図7は、ユーザー基準空間座標系における移動ベクトルを例示した図面である。
移動ベクトル700は、ユーザーの第1時刻における第2身体部位702と第1時刻に続く第2時刻における第2身体部位704間のモーションを表わすベクトルである。ユーザー基準空間座標系内で時間による移動ベクトルを解釈することによって、ユーザーの意図にさらに符合するようにユーザーのジェスチャーの意味を把握することができる。
この時、ユーザー基準空間座標系の左右軸、上下軸および前後軸は図面に示した通り、それぞれ直交座標系の、x軸、y軸およびz軸で表示する。(一方、z軸の正の方向はユーザーの後方に対応する)
下記の図8以降では、移動ベクトルの解釈を通じてジェスチャーを検出する方法をさらに具体的に説明する。
図8は、図7の移動ベクトルを球面座標で表現した図面である。
本発明者は、図7に例示した移動ベクトルをユーザー基準空間座標系で球面座標で表現することによって、ジェスチャーの意味を移動ベクトルに基づいて非常に容易に解釈できることを発見した。
図7でのユーザーの第1時刻における第2身体部位702の座標をユーザー基準空間座標系においてx1、y1、z1に、第2時刻における第2身体部位704の座標をx2、y2、z2に、それぞれ表示することにする。
この時、第1時刻から第2時刻までの時間の間ユーザーの第2身体部位の移動を表わす移動ベクトルをV=(r、θ、φ)と表現することができる。
rは第1時刻から第2時刻までの時間の間ユーザーの第2身体部位の移動距離を表わす。θは前後軸の正の方向となす角度を意味する。φはx−y平面に投影した移動ベクトルが左右軸の正の方向となす角度を意味する。(0°≦φ≦360°、0°≦θ≦180°)
また、移動ベクトルVは、下記の数学式1のように表わすことができる。
[数学式1]
Figure 2020098614
表1は移動ベクトルの方向とθおよびφの大きさの関係を例示した表である。
図9は、z軸となす移動ベクトルのθ成分の大きさと移動ベクトルの方向の関係を示した図面である。
図10は、x軸となす移動ベクトルのφ成分の大きさと移動ベクトルの方向の関係を示した図面である。
表1、図9および図10の例において、移動ベクトルの移動方向は、前方(Forward)、後方(Backward)、左側(Left)、右側(Right)、上方(Upward)、下方(Downward)の6種類でのみ定義される。すなわち、表1ではその他の移動方向は説明の単純化のために省略することにする。
Figure 2020098614
ユーザーは直線または完全な円を描くように身体を移動させることはできない。ユーザーの意図が指先を左側に移動させるものであったとしても、実際には正確に左側に移動するのではなく、若干傾いて移動するであろう。したがって、ユーザーのモーションを解釈するためには若干の誤差を勘案する必要がある。
このような誤差を勘案して、θの範囲が0°≦θ≦45°の領域900は後方と定義される。この範囲においてφの値と無関係に移動ベクトル(すなわち、ユーザーの指先)は後方移動をしたと解釈される。
同様に、θの範囲が135°≦θ≦180°の領域920は前方と定義される。この範囲においては、φの値と無関係に移動ベクトル(すなわち、ユーザーの指先)は前方移動をしたと解釈する。
θの範囲が45°<θ<135°の領域910は前方でも後方でもないと定義される。したがって、θの範囲が45°<θ<135°であると、φの範囲によって、135°≦φ≦225°の領域1030は左側、315°≦φ≦45°の領域1020は右側、45°≦φ≦135°の領域1000は上方、225°≦φ≦315°の領域1010は下方と、それぞれ定義される。
すなわち、θの範囲が領域910にあると、φの範囲が領域1000、領域1010、領域1020または領域1030に属する移動ベクトルは、それぞれ上方、下方、右側または左側移動をしたと解釈する。
表2は移動ベクトルの方向をさらに細分してθおよびφの大きさとの関係を例示した表である。
表1では移動ベクトルの方向が6種類でのみ定義された。しかし、6種類の方向だけでは指先の移動を定義するのに不充分であり得る。したがって、表2では移動ベクトルの方向を18種類に細分して定義した。
Figure 2020098614
表2に示した通り、時間( t2-t1)の間移動ベクトルのθおよびφの大きさの関係により移動ベクトルの移動方向を判断することができる。
例えば、移動ベクトルのθが130°であり、φが1°であれば、時間( t2-t1)の間ユーザーの指先は前右側(Forward−Right)方向に移動したと判断することができる。
図11は、移動ベクトルの移動状態を示した状態図(state diagram)である。
前記図7で説明した通り、移動ベクトルは特定の時区間の間の変位で定義される。例えば、単位時間当たり指先の変位が移動ベクトルで定義される。
移動ベクトルの運動状態は図11に示した通り、大きく四つの状態(state)に区分することができる。
第1状態S0は、移動ベクトルが停止した状態である。例えば、単位時間の間ユーザーの指先が事実上停止した状態が状態S0に該当する。
第2状態S1は、移動ベクトルが前進運動する状態である。例えば、ユーザーが単位時間の間指先を基準身体部位である第1身体部位(すなわち、ユーザー基準空間座標系の原点になる身体部位。例えば左眼)から遠ざかる方向(すなわち、前方)に移動させるモーションが状態S1に該当する。
第3状態S2は、移動ベクトルが後方移動する状態である。例えば、ユーザーが単位時間の間指先を基準身体部位である第1身体部位(すなわち、ユーザー基準空間座標系の原点になる身体部位。例えば左眼)に近づく方向(すなわち、後方)に移動させるモーションが状態S2に該当する。
第4状態S3は、移動ベクトルが表面移動する状態である。例えば、ユーザーが単位時間の間指先を基準身体部位である第1身体部位(すなわち、ユーザー基準空間座標系の原点になる身体部位。例えば左眼)と近くも遠くもならない距離で移動させるモーションが状態S3に該当する。また、上下左右運動はすべて状態S3に該当する。
さらに具体的に、四つの状態を説明する。
ユーザーのジェスチャーを検出するための装置は、定められた時間間隔で毎時刻ごとにユーザーの第1身体部位(すなわち、ユーザー基準空間座標系の原点になる身体部位。例えば左眼)と第2身体部位(すなわち、ユーザー基準空間座標系でジェスチャー検出の対象となる身体部位。例えば特定の指先)の3次元座標情報の入力を受けて、毎時刻ごとに第2身体部位の移動ベクトルV=(r、θ、φ)を求める。
例えば、ToF方式の3Dカメラは、光が反射して帰ってくる時間を測定する方式で取得した3D映像を一定時間の間隔毎に1フレームずつ保存し、保存された毎イメージフレームごとに第1身体部位、第2身体部位を検出し、第1身体部位および第2身体部位に対する3次元座標を生成する。
または、Stereo Camera方式の3Dカメラは、左側と右側の映像センサーから入力を受けた2枚の映像が有するようになる時差(Disparity)を利用して取得した3D映像を一定時間の間隔毎に1フレームずつ保存し、保存された毎イメージフレームごとに第1身体部位、第2身体部位を検出し、第1身体部位および第2身体部位に対する3次元座標を生成する。
または、Structured Light方式の3Dカメラは、一つの位置から投射したStructured Lightを他の位置で入力を受けて投射したパターンと入力として入ってきたパターンの差を分析して3D情報を取得する。このように取得した3D映像を一定時間の間隔毎に1フレームずつ保存し、保存された毎イメージフレームごとに第1身体部位、第2身体部位を検出し、第1身体部位および第2身体部位に対する3次元座標を生成する。
または、3次元座標提供手段がレーダー(Radar)の場合、一定時間の間隔で直進性を有するマイクロ波を発散した後、反射して帰ってきた電磁気波を測定して3次元座標がわかる手段である。このように毎周期ごとに検出された情報から第1身体部位、第2身体部位を検出し、第1身体部位および第2身体部位に対する3次元座標を生成する。または、3次元座標提供手段がライダー(Lidar)の場合、一定時間の間隔で回転しながら直進性を有するレーザー光線を発散した後、反射して帰ってきた光を測定して3次元座標がわかる手段である。このように毎回転周期ごとに検出された情報から第1身体部位、第2身体部位を検出し、第1身体部位および第2身体部位に対する3次元座標を生成する。
または、第1身体部位および第2身体部位にGPS(Global Positioning System)受信機を着用した場合、毎フレームごとに互いに異なる位置から送信される電波の到達時間を測定して距離を計算し、各送信点を基準点とし、到達距離を半径とした球を生成して、球が重なる部分を位置と決定して第1身体部位と第2身体部位に対する3次元座標を生成する。
または、第1身体部位および第2身体部位にIPS(Indoor Positioning System)受信機を着用した場合、毎フレームごとに互いに異なる位置から送信される電波および超音波の到達時間を測定して距離を計算するか、互いに異なる位置から送信される電波および超音波の受信強度を測定(RSSI、Received Signal Strength Indication)して距離を計算し、各送信点を基準点とし、到達距離を半径とした球を生成して、球が重なる部分を位置と決定して第1身体部位と第2身体部位に対する3次元座標を生成する。
または、第1身体部位および第2身体部位に9軸センサー(ジャイロセンサー、加速度センサー、磁場センサー)とGPS(Global Positioning System)受信機またはIPS(Indoor Positioning System)受信機を一緒に着用した場合、GPSまたはIPSを通じて生成した3次元座標を9軸センサーを通じて入力された姿勢および運動情報を通じて補正することによって、より正確な第1身体部位と第2身体部位に対する3次元座標を生成する。
第1状態S0となるために、ユーザーの第2身体部位は必ずしも完全に停止している必要はない。「実質的に」停止した状態でさえあれば、第1状態S0に該当するとみなす。このようにする理由は、前述したように、ユーザーの意図と実際のモーションの間に存在する若干の誤差を考慮するためである。
すなわち、第1状態S0となるためには、下記の数学式2を満足しなければならない。
[数学式2]
v(t)=r<Th1
この時、v(t)は時刻tにおける移動ベクトルの大きさである。すなわち、移動ベクトルの定義により、v(t)は時刻tにおける第2身体部位の速度の大きさを意味する。このv(t)が第1臨界値(Th1)より小さいと、移動ベクトルが実質的に停止した状態であると定義することができる。第1臨界値(Th1)は十分に小さい値である必要がある。また、移動ベクトルの大きさが非常に小さいことが求められるだけで、移動ベクトルのθおよびφが備えるべき条件はない。
第2状態S1となるために、ユーザーの第2身体部位は所定の大きさ、すなわち第2臨界値(Th2)以上の大きさを有する速度を有すると共に、前方移動をするためのθおよびφの条件を満足しなければならない。
第2臨界値(Th2)は第1臨界値(Th1)と比べて顕著に大きな値である必要がある。
例えば、前記表1でのように、上下左右前後の6種類の移動方向が定義された場合、状態S1を満足するための条件は、下記の数学式3のとおりである。
[数学式3]
v(t)=r≧Th2 and 135°≦θ≦180°
第3状態S2となるために、ユーザーの第2身体部位は所定の大きさ、すなわち第3臨界値(Th3)以上の大きさを有する速度を有すると共に、後方移動をするためのθおよびφの条件を満足しなければならない。
例えば、前記表1でのように、上下左右前後の6種類の移動方向が定義された場合、状態S2を満足するための条件は下記の数学式4のとおりである。
[数学式4]
v(t)=r≧Th3 and 0°≦θ≦45°
第4状態S3となるために、ユーザーの第2身体部位は所定の大きさ、すなわち第4臨界値(Th4)以上の大きさを有する速度を有すると共に、表面移動をするためのθおよびφの条件を満足しなければならない。
例えば、前記表1でのように上下左右前後の6種類の移動方向が定義された場合、状態S3を満足するための条件は下記の数学式5〜数学式8のとおりである。
i)上方移動である場合(Upward Motion):
[数学式5]
v(t)=r≧Th4 and 45°≦θ≦135° and 45°≦φ≦135°
ii)下方移動である場合(Downward Motion):
[数学式6]
v(t)=r≧Th4 and 45°≦θ≦135° and 225°≦φ≦315°
iii)左向き移動である場合(Leftward Motion):
[数学式7]
v(t)=r≧Th4 and 45°≦θ≦135° and 135°≦φ≦225°
iv)右向き移動である場合(Rightward Motion):
[数学式8]
v(t)=r≧Th4 and 45°≦θ≦135° and (315°≦φorφ≦45°)
ジェスチャーは、複数の状態S0、状態S1、状態S2、状態S3の組み合わせに基づいて検出される。
例えば、ユーザーの指先が動かない「ホールド(hold)」ジェスチャーは、時間の流れにつれて状態S0が2以上組み合わせられていることに基づいて検出することができる。
または、ユーザーの指先がある地点を「タッチ(touch)」するジェスチャーは、状態S1に続いて状態S0が組み合わせられていることに基づいて検出することができる。
または、ユーザーの指先がある地点から落ちる「リリース(release)」ジェスチャーは、状態S0に続いて状態S2が組み合わせられていることに基づいて検出することができる。
または、ユーザーの指先がある地点を「クリック(click)」するジェスチャーは、状態S1に続いて(状態S0を経由するかまたは経由せずに)状態S2が組み合わせられていることに基づいて検出することができる。
または、ユーザーの指先が第1身体座標から遠くも近くもならないまま、上下左右のうちいずれかの方向に移動する「ドラッグ(drag)」ジェスチャーは、状態S3が2以上組み合わせられていることに基づいて検出することができる。一方、状態S3において、具体的にいずれの方向の移動であるかは前記数学式5〜数学式8で示したφの範囲を通して知ることができる。
図12は、仮想球面上でユーザーのジェスチャーを検出する方法を例示した図面である。
もし、移動ベクトルが前進または後進しないのであれば(すなわち、上下左右の運動のみをするのであれば)、移動ベクトルの軌跡は第1身体部位1201を中心とする仮想球面1200を形成するようになる。
図12では、このような仮想球面1200上でのユーザーのジェスチャーをいくつか例示した。
ユーザーの移動ベクトルが、状態S0から、時刻T0から時刻T1の間に状態S1に変更され、また時刻T1で状態S0に変更されたのであれば、時刻T1に「タッチ(touch)」ジェスチャーが発生したと判断することができる。
時刻T1から時刻T2の間に移動ベクトル1220の状態が状態S1から(状態S0を経由するかまたは経由せずに)状態S3に変更されたのであれば、この時区間では仮想球面を上下左右などに「ドラッグ(drag)」ジェスチャーが発生したと判断することができる(具体的にいずれの方向の移動であるかは前記数学式5〜数学式8で示したφの範囲を通して知ることができる)。
時刻T2に移動ベクトル1230の状態が状態S3から(状態S0を経由するかまたは経由せずに)状態S2に変更されたのであれば、時刻T2に「リリース(release)」ジェスチャーが発生したと判断することができる。
さらに、時刻T0から時刻T3の間に移動ベクトル1210、1220、1230がこの順で組み合わせられたのであれば、これを通じて、例えばあるオブジェクトを選択し(「タッチ(touch)」ジェスチャー)、特定のフォルダにドラッグして移動させた後(「ドラッグ(drag)」ジェスチャー)、そのフォルダにドロップする(「リリース(release)」ジェスチャー)一連の動作を具現することができる。
図13は、多重仮想球面上でユーザーのジェスチャーを検出する方法を例示した図面である。
共通の中心を有する仮想球面は複数個存在し得る。また、ジェスチャーを組み合わせて多段階の仮想球面の間を行き来することができる。
このような特性を活用すれば、「ディープタッチ(deep touch)」ジェスチャーを具現し、これを検出することも可能である。
共通の中心1301を有する第(n−1)番目の仮想球面1300、第n番目の仮想球面1302、第(n+1)番目の仮想球面1303を例にして説明する(ただし、n≧2、nは整数)。
時刻T0から時刻T1の間で移動ベクトル1310の状態変化に基づいてタッチ(touch)ジェスチャーが検出されると、ユーザーの第2身体部位は第(n−1)番目の仮想球面1300の表面に位置するようになる。
以後、時刻T1から時刻T2の間に移動ベクトル(図示されず)の状態変化に基づいてホールド(hold)ジェスチャーが検出されると、ユーザーの第2身体部位は依然として第(n−1)番目の仮想球面1300の表面に留まる(移動ベクトルを図示していない理由は、停止状態での移動ベクトルの大きさは実質的に0に近いためである)。
もし、時刻T2から時刻T3の間に移動ベクトル1320の状態変化に基づいて再びタッチ(touch)ジェスチャーが検出されると、ユーザーの第2身体部位は第(n−1)番目の仮想球面1300から第(n)番目の仮想球面1302の表面に移動する。
この状態で、時刻T3から時刻T4の間に移動ベクトル1330の状態変化に基づいてドラッグ(drag)ジェスチャーが検出されると、ユーザーの第2身体部位は第(n)番目の仮想球面1302の表面で上下左右などの運動をするのを検出できるようになる(具体的にいずれの方向の移動であるかは前記数学式5〜数学式8で示したφの範囲を通して知ることができる。)。
以後、時刻T4で移動ベクトル1340の状態変化に基づいてリリース(release)ジェスチャーを検出すると、第2身体部位は再び第(n−1)番目の仮想球面1300の表面に移動することができる。
再び、時刻T5から時刻T6の間に移動ベクトル1350の状態変化に基づいてタッチ(touch)ジェスチャーを検出すると、第2身体部位は第(n)番目の仮想球面1302の表面に移動することができる。
以後、時刻T6から時刻T7の間に移動ベクトル(図示されず)の状態変化に基づいてホールド(hold)ジェスチャーが検出されると、ユーザーの第2身体部位は依然として第(n)番目の仮想球面1302の表面に留まる。
同様に、時刻T7から時刻T8の間に移動ベクトル1360の状態変化に基づいてタッチ(touch)ジェスチャーを検出すると、第2身体部位は第(n+1)番目の仮想球面1303の表面に移動することができる。
以後、時刻T8から時刻T9の間に移動ベクトル(図示されず)の状態変化に基づいてホールド(hold)ジェスチャーが検出されると、ユーザーの第2身体部位は依然として第(n+1)番目の仮想球面1303の表面に留まる。
このようにすれば、多段階の仮想球面上で具現されるジェスチャーが可能である。
図14は、ユーザー基準空間座標系上におけるジェスチャー検出装置の一例を示したブロック図である。
ジェスチャー検出装置1400は、3次元身体座標受信部1410、ユーザー基準空間座標系設定部1420、移動ベクトル分析部1430およびジェスチャー検出部1440を含んでからなる。ジェスチャー検出装置1400は、一種のセットトップボックスや制御ボックスの形態で具現され得る。しかし、このような形態に限定されず、ネットワーク上で動作するサーバーの形態で具現されてもよい。または多様な家庭用機器に組み込まれて(embed)具現されてもよい。
3次元身体座標受信部1410は外部の3次元身体座標検出手段から、ユーザーの第1身体部位(例えば片方の眼)および第2身体部位(例えばモーションを行う指先)を含む複数の身体部位に対応する複数の身体座標を受信する。
3次元身体座標検出手段は前述した通り、3Dカメラやレーダー、ライダなどの多様な装置となり得る。
3次元身体座標受信部1410は、3次元身体座標検出手段からユーザーの身体座標を無線データ通信または有線データ通信方式で受信できる入出力装置(I/O)の形態で具現される。また、図面に図示してはいないが、時間の流れにつれて毎フレームごとに受信する複数の身体座標を一時保存するための保存部(メモリー装置など)をさらに含むこともできる。
ユーザー基準空間座標系設定部1420は、3次元身体座標受信部1410で受信した複数の身体座標に基づいて、ユーザーの第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を生成する。
移動ベクトル分析部1430はジェスチャー検出の対象となる、第2身体座標の時間による移動ベクトルを生成し、移動ベクトルの状態を判断する。
ジェスチャー検出部1440は、移動ベクトルの状態の変化に基づいてユーザーのジェスチャーを検出する。
図15は、図14のジェスチャー検出装置のユーザー基準空間座標系設定部をさらに詳細に示したブロック図である。
ユーザー基準空間座標系設定部1420は、前後軸設定部1422、左右軸設定部1424および上下軸設定部1426をさらに含む。
前述した通り、前後軸設定部1422はユーザー基準空間座標系においてユーザーの前方と後方を示す前後軸を設定する。
具体的には、前後軸設定部は第1身体座標および第2身体座標をすべて通る直線をユーザー基準空間座標系の前後軸に設定する。
前後軸は、ユーザー基準空間座標系でz軸に対応でき、ユーザーの後方がz軸の正(+)の方向となり得ることは前述した通りである。
図16は、図14のジェスチャー検出装置の移動ベクトル分析部をさらに詳細に示したブロック図である。
移動ベクトル分析部1430は、移動ベクトル生成部1432および移動ベクトル状態判断部1434をさらに含む。
移動ベクトル生成部1432は、第1時刻(t=t1)の第2身体座標x1、y1、z1および第2時刻(t=t2)の第2身体座標x2、y2、z2に対して、移動ベクトルVを数学式1および図8のような球面座標を有するように生成する。
移動ベクトル状態判断部1434は、球面座標で表現された移動ベクトルのr、θ、φ成分の値に基づいて移動ベクトルの状態を前述のように判断する。その結果として、移動ベクトルの状態は、停止状態S0、前進状態S1、後進状態S2および表面移動状態S3のうちいずれか一つに特定される。
図17は、図14のジェスチャー検出装置のジェスチャー検出部をさらに詳細に示したブロック図である。
ジェスチャー検出部1440は、移動ベクトルモニタリング部1442、ジェスチャー保存部1444およびジェスチャー判断部1446をさらに含む。
移動ベクトルモニタリング部1442は、該当時刻に移動ベクトルの状態に変化があるかをモニタリングする。
例えば、時刻(t=t1)に移動ベクトルの状態は状態S0であるが、所定の時区間を遡った時点には状態S1であったとすると、移動ベクトルモニタリング部1442は移動ベクトルの状態が状態S1から状態S0に変化したことを把握する。
ジェスチャー保存部1444は、移動ベクトルの状態の変化の類型ごとに各変化の類型に対応するジェスチャーの類型を保存する。
例えば、直前の例において状態S1から状態S0に変化する類型(パターン)は「タッチ」ジェスチャーに対応する。物理的には、ユーザーの指先(第2身体部位)が一定時間の間前進してから停止する状態を意味する。すなわち、ユーザーが指先で仮想球面の一地点をタッチする行為に対応する。
このように、多様な移動ベクトルの状態の組み合わせは多様なジェスチャーに対応し、ジェスチャー保存部1444には移動ベクトルの状態の組み合わせとこれに対応するジェスチャーの関係に関する情報が保存される。ジェスチャー保存部1444は各種メモリー装置で具現され得る。
ジェスチャー判断部1446は、移動ベクトルモニタリング部1442で得た移動ベクトルの状態の変化の類型(パターン)に対応するジェスチャーの類型を、ジェスチャー保存部1444を参照して判断する。最終的に、ジェスチャー判断部1446は、そのジェスチャーがユーザーが該当時刻に行ったジェスチャーであると判断し、ジェスチャーの検出過程を終了する。
図18は、ユーザー基準空間座標系上におけるジェスチャー検出方法の一例を示したフローチャートである。
段階(S100)では、毎時刻に対応する身体座標を受信する。もし、外部の3次元身体座標検出手段が3Dカメラと同じであれば、毎時刻に対応するイメージフレームごとにユーザーの身体座標を受信するようになる。
段階(S110)では、受信された身体座標に基づいて前後軸、上下軸および左右軸が設定されることによってユーザー基準空間座標系が設定される。
段階(S120)では、ユーザー基準空間座標系内でモーションおよびジェスチャー検出の対象となる第2身体座標に関する移動ベクトルが生成される。
段階(S130)では、移動ベクトルの毎時刻の状態が判断される。
段階(S140)では、移動ベクトルの状態の変化に基づいて、ジェスチャーが検出される。
このような段階(S100)〜段階(S140)の流れは、ジェスチャー検出装置が動作し続ける間は繰り返し行われる。
したがって、ジェスチャー検出装置はユーザーに対するジェスチャー検出を行い続けるかを判断し(S150)、もし、行い続ける場合には(S152)段階(S100)に復帰する。もし、ジェスチャー検出を終了したい場合には(S154)、それ以上身体座標を受信せずに、動作を終了する。
以上のように発明の詳細な内容を図面および多様な実施例を通じて詳察した。
しかし、このような内容は発明を説明するための例示に過ぎないものである。すなわち、発明は図面と実施例の場合にのみ限定されず、特許請求の範囲に属する実施例およびその他のいかなる変形実施例も発明の権利範囲に属することは自明である。
以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
ユーザーの第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を設定する段階、
前記ユーザー基準空間座標系上において、前記ユーザーの第2身体部位に対応する第2身体座標の時間による移動ベクトルの状態を分析する段階、
前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出する段階を含む、
ユーザー基準空間座標系上におけるジェスチャー検出方法。
[2]
前記ユーザー基準空間座標系は、前後軸、左右軸および上下軸を含み、
前記ユーザー基準空間座標系を設定する段階は、前記第1身体座標および前記第2身体座標を通るように前記前後軸を生成する段階をさらに含む、
[1]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[3]
前記ユーザー基準空間座標系を設定する段階は、前記第1身体座標を通り、前記前後軸と直交し、地面と平行するように前記左右軸を生成する段階、および
前記第1身体座標を通り、前記前後軸および前記左右軸とそれぞれ直交するように前記上下軸を生成する段階、
をさらに含む、[2]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[4]
前記ユーザー基準空間座標系を設定する段階は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交し、前記第1身体座標で前記前後軸と直交するように前記上下軸を生成する段階、および
前記第1身体座標を通り、前記前後軸および前記上下軸とそれぞれ直交するように前記左右軸を生成する段階、
をさらに含む、[2]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[5]
前記移動ベクトルの状態を分析する段階は、
前記第2身体部位の第1時刻の前記第2身体座標x1、y1、z1および第2時刻の前記第2身体座標x2、y2、z2に対して、移動ベクトルVを
Figure 2020098614
の球面座標を有するように生成する段階をさらに含む、[1]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[6]
前記移動ベクトルの状態を分析する段階は、
前記移動ベクトルのr、θおよびφに基づいて前記移動ベクトルの状態を停止状態、前進状態、後進状態および表面移動状態のうちいずれか一つに特定する段階をさらに含む、[5]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[7]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記前進状態から前記停止状態に変化した場合、タッチジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[8]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記後進状態に変化した場合、リリースジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[9]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記前進状態から前記停止状態を経て前記後進状態に変化するか、前記前進状態から前記後進状態に変化した場合、クリックジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[10]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記表面移動状態に変化した場合、仮想球面の表面に対するドラッグジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[11]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記停止状態を維持する場合、ホールドジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[12]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記前進状態−前記停止状態−前記前進状態−前記停止状態の順に変化した場合、ディープタッチ(deep touch)ジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[6]
外部の3次元身体座標検出手段から、ユーザーの第1身体部位および第2身体部位を含む複数の身体部位に対応する複数の身体座標を受信する3次元身体座標受信部、
前記複数の身体座標に基づいて、前記第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を生成するユーザー基準空間座標系設定部、
時間による前記第2身体座標の移動ベクトルを生成し、移動ベクトルの状態を判断する移動ベクトル分析部、および
前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出するジェスチャー検出部を含む、ユーザー基準空間座標系上におけるジェスチャー検出装置。
[14]
前記ユーザー基準空間座標系設定部は、
前記第1身体座標および前記第2身体座標を通るように前記ユーザー基準空間座標系の前後軸を設定する前後軸設定部をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[15]
前記ユーザー基準空間座標系設定部は、
前記第1身体座標を通り、前記前後軸と直交し、地面と平行するように前記左右軸を生成する左右軸設定部、および
前記第1身体座標を通り、前記前後軸および前記左右軸とそれぞれ直交する上下軸を生成する上下軸設定部をさらに含む、[14]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[16]
前記ユーザー基準空間座標系設定部は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交し、前記第1身体座標で前記前後軸と直交するように前記上下軸を生成する上下軸設定部、および
前記第1身体座標を通り、前記前後軸および前記上下軸とそれぞれ直交するように前記左右軸を生成する左右軸設定部をさらに含む、[14]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[17]
前記移動ベクトル分析部は、
前記第2身体部位の第1時刻の前記第2身体座標x1、y1、z1および第2時刻の前記第2身体座標x2、y2、z2に対して、移動ベクトルVを
Figure 2020098614
の球面座標を有するように生成する移動ベクトル生成部をさらに含む、[13]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[18]
前記移動ベクトル分析部は、
前記移動ベクトルのr、θおよびφに基づいて前記移動ベクトルの状態を停止状態、前進状態、後進状態および表面移動状態のうちいずれか一つに特定する移動ベクトル状態判断部をさらに含む、[17]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[19]
前記ジェスチャー検出部は、前記移動ベクトルの状態の変化をモニタリングする移動ベクトルモニタリング部、および
前記移動ベクトルの状態の変化の類型ごとに前記類型に対応するジェスチャーの類型を保存したジェスチャー保存部、および
前記ジェスチャー保存部に基づいて、前記移動ベクトルの状態の変化に対応する前記ユーザーのジェスチャーの類型を判断する、ジェスチャー判断部をさらに含む、[18]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。

Claims (2)

  1. ユーザーの第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を設定する段階、
    前記ユーザー基準空間座標系上において、前記ユーザーの第2身体部位に対応する第2身体座標の時間による移動ベクトルの状態を分析する段階、
    前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出する段階を含み、
    前記ユーザー基準空間座標系を設定する段階は、
    前記第1身体座標と前記第2身体座標とを連結する直線を基準として、前記ユーザー基準空間座標系の前後軸を生成する段階、
    生成された前記前後軸に直交するように、前記ユーザー基準空間座標系の左右軸および上下軸を生成する段階をさらに含み、
    前記ユーザー基準空間座標系の前記左右軸は、前記ユーザー基準空間座標系の前記上下軸に直交し、
    前記ユーザー基準空間座標系の前記左右軸は、前記ユーザーの頭の傾き、または、前記ユーザーが傾斜面に立っているかを参照して作成され、
    前記ユーザーが前記傾斜面に立っている場合、
    前記左右軸は、前記第1身体座標を通り、地面と平行するように生成され、
    前記上下軸は、前記第1身体座標を通るように生成され、
    前記ユーザーの頭が傾いている場合、
    前記上下軸は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交するように生成され、
    前記左右軸は、前記第1身体座標を通るように生成される、
    ユーザー基準空間座標系上におけるジェスチャー検出方法。
  2. 外部の3次元身体座標検出手段から、ユーザーの第1身体部位および第2身体部位を含む複数の身体部位に対応する複数の身体座標を受信する3次元身体座標受信部、
    前記複数の身体座標に基づいて、前記第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を生成するユーザー基準空間座標系設定部、
    時間による、前記第2身体部位に対応する第2身体座標の移動ベクトルを生成し、移動ベクトルの状態を判断する移動ベクトル分析部、および
    前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出するジェスチャー検出部を含み、
    前記ユーザー基準空間座標系は、
    前記第1身体座標および前記第2身体座標を連結する直線基準として、前記ユーザー基準空間座標系の前後軸を生成するように構成される前後軸設定部、
    生成された前記前後軸に直交するように、前記ユーザー基準空間座標系の左右軸を生成するように構成される左右軸設定部、
    生成された前記前後軸に直交するように、前記ユーザー基準空間座標系の上下軸を生成するように構成される上下軸設定部を含み、
    前記ユーザー基準空間座標系の前記左右軸は、前記ユーザー基準空間座標系の前記上下軸に直交し、
    前記ユーザー基準空間座標系の前記左右軸は、前記ユーザーの頭の傾き、または、前記ユーザーが傾斜面に立っているかを参照して作成され、
    前記ユーザーが前記傾斜面に立っている場合、
    前記左右軸は、前記第1身体座標を通り、地面と平行するように生成され、
    前記上下軸は、前記第1身体座標を通るように生成され、
    前記ユーザーの頭が傾いている場合、
    前記上下軸は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交するように生成され、
    前記左右軸は、前記第1身体座標を通るように生成される、
    ユーザー基準空間座標系上におけるジェスチャー検出装置。
JP2020012242A 2015-06-10 2020-01-29 ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 Active JP6839778B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562173417P 2015-06-10 2015-06-10
US62/173,417 2015-06-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018517108A Division JP2018528551A (ja) 2015-06-10 2016-06-10 ユーザー基準空間座標系上におけるジェスチャー検出方法および装置

Publications (2)

Publication Number Publication Date
JP2020098614A true JP2020098614A (ja) 2020-06-25
JP6839778B2 JP6839778B2 (ja) 2021-03-10

Family

ID=57504614

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018517108A Pending JP2018528551A (ja) 2015-06-10 2016-06-10 ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
JP2020012242A Active JP6839778B2 (ja) 2015-06-10 2020-01-29 ユーザー基準空間座標系上におけるジェスチャー検出方法および装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018517108A Pending JP2018528551A (ja) 2015-06-10 2016-06-10 ユーザー基準空間座標系上におけるジェスチャー検出方法および装置

Country Status (6)

Country Link
US (1) US10846864B2 (ja)
EP (1) EP3309708A4 (ja)
JP (2) JP2018528551A (ja)
KR (1) KR101754126B1 (ja)
CN (1) CN107787497B (ja)
WO (1) WO2016200197A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9729695B2 (en) 2012-11-20 2017-08-08 Dropbox Inc. Messaging client application interface
EP3309708A4 (en) * 2015-06-10 2019-03-06 Vtouch Co., Ltd. METHOD AND DEVICE FOR DETECTING GESTURES IN A USER-BASED SPATIAL COORDINATE SYSTEM
US10832031B2 (en) * 2016-08-15 2020-11-10 Apple Inc. Command processing using multimodal signal analysis
KR101937823B1 (ko) * 2016-10-24 2019-01-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR102374408B1 (ko) * 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
KR102463712B1 (ko) 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
CN110377145B (zh) * 2018-04-13 2021-03-30 北京京东尚科信息技术有限公司 电子设备确定方法、系统、计算机系统和可读存储介质
CN108920076B (zh) * 2018-06-27 2021-03-02 清远墨墨教育科技有限公司 一种用户手势操作识别方法及识别系统
US20200012350A1 (en) * 2018-07-08 2020-01-09 Youspace, Inc. Systems and methods for refined gesture recognition
KR102155378B1 (ko) * 2018-09-19 2020-09-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
JPWO2021153413A1 (ja) * 2020-01-29 2021-08-05
US20220050432A1 (en) * 2020-08-14 2022-02-17 VTouch Co., Ltd. Method, system and non-transitory computer-readable recording medium for supporting object control
CN114327047B (zh) * 2021-12-01 2024-04-30 北京小米移动软件有限公司 设备控制方法、设备控制装置及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228346A (ja) * 1997-02-17 1998-08-25 Nippon Telegr & Teleph Corp <Ntt> 三次元入力装置
JP2000149025A (ja) * 1998-11-13 2000-05-30 Nec Corp ジェスチャ認識装置及び方法
JP2000353046A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk ユーザインタフェース装置、ユーザインタフェース方法、ゲーム装置およびプログラム記憶媒体
JP2011248606A (ja) * 2010-05-26 2011-12-08 Canon Inc 表示制御装置および表示制御方法
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置
US20120223882A1 (en) * 2010-12-08 2012-09-06 Primesense Ltd. Three Dimensional User Interface Cursor Control
CN102799262A (zh) * 2011-04-08 2012-11-28 索尼电脑娱乐公司 用于确定输入语音的相关性的装置和方法
JP2013037467A (ja) * 2011-08-05 2013-02-21 Toshiba Corp コマンド発行装置、コマンド発行方法およびプログラム
WO2014080829A1 (ja) * 2012-11-22 2014-05-30 シャープ株式会社 データ入力装置
JP2014179099A (ja) * 2013-03-14 2014-09-25 Samsung Electronics Co Ltd ユーザ機器のオブジェクト運用方法及び装置

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3114813B2 (ja) * 1991-02-27 2000-12-04 日本電信電話株式会社 情報入力方法
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
JP2004246814A (ja) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 指示動作認識装置
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP4172307B2 (ja) * 2003-03-31 2008-10-29 富士ゼロックス株式会社 3次元指示入力装置
JP2005346415A (ja) * 2004-06-03 2005-12-15 Hitachi Ltd 電子ペンを用いた編集システム、編集方法およびそのプログラム
JP4172793B2 (ja) * 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
US20080147687A1 (en) * 2005-02-17 2008-06-19 Naohiro Furukawa Information Management System and Document Information Management Method
CN100565438C (zh) * 2005-07-11 2009-12-02 皇家飞利浦电子股份有限公司 控制在命令区域上控制点位置的方法和系统
EP1804154A3 (en) * 2005-12-27 2012-08-08 Poston Timothy Computer input device enabling three degrees of freedom and related input and feedback methods
KR100814289B1 (ko) * 2006-11-14 2008-03-18 서경대학교 산학협력단 실시간 동작 인식 장치 및 그 방법
KR100913396B1 (ko) 2006-12-04 2009-08-21 한국전자통신연구원 모션벡터를 이용한 행위 인식 장치 및 그 방법
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US8225343B2 (en) * 2008-01-11 2012-07-17 Sony Computer Entertainment America Llc Gesture cataloging and recognition
KR20090093220A (ko) * 2008-02-29 2009-09-02 채수현 적외선 카메라를 이용한 공간 터치 스크린
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
CN101713636B (zh) * 2008-10-08 2013-08-28 鸿富锦精密工业(深圳)有限公司 三维坐标系补正及绘制系统与方法
KR20100048090A (ko) * 2008-10-30 2010-05-11 삼성전자주식회사 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
KR20110003146A (ko) * 2009-07-03 2011-01-11 한국전자통신연구원 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법
US8922485B1 (en) * 2009-12-18 2014-12-30 Google Inc. Behavioral recognition on mobile devices
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
JP5728009B2 (ja) * 2010-06-17 2015-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
US20130215069A1 (en) * 2010-10-26 2013-08-22 Tsu-Chang Lee Apparatus for network based modular electronic systems
JP5604279B2 (ja) * 2010-12-08 2014-10-08 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
CN106125921B (zh) * 2011-02-09 2019-01-15 苹果公司 3d映射环境中的凝视检测
KR101151962B1 (ko) * 2011-02-16 2012-06-01 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR101381928B1 (ko) * 2011-02-18 2014-04-07 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR101226668B1 (ko) * 2011-03-25 2013-01-25 주식회사 아이티엑스시큐리티 스테레오 카메라를 이용한 3차원 동작 인식장치 및 인식방법
US8840466B2 (en) * 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
CN102226880A (zh) * 2011-06-03 2011-10-26 北京新岸线网络技术有限公司 一种基于虚拟现实的体感操作方法及系统
KR101364133B1 (ko) * 2011-06-15 2014-02-21 주식회사 브이터치 가상터치를 이용한 3차원 장치 및 3차원 게임 장치
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
CN202211395U (zh) * 2011-07-28 2012-05-09 游汶璋 三合一平板电脑置放结构
US8971572B1 (en) * 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US8947351B1 (en) * 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
CN103164022B (zh) * 2011-12-16 2016-03-16 国际商业机器公司 多指触摸方法和装置、便携式终端设备
CN104040461A (zh) * 2011-12-27 2014-09-10 惠普发展公司,有限责任合伙企业 用户界面设备
KR101335394B1 (ko) * 2012-02-06 2013-12-03 크레신 주식회사 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치
KR101380997B1 (ko) 2012-02-28 2014-04-10 한국과학기술원 공간 인식을 통한 벡터 기반 제스처를 보정하는 방법 및 그 장치
CN104471511B (zh) * 2012-03-13 2018-04-20 视力移动技术有限公司 识别指点手势的装置、用户接口和方法
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
WO2013168171A1 (en) * 2012-05-10 2013-11-14 Umoove Services Ltd. Method for gesture-based operation control
JP2013250882A (ja) * 2012-06-01 2013-12-12 Sharp Corp 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム
SE537553C2 (sv) * 2012-08-03 2015-06-09 Crunchfish Ab Förbättrad identifiering av en gest
US8836768B1 (en) * 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
CN102981742A (zh) * 2012-11-28 2013-03-20 无锡市爱福瑞科技发展有限公司 基于计算机视觉的手势交互系统
WO2014106219A1 (en) * 2012-12-31 2014-07-03 Burachas Giedrius Tomas User centric interface for interaction with visual display that recognizes user intentions
JP6127564B2 (ja) * 2013-02-15 2017-05-17 コニカミノルタ株式会社 タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
US9245063B2 (en) * 2013-04-05 2016-01-26 The Boeing Company Creating ergonomic manikin postures and controlling computer-aided design environments using natural user interfaces
US20140354602A1 (en) * 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method
KR102517425B1 (ko) * 2013-06-27 2023-03-31 아이사이트 모빌 테크놀로지 엘티디 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법
AU2013206685A1 (en) * 2013-07-04 2015-01-22 Canon Kabushiki Kaisha Projected user interface system for multiple users
US9529513B2 (en) * 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
CN103413137B (zh) * 2013-08-05 2016-04-27 浙江大学 基于多规则的交互手势运动轨迹分割方法
US20150185851A1 (en) * 2013-12-30 2015-07-02 Google Inc. Device Interaction with Self-Referential Gestures
WO2015103693A1 (en) * 2014-01-07 2015-07-16 Arb Labs Inc. Systems and methods of monitoring activities at a gaming venue
US20150234468A1 (en) * 2014-02-19 2015-08-20 Microsoft Corporation Hover Interactions Across Interconnected Devices
US9753546B2 (en) * 2014-08-29 2017-09-05 General Electric Company System and method for selective gesture interaction
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
KR102339839B1 (ko) * 2014-12-26 2021-12-15 삼성전자주식회사 제스처 입력 처리 방법 및 장치
CN104636725B (zh) * 2015-02-04 2017-09-29 华中科技大学 一种基于深度图像的手势识别方法与系统
US10180734B2 (en) * 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2016166902A1 (en) * 2015-04-16 2016-10-20 Rakuten, Inc. Gesture interface
EP3309708A4 (en) * 2015-06-10 2019-03-06 Vtouch Co., Ltd. METHOD AND DEVICE FOR DETECTING GESTURES IN A USER-BASED SPATIAL COORDINATE SYSTEM
DE102015115526A1 (de) * 2015-09-15 2017-03-16 Visteon Global Technologies, Inc. Verfahren zur Zielerfassung von Zielobjekten, insbesondere zur Zielerfassung von Bedienelementen in einem Fahrzeug
JP6597235B2 (ja) * 2015-11-30 2019-10-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2017188801A1 (ko) * 2016-04-29 2017-11-02 주식회사 브이터치 동작-음성의 다중 모드 명령에 기반한 최적 제어 방법 및 이를 적용한 전자 장치
WO2018083872A1 (ja) * 2016-11-04 2018-05-11 株式会社ワコム スタイラス、方法、及び処理装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228346A (ja) * 1997-02-17 1998-08-25 Nippon Telegr & Teleph Corp <Ntt> 三次元入力装置
JP2000149025A (ja) * 1998-11-13 2000-05-30 Nec Corp ジェスチャ認識装置及び方法
JP2000353046A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk ユーザインタフェース装置、ユーザインタフェース方法、ゲーム装置およびプログラム記憶媒体
JP2011248606A (ja) * 2010-05-26 2011-12-08 Canon Inc 表示制御装置および表示制御方法
US20120223882A1 (en) * 2010-12-08 2012-09-06 Primesense Ltd. Three Dimensional User Interface Cursor Control
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置
CN102799262A (zh) * 2011-04-08 2012-11-28 索尼电脑娱乐公司 用于确定输入语音的相关性的装置和方法
JP2013037467A (ja) * 2011-08-05 2013-02-21 Toshiba Corp コマンド発行装置、コマンド発行方法およびプログラム
WO2014080829A1 (ja) * 2012-11-22 2014-05-30 シャープ株式会社 データ入力装置
JP2014179099A (ja) * 2013-03-14 2014-09-25 Samsung Electronics Co Ltd ユーザ機器のオブジェクト運用方法及び装置

Also Published As

Publication number Publication date
CN107787497B (zh) 2021-06-22
EP3309708A4 (en) 2019-03-06
US10846864B2 (en) 2020-11-24
JP6839778B2 (ja) 2021-03-10
KR101754126B1 (ko) 2017-07-19
WO2016200197A1 (ko) 2016-12-15
US20180173318A1 (en) 2018-06-21
CN107787497A (zh) 2018-03-09
JP2018528551A (ja) 2018-09-27
EP3309708A1 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
JP6839778B2 (ja) ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
KR20200005999A (ko) 듀얼 이벤트 카메라를 이용한 slam 방법 및 slam 시스템
US10540006B2 (en) Tracking torso orientation to generate inputs for computer systems
JP6129863B2 (ja) 3次元タッチタイプ入力システム及び光ナビゲーション方法
US20140184494A1 (en) User Centric Interface for Interaction with Visual Display that Recognizes User Intentions
CN111368760B (zh) 一种障碍物检测方法、装置、电子设备及存储介质
US8525780B2 (en) Method and apparatus for inputting three-dimensional location
CN103797446A (zh) 输入体的动作检测方法以及使用了该方法的输入设备
KR101550580B1 (ko) 사용자 인터페이스 장치 및 그것의 제어 방법
EP3767435B1 (en) 6-dof tracking using visual cues
JP2004265222A (ja) インタフェース方法、装置、およびプログラム
KR20160044333A (ko) 전자 장치, 그 제어 방법 및 기록 매체
JP2015118442A (ja) 情報処理装置、情報処理方法およびプログラム
Weber et al. Exploiting augmented reality for extrinsic robot calibration and eye-based human-robot collaboration
US20170115727A1 (en) Image processing apparatus, image processing method, and program
WO2020110359A1 (en) System and method for estimating pose of robot, robot, and storage medium
EP2831706B1 (en) A multimodal system and method facilitating gesture creation through scalar and vector data
US8866870B1 (en) Methods, apparatus, and systems for controlling from a first location a laser at a second location
Pfitzner et al. 3d multi-sensor data fusion for object localization in industrial applications
JP5485470B2 (ja) 3d系内でプッシュ及びプルのジェスチャーを認識する方法及び装置
US9058091B2 (en) Input device and input method
TWI700614B (zh) 追蹤系統的操作方法、控制器、追蹤系統及非揮發性電腦可讀取記錄媒體
TW201229820A (en) Method for reducing index signal jittering of 3-D input apparatus, 3-D input apparatus and module producing 3-D index signal
JP2022011821A (ja) 情報処理装置、情報処理方法、移動ロボット
JP2017084323A (ja) 情報処理装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200129

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R150 Certificate of patent or registration of utility model

Ref document number: 6839778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250