JP2020098614A - ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 - Google Patents
ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 Download PDFInfo
- Publication number
- JP2020098614A JP2020098614A JP2020012242A JP2020012242A JP2020098614A JP 2020098614 A JP2020098614 A JP 2020098614A JP 2020012242 A JP2020012242 A JP 2020012242A JP 2020012242 A JP2020012242 A JP 2020012242A JP 2020098614 A JP2020098614 A JP 2020098614A
- Authority
- JP
- Japan
- Prior art keywords
- user
- coordinate system
- reference space
- axis
- space coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000033001 locomotion Effects 0.000 claims abstract description 190
- 239000013598 vector Substances 0.000 claims abstract description 138
- 238000001514 detection method Methods 0.000 claims description 52
- 238000010586 diagram Methods 0.000 description 24
- 210000003128 head Anatomy 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
v(t)=r<Th1
v(t)=r≧Th2 and 135°≦θ≦180°
v(t)=r≧Th3 and 0°≦θ≦45°
[数学式5]
v(t)=r≧Th4 and 45°≦θ≦135° and 45°≦φ≦135°
[数学式6]
v(t)=r≧Th4 and 45°≦θ≦135° and 225°≦φ≦315°
[数学式7]
v(t)=r≧Th4 and 45°≦θ≦135° and 135°≦φ≦225°
[数学式8]
v(t)=r≧Th4 and 45°≦θ≦135° and (315°≦φorφ≦45°)
以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
ユーザーの第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を設定する段階、
前記ユーザー基準空間座標系上において、前記ユーザーの第2身体部位に対応する第2身体座標の時間による移動ベクトルの状態を分析する段階、
前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出する段階を含む、
ユーザー基準空間座標系上におけるジェスチャー検出方法。
[2]
前記ユーザー基準空間座標系は、前後軸、左右軸および上下軸を含み、
前記ユーザー基準空間座標系を設定する段階は、前記第1身体座標および前記第2身体座標を通るように前記前後軸を生成する段階をさらに含む、
[1]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[3]
前記ユーザー基準空間座標系を設定する段階は、前記第1身体座標を通り、前記前後軸と直交し、地面と平行するように前記左右軸を生成する段階、および
前記第1身体座標を通り、前記前後軸および前記左右軸とそれぞれ直交するように前記上下軸を生成する段階、
をさらに含む、[2]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[4]
前記ユーザー基準空間座標系を設定する段階は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交し、前記第1身体座標で前記前後軸と直交するように前記上下軸を生成する段階、および
前記第1身体座標を通り、前記前後軸および前記上下軸とそれぞれ直交するように前記左右軸を生成する段階、
をさらに含む、[2]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[5]
前記移動ベクトルの状態を分析する段階は、
前記第2身体部位の第1時刻の前記第2身体座標x1、y1、z1および第2時刻の前記第2身体座標x2、y2、z2に対して、移動ベクトルVを
[6]
前記移動ベクトルの状態を分析する段階は、
前記移動ベクトルのr、θおよびφに基づいて前記移動ベクトルの状態を停止状態、前進状態、後進状態および表面移動状態のうちいずれか一つに特定する段階をさらに含む、[5]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[7]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記前進状態から前記停止状態に変化した場合、タッチジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[8]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記後進状態に変化した場合、リリースジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[9]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記前進状態から前記停止状態を経て前記後進状態に変化するか、前記前進状態から前記後進状態に変化した場合、クリックジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[10]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記表面移動状態に変化した場合、仮想球面の表面に対するドラッグジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[11]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記停止状態を維持する場合、ホールドジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[12]
前記ユーザーのジェスチャーを検出する段階は、
前記移動ベクトルの状態が前記前進状態−前記停止状態−前記前進状態−前記停止状態の順に変化した場合、ディープタッチ(deep touch)ジェスチャーが発生したと判断する段階をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出方法。
[6]
外部の3次元身体座標検出手段から、ユーザーの第1身体部位および第2身体部位を含む複数の身体部位に対応する複数の身体座標を受信する3次元身体座標受信部、
前記複数の身体座標に基づいて、前記第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を生成するユーザー基準空間座標系設定部、
時間による前記第2身体座標の移動ベクトルを生成し、移動ベクトルの状態を判断する移動ベクトル分析部、および
前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出するジェスチャー検出部を含む、ユーザー基準空間座標系上におけるジェスチャー検出装置。
[14]
前記ユーザー基準空間座標系設定部は、
前記第1身体座標および前記第2身体座標を通るように前記ユーザー基準空間座標系の前後軸を設定する前後軸設定部をさらに含む、[6]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[15]
前記ユーザー基準空間座標系設定部は、
前記第1身体座標を通り、前記前後軸と直交し、地面と平行するように前記左右軸を生成する左右軸設定部、および
前記第1身体座標を通り、前記前後軸および前記左右軸とそれぞれ直交する上下軸を生成する上下軸設定部をさらに含む、[14]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[16]
前記ユーザー基準空間座標系設定部は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交し、前記第1身体座標で前記前後軸と直交するように前記上下軸を生成する上下軸設定部、および
前記第1身体座標を通り、前記前後軸および前記上下軸とそれぞれ直交するように前記左右軸を生成する左右軸設定部をさらに含む、[14]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[17]
前記移動ベクトル分析部は、
前記第2身体部位の第1時刻の前記第2身体座標x1、y1、z1および第2時刻の前記第2身体座標x2、y2、z2に対して、移動ベクトルVを
[18]
前記移動ベクトル分析部は、
前記移動ベクトルのr、θおよびφに基づいて前記移動ベクトルの状態を停止状態、前進状態、後進状態および表面移動状態のうちいずれか一つに特定する移動ベクトル状態判断部をさらに含む、[17]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
[19]
前記ジェスチャー検出部は、前記移動ベクトルの状態の変化をモニタリングする移動ベクトルモニタリング部、および
前記移動ベクトルの状態の変化の類型ごとに前記類型に対応するジェスチャーの類型を保存したジェスチャー保存部、および
前記ジェスチャー保存部に基づいて、前記移動ベクトルの状態の変化に対応する前記ユーザーのジェスチャーの類型を判断する、ジェスチャー判断部をさらに含む、[18]に記載のユーザー基準空間座標系上におけるジェスチャー検出装置。
Claims (2)
- ユーザーの第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を設定する段階、
前記ユーザー基準空間座標系上において、前記ユーザーの第2身体部位に対応する第2身体座標の時間による移動ベクトルの状態を分析する段階、
前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出する段階を含み、
前記ユーザー基準空間座標系を設定する段階は、
前記第1身体座標と前記第2身体座標とを連結する直線を基準として、前記ユーザー基準空間座標系の前後軸を生成する段階、
生成された前記前後軸に直交するように、前記ユーザー基準空間座標系の左右軸および上下軸を生成する段階をさらに含み、
前記ユーザー基準空間座標系の前記左右軸は、前記ユーザー基準空間座標系の前記上下軸に直交し、
前記ユーザー基準空間座標系の前記左右軸は、前記ユーザーの頭の傾き、または、前記ユーザーが傾斜面に立っているかを参照して作成され、
前記ユーザーが前記傾斜面に立っている場合、
前記左右軸は、前記第1身体座標を通り、地面と平行するように生成され、
前記上下軸は、前記第1身体座標を通るように生成され、
前記ユーザーの頭が傾いている場合、
前記上下軸は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交するように生成され、
前記左右軸は、前記第1身体座標を通るように生成される、
ユーザー基準空間座標系上におけるジェスチャー検出方法。 - 外部の3次元身体座標検出手段から、ユーザーの第1身体部位および第2身体部位を含む複数の身体部位に対応する複数の身体座標を受信する3次元身体座標受信部、
前記複数の身体座標に基づいて、前記第1身体部位に対応する第1身体座標を原点とするユーザー基準空間座標系を生成するユーザー基準空間座標系設定部、
時間による、前記第2身体部位に対応する第2身体座標の移動ベクトルを生成し、移動ベクトルの状態を判断する移動ベクトル分析部、および
前記移動ベクトルの状態の変化に基づいて前記ユーザーのジェスチャーを検出するジェスチャー検出部を含み、
前記ユーザー基準空間座標系は、
前記第1身体座標および前記第2身体座標を連結する直線基準として、前記ユーザー基準空間座標系の前後軸を生成するように構成される前後軸設定部、
生成された前記前後軸に直交するように、前記ユーザー基準空間座標系の左右軸を生成するように構成される左右軸設定部、
生成された前記前後軸に直交するように、前記ユーザー基準空間座標系の上下軸を生成するように構成される上下軸設定部を含み、
前記ユーザー基準空間座標系の前記左右軸は、前記ユーザー基準空間座標系の前記上下軸に直交し、
前記ユーザー基準空間座標系の前記左右軸は、前記ユーザーの頭の傾き、または、前記ユーザーが傾斜面に立っているかを参照して作成され、
前記ユーザーが前記傾斜面に立っている場合、
前記左右軸は、前記第1身体座標を通り、地面と平行するように生成され、
前記上下軸は、前記第1身体座標を通るように生成され、
前記ユーザーの頭が傾いている場合、
前記上下軸は、前記第1身体座標を通り、前記第1身体座標で前記第1身体座標および第3身体部位に対応する第3身体座標を連結する直線と直交するように生成され、
前記左右軸は、前記第1身体座標を通るように生成される、
ユーザー基準空間座標系上におけるジェスチャー検出装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562173417P | 2015-06-10 | 2015-06-10 | |
US62/173,417 | 2015-06-10 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018517108A Division JP2018528551A (ja) | 2015-06-10 | 2016-06-10 | ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020098614A true JP2020098614A (ja) | 2020-06-25 |
JP6839778B2 JP6839778B2 (ja) | 2021-03-10 |
Family
ID=57504614
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018517108A Pending JP2018528551A (ja) | 2015-06-10 | 2016-06-10 | ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 |
JP2020012242A Active JP6839778B2 (ja) | 2015-06-10 | 2020-01-29 | ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018517108A Pending JP2018528551A (ja) | 2015-06-10 | 2016-06-10 | ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10846864B2 (ja) |
EP (1) | EP3309708A4 (ja) |
JP (2) | JP2018528551A (ja) |
KR (1) | KR101754126B1 (ja) |
CN (1) | CN107787497B (ja) |
WO (1) | WO2016200197A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9729695B2 (en) | 2012-11-20 | 2017-08-08 | Dropbox Inc. | Messaging client application interface |
EP3309708A4 (en) * | 2015-06-10 | 2019-03-06 | Vtouch Co., Ltd. | METHOD AND DEVICE FOR DETECTING GESTURES IN A USER-BASED SPATIAL COORDINATE SYSTEM |
US10832031B2 (en) * | 2016-08-15 | 2020-11-10 | Apple Inc. | Command processing using multimodal signal analysis |
KR101937823B1 (ko) * | 2016-10-24 | 2019-01-14 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
KR102374408B1 (ko) * | 2017-09-08 | 2022-03-15 | 삼성전자주식회사 | 가상 현실에서의 포인터 제어 방법 및 전자 장치 |
KR102463712B1 (ko) | 2017-11-24 | 2022-11-08 | 현대자동차주식회사 | 가상 터치 인식 장치 및 그의 인식 오류 보정 방법 |
CN110377145B (zh) * | 2018-04-13 | 2021-03-30 | 北京京东尚科信息技术有限公司 | 电子设备确定方法、系统、计算机系统和可读存储介质 |
CN108920076B (zh) * | 2018-06-27 | 2021-03-02 | 清远墨墨教育科技有限公司 | 一种用户手势操作识别方法及识别系统 |
US20200012350A1 (en) * | 2018-07-08 | 2020-01-09 | Youspace, Inc. | Systems and methods for refined gesture recognition |
KR102155378B1 (ko) * | 2018-09-19 | 2020-09-14 | 주식회사 브이터치 | 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
JPWO2021153413A1 (ja) * | 2020-01-29 | 2021-08-05 | ||
US20220050432A1 (en) * | 2020-08-14 | 2022-02-17 | VTouch Co., Ltd. | Method, system and non-transitory computer-readable recording medium for supporting object control |
CN114327047B (zh) * | 2021-12-01 | 2024-04-30 | 北京小米移动软件有限公司 | 设备控制方法、设备控制装置及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10228346A (ja) * | 1997-02-17 | 1998-08-25 | Nippon Telegr & Teleph Corp <Ntt> | 三次元入力装置 |
JP2000149025A (ja) * | 1998-11-13 | 2000-05-30 | Nec Corp | ジェスチャ認識装置及び方法 |
JP2000353046A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | ユーザインタフェース装置、ユーザインタフェース方法、ゲーム装置およびプログラム記憶媒体 |
JP2011248606A (ja) * | 2010-05-26 | 2011-12-08 | Canon Inc | 表示制御装置および表示制御方法 |
JP2012137899A (ja) * | 2010-12-27 | 2012-07-19 | Hitachi Consumer Electronics Co Ltd | 映像処理装置及び映像表示装置 |
US20120223882A1 (en) * | 2010-12-08 | 2012-09-06 | Primesense Ltd. | Three Dimensional User Interface Cursor Control |
CN102799262A (zh) * | 2011-04-08 | 2012-11-28 | 索尼电脑娱乐公司 | 用于确定输入语音的相关性的装置和方法 |
JP2013037467A (ja) * | 2011-08-05 | 2013-02-21 | Toshiba Corp | コマンド発行装置、コマンド発行方法およびプログラム |
WO2014080829A1 (ja) * | 2012-11-22 | 2014-05-30 | シャープ株式会社 | データ入力装置 |
JP2014179099A (ja) * | 2013-03-14 | 2014-09-25 | Samsung Electronics Co Ltd | ユーザ機器のオブジェクト運用方法及び装置 |
Family Cites Families (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3114813B2 (ja) * | 1991-02-27 | 2000-12-04 | 日本電信電話株式会社 | 情報入力方法 |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US6512838B1 (en) * | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
WO2001056007A1 (en) * | 2000-01-28 | 2001-08-02 | Intersense, Inc. | Self-referenced tracking |
US6531999B1 (en) * | 2000-07-13 | 2003-03-11 | Koninklijke Philips Electronics N.V. | Pointing direction calibration in video conferencing and other camera-based system applications |
US6600475B2 (en) * | 2001-01-22 | 2003-07-29 | Koninklijke Philips Electronics N.V. | Single camera system for gesture-based input and target indication |
US7646372B2 (en) * | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
JP2004246814A (ja) * | 2003-02-17 | 2004-09-02 | Takenaka Komuten Co Ltd | 指示動作認識装置 |
JP4286556B2 (ja) * | 2003-02-24 | 2009-07-01 | 株式会社東芝 | 画像表示装置 |
JP4172307B2 (ja) * | 2003-03-31 | 2008-10-29 | 富士ゼロックス株式会社 | 3次元指示入力装置 |
JP2005346415A (ja) * | 2004-06-03 | 2005-12-15 | Hitachi Ltd | 電子ペンを用いた編集システム、編集方法およびそのプログラム |
JP4172793B2 (ja) * | 2004-06-08 | 2008-10-29 | 株式会社東芝 | ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置 |
US20080147687A1 (en) * | 2005-02-17 | 2008-06-19 | Naohiro Furukawa | Information Management System and Document Information Management Method |
CN100565438C (zh) * | 2005-07-11 | 2009-12-02 | 皇家飞利浦电子股份有限公司 | 控制在命令区域上控制点位置的方法和系统 |
EP1804154A3 (en) * | 2005-12-27 | 2012-08-08 | Poston Timothy | Computer input device enabling three degrees of freedom and related input and feedback methods |
KR100814289B1 (ko) * | 2006-11-14 | 2008-03-18 | 서경대학교 산학협력단 | 실시간 동작 인식 장치 및 그 방법 |
KR100913396B1 (ko) | 2006-12-04 | 2009-08-21 | 한국전자통신연구원 | 모션벡터를 이용한 행위 인식 장치 및 그 방법 |
US8073198B2 (en) * | 2007-10-26 | 2011-12-06 | Samsung Electronics Co., Ltd. | System and method for selection of an object of interest during physical browsing by finger framing |
US8225343B2 (en) * | 2008-01-11 | 2012-07-17 | Sony Computer Entertainment America Llc | Gesture cataloging and recognition |
KR20090093220A (ko) * | 2008-02-29 | 2009-09-02 | 채수현 | 적외선 카메라를 이용한 공간 터치 스크린 |
JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
CN101713636B (zh) * | 2008-10-08 | 2013-08-28 | 鸿富锦精密工业(深圳)有限公司 | 三维坐标系补正及绘制系统与方法 |
KR20100048090A (ko) * | 2008-10-30 | 2010-05-11 | 삼성전자주식회사 | 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법 |
KR20110003146A (ko) * | 2009-07-03 | 2011-01-11 | 한국전자통신연구원 | 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법 |
US8922485B1 (en) * | 2009-12-18 | 2014-12-30 | Google Inc. | Behavioral recognition on mobile devices |
KR101334107B1 (ko) * | 2010-04-22 | 2013-12-16 | 주식회사 굿소프트웨어랩 | 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법 |
JP5728009B2 (ja) * | 2010-06-17 | 2015-06-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路 |
US20130215069A1 (en) * | 2010-10-26 | 2013-08-22 | Tsu-Chang Lee | Apparatus for network based modular electronic systems |
JP5604279B2 (ja) * | 2010-12-08 | 2014-10-08 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
US20130154913A1 (en) * | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
CN106125921B (zh) * | 2011-02-09 | 2019-01-15 | 苹果公司 | 3d映射环境中的凝视检测 |
KR101151962B1 (ko) * | 2011-02-16 | 2012-06-01 | 김석중 | 포인터를 사용하지 않는 가상 터치 장치 및 방법 |
KR101381928B1 (ko) * | 2011-02-18 | 2014-04-07 | 주식회사 브이터치 | 포인터를 사용하지 않는 가상 터치 장치 및 방법 |
KR101226668B1 (ko) * | 2011-03-25 | 2013-01-25 | 주식회사 아이티엑스시큐리티 | 스테레오 카메라를 이용한 3차원 동작 인식장치 및 인식방법 |
US8840466B2 (en) * | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
CN102226880A (zh) * | 2011-06-03 | 2011-10-26 | 北京新岸线网络技术有限公司 | 一种基于虚拟现实的体感操作方法及系统 |
KR101364133B1 (ko) * | 2011-06-15 | 2014-02-21 | 주식회사 브이터치 | 가상터치를 이용한 3차원 장치 및 3차원 게임 장치 |
RU2455676C2 (ru) * | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
CN202211395U (zh) * | 2011-07-28 | 2012-05-09 | 游汶璋 | 三合一平板电脑置放结构 |
US8971572B1 (en) * | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US8947351B1 (en) * | 2011-09-27 | 2015-02-03 | Amazon Technologies, Inc. | Point of view determinations for finger tracking |
CN103164022B (zh) * | 2011-12-16 | 2016-03-16 | 国际商业机器公司 | 多指触摸方法和装置、便携式终端设备 |
CN104040461A (zh) * | 2011-12-27 | 2014-09-10 | 惠普发展公司,有限责任合伙企业 | 用户界面设备 |
KR101335394B1 (ko) * | 2012-02-06 | 2013-12-03 | 크레신 주식회사 | 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치 |
KR101380997B1 (ko) | 2012-02-28 | 2014-04-10 | 한국과학기술원 | 공간 인식을 통한 벡터 기반 제스처를 보정하는 방법 및 그 장치 |
CN104471511B (zh) * | 2012-03-13 | 2018-04-20 | 视力移动技术有限公司 | 识别指点手势的装置、用户接口和方法 |
US9448636B2 (en) * | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
WO2013168171A1 (en) * | 2012-05-10 | 2013-11-14 | Umoove Services Ltd. | Method for gesture-based operation control |
JP2013250882A (ja) * | 2012-06-01 | 2013-12-12 | Sharp Corp | 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム |
SE537553C2 (sv) * | 2012-08-03 | 2015-06-09 | Crunchfish Ab | Förbättrad identifiering av en gest |
US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
CN102981742A (zh) * | 2012-11-28 | 2013-03-20 | 无锡市爱福瑞科技发展有限公司 | 基于计算机视觉的手势交互系统 |
WO2014106219A1 (en) * | 2012-12-31 | 2014-07-03 | Burachas Giedrius Tomas | User centric interface for interaction with visual display that recognizes user intentions |
JP6127564B2 (ja) * | 2013-02-15 | 2017-05-17 | コニカミノルタ株式会社 | タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム |
US9245063B2 (en) * | 2013-04-05 | 2016-01-26 | The Boeing Company | Creating ergonomic manikin postures and controlling computer-aided design environments using natural user interfaces |
US20140354602A1 (en) * | 2013-04-12 | 2014-12-04 | Impression.Pi, Inc. | Interactive input system and method |
KR102517425B1 (ko) * | 2013-06-27 | 2023-03-31 | 아이사이트 모빌 테크놀로지 엘티디 | 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법 |
AU2013206685A1 (en) * | 2013-07-04 | 2015-01-22 | Canon Kabushiki Kaisha | Projected user interface system for multiple users |
US9529513B2 (en) * | 2013-08-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Two-hand interaction with natural user interface |
CN103413137B (zh) * | 2013-08-05 | 2016-04-27 | 浙江大学 | 基于多规则的交互手势运动轨迹分割方法 |
US20150185851A1 (en) * | 2013-12-30 | 2015-07-02 | Google Inc. | Device Interaction with Self-Referential Gestures |
WO2015103693A1 (en) * | 2014-01-07 | 2015-07-16 | Arb Labs Inc. | Systems and methods of monitoring activities at a gaming venue |
US20150234468A1 (en) * | 2014-02-19 | 2015-08-20 | Microsoft Corporation | Hover Interactions Across Interconnected Devices |
US9753546B2 (en) * | 2014-08-29 | 2017-09-05 | General Electric Company | System and method for selective gesture interaction |
US9823764B2 (en) * | 2014-12-03 | 2017-11-21 | Microsoft Technology Licensing, Llc | Pointer projection for natural user input |
KR102339839B1 (ko) * | 2014-12-26 | 2021-12-15 | 삼성전자주식회사 | 제스처 입력 처리 방법 및 장치 |
CN104636725B (zh) * | 2015-02-04 | 2017-09-29 | 华中科技大学 | 一种基于深度图像的手势识别方法与系统 |
US10180734B2 (en) * | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
WO2016166902A1 (en) * | 2015-04-16 | 2016-10-20 | Rakuten, Inc. | Gesture interface |
EP3309708A4 (en) * | 2015-06-10 | 2019-03-06 | Vtouch Co., Ltd. | METHOD AND DEVICE FOR DETECTING GESTURES IN A USER-BASED SPATIAL COORDINATE SYSTEM |
DE102015115526A1 (de) * | 2015-09-15 | 2017-03-16 | Visteon Global Technologies, Inc. | Verfahren zur Zielerfassung von Zielobjekten, insbesondere zur Zielerfassung von Bedienelementen in einem Fahrzeug |
JP6597235B2 (ja) * | 2015-11-30 | 2019-10-30 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
WO2017188801A1 (ko) * | 2016-04-29 | 2017-11-02 | 주식회사 브이터치 | 동작-음성의 다중 모드 명령에 기반한 최적 제어 방법 및 이를 적용한 전자 장치 |
WO2018083872A1 (ja) * | 2016-11-04 | 2018-05-11 | 株式会社ワコム | スタイラス、方法、及び処理装置 |
-
2016
- 2016-06-10 EP EP16807837.6A patent/EP3309708A4/en active Pending
- 2016-06-10 CN CN201680034166.2A patent/CN107787497B/zh active Active
- 2016-06-10 JP JP2018517108A patent/JP2018528551A/ja active Pending
- 2016-06-10 KR KR1020160072357A patent/KR101754126B1/ko active IP Right Grant
- 2016-06-10 WO PCT/KR2016/006170 patent/WO2016200197A1/ko active Application Filing
-
2017
- 2017-12-08 US US15/835,809 patent/US10846864B2/en active Active
-
2020
- 2020-01-29 JP JP2020012242A patent/JP6839778B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10228346A (ja) * | 1997-02-17 | 1998-08-25 | Nippon Telegr & Teleph Corp <Ntt> | 三次元入力装置 |
JP2000149025A (ja) * | 1998-11-13 | 2000-05-30 | Nec Corp | ジェスチャ認識装置及び方法 |
JP2000353046A (ja) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | ユーザインタフェース装置、ユーザインタフェース方法、ゲーム装置およびプログラム記憶媒体 |
JP2011248606A (ja) * | 2010-05-26 | 2011-12-08 | Canon Inc | 表示制御装置および表示制御方法 |
US20120223882A1 (en) * | 2010-12-08 | 2012-09-06 | Primesense Ltd. | Three Dimensional User Interface Cursor Control |
JP2012137899A (ja) * | 2010-12-27 | 2012-07-19 | Hitachi Consumer Electronics Co Ltd | 映像処理装置及び映像表示装置 |
CN102799262A (zh) * | 2011-04-08 | 2012-11-28 | 索尼电脑娱乐公司 | 用于确定输入语音的相关性的装置和方法 |
JP2013037467A (ja) * | 2011-08-05 | 2013-02-21 | Toshiba Corp | コマンド発行装置、コマンド発行方法およびプログラム |
WO2014080829A1 (ja) * | 2012-11-22 | 2014-05-30 | シャープ株式会社 | データ入力装置 |
JP2014179099A (ja) * | 2013-03-14 | 2014-09-25 | Samsung Electronics Co Ltd | ユーザ機器のオブジェクト運用方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107787497B (zh) | 2021-06-22 |
EP3309708A4 (en) | 2019-03-06 |
US10846864B2 (en) | 2020-11-24 |
JP6839778B2 (ja) | 2021-03-10 |
KR101754126B1 (ko) | 2017-07-19 |
WO2016200197A1 (ko) | 2016-12-15 |
US20180173318A1 (en) | 2018-06-21 |
CN107787497A (zh) | 2018-03-09 |
JP2018528551A (ja) | 2018-09-27 |
EP3309708A1 (en) | 2018-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6839778B2 (ja) | ユーザー基準空間座標系上におけるジェスチャー検出方法および装置 | |
KR20200005999A (ko) | 듀얼 이벤트 카메라를 이용한 slam 방법 및 slam 시스템 | |
US10540006B2 (en) | Tracking torso orientation to generate inputs for computer systems | |
JP6129863B2 (ja) | 3次元タッチタイプ入力システム及び光ナビゲーション方法 | |
US20140184494A1 (en) | User Centric Interface for Interaction with Visual Display that Recognizes User Intentions | |
CN111368760B (zh) | 一种障碍物检测方法、装置、电子设备及存储介质 | |
US8525780B2 (en) | Method and apparatus for inputting three-dimensional location | |
CN103797446A (zh) | 输入体的动作检测方法以及使用了该方法的输入设备 | |
KR101550580B1 (ko) | 사용자 인터페이스 장치 및 그것의 제어 방법 | |
EP3767435B1 (en) | 6-dof tracking using visual cues | |
JP2004265222A (ja) | インタフェース方法、装置、およびプログラム | |
KR20160044333A (ko) | 전자 장치, 그 제어 방법 및 기록 매체 | |
JP2015118442A (ja) | 情報処理装置、情報処理方法およびプログラム | |
Weber et al. | Exploiting augmented reality for extrinsic robot calibration and eye-based human-robot collaboration | |
US20170115727A1 (en) | Image processing apparatus, image processing method, and program | |
WO2020110359A1 (en) | System and method for estimating pose of robot, robot, and storage medium | |
EP2831706B1 (en) | A multimodal system and method facilitating gesture creation through scalar and vector data | |
US8866870B1 (en) | Methods, apparatus, and systems for controlling from a first location a laser at a second location | |
Pfitzner et al. | 3d multi-sensor data fusion for object localization in industrial applications | |
JP5485470B2 (ja) | 3d系内でプッシュ及びプルのジェスチャーを認識する方法及び装置 | |
US9058091B2 (en) | Input device and input method | |
TWI700614B (zh) | 追蹤系統的操作方法、控制器、追蹤系統及非揮發性電腦可讀取記錄媒體 | |
TW201229820A (en) | Method for reducing index signal jittering of 3-D input apparatus, 3-D input apparatus and module producing 3-D index signal | |
JP2022011821A (ja) | 情報処理装置、情報処理方法、移動ロボット | |
JP2017084323A (ja) | 情報処理装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200129 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210203 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6839778 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |