JP2017530447A - 3dシーンでジェスチャーを入力するシステム及び方法 - Google Patents
3dシーンでジェスチャーを入力するシステム及び方法 Download PDFInfo
- Publication number
- JP2017530447A JP2017530447A JP2017509021A JP2017509021A JP2017530447A JP 2017530447 A JP2017530447 A JP 2017530447A JP 2017509021 A JP2017509021 A JP 2017509021A JP 2017509021 A JP2017509021 A JP 2017509021A JP 2017530447 A JP2017530447 A JP 2017530447A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- information
- real time
- shape
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000009471 action Effects 0.000 claims abstract description 18
- 230000008859 change Effects 0.000 claims description 42
- 238000005070 sampling Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 description 10
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
前記ジェスチャー採集手段は、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するために用いられ、
前記ジェスチャー識別手段は、前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するために用いられ、
前記ジェスチャー解析手段は、前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するために用いられ、
前記ジェスチャー表示手段は、前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するために用いられる。
前記ジェスチャー操作手段は、予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得し、前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせるために用いられる。
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得するためのサンプリングモジュールと、
前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出するためのジェスチャー輪郭抽出モジュールと、
予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別するためのジェスチャー形状識別モジュールと、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得るためのジェスチャー形状合成モジュールとを、含む。
リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得するための位置情報取得モジュールと、
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得するための接点情報取得モジュールと、
前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得するためのジェスチャー動作取得モジュールとを含む。
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、
前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングし、
前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得するために用いられる。
ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するステップと、
前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するステップと、
前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するステップと、
前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するステップとを含む。
予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得することと、
前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせることとをさらに含む。
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得することと、
前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出することと、
予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別することと、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得ることとを含む。
リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することと、
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得することと、
前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得することとを含む。
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得することと、
前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングすることと、
前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得することとを含む。
前記ジェスチャー採集手段により採集された前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、ジェスチャー形状変化の角度情報とユーザーのジェスチャーの距離情報を合わせて、ユーザーのジェスチャーの相対的空間位置情報を取得する。
前記ジェスチャー採集手段により採集された前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングし、ジェスチャー形状変化の角度情報とユーザーのジェスチャーの距離情報を合わせて、ユーザーのジェスチャーの相対的空間位置情報を取得する。
ステップS300では、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集する。
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得し、
当該ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、当該ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出し、
予め設定されたジェスチャーモデルデータベースから、手部の輪郭情報に対応するジェスチャー形状を識別し、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得る。
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、リアルタイムに変化するジェスチャー形状における接点の変化情報を取得し、
相対的空間位置情報及び接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得する。
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得することと、
ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングすることと、
ジェスチャー形状変化の角度情報及びユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得することとを含む。
予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得することと、
当該ジェスチャー語義に対応する操作指令を3Dシーンに送信して、3Dシーンに当該ジェスチャー語義に対応する操作を行わせることとをさらに含む。
Claims (10)
- 3Dシーンでジェスチャーを入力するシステムであって、ジェスチャー採集手段と、ジェスチャー識別手段と、ジェスチャー解析手段と、ジェスチャー表示手段とを含み、
前記ジェスチャー採集手段は、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するために用いられ、
前記ジェスチャー識別手段は、前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するために用いられ、
前記ジェスチャー解析手段は、前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するために用いられ、
前記ジェスチャー表示手段は、前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するために用いられることを特徴とするシステム。 - ジェスチャー操作手段をさらに含み、
前記ジェスチャー操作手段は、予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得し、前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせるために用いられることを特徴とする請求項1に記載のシステム。 - 前記ジェスチャー識別手段は、
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得するためのサンプリングモジュールと、
前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出するためのジェスチャー輪郭抽出モジュールと、
予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別するためのジェスチャー形状識別モジュールと、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得るためのジェスチャー形状合成モジュールと
を含むことを特徴とする請求項1に記載のシステム。 - 前記ジェスチャー解析手段は、
リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得するための位置情報取得モジュールと、
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得するための接点情報取得モジュールと、
前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得するためのジェスチャー動作取得モジュールと
を含むことを特徴とする請求項1に記載のシステム。 - 前記位置情報取得モジュールは、
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、
前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングし、
前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得するために用いられることを特徴とする請求項4に記載のシステム。 - 3Dシーンでジェスチャーを入力する方法であって、
ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するステップと、
前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するステップと、
前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するステップと、
前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するステップと
を含むことを特徴とする方法。 - 予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得することと、
前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせることと
をさらに含むことを特徴とする請求項6に記載の方法。 - 前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別する前記ステップは、
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得することと、
前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出することと、
予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別することと、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得ることと
を含むことを特徴とする請求項6に記載の方法。 - 前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得する前記ステップは、
リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することと、
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得することと、
前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得することと
を含むことを特徴とする請求項6に記載の方法。 - 前記のリアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することは、
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得することと、
前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングすることと、
前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得することと
を含むことを特徴とする請求項9に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410842158.3 | 2014-12-30 | ||
CN201410842158.3A CN104571510B (zh) | 2014-12-30 | 2014-12-30 | 一种3d场景中输入手势的系统和方法 |
PCT/CN2015/090531 WO2016107231A1 (zh) | 2014-12-30 | 2015-09-24 | 一种3d场景中输入手势的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017530447A true JP2017530447A (ja) | 2017-10-12 |
JP6259545B2 JP6259545B2 (ja) | 2018-01-10 |
Family
ID=53087788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017509021A Active JP6259545B2 (ja) | 2014-12-30 | 2015-09-24 | 3dシーンでジェスチャーを入力するシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10466798B2 (ja) |
JP (1) | JP6259545B2 (ja) |
CN (1) | CN104571510B (ja) |
WO (1) | WO2016107231A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10482670B2 (en) | 2014-12-30 | 2019-11-19 | Qingdao Goertek Technology Co., Ltd. | Method for reproducing object in 3D scene and virtual reality head-mounted device |
CN104571510B (zh) * | 2014-12-30 | 2018-05-04 | 青岛歌尔声学科技有限公司 | 一种3d场景中输入手势的系统和方法 |
CN106650554A (zh) * | 2015-10-30 | 2017-05-10 | 成都理想境界科技有限公司 | 静态手势识别方法 |
CN105353873B (zh) * | 2015-11-02 | 2019-03-15 | 深圳奥比中光科技有限公司 | 基于三维显示的手势操控方法和系统 |
CN105892636A (zh) * | 2015-11-20 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种应用于头戴设备的控制方法及头戴设备 |
CN105739703A (zh) * | 2016-02-02 | 2016-07-06 | 北方工业大学 | 面向无线头戴显示设备的虚拟现实体感交互系统及方法 |
CN106250903A (zh) * | 2016-04-15 | 2016-12-21 | 广东工业大学 | 有限的用户自定义手势语义的手势知识库创建方法 |
CN106383586A (zh) * | 2016-10-21 | 2017-02-08 | 东南大学 | 一种孤独症谱系障碍儿童训练系统 |
CN109358748B (zh) * | 2018-09-30 | 2019-09-10 | 深圳仓谷创新软件有限公司 | 一种用手与手机ar虚拟物体交互的设备和方法 |
CN109683765A (zh) * | 2018-12-27 | 2019-04-26 | 张家港康得新光电材料有限公司 | 一种资源分配方法、装置以及3d显示终端 |
CN109656369A (zh) * | 2018-12-27 | 2019-04-19 | 张家港康得新光电材料有限公司 | 一种数值显示方法、装置以及3d显示终端 |
CN110602516A (zh) * | 2019-09-16 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 基于视频直播的信息交互方法、装置及电子设备 |
CN116560509A (zh) * | 2023-05-17 | 2023-08-08 | 山东格物智能科技有限公司 | 一种基于视觉核心算法的人机交互系统及方法 |
CN116719416B (zh) * | 2023-08-07 | 2023-12-15 | 海马云(天津)信息技术有限公司 | 虚拟数字人的手势动作修正方法和装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012137989A (ja) * | 2010-12-27 | 2012-07-19 | Sony Computer Entertainment Inc | ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法 |
JP2013164658A (ja) * | 2012-02-09 | 2013-08-22 | Ricoh Co Ltd | 画像表示装置 |
JP2014524070A (ja) * | 2011-06-06 | 2014-09-18 | マイクロソフト コーポレーション | 指認識および追跡システム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1304931C (zh) * | 2005-01-27 | 2007-03-14 | 北京理工大学 | 一种头戴式立体视觉手势识别装置 |
CN100407798C (zh) | 2005-07-29 | 2008-07-30 | 北京大学 | 三维几何建模系统和方法 |
US20120229509A1 (en) | 2011-03-07 | 2012-09-13 | Liu Guangsong | System and method for user interaction |
CN102681651B (zh) * | 2011-03-07 | 2016-03-23 | 刘广松 | 一种用户交互系统和方法 |
CN102156859B (zh) * | 2011-04-21 | 2012-10-03 | 刘津甦 | 手部姿态与空间位置的感知方法 |
CN102184021B (zh) * | 2011-05-27 | 2013-06-12 | 华南理工大学 | 一种基于手写输入和指尖鼠标的电视人机交互方法 |
CN102722249B (zh) | 2012-06-05 | 2016-03-30 | 上海鼎为电子科技(集团)有限公司 | 操控方法、操控装置及电子装置 |
US9684372B2 (en) * | 2012-11-07 | 2017-06-20 | Samsung Electronics Co., Ltd. | System and method for human computer interaction |
US20150029092A1 (en) * | 2013-07-23 | 2015-01-29 | Leap Motion, Inc. | Systems and methods of interpreting complex gestures |
CN103914152B (zh) * | 2014-04-11 | 2017-06-09 | 周光磊 | 三维空间中多点触控与捕捉手势运动的识别方法与系统 |
CN103927016B (zh) * | 2014-04-24 | 2017-01-11 | 西北工业大学 | 一种基于双目视觉的实时三维双手手势识别方法及其系统 |
CN104050859A (zh) * | 2014-05-08 | 2014-09-17 | 南京大学 | 可交互数字化立体沙盘系统 |
US20150379770A1 (en) * | 2014-06-27 | 2015-12-31 | David C. Haley, JR. | Digital action in response to object interaction |
CN204463032U (zh) * | 2014-12-30 | 2015-07-08 | 青岛歌尔声学科技有限公司 | 一种3d场景中输入手势的系统和虚拟现实头戴设备 |
CN104571510B (zh) | 2014-12-30 | 2018-05-04 | 青岛歌尔声学科技有限公司 | 一种3d场景中输入手势的系统和方法 |
-
2014
- 2014-12-30 CN CN201410842158.3A patent/CN104571510B/zh active Active
-
2015
- 2015-09-24 WO PCT/CN2015/090531 patent/WO2016107231A1/zh active Application Filing
- 2015-09-24 JP JP2017509021A patent/JP6259545B2/ja active Active
- 2015-09-24 US US15/313,472 patent/US10466798B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012137989A (ja) * | 2010-12-27 | 2012-07-19 | Sony Computer Entertainment Inc | ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法 |
JP2014524070A (ja) * | 2011-06-06 | 2014-09-18 | マイクロソフト コーポレーション | 指認識および追跡システム |
JP2013164658A (ja) * | 2012-02-09 | 2013-08-22 | Ricoh Co Ltd | 画像表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US20170192519A1 (en) | 2017-07-06 |
CN104571510B (zh) | 2018-05-04 |
CN104571510A (zh) | 2015-04-29 |
JP6259545B2 (ja) | 2018-01-10 |
WO2016107231A1 (zh) | 2016-07-07 |
US10466798B2 (en) | 2019-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6259545B2 (ja) | 3dシーンでジェスチャーを入力するシステム及び方法 | |
CN105487673B (zh) | 一种人机交互系统、方法及装置 | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
US9342230B2 (en) | Natural user interface scrolling and targeting | |
US9310895B2 (en) | Touchless input | |
CN204463032U (zh) | 一种3d场景中输入手势的系统和虚拟现实头戴设备 | |
US10007351B2 (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
TWI540461B (zh) | 手勢輸入的方法及系統 | |
US20130010071A1 (en) | Methods and systems for mapping pointing device on depth map | |
JP4323180B2 (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
US20120306734A1 (en) | Gesture Recognition Techniques | |
CN104571511B (zh) | 一种3d场景中重现物体的系统和方法 | |
KR20120068253A (ko) | 사용자 인터페이스의 반응 제공 방법 및 장치 | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
US20200326783A1 (en) | Head mounted display device and operating method thereof | |
KR20150094680A (ko) | 타겟팅 및 누르기 내추럴 사용자 입력 | |
JP2004265222A (ja) | インタフェース方法、装置、およびプログラム | |
KR101169583B1 (ko) | 가상마우스 구동방법 | |
WO2018006481A1 (zh) | 一种移动终端的体感操作方法及装置 | |
CN106200942A (zh) | 信息处理方法及电子设备 | |
Dani et al. | Mid-air fingertip-based user interaction in mixed reality | |
KR20100048747A (ko) | 안면 추적을 이용한 모바일 유저 인터페이스 장치 | |
JP5863984B2 (ja) | ユーザインタフェース装置及びユーザインタフェース方法 | |
US20130187890A1 (en) | User interface apparatus and method for 3d space-touch using multiple imaging sensors | |
KR20120047746A (ko) | 가상마우스 구동방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170328 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170328 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6259545 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |