JP2017530447A - 3dシーンでジェスチャーを入力するシステム及び方法 - Google Patents

3dシーンでジェスチャーを入力するシステム及び方法 Download PDF

Info

Publication number
JP2017530447A
JP2017530447A JP2017509021A JP2017509021A JP2017530447A JP 2017530447 A JP2017530447 A JP 2017530447A JP 2017509021 A JP2017509021 A JP 2017509021A JP 2017509021 A JP2017509021 A JP 2017509021A JP 2017530447 A JP2017530447 A JP 2017530447A
Authority
JP
Japan
Prior art keywords
gesture
information
real time
shape
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017509021A
Other languages
English (en)
Other versions
JP6259545B2 (ja
Inventor
ジアン,マオシャン
チャン,シャンジュン
チョウ,ホンウェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Goertek Technology Co Ltd
Original Assignee
Qingdao Goertek Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Goertek Technology Co Ltd filed Critical Qingdao Goertek Technology Co Ltd
Publication of JP2017530447A publication Critical patent/JP2017530447A/ja
Application granted granted Critical
Publication of JP6259545B2 publication Critical patent/JP6259545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本発明は、3Dシーンでジェスチャーを入力するシステム及び方法を開示しており、前記システムは、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するためのジェスチャー採集手段と、前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するためのジェスチャー識別手段と、前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するためのジェスチャー解析手段と、前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するためのジェスチャー表示手段と、を含む。本発明の技術的解決手段は、3Dシーンにおいてユーザーのジェスチャーをリアルタイムに忠実に表示し、システムの忠実性を高め、ユーザーの利用体験を向上させることができる。【選択図】図1

Description

本発明は、仮想現実の技術分野に関し、特に、3Dシーンでジェスチャーを入力するシステム及び方法に関する。
仮想現実技術は、将来的に、人々のライフスタイルを変える新たなブレークスルーになると考えられるが、現在、仮想世界においてターゲットとのインタラクションを如何に行うのかが、仮想現実技術として直面しなければならない大きな課題であるため、仮想現実技術が消費市場へ本格参入するには、まだまだ長い道のりがある。
現在、従来の様々な仮想現実機器は、まだ、ユーザーと仮想世界との間のコミュニケーションを十分に行うことができず、3Dシーンにおいて、身体の関連部位を追跡できず、例えば、今でもユーザーの手部の動作を正確にシミュレーションすることができない。
本発明は、3Dシーンにおいてユーザーの手部の動作を正確にシミュレーションすることができないという従来技術の問題点を解決するために、3Dシーンでジェスチャーを入力するシステム及び方法を提供する。
上記目的を達成するために、本発明の技術的解決手段は、下記のように実現される。
一つの局面において、本発明は、3Dシーンでジェスチャーを入力するシステムを提供しており、前記システムは、ジェスチャー採集手段と、ジェスチャー識別手段と、ジェスチャー解析手段と、ジェスチャー表示手段とを含み、
前記ジェスチャー採集手段は、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するために用いられ、
前記ジェスチャー識別手段は、前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するために用いられ、
前記ジェスチャー解析手段は、前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するために用いられ、
前記ジェスチャー表示手段は、前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するために用いられる。
好ましくは、前記システムは、ジェスチャー操作手段をさらに含み、
前記ジェスチャー操作手段は、予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得し、前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせるために用いられる。
好ましくは、前記ジェスチャー識別手段は、
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得するためのサンプリングモジュールと、
前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出するためのジェスチャー輪郭抽出モジュールと、
予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別するためのジェスチャー形状識別モジュールと、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得るためのジェスチャー形状合成モジュールとを、含む。
好ましくは、前記ジェスチャー解析手段は、
リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得するための位置情報取得モジュールと、
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得するための接点情報取得モジュールと、
前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得するためのジェスチャー動作取得モジュールとを含む。
さらに好ましくは、前記位置情報取得モジュールは、具体的に、
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、
前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングし、
前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得するために用いられる。
もう一つの局面において、本発明は、3Dシーンでジェスチャーを入力する方法を提供しており、前記方法は、
ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するステップと、
前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するステップと、
前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するステップと、
前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するステップとを含む。
好ましくは、前記方法は、
予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得することと、
前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせることとをさらに含む。
好ましくは、前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別する前記ステップは、
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得することと、
前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出することと、
予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別することと、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得ることとを含む。
好ましくは、前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得する前記ステップは、
リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することと、
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得することと、
前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得することとを含む。
さらに好ましくは、前記のリアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することは、
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得することと、
前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングすることと、
前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得することとを含む。
本発明の実施例の有益な効果としては、次のことが挙げられる。本発明の実施例は、3Dシーンでジェスチャーを入力するシステム及び方法を開示しており、前記システムにおいては、ジェスチャー採集手段により、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集し、ジェスチャー識別手段により、前記少なくとも2個のビデオストリームデータから、完全な手部の情報を有するジェスチャー形状を識別し、ジェスチャー解析手段により、当該ジェスチャー形状を解析して対応するジェスチャー動作を取得し、ジェスチャー表示手段により、当該ジェスチャー動作を3D画像に変換処理して、リアルタイムに3Dシーンに表示することで、3Dシーンにおいて、ユーザーのジェスチャーを忠実に表示するという目的を達成した。
また、本発明の好ましい技術的解決手段では、ジェスチャー操作手段により、ジェスチャー動作を処理し、対応するジェスチャー語義を生成して、当該ジェスチャー語義の通りに、対応する操作を3Dシーンに行わせることで、ジェスチャーの入力によって3Dシーンをコントロールするという目的を実現した。従来技術に比べ、本技術的解決手段は、キーボード及びマウスを使わずに、仮想機器とのインタラクションを実現可能で、且つこのインタラクションが、利用者及び利用環境に過度な制約を与えず、即ち、ユーザーの身体にいかなる識別マーク又はセンサーを装着する必要がなく、ユーザーの忠実なジェスチャーによって、ユーザーと3Dシーンとの間のインタラクションを実現し、ユーザーの利用体験を向上させた。
図面は、本発明に対する更なる理解のために提供されるものであり、明細書の一部とされ、本発明の実施例とともに本発明を解釈するために用いられるが、本発明を制限するものではない。
本発明の実施例に係る3Dシーンでジェスチャーを入力するシステムの構造模式図である。 本発明の実施例に係るジェスチャー動作によって仮想現実ヘッドマウント機器を操作する技術フローチャートである。 本発明の実施例に係る3Dシーンでジェスチャーを入力する方法のフローチャートである。
本発明の目的、技術的解決手段及び利点がより明白になるように、以下、図面を参照して、本発明の実施形態について更に詳しく説明する。
本発明の主な技術構想は、少なくとも2個のカメラを用いて、異なる角度から、ユーザーのジェスチャーをリアルタイムに採集し、各カメラが採集したビデオストリームデータに基づき、ユーザーのジェスチャー形状を識別し、識別されたジェスチャー形状を解析して対応するジェスチャー動作を取得し、前記ジェスチャー動作を3D画像に変換処理してリアルタイムに3Dシーンに表示するとともに、3Dシーンに当該ジェスチャー動作の操作を行わせることで、ユーザーの忠実なジェスチャーによって、人と機器とのインタラクションを済ませることにある。
図1は、本発明の実施例に係る3Dシーンでジェスチャーを入力するシステムの構造模式図であり、前記システムは、ジェスチャー採集手段11と、ジェスチャー識別手段12と、ジェスチャー解析手段13と、ジェスチャー表示手段14とを含む。
ジェスチャー採集手段11は、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するために用いられる。
ここで、ジェスチャー採集手段11は、複数のカメラによって、異なる角度から、ユーザーのジェスチャーをリアルタイムに採集することで、複数個のビデオストリームデータを取得してもよい。実際の応用において、システムのデータ処理の性能及びシステム精度の要求に応じて、適切な数のカメラを選択して、対応する数のビデオストリームデータを採集することが可能である。説明しておきたいのは、ジェスチャー採集手段11におけるカメラは、通常性能の白色光カメラでも良いし、赤外線カメラでも良く、本実施例では、ジェスチャー採集手段を特に限定しない。
ジェスチャー識別手段12は、少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するために用いられる。
ジェスチャー解析手段13は、リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するために用いられる。
ジェスチャー表示手段14は、当該ジェスチャー動作を3D画像に変換処理して、リアルタイムに3Dシーンに表示するために用いられる。
本発明におけるジェスチャー表示手段14は、当該ジェスチャー動作を3D画像に変換処理して3Dシーンに重畳投影することで、3Dシーンにおいて当該ジェスチャー動作のリアルタイム表示を実現してもよい。好ましくは、画面分割技術を用いて3D画像を3Dシーンに投影し、即ち、メイン表示画面で3Dシーンを表示し、3D画像に変換処理されたジェスチャー動作を別の表示画面で表示して、光学の関連原理により、ジェスチャー動作を含む3Dシーンを人々の目に見えるようにしてもよい。
好ましくは、前記システムは、ジェスチャー操作手段をさらに含み、前記ジェスチャー操作手段は、予め設定された語義データベースから、前記ジェスチャー動作に対応するジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得し、当該ジェスチャー語義に対応する操作指令を3Dシーンに送信して、3Dシーンに当該ジェスチャー語義に対応する操作を行わせるために用いられる。
ここで、語義データベースは、データ関係テーブルでも良く、このデータ関係テーブルにおいて、各ジェスチャー動作毎に、1つのジェスチャー語義及び当該ジェスチャー語義に対応する操作指令が対応付けられており、例えば、平行移動のジェスチャーは、画面のスライドによる表示内容の切り替えとして定義されてもよい。
本実施例においては、ジェスチャー採集手段により、ユーザーのジェスチャーに対して、少なくとも2個のビデオストリームデータをリアルタイムに採集し、ジェスチャー識別手段により、少なくとも2個のビデオストリームデータから、完全な手部の情報を有するジェスチャー形状を識別し、ジェスチャー解析手段により、識別されたジェスチャー形状を解析して対応するジェスチャー動作を取得し、ジェスチャー表示手段により、当該ジェスチャー動作を3D画像に変換処理してリアルタイムに3Dシーンに表示することで、3Dシーンにおいてユーザーの忠実なジェスチャーを表示するという目的を達成した。
そして、好ましい実施例では、ジェスチャー操作手段により、当該ジェスチャー動作を処理して、対応するジェスチャー語義を生成して、3Dシーンに当該ジェスチャー語義に対応する操作を行わせることで、ジェスチャーの入力によって3Dシーンをコントロールするという目的を実現した。従来技術に比べ、本技術的解決手段は、キーボード及びマウスを使わずに、仮想現実機器とのインタラクションを実現可能で、且つこのインタラクションは、利用者及び利用環境に過度な制約を与えず、ユーザーの身体にいかなる識別マーク又はセンサーを装着する必要がない。
好ましくは、上述した図1に示す実施例におけるジェスチャー識別手段12は、サンプリングモジュールと、ジェスチャー輪郭抽出モジュールと、ジェスチャー形状識別モジュールと、ジェスチャー形状合成モジュールとを含む。
サンプリングモジュールは、前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得するために用いられる。
ジェスチャー輪郭抽出モジュールは、前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出する。
説明しておきたいのは、本実施例におけるジェスチャー輪郭抽出モジュールは、従来技術によって、ビデオ画像データに手部の情報が含まれているかどうかを判断しても良く、例えば、ビデオ画像に5つの指の特徴形状及び掌の特徴形状などの情報が現れているかどうかを分析することによって、当該ビデオ画像に手部の情報が含まれているかどうかを判断することが可能である。
ジェスチャー形状識別モジュールは、予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別するために用いられる。
例示的に、上述したジェスチャー輪郭抽出モジュールは、ユーザーが初めて本システムを利用するときに、ユーザーの様々のジェスチャー(例えば、手を開く、拳を握るなどのジェスチャー)をジェスチャーモデルデータベースに保存してもよく、このとき、ジェスチャー形状識別モジュールは、ユーザーの忠実なジェスチャーを保存しているジェスチャーモデルデータベースに基づいて、当該ジェスチャー輪郭情報に対応するジェスチャー形状を識別することが可能である。勿論、ジェスチャーモデルデータベースに予め保存しておくのは、手形状の特徴(例えば、5本の指の異なる状態の特徴)であっても良く、手部の輪郭情報における各指の状態の特徴を検出することで、対応するジェスチャー形状を識別する。
ジェスチャー形状合成モジュールは、各ビデオストリームデータに対して毎回サンプリングした後に識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得るために用いられる。
実際の応用において、各ビデオストリームデータ毎にサンプリングされたのは、いずれもユーザーの手部の一部でしかなく、同一時刻で完全な手部が得られないので、本実施例では、ジェスチャー合成モジュールを用いて、各ビデオストリームデータに対して毎回サンプリングした後に識別されたジェスチャー形状を合成処理することによって、情報のより多いジェスチャー形状を取得する。
上述したように、ジェスチャー識別手段は、各ビデオストリームデータにおけるジェスチャー輪郭情報に基づき、対応するジェスチャー形状を識別するとともに、複数個のビデオストリームデータから識別されたジェスチャーを合成して、ユーザーの手部の全ての情報を含むジェスチャー形状を得ることで、3Dシーンに表示されるジェスチャーの忠実性を高めて、ユーザーの利用体験を向上させた。
好ましくは、上述した図1に示す好ましい実施例におけるジェスチャー解析手段は、位置情報取得モジュールと、接点情報取得モジュールと、ジェスチャー動作取得モジュールとを含む。
位置情報取得モジュールは、リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得するために用いられる。
複数のカメラが同一時刻でユーザーのジェスチャーを撮影するときに、各カメラから出射した光がユーザーのジェスチャーと夾角を成すことになり、もしユーザーのジェスチャーが移動したり、変化したりする場合、各カメラから出射した光とユーザーのジェスチャーとの夾角が変化する可能性があり、これらの夾角の変化が、ビデオストリームデータに反映されると、空間位置の変化として表れるので、本技術的解決手段では、この客観的な事実に基づいて、リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得している。
具体的には、本発明は、リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得する2つの手法を模式的に示している。そのうち、ジェスチャー形状の相対的空間位置情報を取得する1つ目の手法としては、
前記ジェスチャー採集手段により採集された前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、ジェスチャー形状変化の角度情報とユーザーのジェスチャーの距離情報を合わせて、ユーザーのジェスチャーの相対的空間位置情報を取得する。
ジェスチャー形状の相対的空間位置情報を取得する2つ目の手法としては、
前記ジェスチャー採集手段により採集された前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングし、ジェスチャー形状変化の角度情報とユーザーのジェスチャーの距離情報を合わせて、ユーザーのジェスチャーの相対的空間位置情報を取得する。
上述した2つの手法は、いずれも、ジェスチャー形状変化の角度情報とジェスチャーのリアルタイム距離情報を合わせることにより、ジェスチャーの相対的空間位置情報を取得する精度を向上させるものである。1つ目の手法では、別途センサーを要せずに、ビデオストリームデータ自体により提供された情報だけでジェスチャーの相対的空間位置情報を取得可能であるが、実現するには、高度なアルゴリズムが必要であり、システムの計算複雑度が高まってしまう。一方、2つ目の手法では、距離センサーによってジェスチャーの距離変化をリアルタイムにセンシングするため、簡単なアルゴリズムで、精度の高い相対的空間位置情報を取得することを実現する。実際の使用にあたって、具体的な設計要求に応じて適切な手法を選択しても良い。
接点情報取得モジュールは、リアルタイムに変化するジェスチャー形状において決められた接点に基づいて、リアルタイムに変化するジェスチャー形状における接点の変化情報を取得するために用いられ、前記接点が手部を識別する特徴的なキーポイントとなる。
説明しておきたいのは、本モジュールにおける接点は、手部を識別する特徴的なキーポイントであり、リアルタイムに変化するジェスチャー形状をより好適に特定するために、当該キーポイントは、手部の各関節点とするのが好ましい。本技術的解決手段は、ジェスチャー形状における接点の数及び設定方式を特に限定しないので、設計の際に、システムの精度とデータ処理能力などの要求を総合的に考慮して具体的に設計を行えばよい。
ジェスチャー動作取得モジュールは、相対的空間位置情報及び接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得するために用いられる。
本技術的解決手段の有益な効果をより詳しく説明するために、1つの仮想ヘッドマウンド機器を例として説明する。
当該仮想ヘッドマウンド機器は、3D仮想現実シーンを表示するための3D表示画面と、上記技術的解決手段に係る3Dシーンでジェスチャーを入力するシステムとを含み、そのうち、3Dシーンでジェスチャーを入力するシステムのジェスチャー採集手段は、仮想現実ヘッドマウンド機器に設けられた前部カメラと底部カメラである。
当該仮想現実ヘッドマウンド機器の作動原理としては、前部カメラと底部カメラにより、ユーザーのジェスチャーをリアルタイムに採集して2個のビデオストリームデータを取得し、2個のビデオストリームデータからジェスチャー形状を識別し、前記ジェスチャー形状を解析することで対応するジェスチャー動作を取得し、当該ジェスチャー動作を3D画像に変換処理してリアルタイムに3D仮想現実シーンに表示するとともに、当該ジェスチャー動作に対応するジェスチャー語義を仮想現実ヘッドマウンド機器のメインプロセッサーに送信して、仮想現実ヘッドマウンド機器をコントロールして前記ジェスチャー語義に対応する操作を行わせる。
ここで、ビデオストリームデータからユーザーのジェスチャー動作を取得し、当該ジェスチャー動作に応じて、仮想現実ヘッドマウンド機器を駆動して対応する操作を行わせる技術的流れは、図2に示すようになる。
ステップS200では、前部カメラと底部カメラにより採集されたビデオストリームデータを取得する。
ステップS201では、現在時刻の2個のビデオストリームデータに対して、それぞれビデオサンプリング処理を行って、対応するビデオ画像を得る。
ステップS202では、ビデオ画像にユーザーのジェスチャーがあるかどうかを判断し、ある場合、ステップS203に移行し、ない場合、次の時刻のビデオストリームデータを取得する。
ステップS203では、ビデオ画像データに対して二値化処理を行い、手部の輪郭情報を抽出する。
ステップS204では、予め設定された静的ジェスチャーモデルに基づき、手部の輪郭情報から現在のジェスチャー形状を識別する。
ステップS205では、2個のビデオストリームデータのサンプリング後に識別されたジェスチャー形状を合成して、より多くの手部の情報を含むジェスチャー形状を取得する。
ステップS206では、ジェスチャーの空間位置の変化情報を取得する。
ステップS207では、ジェスチャー接点の変化情報及びジェスチャー空間位置の変化情報に基づいて、HMM(Hidden Markov Model:隠れマルコフモデル)動的ジェスチャー識別方法を利用して、リアルタイムに変化するジェスチャー形状に対応するジェスチャー動作を取得する。
ステップS208では、ジェスチャー動作に基づいて、予め設定された語義データベースから、対応するジェスチャー語義を取得する。
ステップS209では、仮想現実ヘッドマウンド機器をコントロールして、上記ジェスチャー語義に対応する操作を行わせる。
本実施例では、3Dシーンでジェスチャーを入力するシステムを仮想現実ヘッドマウンド機器に応用して、ユーザー自らの手部の動作を仮想現実ヘッドマウンド機器への入力として用い、ユーザーに自らの手で仮想現実シーンにおける関連操作を行わせることで、ユーザーの体験を向上させ、人と機器とのインタラクションを最適化した。
図3は、本発明の実施例に係る3Dシーンでジェスチャーを入力する方法のフローチャートであり、前記方法は、下記のステップS300〜S303を含み、
ステップS300では、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集する。
ステップS301では、前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別する。
具体的には、
前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得し、
当該ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、当該ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出し、
予め設定されたジェスチャーモデルデータベースから、手部の輪郭情報に対応するジェスチャー形状を識別し、
各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得る。
ステップS302では、リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得する。
具体的には、リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得し、
リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、リアルタイムに変化するジェスチャー形状における接点の変化情報を取得し、
相対的空間位置情報及び接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得する。
ここで、リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することは、
前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得することと、
ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングすることと、
ジェスチャー形状変化の角度情報及びユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得することとを含む。
ステップS303では、ジェスチャー動作を3D画像に変換処理して、リアルタイムに3Dシーンに表示する。
好ましくは、本方法は、
予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得することと、
当該ジェスチャー語義に対応する操作指令を3Dシーンに送信して、3Dシーンに当該ジェスチャー語義に対応する操作を行わせることとをさらに含む。
上述をまとめると、本発明の実施例は、3Dシーンでジェスチャーを入力するシステム及び方法を開示しており、前記システムにおいては、ジェスチャー採集手段により、ユーザーのジェスチャーに対して、少なくとも2個のビデオストリームデータをリアルタイムに採集し、ジェスチャー識別手段により、少なくとも2個のビデオストリームデータから、完全な手部の情報を有するジェスチャー形状を識別し、ジェスチャー解析手段により、当該ジェスチャー形状を解析して対応するジェスチャー動作を取得し、ジェスチャー表示手段により、当該ジェスチャー動作を3D画像に変換処理してリアルタイムに3Dシーンに表示することで、3Dシーンにおいてユーザーのジェスチャーを忠実に表示するという目的を達成した。そして、本発明の好ましい技術的解決手段は、さらに、ジェスチャー操作手段により、ジェスチャー動作を処理し、対応するジェスチャー語義を生成して、当該ジェスチャー語義の通りに、対応する操作を3Dシーンに行わせることで、ジェスチャーの入力によって3Dシーンをコントロールするという目的を実現した。従来技術に比べ、本技術的解決手段は、キーボード及びマウスを使わずに、仮想機器とのインタラクションを実現可能で、且つこのインタラクションは、利用者及び利用環境に過度な制約を与えず、即ち、ユーザーの身体にいかなる識別マーク又はセンサーを装着する必要がなく、ユーザーの忠実なジェスチャーによって、ユーザーと3Dシーンとの間のインタラクションを実現し、ユーザーの利用体験を向上させた。
上記したのは、あくまでも本発明の好ましい実施例であり、本発明の保護範囲を限定するものではない。本発明の精神及び原則内になされたいかなる補正、均等的置換、改善等は、いずれも本発明の保護範囲内に含まれる。

Claims (10)

  1. 3Dシーンでジェスチャーを入力するシステムであって、ジェスチャー採集手段と、ジェスチャー識別手段と、ジェスチャー解析手段と、ジェスチャー表示手段とを含み、
    前記ジェスチャー採集手段は、ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するために用いられ、
    前記ジェスチャー識別手段は、前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するために用いられ、
    前記ジェスチャー解析手段は、前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するために用いられ、
    前記ジェスチャー表示手段は、前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するために用いられることを特徴とするシステム。
  2. ジェスチャー操作手段をさらに含み、
    前記ジェスチャー操作手段は、予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得し、前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせるために用いられることを特徴とする請求項1に記載のシステム。
  3. 前記ジェスチャー識別手段は、
    前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得するためのサンプリングモジュールと、
    前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出するためのジェスチャー輪郭抽出モジュールと、
    予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別するためのジェスチャー形状識別モジュールと、
    各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得るためのジェスチャー形状合成モジュールと
    を含むことを特徴とする請求項1に記載のシステム。
  4. 前記ジェスチャー解析手段は、
    リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得するための位置情報取得モジュールと、
    リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得するための接点情報取得モジュールと、
    前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得するためのジェスチャー動作取得モジュールと
    を含むことを特徴とする請求項1に記載のシステム。
  5. 前記位置情報取得モジュールは、
    前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得し、
    前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングし、
    前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得するために用いられることを特徴とする請求項4に記載のシステム。
  6. 3Dシーンでジェスチャーを入力する方法であって、
    ユーザーのジェスチャーに対して、異なる角度から、同時に少なくとも2個のビデオストリームデータをリアルタイムに採集するステップと、
    前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別するステップと、
    前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得するステップと、
    前記ジェスチャー動作を3D画像に変換処理して、リアルタイムに前記3Dシーンに表示するステップと
    を含むことを特徴とする方法。
  7. 予め設定された語義データベースから、前記ジェスチャー動作のジェスチャー語義及び当該ジェスチャー語義に対応する操作指令を取得することと、
    前記ジェスチャー語義に対応する操作指令を前記3Dシーンに送信して、前記3Dシーンに前記ジェスチャー語義に対応する操作を行わせることと
    をさらに含むことを特徴とする請求項6に記載の方法。
  8. 前記少なくとも2個のビデオストリームデータから、リアルタイムに変化するジェスチャー形状を識別する前記ステップは、
    前記少なくとも2個のビデオストリームデータの各々に対して、それぞれサンプリング処理を行い、毎回サンプリングしたビデオ画像データを取得することと、
    前記ビデオ画像データに手部の情報が含まれているかどうかを判断し、手部の情報が含まれている場合、前記ビデオ画像データに対して二値化処理を行って、手部の輪郭情報を抽出することと、
    予め設定されたジェスチャーモデルデータベースから、前記手部の輪郭情報に対応するジェスチャー形状を識別することと、
    各ビデオストリームデータに対して毎回サンプリングして識別されたジェスチャー形状を合成して、リアルタイムに変化するジェスチャー形状を得ることと
    を含むことを特徴とする請求項6に記載の方法。
  9. 前記リアルタイムに変化するジェスチャー形状を解析して、対応するジェスチャー動作を取得する前記ステップは、
    リアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することと、
    リアルタイムに変化するジェスチャー形状において決められ、手部を識別する特徴的なキーポイントとなる接点に基づいて、前記リアルタイムに変化するジェスチャー形状における接点の変化情報を取得することと、
    前記相対的空間位置情報及び前記接点の変化情報に基づき、予め設定された動作データベースから、対応するジェスチャー動作を取得することと
    を含むことを特徴とする請求項6に記載の方法。
  10. 前記のリアルタイムに変化するジェスチャー形状の相対的空間位置情報を取得することは、
    前記少なくとも2個のビデオストリームデータのビデオ画像情報から、ジェスチャー形状変化の角度情報を取得することと、
    前記ジェスチャー形状変化の角度情報に基づいてユーザーのジェスチャーの距離情報を取得し、或いは距離センサーによってユーザーのジェスチャーの距離情報をリアルタイムにセンシングすることと、
    前記ジェスチャー形状変化の角度情報及び前記ユーザーのジェスチャーの距離情報に基づき、ユーザーのジェスチャーの相対的空間位置情報を取得することと
    を含むことを特徴とする請求項9に記載の方法。
JP2017509021A 2014-12-30 2015-09-24 3dシーンでジェスチャーを入力するシステム及び方法 Active JP6259545B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410842158.3 2014-12-30
CN201410842158.3A CN104571510B (zh) 2014-12-30 2014-12-30 一种3d场景中输入手势的系统和方法
PCT/CN2015/090531 WO2016107231A1 (zh) 2014-12-30 2015-09-24 一种3d场景中输入手势的系统和方法

Publications (2)

Publication Number Publication Date
JP2017530447A true JP2017530447A (ja) 2017-10-12
JP6259545B2 JP6259545B2 (ja) 2018-01-10

Family

ID=53087788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017509021A Active JP6259545B2 (ja) 2014-12-30 2015-09-24 3dシーンでジェスチャーを入力するシステム及び方法

Country Status (4)

Country Link
US (1) US10466798B2 (ja)
JP (1) JP6259545B2 (ja)
CN (1) CN104571510B (ja)
WO (1) WO2016107231A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10482670B2 (en) 2014-12-30 2019-11-19 Qingdao Goertek Technology Co., Ltd. Method for reproducing object in 3D scene and virtual reality head-mounted device
CN104571510B (zh) 2014-12-30 2018-05-04 青岛歌尔声学科技有限公司 一种3d场景中输入手势的系统和方法
CN106650554A (zh) * 2015-10-30 2017-05-10 成都理想境界科技有限公司 静态手势识别方法
CN105353873B (zh) * 2015-11-02 2019-03-15 深圳奥比中光科技有限公司 基于三维显示的手势操控方法和系统
CN105892636A (zh) * 2015-11-20 2016-08-24 乐视致新电子科技(天津)有限公司 一种应用于头戴设备的控制方法及头戴设备
CN105739703A (zh) * 2016-02-02 2016-07-06 北方工业大学 面向无线头戴显示设备的虚拟现实体感交互系统及方法
CN106250903A (zh) * 2016-04-15 2016-12-21 广东工业大学 有限的用户自定义手势语义的手势知识库创建方法
CN106383586A (zh) * 2016-10-21 2017-02-08 东南大学 一种孤独症谱系障碍儿童训练系统
CN109358748B (zh) * 2018-09-30 2019-09-10 深圳仓谷创新软件有限公司 一种用手与手机ar虚拟物体交互的设备和方法
CN109656369A (zh) * 2018-12-27 2019-04-19 张家港康得新光电材料有限公司 一种数值显示方法、装置以及3d显示终端
CN109683765A (zh) * 2018-12-27 2019-04-26 张家港康得新光电材料有限公司 一种资源分配方法、装置以及3d显示终端
CN110602516A (zh) * 2019-09-16 2019-12-20 腾讯科技(深圳)有限公司 基于视频直播的信息交互方法、装置及电子设备
CN116560509A (zh) * 2023-05-17 2023-08-08 山东格物智能科技有限公司 一种基于视觉核心算法的人机交互系统及方法
CN116719416B (zh) * 2023-08-07 2023-12-15 海马云(天津)信息技术有限公司 虚拟数字人的手势动作修正方法和装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137989A (ja) * 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
JP2013164658A (ja) * 2012-02-09 2013-08-22 Ricoh Co Ltd 画像表示装置
JP2014524070A (ja) * 2011-06-06 2014-09-18 マイクロソフト コーポレーション 指認識および追跡システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1304931C (zh) * 2005-01-27 2007-03-14 北京理工大学 一种头戴式立体视觉手势识别装置
CN100407798C (zh) 2005-07-29 2008-07-30 北京大学 三维几何建模系统和方法
CN102681651B (zh) * 2011-03-07 2016-03-23 刘广松 一种用户交互系统和方法
US20120229509A1 (en) 2011-03-07 2012-09-13 Liu Guangsong System and method for user interaction
CN102156859B (zh) * 2011-04-21 2012-10-03 刘津甦 手部姿态与空间位置的感知方法
CN102184021B (zh) * 2011-05-27 2013-06-12 华南理工大学 一种基于手写输入和指尖鼠标的电视人机交互方法
CN102722249B (zh) * 2012-06-05 2016-03-30 上海鼎为电子科技(集团)有限公司 操控方法、操控装置及电子装置
US9684372B2 (en) * 2012-11-07 2017-06-20 Samsung Electronics Co., Ltd. System and method for human computer interaction
US20150029092A1 (en) * 2013-07-23 2015-01-29 Leap Motion, Inc. Systems and methods of interpreting complex gestures
CN103914152B (zh) * 2014-04-11 2017-06-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与系统
CN103927016B (zh) * 2014-04-24 2017-01-11 西北工业大学 一种基于双目视觉的实时三维双手手势识别方法及其系统
CN104050859A (zh) * 2014-05-08 2014-09-17 南京大学 可交互数字化立体沙盘系统
US20150379770A1 (en) * 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
CN204463032U (zh) * 2014-12-30 2015-07-08 青岛歌尔声学科技有限公司 一种3d场景中输入手势的系统和虚拟现实头戴设备
CN104571510B (zh) 2014-12-30 2018-05-04 青岛歌尔声学科技有限公司 一种3d场景中输入手势的系统和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137989A (ja) * 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
JP2014524070A (ja) * 2011-06-06 2014-09-18 マイクロソフト コーポレーション 指認識および追跡システム
JP2013164658A (ja) * 2012-02-09 2013-08-22 Ricoh Co Ltd 画像表示装置

Also Published As

Publication number Publication date
CN104571510A (zh) 2015-04-29
JP6259545B2 (ja) 2018-01-10
CN104571510B (zh) 2018-05-04
WO2016107231A1 (zh) 2016-07-07
US10466798B2 (en) 2019-11-05
US20170192519A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6259545B2 (ja) 3dシーンでジェスチャーを入力するシステム及び方法
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
US9342230B2 (en) Natural user interface scrolling and targeting
WO2017118075A1 (zh) 人机交互系统、方法及装置
US9310895B2 (en) Touchless input
CN204463032U (zh) 一种3d场景中输入手势的系统和虚拟现实头戴设备
US10007351B2 (en) Three-dimensional user interface device and three-dimensional operation processing method
TWI540461B (zh) 手勢輸入的方法及系統
US20130010071A1 (en) Methods and systems for mapping pointing device on depth map
JP4323180B2 (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
US20120306734A1 (en) Gesture Recognition Techniques
US20130249786A1 (en) Gesture-based control system
CN104571511B (zh) 一种3d场景中重现物体的系统和方法
KR20120068253A (ko) 사용자 인터페이스의 반응 제공 방법 및 장치
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
KR20150094680A (ko) 타겟팅 및 누르기 내추럴 사용자 입력
JP2004265222A (ja) インタフェース方法、装置、およびプログラム
US20200326783A1 (en) Head mounted display device and operating method thereof
KR101169583B1 (ko) 가상마우스 구동방법
WO2018006481A1 (zh) 一种移动终端的体感操作方法及装置
KR20100048747A (ko) 안면 추적을 이용한 모바일 유저 인터페이스 장치
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
US20130187890A1 (en) User interface apparatus and method for 3d space-touch using multiple imaging sensors
KR20120047746A (ko) 가상마우스 구동방법
KR101558094B1 (ko) 직관적인 핸드 모션에 기반한 멀티-모달 시스템 및 그 제어 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170328

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170328

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171208

R150 Certificate of patent or registration of utility model

Ref document number: 6259545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250