JPWO2017204120A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JPWO2017204120A1 JPWO2017204120A1 JP2018519253A JP2018519253A JPWO2017204120A1 JP WO2017204120 A1 JPWO2017204120 A1 JP WO2017204120A1 JP 2018519253 A JP2018519253 A JP 2018519253A JP 2018519253 A JP2018519253 A JP 2018519253A JP WO2017204120 A1 JPWO2017204120 A1 JP WO2017204120A1
- Authority
- JP
- Japan
- Prior art keywords
- finger
- contact
- image processing
- parameter
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000003993 interaction Effects 0.000 claims abstract description 43
- 230000005057 finger movement Effects 0.000 claims abstract description 8
- 238000001514 detection method Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 abstract description 19
- 210000003811 finger Anatomy 0.000 description 241
- 238000000034 method Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 239000002775 capsule Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 230000001846 repelling effect Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Processing Or Creating Images (AREA)
Abstract
ユーザが仮想現実空間の物体を直観的に操作することを可能にしつつ、その操作を実現するために必要な計算量を抑える。画像処理装置は、手の指の動きを取得し、仮想空間における、前記指と物体との接触を検出し、仮想空間内において前記物体に接触する指の数を検出し、前記検出された指の数に基づいて、前記指と前記物体との間の相互作用を求めるための相互作用パラメータを決定し、前記決定された相互作用パラメータに基づいて、前記物体の動きを計算し、前記動きが計算された物体を描画する。
Description
本発明は画像処理装置、画像処理方法およびプログラムに関する。
近年、モーションキャプチャ(例えばデータグローブ)やヘッドマウントディスプレイなどを用いて仮想現実を体験させる技術の開発が盛んにおこなわれている。さらに、モーションキャプチャにより手の指の動きを取得し、その取得された指の動きに応じて、仮想現実空間内の物体を操作する技術がある。
非特許文献1には、有限要素法を用いて指の変形をシミュレートし、変形した指と物体との大量の衝突点を単一の代表拘束に集約することで、接触面の摩擦をシミュレートすることが開示されている。非特許文献2には、手のいわゆるGod-objectの位置を求めることが開示されている。
Anthony Talvas, Maud Marchal, Christian Duriez and Miguel A. Otaduy, "Aggregate Constraints for Virtual Manipulation with Soft Fingers", March 27th, 2015
C. B. Zilles and J. K. Salisbury, "A constraint-based god-object method for haptic display", Intelligent Robots and Systems 95. 'Human Robot Interaction and Cooperative Robots', Proceedings. 1995 IEEE/RSJ International Conference on, August 1995
例えば非特許文献1に記載されるように、指から物体にかかる力を正確にシミュレートしようとすると、計算量が非常に大きくなってしまう。そこで、シミュレーションの計算をより簡略化することが望ましいが、ユーザが物体を直観的に操作することを害しないようにする必要があった。
本発明は上記課題を鑑みてなされたものであり、その目的は、ユーザが仮想現実空間の物体を直観的に操作することを可能にしつつ、その操作を実現するために必要な計算量を抑えることができる技術を提供することにある。
上記課題を解決するために、本発明にかかる画像処理装置は、手の指の動きを取得する取得手段と、仮想空間における、前記指と物体との接触を検出する接触検出手段と、仮想空間内において前記物体に接触する指の数を検出し、前記検出された指の数に基づいて、前記指と前記物体との間の相互作用を求めるための相互作用パラメータを決定するパラメータ決定手段と、前記決定された相互作用パラメータに基づいて、前記物体の動きを計算する計算手段と、前記動きが計算された物体を描画する描画手段と、を含む。
また、本発明にかかる画像処理方法は、手の指の動きを取得するステップと、仮想空間における、前記指と物体との接触を検出するステップと、仮想空間内において前記物体に接触する指の数を検出し、前記検出された指の数に基づいて、前記指と前記物体との間の相互作用を求めるための相互作用パラメータを決定するステップと、前記決定された相互作用パラメータに基づいて、前記物体の動きを計算するステップと、前記動きが計算された物体を描画するステップと、を含む。
また、本発明にかかるプログラムは、手の指の動きを取得し、仮想空間における、前記指と物体との接触を検出し、仮想空間内において前記物体に接触する指の数を検出し、前記検出された指の数に基づいて、前記指と前記物体との間の相互作用を求めるための相互作用パラメータを決定し、前記決定された相互作用パラメータに基づいて、前記物体の動きを計算し、前記動きが計算された物体を描画する、処理をコンピュータに実行させる。
本発明によれば、ユーザが仮想現実空間の物体を直観的に操作することを可能にしつつ、その操作を実現するために必要な計算量を抑えることができる。
本発明の一形態では、前記パラメータ決定手段は、前記指と物体との重なりの大きさにさらに基づいて前記相互作用パラメータを決定してもよい。
本発明の一形態では、前記指と前記物体との間にかかる力を求めるための相互作用パラメータは摩擦にかかる摩擦パラメータを含み、前記パラメータ決定手段は、前記指の数に応じて定まる摩擦係数と、前記指と物体との重なりの大きさと、に基づいて前記摩擦パラメータを算出し、前記計算手段は、前記摩擦パラメータに基づいて、前記物体の動きを計算してもよい。
本発明の一形態では、前記パラメータ決定手段は、前記指が属する手と前記物体との間を拘束する拘束条件であって前記相互作用パラメータに応じた拘束条件を決定し、前記計算手段は、前記拘束条件を満たすように前記物体の動きを算出してもよい。
本発明の一形態では、前記接触検出手段は、前記指と前記物体との接触が検出されてからの前記指の移動量が所定の閾値を超え、かつ、前記指と前記物体とが重なりを有する場合に、前記指と前記物体との接触を検出しなくてもよい。
本発明の一形態では、前記接触検出手段は、前記指が前記物体との接触がはじめて検出されたときの実際の指の角度と、現在の実際の前記指の角度とに基づいて、接触の検出に用いる指の角度を決定し、前記決定された指の角度に基づいて前記指と前記物体との接触を検出してもよい。
本発明の一形態では、前記パラメータ決定手段は、前記検出された指の数が3以上である場合に、前記物体と前記指が属する手との相対位置を固定する拘束条件を決定し、前記計算手段は、前記拘束条件を満たすように前記物体の動きを計算してもよい。
本発明の一形態では、前記パラメータ決定手段は、直前のフレームにおいて前記物体と前記指が属する手との相対位置を固定する拘束条件を満たすように前記物体の動きが計算され、かつ、現在のフレームにおいて前記物体と前記指のいずれかが接触する場合に、前記物体と前記指が属する手との相対位置を固定する拘束条件を決定してもよい。
以下では、本発明の実施形態について図面に基づいて説明する。出現する構成要素のうち同一機能を有するものには同じ符号を付し、その説明を省略する。
本実施形態では、実際のユーザの手および指の位置や角度に応じて仮想空間内の手や指を動かし、さらにその仮想空間内の手や指によって仮想空間内の物体を触れる、動かすなどが可能な画像処理装置1について説明する。
図1は、本発明の実施形態にかかる画像処理装置1のハードウェア構成の一例を示す図である。画像処理装置1は、パーソナルコンピュータや家庭用ゲーム機、またはモバイル端末である。画像処理装置1は、プロセッサ11、記憶部12、通信部13、入力部14、表示制御部15を含む。また画像処理装置1はモーションキャプチャ16に接続されている。
プロセッサ11は、記憶部12に格納されているプログラムに従って動作し、通信部13や入力部14、表示制御部15等を制御する。なお、上記プログラムは、フラッシュメモリ等のコンピュータで読み取り可能な記憶媒体に格納されて提供されるものであってもよいし、インターネット等のネットワークを介して提供されるものであってもよい。
記憶部12は、DRAMやフラッシュメモリ等のメモリ素子によって構成されている。記憶部12は、上記プログラムを格納する。また、記憶部12は、プロセッサ11や通信部13等から入力される情報や演算結果を格納する。なお、記憶部12は、さらにハードディスクといった記憶装置によっても構成されてよい。
通信部13は有線LANや無線LANを構成する集積回路やコネクタ、アンテナなどにより構成されている。通信部13は、ネットワークを介して他の装置と通信する機能を有する。通信部13は、プロセッサ11の制御に基づいて、他の装置から受信した情報をプロセッサ11や記憶部12に入力し、他の装置に情報を送信する。
入力部14は、ユーザの操作を検出するハードウェアからの入力を取得する回路である。入力部14は、モーションキャプチャ16と、キーボードやコントローラ等の入力デバイスとから入力信号を取得し、その入力信号が変換された情報をプロセッサ11や記憶部12に入力する。
表示制御部15はヘッドマウントディスプレイ等の表示出力デバイスを制御する回路を含んでいる。表示制御部15は、プロセッサ11の制御に基づいて、表示出力デバイスに画像を表示させる。
モーションキャプチャ16は手の位置、手の向き、および指の角度を測定する機器である。モーションキャプチャ16は、例えば、いわゆるデータグローブや3次元位置を測定することが可能なカメラである。本実施形態では画像処理装置1に接続されているが、画像処理装置1に内蔵されていてもよい。
次に、本実施形態による操作の概要について説明する。図2は、実空間において動作が取得される手21の一例を示す図である。また、図3は、仮想空間における手31の一例を示す図である。本実施形態にかかる画像処理装置1は、ユーザの手21の位置および向きや、その手21に含まれる人差し指22、中指23、親指24の3本の指の向きや曲がる角度を取得する。画像処理装置1は、さらにその手21の位置及び向き、3本の指の向きや曲がる角度に基づいて仮想空間内の手31や第1の指32、第2の指33、第3の指34を動かす。ここで、指が曲がる角度は、指の関節のそれぞれに接続される2つの部分がなす角度であってもよいし、指の第2関節と指先とを結ぶ線に対して、指の第2関節と第3関節とを結ぶ線がなす角のように、指の一部の関節で接続される2つの部分が一体的に動くとみなして測定された角度であってもよい。
第1の指32は人差し指22に対応し、第2の指33は中指23に対応し、第3の指34は親指24に対応する。第1の指32の関節が曲がる角度は、人差し指22の各関節が曲がる角度に応じて定まっている。第2の指33および第3の指34も同様である。図3の例では仮想空間内にあるオブジェクト36は直方体であり、第1の指32、第2の指33、第3の指34により掴まれている。
図4は、オブジェクト36と手31との接触モードを説明する図である。本実施形態にかかる画像処理装置1は、接触モードに応じて手31および指とオブジェクト36との間の相互作用にかかるパラメータを変更することにより、ユーザの意図にあわせた直観的な操作を可能にしている。接触モードは3種類あり、オブジェクト36に接する指の数が1本のみであるTouchモードと、その指の数が2本であるFricモードと、その指の数が3本以上であるFixモードとからなる。Touchモードはユーザがオブジェクト36に触ろうとしている状態に相当し、Fricモードはユーザがオブジェクト36を挟む状態に相当する。そして、Fixモードは、ユーザがオブジェクト36をつかむ状態に相当する。TouchモードとFricモードとでは、オブジェクト36には、オブジェクト36と指との接触点Pから力がかけられる。またTouchモードとFricモードとで互いに異なる相互作用パラメータが設定される。相互作用パラメータの詳細は後述する。一方、Fixモードではオブジェクト36はユーザの手31に固定される。より具体的には、Fixモードでは画像処理装置1は、オブジェクト36の固定点Jとユーザの手31との相対速度が0になるように仮想空間内のオブジェクト36および手31を動かす。
図5は、仮想空間における第1の指32の位置と、接触指42の位置との関係の一例を示す図である。本実施形態にかかる画像処理装置1では、第1の指32が仮想空間内でオブジェクト36に重なることを許容している。ここでいう第1の指32の位置や向きは、モーションキャプチャ16により取得される実空間の指の位置や向きが仮想空間に変換されたものである。また接触指42は、第1の指32の位置をオブジェクト36の表面に接するように移動させたものであり、接触指42とオブジェクト36との接触点Pが第1の指32とオブジェクト36との相互作用の計算に用いられる。なお、本実施形態の説明に用いられる図では、説明の容易のために接触指42を第1の指32等と記載する場合がある。
また、第1の指32とオブジェクト36との重なりの大きさが相互作用の算出(例えば第1の指32とオブジェクト36との間の摩擦力の算出)に用いられる。重なりの度合いは、例えば、第1の指32における接触点PRのオブジェクト36の表面からの深さDであってもよい。ここで、接触点PRは第1の指32の表面にあり、かつ、接触指42を基準とした接触点Pの相対位置と、第1の指32を基準とした接触点PRの相対位置は同じである。この処理の詳細については後述する。なお、第2の指33や第3の指34についても第1の指32と同様である。
以下では画像処理装置1が実現する機能および処理をより詳細に説明する。図6は、画像処理装置1が実現する機能を示すブロック図である。画像処理装置1は機能的に、実動作取得部51、接触検出部52、パラメータ決定部53、物理計算部54、画像描画部55を含む。実動作取得部51は、主に、プロセッサ11が記憶部12に記憶されるプログラムを実行し、入力部14を介してモーションキャプチャ16からの情報を取得し、その情報を処理し、処理結果を記憶部12に格納することにより実現される。接触検出部52、パラメータ決定部53、物理計算部54は、主に、プロセッサ11が記憶部12に記憶されるプログラムを実行し、記憶部12等に格納された情報を処理し、処理結果を記憶部12に格納することにより実現される。画像描画部55は、主に、プロセッサ11が記憶部12に記憶されるプログラムを実行し、記憶部12等に格納された情報を処理し、表示出力デバイスが画像を表示するよう表示制御部15を制御することにより実現される。
実動作取得部51は、モーションキャプチャ16からの信号に基づいて、手21の動きを取得し、手21の動きの情報を記憶部12に格納する。手21の動きには、その手21の指の動きも含まれる。なお、実動作取得部51は、手21の動きとして、実在する手21の指そのものと異なるものの動きを取得してもよく、例えばコントローラによる手の位置や指の曲げ伸ばしの指示を取得してもよい。
接触検出部52は、実動作取得部51により取得された手21の動きに基づいて、仮想空間における、指とオブジェクト36との接触を検出する。なお、接触検出部52は、指とオブジェクト36との接触が検出されてからの指の移動量が所定の閾値を超えた場合には、指とオブジェクト36とが重なっても指とオブジェクト36とが接触していないものとして扱い、接触を検出しない。
パラメータ決定部53は、検出された接触に基づいて仮想空間内においてオブジェクト36に接触する指の数を検出し、その検出された指の数に基づいて指とオブジェクト36との間の相互作用を求めるための相互作用パラメータを決定する。また、パラメータ決定部53は、指とオブジェクト36との重なりの大きさにさらに基づいて相互作用パラメータを決定する。また、相互作用パラメータは摩擦にかかる摩擦パラメータを含み、摩擦パラメータは、指の数に応じて定まる摩擦係数と、指とオブジェクト36との重なりの大きさとに基づいて算出される。また、パラメータ決定部53は、指が属する手31とオブジェクト36との間を拘束する拘束条件であって相互作用パラメータに応じた拘束条件を決定する。
物理計算部54は、決定された相互作用パラメータや拘束条件に基づいて、オブジェクト36の動きを計算する。物理計算部54は、オブジェクト36の動きを、物理法則をシミュレートする手順に従って計算する。
画像描画部55は、計算されたオブジェクト36の動きに基づいて、オブジェクト36の3次元画像を描画する。
図7は、画像処理装置1が実行する処理の一例を示すフロー図である。図7に示す処理は、フレーム(そのフレームの期間が経過する)ごとに繰り返し実行される。以下では処理のフローとともに各機能の処理の詳細について説明する。はじめに、実動作取得部51は、プロセッサ11の動作により、モーションキャプチャ16がキャプチャした実空間の手21の位置、手21の向き、指の角度などを入力部14を介して取得し、手21の位置、手21の向き、指の角度などの情報を記憶部12に格納する(ステップS101)。
次に、接触検出部52は、仮想空間内において接触判定に用いる(判定用の)複数の指の位置を決定する(ステップS102)。判定用の複数の指の位置は、例えば実空間における手21の指の位置が座標変換されることにより生成される、仮想空間の座標系における指の位置である。図8は、実空間に相当する指の角度と、接触判定に用いる指の角度との関係の一例を示す図である。接触検出部52は、前回のフレームにおいて指(例えば第1の指32)とオブジェクト36との接触が検出されている場合には、指の角度がその接触がはじめて検出されたフレームにおける角度(以下では「ロック角度」という)より大きくならないように指の角度を設定する。図8の例では、取得された第1の指322の角度が、その接触がはじめて検出されたフレームにおける第1の指321のロック角度以上であれば、接触の判定に用いる指の角度はロック角度となる。また、取得された第1の指323の角度がロック角度以下であれば、接触の判定に用いる指の角度は取得された指の角度になる。なお、このロック角度を用いた処理は行われなくてもよいが、この処理により、ユーザがより快適にオブジェクト36を操作することが可能になる。
また、接触検出部52は、接触判定に用いる複数の指の位置に基づいて、仮想空間内の複数の指とオブジェクト36との接触を検出する(ステップS103)。図9は、接触検出部52の処理を示すフロー図である。図9は、特にステップS103の処理の詳細を示すフローである。
ステップS103の処理において、接触検出部52は、はじめに、新たな1つの指を接触判定の対象の指とする(ステップS301)。そして、接触検出部52は、判定用の手の位置、向き、指の角度に基づいて、仮想空間内の接触判定領域37を生成する(ステップS302)。
図10は接触判定領域37の一例を示す図である。図10には、第1の指32について生成される接触判定領域37が示されている。接触判定領域37は、第1の指32などの指のうち指先に近い部分の外側に生成されるものであり、図10の例では、接触判定領域37は指先に相当するカプセルの表面よりオブジェクト36の側にあり、指先に相当するカプセルに対して一定の間隔を有する。以下では、接触判定領域37とオブジェクト36との接触が検出されることを、第1の指32、第2の指33、第3の指34といった指とオブジェクト36とが重なるとも表現する。
次に、接触検出部52は、生成された接触判定領域37と複数のオブジェクト36のいずれかとの接触を検出する(ステップS303)。接触判定領域37といずれかのオブジェクト36との接触が検出された場合には(ステップS303のY)、ステップS304以降の処理を行い、接触が検出されなかった場合には(ステップS303のN)、ステップS304以降の処理をスキップし、ステップS309の処理に遷移する。
ステップS304からステップS308にかかる処理では、接触判定の対象の指とそのオブジェクト36との過去の接触の状況に基づいて、今回の接触を有効とするか否かを判定している。ステップS304では、接触検出部52は前回のフレームにおけるその指と、接触が検出されたオブジェクト36との接触判定の結果(後述の前回の接触データと同じであってよい)を取得する。
そして、前回のフレームにおいてその指とそのオブジェクト36との接触が検出されている場合には(ステップS305のY)、指の表面にある第1接触点P1と、はじめに接触した際の第2接触点P2との距離L1が閾値以下であるかを判定する(ステップS306)。指を基準とした第1接触点P1の相対位置は、指とそのオブジェクト36との接触がはじめて検出されたタイミングにおける接触指42とオブジェクト36との第2接触点P2の相対位置と同じである。ここで、この距離L1は指とオブジェクト36との接触が検出されてからの指の移動量に相当する。なお、第2接触点P2として、オブジェクト36側の接触点を用いてもよい。この場合、オブジェクト36を基準とした第2接触点P2の相対位置は、指とそのオブジェクト36との接触がはじめて検出されたタイミングにおける接触指42とオブジェクト36との接触点Pの相対位置と同じである。
図11は、第1接触点P1と第2接触点P2との距離L1の計算を説明する図である。例えば第1の指32がオブジェクト36とはじめて接した際には、第1接触点P1と第2接触点P2とはほぼ同じ位置にある。一方、いくつかのフレームの処理が経過した後には、第1の指32の位置等の変化により、第1接触点P1と第2接触点P2とが離れる場合がある。接触検出部52は、この第1接触点P1と第2接触点P2との距離L1を算出する。なお、図11の例では、第1の指32がオブジェクト36から離れているが、この例では接触判定領域37とオブジェクト36との接触が検出されている。また、第1の指32とオブジェクト36とが重なっていても、距離L1の検出は同じ方法で行われてよい。
図12は、接触点Pの算出方法を説明する図である。図11の例では、判定用の指326からオブジェクト36の表面を構成する面SAに接触する接触指42を求め、その接触指42とオブジェクト36の表面との接触点Pを求める例を示している。接触検出部52は、接触点Pの算出において、オブジェクト36を構成する面のうち、接触指42を求めるために用いる1または複数の面SAを決定する。この面SAは、オブジェクト36と接触判定領域37との接触を検出する際に用いられる面と同じであるので決定の詳細については省略する。次に、接触検出部52は、接触指42がその決定された面の上に存在し、さらに接触指42と判定用の指326との距離L2が最小になる条件を満たすように、接触指42の位置を算出する。この算出方法は、いわゆるGod Objectを実空間の指の位置が変換された指の位置から求める方法と同様のものである。
そして、第1接触点P1と第2接触点P2との距離L1が判定閾値以下の場合には(ステップS306のY)、接触検出部52は接触が有効であると決定し、今回のフレームにおける接触データとして、前回の接触データを設定する(ステップS307)。一方、第1接触点P1と第2接触点P2との距離L1が判定閾値より大きい場合には(ステップS306のN)、接触が無効であると判定し、ステップS309の処理へ遷移する。
また、ステップS305において、前回のフレームにおいてその指とそのオブジェクト36との接触が検出されていない場合には、接触検出部52は接触を有効と判断し、ステップS306、S307の処理をスキップし、ステップS308の処理へ遷移する。
ステップS308においては、接触検出部52は対象の指といずれかのオブジェクト36との接触が有効であることを示す接触データであって今回のフレームにおける接触データをメモリに保存する。接触データは指ごとに存在し、1つの接触データは、指を識別する指ID、接触の有無、接触するオブジェクト36の物体ID、接触点Pの座標、接触点Pにおけるオブジェクト36の表面の法線を含む。なおステップS306,S307の処理により、指が同じオブジェクト36に接触し続けている場合には、接触データには、その指とオブジェクト36とがはじめに接触した時点の情報が格納される。
ステップS308等の処理により、ユーザの指の動きにぶれがあることに起因して接触点Pが変化するためにオブジェクト36の動きが不安定になる現象を防ぐことができる。また、ステップS306により指のぶれでない移動の場合に接触点Pが変化せずにオブジェクト36の動きが不自然になることを防ぐこともできる。
そして、ステップS309においては、すべての指を接触判定の処理の対象としたかを判定し(ステップS309)、すべての指を接触判定の対象として処理をしていない場合には(ステップS309のN)、ステップS301の処理へ戻り、すべての指を接触判定の対象として処理をした場合には(ステップS309のY)、ステップS103の処理を終了する。
仮想空間内の複数の指とオブジェクト36との接触が判定されると、パラメータ決定部53は、過去の接触と現在の接触との少なくとも一方に基づいて、指と物体との間の相互作用に関するパラメータを決定する(ステップS104)。この相互作用に関するパラメータは、指とオブジェクト36との間の摩擦力や、指とオブジェクト36との間の拘束条件の種類を含む。以下ではステップS104の処理についてさらに詳細に説明する。
図13は、パラメータ決定部53の処理を示すフロー図である。図13に示される処理は、前回のフレームにおいて手31の指とオブジェクト36との関係がFixモードであり、かつ、接触検出部52が3本以上の指とオブジェクト36との接触を検出していない場合にも、予め定められた条件を満たすことを条件にFixモードを維持させる処理である。この予め定められた条件は、ユーザがオブジェクト36を掴み続ける意思を持っていると推定される条件であり、詳細は後述する。
はじめに、パラメータ決定部53は、前回のフレームにおける手または指とオブジェクト36との接触モードを取得し、指と接触しかつその接触モードがFixモードであるオブジェクト36が存在するかを判定する(ステップS401)。接触モードがFixモードではない場合は(ステップS401のN)、図13に示される以降の処理はスキップされる。
接触モードがFixモードではない場合には(ステップS401のY)、パラメータ決定部53は前回のフレームにおいてそのオブジェクト36に接触している指を取得する(ステップS402)。その取得された指のうち、今回のフレームの接触検出部52の処理の結果において、そのオブジェクト36と有効に接触している指があり(ステップS403のY)、かつ取得された指のうちそのオブジェクト36と有効に接触しない指がある(ステップS404のY)場合には、パラメータ決定部53はその有効に接触していない指とオブジェクト36との接触が有効であると判定する。有効であると判定されると、パラメータ決定部53は前回のフレームにおけるその指の接触データを、今回のフレームにおけるその指の接触データとして設定する(ステップS405)。なお、取得された指のうちそのオブジェクト36と有効に接触しない指がない場合(ステップS404のN)は、もともとFixモードと判定される状態であるため、図13の以降の処理をスキップする。
一方、そのオブジェクト36と有効に接触している指がない(ステップS403のN)場合には、ステップS406以降に示される別の手法でFixモードを維持するか否かを判定する。ステップS406では、パラメータ決定部53は、前回のフレームにおいてオブジェクト36に有効に接触する複数の指の側の接触点Pの現在の位置に基づいて、オブジェクト36と手31との接触を判定するための領域である掴みトリガ38を生成する(ステップS406)。
図14は、掴みトリガ38の一例を示す図である。掴みトリガ38は、例えば、第1の指32から第3の指34の表面の接触点の現在の位置(第1接触点P1の位置)に基づいて生成されてよく、掴みトリガ38は第1接触点P1の位置の重心を中心とした球であってよい。
そして、掴みトリガ38とオブジェクト36との接触が検出された場合には(ステップS407のY)、パラメータ決定部53は、Fixモードを維持することを決定し、ステップS409の処理へ遷移させる。一方、掴みトリガ38とオブジェクト36との接触が検出されない場合には(ステップS407のN)、Fixモードを維持すべき維持条件を満たすか否かを判定する(ステップS408)。この維持条件は、オブジェクト36に接触していた指のいずれかの現在の角度が、(角度がロックされている角度−0.1(rad))より大きいことである。現在の指の角度が、オブジェクト36に初めて接触したときの角度より大きい場合には、ユーザが物体を掴む意思を有する蓋然性が高いからである。なお、ロックされている角度から減算される0.1radの値は、指の動きのブレを考慮して適宜変更されてよい。
いずれかの指が維持条件を満たす場合には(ステップS408のY)、Fixモードを維持すると決定しステップS409の処理へ遷移する。ステップS409では、前回のフレームでオブジェクト36と有効に接触していた指と、そのオブジェクト36との接触を有効にし、それらの指の前回のフレームにおける接触データを今回の接触データに設定する。
図15は、パラメータ決定部53の処理を示すフロー図である。図15に示す処理は、図13に示される処理の後に実行される。図15に示される処理は、オブジェクト36との接触が有効とされた指の数に基づいて指とオブジェクト36との接触モードを決定し、その接触モードおよび接触モードの変化に応じて相互作用パラメータを決定する処理である。この処理は、オブジェクト36ごとに実行されてよい。
図13に示される処理が実行されると、パラメータ決定部53は、オブジェクト36に接触する指の数をカウントする(ステップS451)。オブジェクト36に接触する指の数は、図15の例では、接触検出部52によりそのオブジェクト36との接触が有効であると判定された指の数である。より具体的には、パラメータ決定部53は、現在の接触データから、オブジェクト36ごとに、そのオブジェクト36の物体IDを有する接触データの数をカウントする。そして、パラメータ決定部53は、その接触データの数に基づいて、そのオブジェクト36ごとに現在の物体接触データをオブジェクト36に関連付けて記憶させる(ステップS452)。物体接触データは、オブジェクト36を識別する物体IDとそのオブジェクト36に接触する指の数と、その接触している指の指IDとを含む。
次にパラメータ決定部53は、オブジェクト36に接触する現在の指の数に基づいて、現在の接触モードを決定する(ステップS453)。より具体的には、パラメータ決定部53は、指の数が1,2,3の場合にそれぞれTouchモード、Fricモード、Fixモードを接触モードとして選択する。また、パラメータ決定部53は、前回のフレームの物体接触データに基づいて、前回のフレームにおけるオブジェクト36の接触モードを決定する(ステップS454)。より具体的には、パラメータ決定部53は前回の物体接触データに保存される指の数が1,2,3の場合にそれぞれTouchモード、Fricモード、Fixモードを接触モードとして選択する。なお、指の数が0の場合はステップS451〜S454の処理はスキップしてもよいし、指の数が3を超える場合にも接触モードとしてFixモードを選択してもよい。
そして、オブジェクト36に接触する指の数が1未満の場合には(ステップS455のN)、パラメータ決定部53は接触がなくなったものとして、指とオブジェクト36との拘束をリセットする(ステップS456)。より具体的には、パラメータ決定部53は指とオブジェクト36との拘束条件を削除する。またパラメータ決定部53は、指に接触する他のオブジェクト36がない場合には、さらに接触検出部52のステップS102の処理で用いるロック角度の設定も削除する。ロック角度の削除により、次に指とオブジェクト36とが接触するまで接触判定に用いる指の角度が自由に変化する。
一方、オブジェクト36に接触する指の数が1以上の場合には(ステップS455のY)、パラメータ決定部53そのオブジェクト36と指との現在の接触モードが前回のフレームにおける接触モードと異なるか否かを判定する(ステップS457)。現在の接触モードが前回の接触モードと異なる場合には(ステップS457のY)、パラメータ決定部53現在の接触モードに応じて手31とオブジェクト36との拘束条件を新たに設定し、オブジェクト36に接触する指の現在の角度をロック角度として保存することで指の角度をロックする(ステップS458)。
接触モードがTouchモードまたはFricモードの場合には、拘束条件はオブジェクト36の表面の接触点Pを介してかかる摩擦力等を表現する条件である。図16は、オブジェクト36の拘束の要素を説明する図であり、特に接触モードがTouchモードまたはFricモードの場合に指とオブジェクト36との間で拘束する要素を示す図である。図16に示される摩擦視錐台46は、接触点Pにおいて、第1の指32とオブジェクト36との間に摩擦が生じていることを示している。また、図16におけるY軸はオブジェクト36の表面の法線と同じ向きである。X軸およびZ軸はその法線と直交する向きであり、X軸およびZ軸は互いに直交する。図16のTwistは、その法線を軸としてねじれるように回転する成分を示し、Swingは接触点Pを通りその法線と直交する線を軸として回転する成分を示す。
図17は、オブジェクト36の拘束の要素に応じた拘束の手法を示す図である。X軸およびZ軸方向の位置の移動については、例えば、第1の指32の側の第1接触点P1と、オブジェクト36側の第2接触点P2との相対速度が最小になるようにオブジェクト36および第1の指32に力をかけるいわゆる固定ジョイントを設定する。ここで、摩擦を表現するために、この固定ジョイントによりオブジェクト36および第1の指32にかかる力は静止最大摩擦力または動最大摩擦力を上限としている。一方、Z軸方向の位置の移動については、第1の指32とオブジェクト36とが反発しめり込まないように制限する拘束条件となっている。TwistおよびSwingの成分については、回転する角度を実際の数分の一にするなどの調整をしている。パラメータ決定部53は、接触モードがTouchモードまたはFricモードの場合には、接触する各指についてこれらの要素について拘束条件を決定する。
ここで、パラメータ決定部53は、接触モードがTouchモードであるかFricモードであるかに応じて静止摩擦係数(または動摩擦係数)を設定する。より具体的には、Touchモードにおける静止摩擦係数(または動摩擦係数)が、Fricモードにおけるものより小さくなるように設定される。また、パラメータ決定部53は、指とオブジェクト36との重なりの大きさと、その静止摩擦係数(または動摩擦係数)とに基づいて最大静止摩擦力(または最大動摩擦力)を算出する。指とオブジェクト36との重なりの大きさは、例えば、指の第1接触点P1のオブジェクト36の表面からの深さD(図5参照)である。これにより、ユーザがオブジェクト36を触ることを意図していると推定されるTouchモードで物体が必要以上に動くことを抑止し、ユーザがオブジェクト36を挟もうとしていると推定されるFricモードでオブジェクト36が滑ってしまう現象を防ぐことができる。これにより、直観的な操作を可能にする。
ここまでの説明では、X軸およびZ軸方向の位置の移動について、指とオブジェクト36とを拘束する固定ジョイントを設定しているが、代わりに、パラメータ決定部53は手31を代表する代表点PHと、オブジェクト36上の第2接触点P2との間で固定ジョイントを設定してもよい。この場合、パラメータ決定部53は代表点PHと、オブジェクト36側の第2接触点P2との相対速度が最小になるようにオブジェクト36および代表点PHに力をかける。したがって代表点PHと第2接触点P2との相対位置が保存される。代表点PHは、例えば指の付け根や掌の中央に相当し、手31の位置を代表する位置である。
図18および19は、オブジェクト36と仮想の手31との関係を説明する図である。第1の指32や第2の指33などの指は、その位置がぶれやすい。例えば、図18に示すようにオブジェクト36と接触していても、手31の移動などにより位置がぶれてしまい(図19参照)、固定ジョイントを介してオブジェクト36の動きをぶれさせてしまう。そこで、仮想の手31とオブジェクト36とを固定ジョイントを介して拘束することにより、そのぶれによる影響を軽減することが可能になる。なお、拘束によりに生じる力はオブジェクト36の表面にある第2接触点P2にかかる。
接触モードがFixモードの場合には、パラメータ決定部53は、拘束条件として、オブジェクト36と指との接触点Pであってオブジェクト36の表面にある複数の接触点Pの重心と、代表点PHの位置との相対速度を0とする条件を決定する。こちらについてはユーザが掴む操作をしていると推定されるので、接触点Pを介した摩擦力をかける必要性が低く、より単純な計算で直観的な操作を実現することができる。
ここで、ステップS457において現在の接触モードが前回の接触モードと同じ場合には(ステップS457のN)、パラメータ決定部53は接触モードに応じて拘束条件の多くとも一部を更新する(ステップS459)。より具体的には、接触モードがTouchモードまたはFricモードの場合には、指とオブジェクト36との重なりの大きさに基づいて、最大静止摩擦力または最大動摩擦力を更新する。接触モードが遷移したか否かに応じて処理を異ならせることで、処理量を削減したり、不安定な動きを防止することが可能になる。
このように、オブジェクト36に接触する指の本数といった状況に応じてオブジェクト36と手31や指との相互作用を示すパラメータ(拘束条件や摩擦係数など)を変化させることで、ユーザがオブジェクト36を直観的に操作することが可能になる。
Claims (10)
- 手の指の動きを取得する取得手段と、
仮想空間における、前記指と物体との接触を検出する接触検出手段と、
仮想空間内において前記物体に接触する指の数を検出し、前記検出された指の数に基づいて、前記指と前記物体との間の相互作用を求めるための相互作用パラメータを決定するパラメータ決定手段と、
前記決定された相互作用パラメータに基づいて、前記物体の動きを計算する計算手段と、
前記動きが計算された物体を描画する描画手段と、
を含む画像処理装置。 - 請求項1に記載の画像処理装置において、
前記パラメータ決定手段は、前記指と物体との重なりの大きさにさらに基づいて前記相互作用パラメータを決定する、
画像処理装置。 - 請求項2に記載の画像処理装置において
前記指と前記物体との間にかかる力を求めるための相互作用パラメータは摩擦にかかる摩擦パラメータを含み、
前記パラメータ決定手段は、前記指の数に応じて定まる摩擦係数と、前記指と物体との重なりの大きさと、に基づいて前記摩擦パラメータを算出し、
前記計算手段は、前記摩擦パラメータに基づいて、前記物体の動きを計算する、
画像処理装置。 - 請求項1から3のいずれかに記載の画像処理装置において、
前記パラメータ決定手段は、前記指が属する手と前記物体との間を拘束する拘束条件であって前記相互作用パラメータに応じた拘束条件を決定し、
前記計算手段は、前記拘束条件を満たすように前記物体の動きを算出する、
画像処理装置。 - 請求項1から4のいずれかに記載の画像処理装置において、
前記接触検出手段は、前記指と前記物体との接触が検出されてからの前記指の移動量が所定の閾値を超え、かつ、前記指と前記物体とが重なりを有する場合に、前記指と前記物体との接触を検出しない、
画像処理装置。 - 請求項1から5のいずれかに記載の画像処理装置において、
前記接触検出手段は、前記指が前記物体との接触がはじめて検出されたときの実際の指の角度と、現在の実際の前記指の角度とに基づいて、接触の検出に用いる指の角度を決定し、前記決定された指の角度に基づいて前記指と前記物体との接触を検出する、
画像処理装置。 - 請求項1から6のいずれかに記載の画像処理装置において、
前記パラメータ決定手段は、前記検出された指の数が3以上である場合に、前記物体と前記指が属する手との相対位置を固定する拘束条件を決定し、
前記計算手段は、前記拘束条件を満たすように前記物体の動きを計算する、
画像処理装置。 - 請求項7に記載の画像処理装置において、
前記パラメータ決定手段は、直前のフレームにおいて前記物体と前記指が属する手との相対位置を固定する拘束条件を満たすように前記物体の動きが計算され、かつ、現在のフレームにおいて前記物体と前記指のいずれかが接触する場合に、前記物体と前記指が属する手との相対位置を固定する拘束条件を決定する、
画像処理装置。 - 手の指の動きを取得するステップと、
仮想空間における、前記指と物体との接触を検出するステップと、
仮想空間内において前記物体に接触する指の数を検出し、前記検出された指の数に基づいて、前記指と前記物体との間の相互作用を求めるための相互作用パラメータを決定するステップと、
前記決定された相互作用パラメータに基づいて、前記物体の動きを計算するステップと、
前記動きが計算された物体を描画するステップと、
を含む画像処理方法。 - 手の指の動きを取得し、
仮想空間における、前記指と物体との接触を検出し、
仮想空間内において前記物体に接触する指の数を検出し、前記検出された指の数に基づいて、前記指と前記物体との間の相互作用を求めるための相互作用パラメータを決定し、
前記決定された相互作用パラメータに基づいて、前記物体の動きを計算し、
前記動きが計算された物体を描画する、
処理をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016104386 | 2016-05-25 | ||
JP2016104386 | 2016-05-25 | ||
PCT/JP2017/018899 WO2017204120A1 (ja) | 2016-05-25 | 2017-05-19 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017204120A1 true JPWO2017204120A1 (ja) | 2018-09-27 |
JP6563596B2 JP6563596B2 (ja) | 2019-08-21 |
Family
ID=60411737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018519253A Active JP6563596B2 (ja) | 2016-05-25 | 2017-05-19 | 画像処理装置、画像処理方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10901496B2 (ja) |
EP (1) | EP3467792B1 (ja) |
JP (1) | JP6563596B2 (ja) |
WO (1) | WO2017204120A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082853A1 (ja) * | 2017-10-26 | 2019-05-02 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法およびプログラム |
CN108563329B (zh) * | 2018-03-23 | 2021-04-27 | 上海数迹智能科技有限公司 | 一种基于深度图的人体手臂位置参数提取算法 |
JP6710731B2 (ja) * | 2018-09-19 | 2020-06-17 | 株式会社コロプラ | プログラム、情報処理装置、及び情報処理方法 |
CN112363628A (zh) * | 2020-11-27 | 2021-02-12 | 上海影创信息科技有限公司 | 虚拟对象互动处理的方法和系统及其vr眼镜 |
CN112580216B (zh) * | 2020-12-25 | 2023-10-10 | 深圳市优必选科技股份有限公司 | 物体状态处理方法、装置、设备及存储介质 |
CN117642775A (zh) | 2021-07-08 | 2024-03-01 | 索尼集团公司 | 用于确定对象的保持的信息处理装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
JP2014139767A (ja) * | 2012-12-20 | 2014-07-31 | Canon Marketing Japan Inc | 情報処理装置、その制御方法、及びプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160084502A (ko) * | 2011-03-29 | 2016-07-13 | 퀄컴 인코포레이티드 | 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들 |
JP6360050B2 (ja) * | 2012-07-13 | 2018-07-18 | ソフトキネティック ソフトウェア | 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム |
KR20140010616A (ko) * | 2012-07-16 | 2014-01-27 | 한국전자통신연구원 | 3d 가상 객체에 대한 조작 처리 장치 및 방법 |
US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US10281987B1 (en) * | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US20150177842A1 (en) * | 2013-12-23 | 2015-06-25 | Yuliya Rudenko | 3D Gesture Based User Authorization and Device Control Methods |
WO2016018487A2 (en) * | 2014-05-09 | 2016-02-04 | Eyefluene, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
-
2017
- 2017-05-19 JP JP2018519253A patent/JP6563596B2/ja active Active
- 2017-05-19 US US16/300,384 patent/US10901496B2/en active Active
- 2017-05-19 EP EP17802712.4A patent/EP3467792B1/en active Active
- 2017-05-19 WO PCT/JP2017/018899 patent/WO2017204120A1/ja unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
JP2014139767A (ja) * | 2012-12-20 | 2014-07-31 | Canon Marketing Japan Inc | 情報処理装置、その制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3467792A1 (en) | 2019-04-10 |
EP3467792B1 (en) | 2024-04-24 |
US10901496B2 (en) | 2021-01-26 |
EP3467792A4 (en) | 2020-01-08 |
WO2017204120A1 (ja) | 2017-11-30 |
JP6563596B2 (ja) | 2019-08-21 |
US20190121426A1 (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6563596B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN108983978B (zh) | 虚拟手控制方法及装置 | |
JP5213183B2 (ja) | ロボット制御システム及びロボット制御プログラム | |
KR101318244B1 (ko) | 3차원 사용자 인터페이스 구현 시스템 및 구현 방법 | |
JP6874149B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6144743B2 (ja) | ウェアラブル装置 | |
KR102021851B1 (ko) | 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법 | |
CN113119104B (zh) | 机械臂控制方法、机械臂控制装置、计算设备及系统 | |
US9886085B2 (en) | Image processing apparatus, image processing method, and program | |
JP6360509B2 (ja) | 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置 | |
KR101469851B1 (ko) | 인체 자세 예측을 위한 다목적 최적화 기반의 방법 | |
US11182957B2 (en) | Image processing device, image processing method, and program for suppressing movement of an object in virtual space | |
US20220415094A1 (en) | Method and system for estimating gesture of user from two-dimensional image, and non-transitory computer-readable recording medium | |
JP2013109444A (ja) | 自動制御装置 | |
CN110162251A (zh) | 图像缩放方法及装置、存储介质、电子设备 | |
CN103513880A (zh) | 电子设备、电子设备中控制目标对象旋转的方法及装置 | |
KR101472314B1 (ko) | 단일 카메라를 이용한 3차원 입력장치 및 방법 | |
CN105718039A (zh) | 一种目标对象运动状态的判断方法及其装置 | |
US20240033922A1 (en) | Systems, methods, and computer program products for implementing object permanence in a simulated environment | |
Miyazkaia et al. | Study on Hand tracking with IMU | |
JP7070245B2 (ja) | 情報処理装置、動作制御プログラム、及び動作制御方法 | |
KR101719454B1 (ko) | 키보드 타이핑 모션 생성 방법 및 장치 | |
CN118143944A (zh) | 灵巧手控制方法、装置、系统及电子设备 | |
JP2023135920A (ja) | 制御装置および制御方法 | |
JP2017045198A (ja) | 制御装置及び制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6563596 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |