JP6716028B2 - 制御装置、情報処理システム、制御方法、及びプログラム - Google Patents

制御装置、情報処理システム、制御方法、及びプログラム Download PDF

Info

Publication number
JP6716028B2
JP6716028B2 JP2019514986A JP2019514986A JP6716028B2 JP 6716028 B2 JP6716028 B2 JP 6716028B2 JP 2019514986 A JP2019514986 A JP 2019514986A JP 2019514986 A JP2019514986 A JP 2019514986A JP 6716028 B2 JP6716028 B2 JP 6716028B2
Authority
JP
Japan
Prior art keywords
user
information
hand
pose
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019514986A
Other languages
English (en)
Other versions
JPWO2018198272A1 (ja
Inventor
英樹 森
英樹 森
泰史 奥村
泰史 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2018198272A1 publication Critical patent/JPWO2018198272A1/ja
Application granted granted Critical
Publication of JP6716028B2 publication Critical patent/JP6716028B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、制御装置、情報処理システム、制御方法、及びプログラムに関する。
近年では、仮想空間の画像を生成して提示する仮想現実(VR)デバイスが普及しており、ユーザの実際の手や指の動きを検出して、仮想空間内のオブジェクトの動きに反映させることが行われている。
このような処理のために、従来から手を検出するデバイスとして、カメラ等でユーザの手を撮像して、手の形状を認識し、ユーザの指が曲げられているか伸ばされているかを検出するものがある。
しかしながら、上記従来の、カメラを利用した手を検出するデバイスでは、カメラの位置から指が視認できない姿勢となっている場合や、そもそもカメラの視野外にユーザの手がある場合は、その形状の認識ができず、ユーザの指がどのような状態となっているかを検出できない。
本発明は上記実情に鑑みて為されたもので、ユーザの手のポーズの検出が可能となる機会を増大できる制御装置、情報処理システム、制御方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、制御装置が、ユーザの指の動きに係る情報と、ユーザの手の形状に係る情報とを受け入れる受入手段と、前記受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する第1ポーズ情報生成手段と、前記受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する第2ポーズ情報生成手段と、前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力手段と、を含むこととしたものである。
本発明によると、ユーザの手のポーズの検出が可能となる機会を増大できる。
本発明の実施の形態の一例に係る情報処理システムの構成例を表す概略ブロック図である。 本発明の実施の形態の一例に係る情報処理システムで用いる操作デバイスの例を表す概略斜視図である。 本発明の実施の形態の一例に係る情報処理システムに含まれる制御装置の例を表す機能ブロック図である。 本発明の実施の形態の一例に係る情報処理システムによるユーザの手の検出動作を表す説明図である。 本発明の実施の形態の一例に係る情報処理システムの処理の一例を表すフローチャート図である。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理システム1は、図1に例示するように、ユーザの左右の手のそれぞれに装着される操作デバイス10L,10R(以下、区別の必要がない場合は、操作デバイス10と表記する)と、ユーザの頭部に装着される表示デバイス20と、これら操作デバイス10及び表示デバイス20に対して有線または無線にて通信可能に接続される、制御装置30とを含んで構成される。
また制御装置30は、図1にその概要を例示するように、制御部31と、記憶部32と、操作受入部33と、表示制御部34とを含んで構成される。
操作デバイス10は、例えば図2(a)にその正面側、図2(b)にその背面側を例示するように、ユーザにより把持される把持部11と、操作部12とを含む。把持部11は、実質的に多角形柱状をなし、操作部12が、この把持部11から連続して形成されている。図2の例では、操作部12は、正面側にセンサ部15と、ボタン操作部16とを含み、背面側に、指センサ17と、ボタン18とを備えて構成される。またこの操作デバイス10は、内部に制御回路19を含んで構成されている。
この制御回路19は、マイクロコンピュータ等のプログラム制御デバイスを含み、メモリ等の記憶手段に格納されたプログラムに従って動作する。またこの制御回路19は、操作部12のセンサ部15,ボタン操作部16,指センサ17,ボタン18に接続され、これらセンサ部15や、ボタン操作部16等から入力されるユーザの指の検出結果や、操作の内容表す信号等、各種の信号を受け入れて制御装置30に対して送出する。この制御回路19は、例えばブルートゥース(登録商標)等の無線通信インタフェース、またはUSBや有線LAN等の有線通信インタフェース等を含み、この無線通信インタフェースや有線通信インタフェースを介して、制御装置30との間で種々の信号を授受する。
また、本実施の形態では、この操作デバイス10の左側面または右側面のいずれか一方側に固定具14が固定される。この固定具は例えば可撓性あるベルトを環状としたものである。この例の操作デバイス10を操作するユーザは、固定具14にユーザ自身の人差指から小指までを通し、操作デバイス10の本体をユーザの親指の付根に当接させた位置に固定して用いる。図2の例では、操作デバイス10の右側面側がユーザの手の平に押付けられて操作デバイス10が固定される状態とした例が示されている。またこの操作デバイス10の大きさは、固定具14に指を通して操作デバイス10を装着したユーザが、自然に操作デバイス10を把持したときに、ユーザの親指末節が操作デバイス10の正面側のボタン操作部16に到達する程度の大きさとする。つまり本実施の形態では、ボタン18を含む、操作部12の少なくとも一部のボタン等が、把持部11を把持したときに、ユーザの指が到達する範囲に配される。
すなわち、操作デバイス10を装着したユーザが、自然に操作デバイス10を把持したときには、当該ユーザの人差指は操作デバイス10のボタン18に触れる位置となり、ユーザは把持部11を手の平と、中指、薬指、小指とで握りこむようになる。もっとも、この状態からユーザが手を開いても、固定具14により操作デバイス10がユーザの手に固定されるので、操作デバイス10が落下することはない。
センサ部15は、例えば、ユーザが自然に操作デバイス10を把持したとき、ユーザの親指の末節側が到達する位置よりやや下方、ユーザの親指の基節側が近接する位置に配される。このセンサ部15は、例えば、操作デバイス10の正面側であって操作デバイス10の表面の法線方向を中心とし、操作デバイス10正面の左側面側から右側面側までの比較的広角の角度範囲を検出可能範囲として、この検出可能範囲においてユーザの親指を検出する。そして当該親指を検出した位置(上記角度範囲内の角度)と、センサ部15からユーザの親指までの距離とを検出し、これらの情報を含む、検出結果情報を制御回路19に出力する。このセンサ部15は例えば、カメラや、光学センサ、焦電センサ、静電容量センサ等、どのようなものでも構わない。
またセンサ17は、ユーザが自然に操作デバイス10を把持したとき、ユーザの人差指、中指、薬指、小指の各指がそれぞれ到達する位置にそれぞれ配される。このセンサ17は、指が近接した状態にあるか、そうでないかを表す情報を生成する静電容量センサ等であり、センサ17の各々は、指が近接した状態にあるか、そうでないかを表す情報を生成して、制御回路19に出力している。本実施の形態の例では、この操作デバイス10が、本発明の第1の検出装置を実現している。
表示デバイス20は、例えばユーザが頭部に装着するヘッドマウントディスプレイ(HMD)等である。この表示デバイス20は、制御装置30が出力する画像データを、有線または無線にて受信し、当該受信した画像データを表示してユーザに提示する。本実施の形態の一例では、この表示デバイス20は、例えば有機EL表示パネルや液晶表示パネルなどの表示素子を用いて構成される、ユーザの左目に提示する左目用画像表示部と、ユーザの右目に提示する右目用画像表示部とを含んでもよく、この場合、制御装置30はそれぞれの画像表示部にて表示されるべき左目用画像データと右目用画像データとを生成して出力することとなる。この場合、表示デバイス20は、当該左目用画像データを、左目用画像表示部で表示出力し、右目用画像データを、右目用画像表示部で表示出力する。
本実施形態においてこの表示デバイス20は、ユーザが装着した状態では外界の様子を視認することができない非透過型の表示装置あってもよいし、ユーザが装着した状態で、外界の像に、表示するべき映像を半透明に合成して提示する透過型の表示装置であってもよい。
また、本実施の形態の一例では、この表示デバイス20の正面側(ユーザが装着したときに、ユーザの顔面側にある側)を視野とするカメラ21を含む。このカメラ21は、ユーザの前方の所定範囲の視野(FOV(Field of View))内の画像を繰り返し撮像し、当該撮像して得た画像データを、順次、制御装置30に対して出力する。
制御装置30の制御部31は、CPU等のプログラム制御デバイスであり、記憶部32に格納されたプログラムに従って動作する。本実施の形態では、この制御部31は、操作デバイス10が送出する情報を受け入れる。また制御部31は、表示デバイス20が送出する画像データを受け入れて、当該画像データにユーザの手が撮像されていれば、当該手の形状を検出する処理を実行する。すなわち、本実施の形態のこの例では、表示デバイス20とこの制御部31とにより、第2の検出装置が実現される。
さらに、この制御部31は、操作デバイス10により検出されたユーザの指の動きに係る情報(ここでの例では、ユーザの人差し指から小指までの各指が操作デバイス10に接触するよう曲げられているか否かを表す情報、並びに、親指の位置と距離に関する情報)に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する。また、制御部31は、上記表示デバイス20が送出した画像データから検出した、手の形状に係る情報に基づいて、ユーザの手のポーズを表す第2のポーズ情報を生成する。
制御部31は、ここで生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力する。一例としてこの制御部31は、予め定めた条件に基づき、と、第1のポーズ情報と、第2のポーズ情報とのいずれかを選択して、ユーザの手のポーズを表す情報として出力する。
さらに、この制御部31は、ゲームなどのアプリケーションの処理を実行しており、当該処理に応じて、表示デバイス20が表示するべき画像データを生成して、表示デバイス20に当該画像データを出力する。この制御部31の詳しい動作については後に述べる。
記憶部32は、ディスクデバイスやメモリデバイス等であり、制御部31によって実行されるプログラムを保持する。このプログラムは、DVD−ROM等のコンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部32に格納されたものであってもよい。また、この記憶部32は、制御部31のワークメモリとしても動作する。
操作受入部33は、操作デバイス10との間で有線または無線にて通信を行い、操作デバイス10が出力する、ユーザの操作に関する情報や、指の動きに係る情報を受け入れて、制御部31に出力する。
表示制御部34は、表示デバイス20との間で有線または無線にて通信を行い、制御部31が出力する画像データを表示デバイス20に送出する。またこの表示制御部34は、表示デバイス20が出力する、表示デバイス20のカメラ21にて撮像された画像データを受け入れて、制御部31に出力する。
次に、制御装置30の制御部31の動作について説明する。本実施の形態のある例では、この制御部31は、機能的には、図3に例示するように、手画像検出部51と、第1ポーズ情報生成部52と、第2ポーズ情報生成部53と、条件判定部54と、ポーズ情報出力部55と、画像データ生成処理部56とを含んで構成される。
ここで、手画像検出部51は、表示デバイス20のカメラ21が逐次的に撮像して得た画像データの入力を順次受けて、それぞれの画像データを処理の対象として、処理の対象となった画像データにユーザの手が撮像されていれば、当該手の形状を検出する処理を実行する。具体的にこの手画像検出部51は、表示デバイス20のカメラ21にて撮像された画像データから、ユーザの左手が撮像されている範囲と右手の撮像されている範囲とを検出し、また、手が撮像されていれば、当該手に含まれる各指について、指の関節の位置やその検出の信頼度を表す情報を生成する。例えば手画像検出部51は、予め定められた人間の手の骨格モデルと、処理の対象となった画像データに含まれる手の部分の画像とから、当該骨格モデルにおける指の各関節の曲がり方(角度や方向等)に関する情報を生成し、骨格モデルによりユーザの手がどのような形状にあるかを推定して、指の関節の位置やその検出の信頼度を表す情報を生成する。
また、手画像検出部51は、処理の対象となった画像データに撮像されていないユーザの手の指については、指の関節の位置が不明である旨の情報を出力してもよい。なお、この手画像検出部51は、表示デバイス20のカメラ21が撮像して得た画像データにおいて、ユーザの手の指の一部が、例えばユーザの手の甲などによって隠蔽されている場合も、当該画像データの直前に撮像され、表示デバイス20から受信された画像データに、当該隠蔽された指が撮像されていれば、その指の関節の位置に変化がないものとして、処理の対象となった画像データにおいて隠蔽されている指の関節の位置を推定して出力する。この処理については、既に広く知られた処理を用いることができるので、ここでの詳しい説明を省略する。
第1ポーズ情報生成部52は、操作デバイス10から受信した、ユーザの指の動きに係る情報(ここでの例では、ユーザの人差し指から小指までの各指が操作デバイス10に接触するよう曲げられているか否かを表す情報、並びに、親指の位置と距離に関する情報)に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する。具体的に、この第1ポーズ情報生成部52は、ユーザの各指が伸ばされた状態にあるか、曲げられた状態にあるかを表す情報を、第1ポーズ情報として生成する。例えば、操作デバイス10のセンサ部15がユーザの親指が近接した位置にあり(つまり操作デバイス10の筐体に接触しており)、ユーザの人差し指と中指と薬指とを検出するセンサ17がそれぞれ対応する指が近接していることを検出しておらず、小指を検出するセンサ17が、対応する指が近接していることを検出している場合、
当該手について、
親指:曲げ
人差し指:伸び
中指:伸び
薬指:伸び
小指:曲げ
という情報を、第1ポーズ情報として生成する。なお、後に述べるように、第2ポーズ情報において、指を伸ばした状態を「1.0」、限界まで曲げた状態を「0.0」として、関節が曲げられた度合い(指の開度)を数値として表現している場合、第1ポーズ情報生成部52は、第1ポーズ情報を、これに合わせて数値として表してもよい。もっとも、操作デバイス10のセンサ17が、指が曲げられているか伸びているかといった2段階でのみ判断できる場合は、指を伸ばした状態である「1.0」と、限界まで曲げた状態である「0.0」とのいずれかの値のみが出力される。例えば上記の例であれば、第1ポーズ情報生成部52は、第1ポーズ情報として
親指:0.0
人差し指:1.0
中指:1.0
薬指:1.0
小指:0.0
という情報を生成する。
第2ポーズ情報生成部53は、手画像検出部51が生成した、指の関節の位置や手の平の位置、方向(手の平の法線方向)等の情報に基づいて、ユーザの各指が伸ばされた状態にあるか、曲げられた状態にあるかを判断する。本実施の形態のある例では、この第2ポーズ情報生成部53は、手画像検出部51が生成した、指の関節の位置や手の平の位置などから、指ごとの伸び/曲げの状態を表す情報として、各指がどの程度曲げられているかを表す情報を第2ポーズ情報として生成する。具体的に第2ポーズ情報生成部53は、ユーザが人差し指と中指とを伸ばし、他の指を軽く曲げた状態として、二本の指でいわばV字を形成していると判断した場合、当該手について、
親指:0.2
人差し指:1.0
中指:1.0
薬指:0.2
小指:0.1
などという情報(各指の開度の情報)を、第2ポーズ情報として生成する。なお、ここでは伸びている状態を「1」、限界まで曲げられた状態を「0」として、曲げられた割合を数値として表現している。
また、この第2ポーズ情報生成部53は、手画像検出部51が関節の位置が不明である旨の情報を出力する指がある場合は、当該指については、曲げまたは伸びのいずれの状態にあるか不明である旨の情報(例えば負の値などとする)を出力する。
なお、既に述べたように、最後に表示デバイス20から受信した画像データにおいて、ユーザの指の一部が隠蔽されていたとしても、手画像検出部51がそれより以前の画像データの情報に基づいて関節の位置を表す情報を出力している場合は、この第2ポーズ情報生成部53は、当該出力されている情報に基づいて第2ポーズ情報を生成する。
条件判定部54は、予め定めた条件が充足されるか否かを判断する。具体的にここで予め定めた条件の一例は、表示デバイス20のカメラ21の視野範囲に、ユーザの指が含まれるか否かに基づく条件、つまり、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの手の指が撮像されているか否かの条件を含む。
本実施の形態のある例では、手画像検出部51が、表示デバイス20のカメラ21にて撮像された画像データから、ユーザの左手が撮像されている範囲と右手の撮像されている範囲とを検出し、さらにそれぞれの指を検出する処理を行う際に、撮像されている指を列挙する処理を実行する。この処理も広く知られた方法を採用できるので、ここでの詳しい説明を省略する。なお、ここで表示デバイス20のカメラ21にて撮像された画像データに、ユーザの手の指が撮像されない例は、例えば図4(a)に示すように、ユーザの手L1全体が表示デバイス20のカメラ21の視野から外れている場合があるが、この場合だけに限られない。すなわち、図4(b)に例示するように、ユーザの手L2は表示デバイス20のカメラ21の視野に含まれていても、ユーザ自身の手L2の甲などによってその少なくとも一部の指が隠蔽されてしまっている場合も、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの手の指が撮像されない場合(表示デバイス20のカメラ21の視野範囲に、ユーザの指が含まれない場合)に含まれる。なお、図4(b)では説明のため、手L2の隠れている指を破線で仮想的に示している。
条件判定部54は、このように表示デバイス20のカメラ21にて撮像された画像データに含まれる指を列挙し、撮像されている指については条件を満足するものとし、撮像されていない指については条件を満足しないものとして、指ごとに、条件を充足するか否かを表す情報を出力する。
ポーズ情報出力部55は、第1ポーズ情報生成部52が出力する第1ポーズ情報と、第2ポーズ情報生成部53が出力する第2ポーズ情報とを、条件判定部54が出力する情報によって定められる基準に従って組み合わせ、ユーザの手のポーズを表す情報を生成して出力する。既に述べたように、このポーズ情報出力部55は、条件判定部54が出力する情報を参照して、第1のポーズ情報と、第2のポーズ情報とのいずれかを選択して、ユーザの手のポーズを表す情報として出力する。本実施の形態の一例では、この選択は指ごとに行われる。
すなわちポーズ情報出力部55は、条件判定部54が出力する、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指であるか否かを表す条件を参照し、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指については、第2ポーズ情報生成部53が出力する第2ポーズ情報に含まれる、対応する指の情報を選択して出力し、表示デバイス20のカメラ21にて撮像された画像データに撮像されていない指については第1ポーズ情報生成部52が出力する第1ポーズ情報に含まれる、対応する指の情報を選択して出力する。
一例として、ユーザが前方を見たまま、左手を頭部後方に移動し、右手は前方に突き出して、人差し指と中指とでV字を形成している場合を想定する。この場合、条件判定部54は、左手についてはすべての指が表示デバイス20のカメラ21にて撮像された画像データに撮像されていないとする情報(条件の充足の有無を表す情報)を出力する。また、条件判定部54は、右手については、図4(b)に例示したように、親指、薬指、小指については表示デバイス20のカメラ21にて撮像された画像データに撮像されていないとする情報を出力し、人差し指と中指については、表示デバイス20のカメラ21にて撮像された画像データに撮像されているとする情報を出力する。
もっとも、この場合であっても、直前の表示デバイス20のカメラ21にて撮像された画像データに基づいて、右手の親指、薬指、小指についても各関節の位置を表す情報は出力され得る。従って当該親指、薬指、小指についても第2ポーズ情報にそれぞれ曲げられているか伸びているかを表す情報が含まれる。
ポーズ情報出力部55は、条件判定部54が出力する条件の情報に基づき、左手の各指については第1ポーズ情報に含まれる、対応する指の情報を出力し、右手については、人差し指と中指とについて、第2ポーズ情報に含まれる、対応する指の情報を出力し、その他の指については、第1ポーズ情報に含まれる、対応する指の情報を出力する。
画像データ生成処理部56は、ポーズ情報出力部55が出力する情報を用いて、表示デバイス20において表示する画像データを生成する。一例として、この画像データは、仮想的なキャラクタの手の画像とすることができ、画像データ生成処理部56は、当該仮想的なキャラクタの手の形(各指の曲げ伸ばしの状態)を、ポーズ情報出力部55が出力するポーズ情報に基づいて決定して、当該キャラクタを所定の視野(例えば表示デバイス20のカメラ21と同じ視野)内に配し、レンダリングして画像データを生成する。この画像データ生成処理部56の処理も、広く知られた処理であるので、ここでの詳しい説明を省略する。
[動作]
本発明の実施の形態に係る情報処理システム1は、例えば以上の構成を備えており、次のように動作する。なお、以下の例では、制御装置30が、アプリケーションプログラムとして、仮想的な三次元空間(仮想空間)内に、ユーザの指示に従って画像を描画するペイントプログラムを実行しているものとする。このペイントプログラムに従う制御装置30は、ユーザの左手の指が少なくとも一つ曲げられている間、ユーザの右手の指先の移動軌跡(実空間での右手の指先の移動軌跡に対応する、仮想空間内の対応する移動軌跡)に沿って、指定された色の球を次々に配して行くものとする。また右手の指のうち伸ばされている指が多くなるほど、球の半径を大きくするものとする。さらに、このペイントプログラムに従う制御装置30は、ユーザの左手のすべての指が伸ばされた状態となったと判断すると、色を選択するメニューを表示して、ユーザに色を選択させるものとする。この色を選択させている間は、ユーザの右手の指先の移動軌跡に沿って、指定された色の球を配する処理を行わない。
本実施の形態のこの例において、ユーザは左右の手のそれぞれに、操作デバイス10L,10Rを装着する。以下の例では当初、ユーザは右手の各指を揃えて伸ばした状態で描画を行うものとする。なお通常、ユーザは、描画中は主に右手の指先を注視するので、表示デバイス20のカメラ21にはユーザの右手が撮像されるものとする。このときユーザの左手は、表示デバイス20のカメラ21の視野外にあってもよい。
制御装置30は、図5に例示するように、表示デバイス20のカメラ21が撮像して得た画像データに含まれる右手の形状を検出する処理を実行する(S1)。制御装置30は、ユーザの右手に含まれる各指について、指の関節の位置(仮想空間内の対応する座標)を表す情報を生成する。
制御装置30は、操作デバイス10L,10Rのそれぞれから受信した、ユーザの指の動きに係る情報に基づいてユーザの左右の手のポーズを表す第1のポーズ情報を生成する(S2)。
また制御装置30は、処理S1で生成された情報を用いて、表示デバイス20のカメラ21が撮像して得た画像データに含まれる右手の各指が伸ばされた状態にあるか、曲げられた状態にあるかを判断して、指ごとの伸び/曲げの状態を表す情報を第2ポーズ情報として生成する(S3)。この処理S3において、左手の指については、制御装置30は、曲げまたは伸びのいずれの状態にあるか不明である旨の情報を生成する。
制御装置30は、左右のそれぞれの指について、表示デバイス20のカメラ21にて撮像された画像データに撮像されているとの条件を満足するか否かを判断する(S4)。ここでは上述のように、右手の各指が撮像され、左手の各指は撮像されていないので、制御装置30は、右手の親指から小指までは条件を満足すると判断し、左手の親指から小指までは条件を満足しないと判断する。
制御装置30はそして、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指であるか否かを表す条件を参照し、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指については、処理S3で生成した、第2ポーズ情報に含まれる、対応する指の情報を選択して出力し、表示デバイス20のカメラ21にて撮像された画像データに撮像されていない指については処理S2で生成した、第1ポーズ情報に含まれる、対応する指の情報を選択して出力する(S5:条件に基づく組み合わせ出力)。
つまりここでの例では、右手の親指から小指までについては、処理S3で生成した指ごとの伸び/曲げの状態を表す情報がそのまま出力され、左手の親指から小指までについては、処理S2において生成した、指ごとの伸び/曲げの状態を表す情報がそのまま出力される。
制御装置30は、ここで左手のいずれかの指が曲げられた状態にある旨の出力をしているか否かを判断し(S6)、いずれかの指が曲げられた状態にある旨の出力をしているときには(S6:Yes)、色を選択するメニューを表示せず、右手の指がいずれも(5本とも)伸びた状態であるので、5本が伸びた状態であるときに対応する半径であって、最後に選択された色(または選択がないときに使用されるものとして予め定められた色)の球を、右手の、例えば人差し指の指先位置を中心として描画する(S7:描画処理)。制御装置30は、そして、処理S1に戻って処理を続ける。
一方、処理S6において左手の指がいずれも伸ばされていると判断すると(S6:No)、制御装置30は、色の選択画面を、表示デバイス20に対して出力して、ユーザに色を選択させる(S8:パレット表示)。ユーザがここで色を選択すると、制御装置30は、次の描画の際に、当該選択された色を使用するよう設定し、処理S1に戻って処理を続ける。
このように本実施の形態によると、注視している手の指先については、表示デバイス20のカメラ21など、撮像された画像に基づく判断により、指の曲げ伸ばしが判定され、カメラ21によって撮像されない指については、手に装着したデバイスにより指の曲げ伸ばしが判定されることとなる。
既に述べたように、画像データに基づく手のポーズの判断では、手の骨格の形状が推定できるので、指がどの程度曲げられているかが数値的に子細に判断できるのに対し、静電容量センサ等を用いる操作デバイス10のセンサ17等では、近接しているか離れているかの高々2,3段階で判断できるに留まる。つまり、画像データに基づく第2ポーズ情報は、一般に、第1ポーズ情報よりも詳細な手の形状が推定できる。
本実施の形態のここでの例では、表示デバイス20のカメラ21により取得した画像データに基づき第2ポーズ情報を生成するので、ユーザが注視している指先の位置は比較的高い精度で判断できることとなり、一方、ユーザの視野外にある指先の位置は、操作デバイス10のセンサ17などに基づいて判断されるため、比較的低い精度となるものの、手のポーズは推定可能な状態となる。
[組み合わせについての変形例]
なお、ここまでの説明では、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの各指が撮像されているか否かの条件に基づき、表示デバイス20のカメラ21にて撮像された画像データに基づいて生成された第2ポーズ情報と、ユーザの手に装着されたデバイスが検出した情報に基づいて生成された第1のポーズ情報とのそれぞれから選択的に各指の情報を取得することとしていたが、本実施の形態はこれに限られない。
例えば、既に述べたように、表示デバイス20のカメラ21にて撮像された画像データに基づいて第2ポーズ情報を生成する際に、推定される骨格モデルの形状については、その推定の信頼度の情報が併せて得られる場合がある。そこで、この信頼度を用いて、信頼度が高いほど「1」に近くなり、信頼度が低いほど「0」に近くなるパラメータαを用いて、第1ポーズ情報に含まれる、指の開度を表す値Fpと、第2ポーズ情報に含まれる、同じ指の開度を表す値Frとから、当該指についてのポーズ情報(開度を表す値)Fを、
F=(1−α)・Fp+α・Fr
というように、重みづけ平均により決定してもよい。
この例では、制御装置30は、左右のそれぞれの手についての信頼度の情報から、対応する手のパラメータαを演算し、当該パラメータαを用いて、対応する手の各指のポーズ情報(指の開度を表す値)Fを、上述の数式により求めることとする。
また、このパラメータαは、信頼度の情報だけでなく、カメラ21にて撮像された画像データ内にある手の位置に基づいて補正されてもよい。例えば、画像データの周縁部では、カメラ21の光学系による歪みが影響する可能性があることに配慮して、周縁部の所定範囲に撮像された指については、パラメータαを、信頼度が低いときの値(ここでの例では「0」に近い値)に低減補正してもよい。
[条件の別の例]
以上の説明では、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの各指が撮像されているか否かの条件により、第1ポーズ情報と第2ポーズ情報とを組み合わせることとしていたが、本実施の形態において用いられる条件はこの条件に限られない。
例えば、組み合わせの態様を決定する条件としては、操作デバイス10により検出されたユーザの指の動きに係る情報と、表示デバイス20のカメラ21にて撮像された画像データに基づいて検出されたユーザの手の形状に係る情報との時間的変化に係る条件を含んでもよい。
この条件を充足するか否かは、例えば、操作デバイス10により検出された情報から得られた指ごとの開度の情報の、過去所定期間内でのばらつきを表す統計量(分散など)σ1と、表示デバイス20のカメラ21にて撮像された画像データに基づいて得られた指の開度の情報の、過去所定期間内でのばらつきを表す統計量(分散など)σ2とにより判断される。
すなわち、ある指についての上記統計量がσ1<σ2であれば、当該指については第1ポーズ情報の開度の値をポーズ情報に含めて出力し、統計量がσ1≧σ2であれば、当該指については第2ポーズ情報の開度の値をポーズ情報に含めて出力することとしてもよい。
この例によると、判断がゆらぐ(値が頻繁に変化する)検出結果を信頼できないものとして扱うこととなる。
さらに、条件は複数組み合わせて用いられてもよい。例えば、ある指が撮像されている場合であっても、当該指についての上記統計量の差σ2−σ1が予め定めた閾値を超えている場合は、当該指については第1ポーズ情報の開度の値をポーズ情報に含めて出力することとしてもよい。これは、撮像されている指であっても、判断が比較的大きくゆらぐ(値が頻繁に変化する)場合に、その撮像された画像データに基づく検出結果を信頼できないものとして扱うことに相当する。
[手のポーズを表す情報の変形例]
また、手のポーズを表す情報としては、ここまでに述べたような、指の開度(関節がどれだけ曲げられているか/伸ばされているか)を表す情報に限られない。手のポーズを表す情報はこのほか、手の向き(手の平の法線の方向)や、親指の向きの情報等が含まれてもよい。
さらに、手のポーズを表す情報が複数の情報の要素(各指の開度、手の向き、親指の向き等の情報)を含む場合、情報の要素ごとに、所定の条件に基づいて、第1ポーズ情報と第2ポーズ情報とのいずれに含まれる情報要素を用いるか(あるいはどのような重みによって組み合わせるか)を決定してもよい。
一例として、制御装置30は、各情報の要素について、第1ポーズ情報の過去所定期間内でのばらつきを表す統計量(分散など)σ1と、表示デバイス20のカメラ21にて撮像された画像データに基づいて得られた第2ポーズ情報の過去所定期間内でのばらつきを表す統計量(分散など)σ2との比較により、ある情報の要素についての上記統計量がσ1<σ2であれば、当該情報の要素については第1ポーズ情報の値をポーズ情報に含めて出力し、統計量がσ1≧σ2であれば、当該情報の要素については第2ポーズ情報の値をポーズ情報に含めて出力することとしてもよい。
この例では、例えば右手のすべての指の開度については第2ポーズ情報の値が用いられても、手の向きについては第1ポーズ情報の値が用いられる、などといったことが生じ得る。
[カメラの位置]
また、ここまでの説明において、第2ポーズ情報のもととなる画像データを撮影するカメラ21は表示デバイス20のユーザ前面側に配されるものとしたが、本実施の形態はこれに限られず、表示デバイス20の頭頂部や側頭部などに配されてもよい。さらに、このカメラは表示デバイス20とともに移動する必要は必ずしもなく、ユーザが所在する部屋に配置されたカメラであってもよい。またカメラは一つだけでなく、複数あってもよい。
さらに、カメラは光学的なカメラでなくても、赤外線を投影してその濃淡の像を得るような、いわゆるデプスカメラ(被写体までの距離情報を取得するカメラ)であってもよい。
[操作デバイスの他の例]
また操作デバイス10は、ユーザが指を開いても落下することなく、ユーザの指の開度を測定できるものであれば、ここまでに例示したものでなくてもよい。例えば、ユーザが手に装着し、各指の開度(関節の曲げ角度)を歪みゲージ等で計測するグローブであってもよい。
[表示態様の変更]
本実施の形態では、さらに、制御装置30がユーザの手のポーズ情報に基づいて、生成して表示デバイス20に出力する画像データに含める仮想的なキャラクタの手の形状を変更するだけでなく、その画像データにおけるオブジェクトの表示態様を異ならせてもよい。例えば、制御装置30は、各指の開度の情報を、第1ポーズ情報と第2ポーズ情報とのいずれかから選択している場合、第1ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指と、第2ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指とで、異なる態様で指の描画を行ってもよい。具体的には、制御装置30は、第1ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指については、背景に半透明合成(アルファブレンディング)し、第2ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指については背景を透過させないで描画するようにしてもよい。また半透明合成するか否かではなく、輪郭線の色を異ならせるなど、他の方法で表示態様を異ならせてもよい。
[処理への反映]
また本実施の形態の制御装置30は、各指の開度の情報を、第1ポーズ情報と第2ポーズ情報とのいずれかから選択している場合、第1ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指と、第2ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指と、仮想空間内のオブジェクトとの接触判定(いわゆるコリジョン判定)の方法を異ならせてもよい。
すなわち、本実施の形態のある例では、制御装置30は、比較的精度の低い判定結果に基づいて仮想空間内の位置が決定されている指(上述の例では第1ポーズ情報により位置が決定されている指)については、オブジェクトの形状に関わらず、その外接直方体に当該指が接触したときにオブジェクトと接触したと判断してもよい。
また制御装置30は、比較的精度の高い判定結果に基づいて仮想空間内の位置が決定されている指(上述の例では第2ポーズ情報により位置が決定されている指)については、オブジェクトの外形表面に当該指が接触したときにオブジェクトと接触したと判断する。
この例では、例えばユーザが視認していない(表示デバイス20のカメラ21の視野外にある)指についてのオブジェクトとの接触判定と、ユーザが視認している(表示デバイス20のカメラ21の視野内にある)指についてのオブジェクトとの接触判定とで判定方法を異ならせ、視認している指についての接触判定を比較的厳密に行うのに対し、視認していない指については簡易に判定を行うこととする。
[切り替わり]
なお、本実施の形態の例では、第1ポーズ情報によってその仮想空間内での位置が判断されていた指が、カメラ21の視野範囲に移動することで、第2ポーズ情報によってその仮想空間内での位置が判断されるように切り替わることが考えられる。このとき、推定結果の差によって指が不自然に移動することを防止するため、制御装置30は、指や手の位置等の情報について、前回の位置の情報との差が予め定めたしきい値を超える場合は、急速な変化を防止するために、前回の位置と今回演算された位置との間で時間に応じて変化する重みにより重みづけ付け平均し、徐々に今回演算された位置に移動するように調整してもよい。このような調整処理方法は広く知られた方法を採用できる。
[手の位置等の検出]
また、制御装置30は、操作デバイス10が検出する情報と、表示デバイス20のカメラ21が撮像した画像データとの双方を用いて、ユーザの手の位置の情報を生成して出力してもよい。具体的に、操作デバイス10が重力方向に対するユーザの手の平の角度の情報を出力する場合、制御装置30は、この情報と、表示デバイス20のカメラ21が撮像した画像データから検出された手の位置の情報とに基づいて、ユーザの実空間内での手の位置の情報(実空間内に設定された所定座標系での手の重心位置の情報など)を生成して出力する。また制御装置30は、この手の重心位置の情報に対応する仮想空間内での位置の情報を生成して出力する。
このように、本実施の形態では、指等、手のポーズに限らず、ユーザの姿勢や各関節の位置及び回転角度等の情報を、操作デバイス10が検出する情報と、表示デバイス20のカメラ21が撮像した画像データとの双方を用いて生成してもよい。
[状態の表示]
また、本実施の形態では、制御装置30は、表示デバイス20のカメラ21にて撮像された画像データから、ユーザの指が検出できたか否かをユーザに通知してもよい。この通知は、表示デバイス20に対して表示することにより行ってもよいし、音声等で鳴動されてもよい。またユーザが触力覚提示デバイスを装着しているときには、制御装置30は、当該デバイスを用いて力覚を提示するなどして通知を行ってもよい。
また制御装置30は、操作デバイス10から受信した、ユーザの指の動きに係る情報に基づいて生成した第1ポーズ情報と、表示デバイス20のカメラ21にて撮像された画像データを用いて生成した第2ポーズ情報とを比較して、それらがそれぞれ一致しているか否かを表す通知を行ってもよい。
具体的に、第1ポーズ情報,第2ポーズ情報がそれぞれ各指の開度のように数値の情報である場合、数値を丸めて(例えば四捨五入して)から比較して一致しているか否かを判断してもよい。
さらにここまでの説明では、制御装置30が、ユーザの指のポーズの情報を生成することとしていたが、指のポーズに代えて、互いに検出方法が異なる複数の種類の検出手段を用いてそれぞれ検出した足の状態(足首の角度や足の指の方向等)や、身体の状態(姿勢等)の情報(検出情報)を用い、所定の条件で当該得られた複数の情報を組み合わせて、出力の対象とする足の状態を表す情報や身体の状態を表す情報を生成して出力してもよい。
1 情報処理システム、10 操作デバイス、11 把持部、12 操作部、14 固定具、15 センサ部、16 ボタン操作部、17 センサ、18 ボタン、19 制御回路、20 表示デバイス、21 カメラ、30 制御装置、31 制御部、32 記憶部、33 操作受入部、34 表示制御部、51 手画像検出部、52 第1ポーズ情報生成部、53 第2ポーズ情報生成部、54 条件判定部、55 ポーズ情報出力部、56 画像データ生成処理部。

Claims (10)

  1. ユーザの手に装着され、ユーザの指の動きに係る情報を取得する第1の検出装置、及び、前記第1の検出装置とは異なる場所に配され、所定の視野内にあるユーザの手の形状を検出する第2の検出装置に接続され、
    前記第1の検出装置からユーザの指の動きに係る情報を受け入れるとともに、前記第2の検出装置からユーザの手の形状に係る情報を受け入れる受入手段と、
    前記第1の検出装置により検出され、当該第1の検出装置から受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する第1ポーズ情報生成手段と、
    前記第2の検出装置により検出され、当該第2の検出装置から受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する第2ポーズ情報生成手段と、
    前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力手段と、を含み、
    前記ポーズ情報出力手段は、前記予め定めた条件に基づく基準に従って、前記ユーザの指の動きに基づく第1のポーズ情報と、前記第2の検出装置により検出されたユーザの手の形状に基づく第2のポーズ情報と、のいずれかを選択して、ユーザの手のポーズを表す情報を生成して出力する制御装置。
  2. 請求項1に記載の制御装置であって、
    前記予め定めた条件は、前記第2の検出装置の視野範囲に、前記ユーザの指が含まれるか否かに基づく条件を含む条件である制御装置。
  3. 請求項1または2に記載の制御装置であって、
    前記予め定めた条件は、前記ユーザの指の動きに係る情報と、前記ユーザの手の形状に係る情報との時間的変化に係る条件を含む条件である制御装置。
  4. 請求項1からのいずれか一項に記載の制御装置であって、
    前記ユーザの手のポーズを表す情報は、
    ユーザの手の向きと、
    各指の開度と、
    親指の向きと、
    の少なくとも一つを含む情報である制御装置。
  5. 請求項1からのいずれか一項に記載の制御装置であって、
    さらに、ユーザに提示する画像情報を生成する手段を含み、
    前記生成したユーザの手のポーズを表す情報に基づいて、当該生成する画像情報に含まれる画像の表示態様を異ならせる制御装置。
  6. 請求項1から5のいずれか一項に記載の制御装置であって、
    当該制御装置に接続される前記第2の検出装置は、ユーザの頭部に装着されるヘッドマウントディスプレイに配され、ユーザの前方の所定範囲の視野内のユーザの手の形状を検出する装置である制御装置。
  7. ユーザの手に装着され、ユーザの指の動きに係る情報を取得する第1の検出装置と、
    前記第1の検出装置とは異なる場所に配され、所定の視野内にあるユーザの手の形状を検出する第2の検出装置と、
    前記第1の検出装置、及び第2の検出装置に接続される制御装置と、を含み、
    前記制御装置が、
    前記第1の検出装置からユーザの指の動きに係る情報を受け入れるとともに、前記第2の検出装置からユーザの手の形状に係る情報を受け入れる受入手段と、
    前記第1の検出装置により検出され、当該第1の検出装置から受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する第1ポーズ情報生成手段と、
    前記第2の検出装置により検出され、当該第2の検出装置から受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する第2ポーズ情報生成手段と、
    前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力手段と、を含み、
    前記ポーズ情報出力手段は、前記予め定めた条件に基づく基準に従って、前記ユーザの指の動きに基づく第1のポーズ情報と、前記第2の検出装置により検出されたユーザの手の形状に基づく第2のポーズ情報と、のいずれかを選択して、ユーザの手のポーズを表す情報を生成して出力する情報処理システム。
  8. 請求項7に記載の情報処理システムであって、
    さらに、前記第1の検出装置は、重力方向に対するユーザの手の角度の情報を検出しており、
    前記制御装置は、前記第1の検出装置が検出した情報と、前記第2の検出装置が検出した情報とに基づいて、ユーザの手の位置の情報を生成して出力する情報処理システム。
  9. ユーザの手に装着され、ユーザの指の動きに係る情報を取得する第1の検出装置、及び、前記第1の検出装置とは異なる場所に配され、所定の視野内にあるユーザの手の形状を検出する第2の検出装置に接続されるコンピュータを用い、
    受入手段が、前記第1の検出装置からユーザの指の動きに係る情報を受け入れるとともに、前記第2の検出装置からユーザの手の形状に係る情報を受け入れる工程と、
    第1ポーズ情報生成手段が、前記第1の検出装置により検出され、当該第1の検出装置から受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する工程と、
    第2ポーズ情報生成手段が、前記第2の検出装置により検出され、当該第2の検出装置から受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する工程と
    ポーズ情報出力手段が、前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力工程と、を含み、
    前記ポーズ情報出力工程では、前記ポーズ情報出力手段が、前記予め定めた条件に基づく基準に従って、前記ユーザの指の動きに基づく第1のポーズ情報と、前記第2の検出装置により検出されたユーザの手の形状に基づく第2のポーズ情報と、のいずれかを選択して、ユーザの手のポーズを表す情報を生成して出力する制御装置の制御方法。
  10. ユーザの手に装着され、ユーザの指の動きに係る情報を取得する第1の検出装置、及び、前記第1の検出装置とは異なる場所に配され、所定の視野内にあるユーザの手の形状を検出する第2の検出装置に接続されるコンピュータを、
    前記第1の検出装置からユーザの指の動きに係る情報を受け入れるとともに、前記第2の検出装置からユーザの手の形状に係る情報を受け入れる受入手段と、
    前記第1の検出装置により検出され、当該第1の検出装置から受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する第1ポーズ情報生成手段と、
    前記第2の検出装置により検出され、当該第2の検出装置から受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する第2ポーズ情報生成手段と、
    前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力手段と、
    として機能させ、
    前記ポーズ情報出力手段として機能させる際には、前記予め定めた条件に基づく基準に従って、前記ユーザの指の動きに基づく第1のポーズ情報と、前記第2の検出装置により検出されたユーザの手の形状に基づく第2のポーズ情報と、のいずれかを選択して、ユーザの手のポーズを表す情報を生成して出力させるプログラム。
JP2019514986A 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム Active JP6716028B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/016770 WO2018198272A1 (ja) 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018198272A1 JPWO2018198272A1 (ja) 2019-11-07
JP6716028B2 true JP6716028B2 (ja) 2020-07-01

Family

ID=63918861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019514986A Active JP6716028B2 (ja) 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム

Country Status (5)

Country Link
US (1) US11501552B2 (ja)
EP (1) EP3617845A4 (ja)
JP (1) JP6716028B2 (ja)
CN (1) CN110520822B (ja)
WO (1) WO2018198272A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210069491A (ko) * 2019-12-03 2021-06-11 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN111649739B (zh) * 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质
JPWO2022014445A1 (ja) * 2020-07-14 2022-01-20
US20230206622A1 (en) * 2020-09-25 2023-06-29 Sony Group Corporation Information processing device, information processing method, and program
JPWO2022064881A1 (ja) * 2020-09-28 2022-03-31

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195140A (ja) 1997-12-27 1999-07-21 Canon Inc データ処理方法及び装置並びに記憶媒体
US6704694B1 (en) 1998-10-16 2004-03-09 Massachusetts Institute Of Technology Ray based interaction system
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
AU2003205391A1 (en) 2002-03-12 2003-09-29 Senseboard, Inc. Data input device
JP2003337963A (ja) 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
KR100634494B1 (ko) 2002-08-19 2006-10-16 삼성전기주식회사 착용가능한 정보 입력 장치, 정보 처리 장치 및 정보 입력방법
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
JP2005292883A (ja) 2004-03-31 2005-10-20 Pioneer Electronic Corp 情報入力装置
US7728316B2 (en) 2005-09-30 2010-06-01 Apple Inc. Integrated proximity sensor and light sensor
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
US9477310B2 (en) 2006-07-16 2016-10-25 Ibrahim Farid Cherradi El Fadili Free fingers typing technology
JP2010064155A (ja) * 2008-09-08 2010-03-25 Toyota Motor Corp 把持装置
US8754746B2 (en) 2009-11-16 2014-06-17 Broadcom Corporation Hand-held gaming device that identifies user based upon input from touch sensitive panel
JP5364035B2 (ja) 2010-05-11 2013-12-11 日本放送協会 仮想力覚提示装置及び仮想力覚提示プログラム
US9245177B2 (en) 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US10055017B2 (en) 2010-10-22 2018-08-21 Joshua Michael Young Methods devices and systems for creating control signals
JP5641970B2 (ja) 2011-02-18 2014-12-17 シャープ株式会社 操作装置、再生装置及びテレビ受信装置
KR101800182B1 (ko) * 2011-03-16 2017-11-23 삼성전자주식회사 가상 객체 제어 장치 및 방법
US20120249417A1 (en) 2011-03-29 2012-10-04 Korea University Research And Business Foundation Input apparatus
US8719098B2 (en) * 2011-05-13 2014-05-06 Toshiba Global Commerce Solutions Holdings Corporation Real-time product delivery during customer-driven point of sale retail transactions
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
EP2613223A1 (en) 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
JP5174978B1 (ja) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 情報処理装置、電子機器およびプログラム
GB2523043B (en) 2012-11-07 2019-11-06 Callaghan Innovation Arm exercise device and system
EP2796965B1 (en) 2013-04-22 2019-12-18 Immersion Corporation Gaming device having a haptic enabled trigger
JP6121534B2 (ja) * 2013-08-02 2017-04-26 三菱電機株式会社 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体
US20150042580A1 (en) * 2013-08-08 2015-02-12 Lg Electronics Inc. Mobile terminal and a method of controlling the mobile terminal
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
JP6303825B2 (ja) 2014-05-30 2018-04-04 富士通株式会社 入力装置
JP6418820B2 (ja) 2014-07-07 2018-11-07 キヤノン株式会社 情報処理装置、表示制御方法、及びコンピュータプログラム
US10019059B2 (en) 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object
EP3193238A4 (en) * 2014-09-10 2018-07-18 Sony Corporation Detection device, detection method, control device, and control method
US10274992B2 (en) 2014-11-12 2019-04-30 Kyocera Corporation Wearable device with muscle activity detector
JP6737996B2 (ja) 2015-01-19 2020-08-12 カーブ・ラブズ・リミテッド コンピュータ用のハンドヘルドコントローラ、コンピュータ用のコントロールシステムおよびコンピューターシステム
EP3265895B1 (en) 2015-03-01 2020-04-08 Tactical Haptics Embedded grasp sensing devices, systems, and methods
JP2017075465A (ja) 2015-10-14 2017-04-20 オムロンオートモーティブエレクトロニクス株式会社 携帯型電子機器
US10509469B2 (en) 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
US10391400B1 (en) 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US20180161670A1 (en) 2016-12-12 2018-06-14 Evgeny Boev Single-Handed Input Controller and Method
DE112018001457T5 (de) 2017-03-20 2020-01-23 Tactual Labs Co. Sensor-steuerung

Also Published As

Publication number Publication date
WO2018198272A1 (ja) 2018-11-01
CN110520822A (zh) 2019-11-29
EP3617845A1 (en) 2020-03-04
US11501552B2 (en) 2022-11-15
CN110520822B (zh) 2023-06-27
US20210117663A1 (en) 2021-04-22
JPWO2018198272A1 (ja) 2019-11-07
EP3617845A4 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
JP6716028B2 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
US10636212B2 (en) Method for generating image to be displayed on head tracking type virtual reality head mounted display and image generation device
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9884248B2 (en) Display control method for head-mounted display (HMD) and image generation device
US20160246384A1 (en) Visual gestures for a head mounted device
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
WO2018030453A1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム、及びコンピュータ
JP2022534639A (ja) 指マッピング自己触覚型入力方法を有する人工現実システム
EP3163407B1 (en) Method and apparatus for alerting to head mounted display user
EP3979234A1 (en) Information processing device, information processing method, and program
JP6710285B2 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6157703B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
US10747308B2 (en) Line-of-sight operation apparatus, method, and medical device
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP6687749B2 (ja) 情報処理装置、制御方法、プログラム、及び記録媒体
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2018110871A (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6209252B1 (ja) 仮想空間内のキャラクタを動作させる方法、当該方法をコンピュータに実行させるためのプログラム及びコンピュータ装置
KR102325684B1 (ko) 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법
JP6290493B2 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP2018029969A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
WO2023181549A1 (ja) 制御装置、制御方法、プログラム
JP7413122B2 (ja) 画像生成システム、画像生成装置及び画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200609

R150 Certificate of patent or registration of utility model

Ref document number: 6716028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150