JP2015207908A - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP2015207908A JP2015207908A JP2014087390A JP2014087390A JP2015207908A JP 2015207908 A JP2015207908 A JP 2015207908A JP 2014087390 A JP2014087390 A JP 2014087390A JP 2014087390 A JP2014087390 A JP 2014087390A JP 2015207908 A JP2015207908 A JP 2015207908A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- determination area
- determination
- unit
- operators
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】操作者の人数に従って操作者の動作を検出することが可能な情報処理装置を提供する。
【解決手段】情報処理装置は、少なくとも1人の操作者を撮像する撮像部と、操作者の人数を検出する人数検出部と、撮像部で撮像された撮像データ内において操作者の動作を検出するための判定領域を設定する判定領域設定部と、判定領域内における操作者の所定動作を検出して所定の処理を実行する処理実行部とを備える。判定領域設定部は、人数検出部で検出された人数に従って各操作者に対応する判定領域を調整する。
【選択図】図2
【解決手段】情報処理装置は、少なくとも1人の操作者を撮像する撮像部と、操作者の人数を検出する人数検出部と、撮像部で撮像された撮像データ内において操作者の動作を検出するための判定領域を設定する判定領域設定部と、判定領域内における操作者の所定動作を検出して所定の処理を実行する処理実行部とを備える。判定領域設定部は、人数検出部で検出された人数に従って各操作者に対応する判定領域を調整する。
【選択図】図2
Description
本発明は、情報処理装置に関する。
撮像装置により撮像された動撮像データに基づく動画像から、操作者の操作指示の動きを検出し、検出した動きによる操作指示を表わす操作データを操作対象機器に出力する情報処理装置が知られている(特許文献1参照)。
しかしながら、上記公報においては、操作者の操作指示の動きを検出する所定の判定領域を設定する場合が開示されており、複数の操作者が存在する場合に所定の判定領域を設定した場合には、当該判定領域に他の操作者の操作指示の動きが入ることになるため誤操作を生じさせる可能性がある。
本発明は、上記のような課題を解決するためになされたものであって、操作者の人数に従って操作者の動作を検出することが可能な情報処理装置を提供することを目的とする。
本発明のある局面に従う情報処理装置は、少なくとも1人の操作者を撮像する撮像部と、操作者の人数を検出する人数検出部と、撮像部で撮像された撮像データ内において操作者の動作を検出するための判定領域を設定する判定領域設定部と、判定領域内における操作者の所定動作を検出して所定の処理を実行する処理実行部とを備える。判定領域設定部は、人数検出部で検出された人数に従って各操作者に対応する判定領域を調整する。
操作者の人数に従って操作者の動作を検出することが可能である。
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰り返さない。
<全体構成>
図1は、実施形態に基づく情報処理装置1の外観を説明する図である。
図1は、実施形態に基づく情報処理装置1の外観を説明する図である。
図1を参照して、情報処理装置1は、表示装置10と、カメラ20と、本体部30とを含む。なお、表示装置10、カメラ20、本体部30についてそれぞれが独立した装置であっても良いし、1つの装置に含められる構成としても良い。
本例においては、操作者に対してカメラ20が向けられる。そして、本体部30は、カメラ20と接続され、カメラ20で取得する撮像データに基づいて操作者の所定動作を検出して、所定の処理を実行する。具体的には、本体部30と接続されている表示装置10に表示されているキャラクタPCに対する処理を実行する。ここでは、ゲーム処理としてキャラクタPCとキャラクタECとが戦闘しているシーンを想定している。本体部30は、カメラ20からの撮像データに基づいて操作者の所定動作(ジェスチャ)を検出して、表示装置10に表示されるキャラクタPCについて、検出した所定動作に応じた所定の動き(パンチ、キック等)を実行するように制御する。
<機能ブロック図>
図2は、実施形態に基づく本体部30の機能を説明する機能ブロック図である。
図2は、実施形態に基づく本体部30の機能を説明する機能ブロック図である。
図2を参照して、本体部30は、主にCPU(Central Processing Unit)と、メモリ等で形成され、メモリに格納されたプログラムをCPUが実行することにより各種の機能ブロックが形成される。
具体的には、本体部30は、人数検出部31と、ジェスチャ検出部32と、判定領域設定部33と、処理実行部34と、出力部35とを含む。
人数検出部31は、カメラ20から取得された撮像データに基づいて操作者の人数を検出する。具体的には、取得された撮像データから操作者の顔画像を抽出して操作者の人数を検出する。顔画像の抽出は、例えば顔の特徴点を検知して抽出する公知の顔画像検出プログラムに基づいて実現することが可能である。なお、本例においては、顔画像を抽出して操作者の人数を検出する場合について説明したが、人数の検出はこれに限られず、例えば操作者のそれぞれが使用するリモコンの台数等によっても検出することが可能である。
判定領域設定部33は、人数検出部31からの人数に関する情報に基づいて撮像データにおける操作者の動作(ジェスチャ)を検出する判定領域を設定する。
ジェスチャ検出部32は、撮像データ内の判定領域内における操作者の所定動作を検出する。例えば、操作者の動作(ジェスチャ)の検出として、判定領域内の操作者の手の形や動き等を検出する。本例において、検出する操作者の所定動作は予め定められているものとし、例えばメモリ等において登録されているものとする。登録されている操作者の所定動作は1つでも良いが、複数の種類の所定動作が登録されているものとし、それぞれの所定動作に応じた処理が実行される。
ジェスチャ検出部32は、検出した所定動作を処理実行部34に出力し、処理実行部34は、ジェスチャ検出部32で検出された所定動作に応じた所定の処理を実行する。
処理実行部34は、表示装置10と接続されている出力部35に対して指示し、たとえば、表示装置10に表示されているキャラクタPCについて所定動作に応じた所定の動きとなるように指示する。
<人数検出処理>
図3は、実施形態に基づく人数検出処理を説明するフロー図である。
図3は、実施形態に基づく人数検出処理を説明するフロー図である。
当該フローは、主に本体部30の人数検出部31における処理である。
図3に示されるように、まず撮像データを取得する(ステップS1)。具体的には、カメラ20からの撮像データを取得する。
図3に示されるように、まず撮像データを取得する(ステップS1)。具体的には、カメラ20からの撮像データを取得する。
次に、顔画像を抽出する顔画像抽出処理を実行する(ステップS2)。顔画像の抽出は、例えば顔の特徴点を検知して抽出する公知の顔画像検出プログラムに基づいて実行する。
次に、顔画像抽出処理により抽出した顔画像に従って人数を算出する(ステップS3)。なお、抽出した顔画像の数と人数とは一例として一致しているが、一致していなくても良い。例えば、操作者の人数に制限がある場合には、制限人数を上限として人数を算出しても良い。有効な操作者の選定については、例えば撮像データ中の顔の大きさ(面積)に従って選定したり、あるいは体の大きさ(面積)にしたがって選定することが可能である。
そして、算出した人数に関する情報を出力する(ステップS4)。具体的には、人数検出部31は、判定領域設定部33に算出した人数に関する情報を出力する。なお、人数だけでなく操作者を特定する情報も併せて出力するようにしても良い。
そして、処理を終了する(エンド)。
<判定領域設定処理>
図4は、実施形態に基づく判定領域設定処理を説明するフロー図である。
<判定領域設定処理>
図4は、実施形態に基づく判定領域設定処理を説明するフロー図である。
当該フローは、主に本体部30の判定領域設定部33における処理である。
図4に示されるように、人数が複数であるか否かを判断する(ステップS10)。人数検出部31からの人数に関する情報に基づいて人数が複数であるか否かを判断する。
図4に示されるように、人数が複数であるか否かを判断する(ステップS10)。人数検出部31からの人数に関する情報に基づいて人数が複数であるか否かを判断する。
次に、ステップS10において、人数が複数で無いと判断した場合(ステップS10においてNO)には、操作者に対して所定の判定領域を設定する(ステップS11)。所定の判定領域とは、操作者が単数の場合に予め定められている所定の大きさの判定領域である。
そして、処理を終了したか否かを判断する(ステップS13)。
ステップS13において、処理を終了したと判断した場合(ステップS13においてYES)には、処理を終了する(エンド)。一方、ステップS13において、処理を終了していないと判断した場合(ステップS13においてNO)には、ステップS10に戻り上記処理を繰り返す。
ステップS13において、処理を終了したと判断した場合(ステップS13においてYES)には、処理を終了する(エンド)。一方、ステップS13において、処理を終了していないと判断した場合(ステップS13においてNO)には、ステップS10に戻り上記処理を繰り返す。
一方、ステップS10において、人数が複数であると判断した場合(ステップS10においてYES)には、人数に応じて判定領域を設定する(ステップS12)。各操作者に対応する判定領域を設定する。そして、ステップS13に進む。以降の処理は同様であるのでその詳細な説明については繰り返さない。
図5は、実施形態に基づく操作者が単数の場合の判定領域の設定の一例を説明する図である。
図5に示されるように、操作者が単数である場合には、ある程度広い領域の所定の判定領域が設定される。所定の判定領域を広く設定することにより操作者の所定動作の検出の精度を上げることが可能である。
図6は、実施形態に基づく操作者が複数の場合の判定領域の設定の一例を説明する図である。
図6に示されるように、操作者が複数である場合には、それぞれの操作者に対応して判定領域が設定される。具体的には、図6(A)において、操作者が2人である場合に、それぞれの操作者に対応する判定領域が設定される。具体的には、操作者に対応する判定領域がそれぞれ互いに重ならないように設定される。図6(B)において、操作者が3人である場合に、それぞれの操作者に対応する判定領域が設定される。具体的には、操作者に対応する判定領域がそれぞれ互いに重ならないように設定される。
図7は、実施形態に基づく判定領域の範囲の調整について説明する図である。
図7に示されるように、操作者が複数である場合には、操作者の顔画像の距離を算出する。
図7に示されるように、操作者が複数である場合には、操作者の顔画像の距離を算出する。
一例として、算出した顔画像の距離(判定領域の横方向(X軸方向)の範囲)よりも、判定領域の横方向(X軸方向)の長さが小さくなるように調整する。具体的には、所定の判定領域に係数α(α<1)を乗算して判定領域を調整することが可能である。
なお、本例においては、複数の操作者の顔画像がX軸と平行線上にある場合について説明したが、特に平行線上に無い場合であっても顔画像の距離を横方向(X軸方向)の長さとすることにより同様に適用可能である。
当該処理により、検出した操作者の人数に応じて、各操作者に対応して設定される判定領域を調整することが可能である。
そして、当該調整された判定領域により、他の操作者の動作が検出されることを抑制し、誤操作が生じることを抑制することが可能である。
(変形例1)
図8は、実施形態の変形例1に基づく本体部30#の機能を説明する機能ブロック図である。
図8は、実施形態の変形例1に基づく本体部30#の機能を説明する機能ブロック図である。
図8を参照して、本体部30#は、主にCPU(Central Processing Unit)と、メモリ等で形成され、メモリに格納されたプログラムをCPUが実行することにより各種の機能ブロックが形成される。
具体的には、本体部30#は、本体部30と比較して、判定領域設定部33を判定領域設定部33#に置換するとともに、動作態様判定部36をさらに設けた点が異なる。その他の点については同様であるのでその詳細な説明については繰り返さない。
動作態様判定部36は、撮像データ内の操作者の動作態様を判定する。動作態様の判定とは、操作者が動作している態様か否かの判定である。カメラ20から取得される撮像データに基づいて動作しているか否かを判定することが可能である。あるいは、操作者の姿勢状態に従って、例えば立っている状態か、座っている状態かに基づいて動作している態様か否かを判定するようにしても良い。
動作態様判定部36は、判定結果を判定領域設定部33#に出力する。
判定領域設定部33#は、人数検出部31からの人数に関する情報および動作態様判定部36からの判定結果に基づいて撮像データにおける操作者の動作(ジェスチャ)を検出する判定領域を設定する。
判定領域設定部33#は、人数検出部31からの人数に関する情報および動作態様判定部36からの判定結果に基づいて撮像データにおける操作者の動作(ジェスチャ)を検出する判定領域を設定する。
具体的には、検出された操作者の人数に対して、動作している人数を有効人数として判定領域を設定する。
図9は、実施形態の変形例1に基づく判定領域の設定の一例を説明する図である。
図9に示されるように、操作者が複数(3人)である場合に、中央の1人の操作者のみが動作している態様であるとする。残りの2人の操作者は、座っている状態で動作していない態様であるとする。
図9に示されるように、操作者が複数(3人)である場合に、中央の1人の操作者のみが動作している態様であるとする。残りの2人の操作者は、座っている状態で動作していない態様であるとする。
当該場合には、操作者が1人である場合と判断されて、1人の操作者に対応する判定領域が設定される。
なお、本例においては、1人の操作者に対応する判定領域が設定される場合について説明したが、上記で説明したように、2人の操作者あるいは3人の操作者であると判断された場合には、人数に応じた判定領域が設定される。
当該判定領域の調整により、動作が有効な操作者に対して判定領域が設定されるため効果的に判定領域を設定することが可能である。
(変形例2)
上記においては、カメラ20により撮像される撮像データ内の複数の操作者がカメラ20との間でほぼ同じ距離である場合について説明した。一方で、位置によってはそれぞれの操作者とカメラ20との距離とが異なる場合がある。カメラ20との距離が遠い場合には、画像データ内における操作者も小さくなり、判定領域を小さく設定しても問題ない。
上記においては、カメラ20により撮像される撮像データ内の複数の操作者がカメラ20との間でほぼ同じ距離である場合について説明した。一方で、位置によってはそれぞれの操作者とカメラ20との距離とが異なる場合がある。カメラ20との距離が遠い場合には、画像データ内における操作者も小さくなり、判定領域を小さく設定しても問題ない。
図10は、実施形態の変形例2に基づく判定領域の設定の一例を説明する図である。
図10に示されるように、撮像データ内における操作者の大きさに従って判定領域を調整する。具体的には、顔画像の大きさに従って判定領域を調整する。
図10に示されるように、撮像データ内における操作者の大きさに従って判定領域を調整する。具体的には、顔画像の大きさに従って判定領域を調整する。
人数検出部31は、顔画像抽出処理において抽出した顔画像の面積も算出する。そして、人数に関する情報に顔画像の面積に関する情報も含めて判定領域設定部33に出力する。
判定領域設定部33は、人数に関する情報に含められている顔画像の面積に関する情報に従って判定領域を調整する。右上の操作者の顔画像は、左下の操作者の顔画像と比べてかなり小さい。したがって、当該顔画像の面積に従って判定領域が設定される。顔画像が小さい場合には、判定領域を小さくし、顔画像が大きい場合には、判定領域を大きくする。
当該調整により有効な判定領域が設定されるため効果的に判定領域を設定することが可能である。
[その他の実施の形態]
なお、コンピュータを機能させて、上述のフローチャートで説明したような制御を実行させるプログラムを提供することもできる。プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものでもよい。
なお、コンピュータを機能させて、上述のフローチャートで説明したような制御を実行させるプログラムを提供することもできる。プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものでもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 情報処理装置、10 表示装置、20 カメラ、30,30# 本体部、31 人数検出部、32 ジェスチャ検出部、33,33# 判定領域設定部、34 処理実行部、35 出力部、36 動作態様判定部。
Claims (5)
- 少なくとも1人の操作者を撮像する撮像部と、
前記操作者の人数を検出する人数検出部と、
前記撮像部で撮像された撮像データ内において前記操作者の動作を検出するための判定領域を設定する判定領域設定部と、
前記判定領域内における前記操作者の所定動作を検出して所定の処理を実行する処理実行部とを備え、
前記判定領域設定部は、前記人数検出部で検出された人数に従って各前記操作者に対応する前記判定領域を調整する、情報処理装置。 - 前記判定領域設定部は、前記人数検出部で検出された人数に従って各前記操作者に対応する前記判定領域が互いに重ならないように調整する、請求項1記載の情報処理装置。
- 前記操作者の動作態様を判定する動作態様判定部をさらに備え、
前記判定領域設定部は、前記動作態様判定部で判定した所定の動作態様の操作者に対して前記判定領域を設定する、請求項1記載の情報処理装置。 - 前記人数検出部は、前記撮像部で撮像された撮像データ内における前記操作者の顔画像に基づいて前記操作者の人数を検出する、請求項1〜3のいずれか一項に記載の情報処理装置。
- 前記判定領域設定部は、前記人数検出部で検出された人数および前記操作者の顔画像の大きさに従って各前記操作者に対応する前記判定領域を調整する、請求項4に記載の情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014087390A JP2015207908A (ja) | 2014-04-21 | 2014-04-21 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014087390A JP2015207908A (ja) | 2014-04-21 | 2014-04-21 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015207908A true JP2015207908A (ja) | 2015-11-19 |
Family
ID=54604412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014087390A Pending JP2015207908A (ja) | 2014-04-21 | 2014-04-21 | 情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015207908A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211739A (ja) * | 2016-05-24 | 2017-11-30 | 株式会社エクスビジョン | ユーザインターフェース装置およびユーザインターフェースプログラム |
-
2014
- 2014-04-21 JP JP2014087390A patent/JP2015207908A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017211739A (ja) * | 2016-05-24 | 2017-11-30 | 株式会社エクスビジョン | ユーザインターフェース装置およびユーザインターフェースプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10082879B2 (en) | Head mounted display device and control method | |
CN106846403B (zh) | 一种三维空间中手部定位的方法、装置及智能设备 | |
KR102530219B1 (ko) | 동작 인식의 오류를 검출하는 방법 및 장치 | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US20140267004A1 (en) | User Adjustable Gesture Space | |
JP2017059062A5 (ja) | ||
JPWO2014181403A1 (ja) | 入力装置及び入力プログラム | |
JP2014002462A5 (ja) | ||
US10372223B2 (en) | Method for providing user commands to an electronic processor and related processor program and electronic circuit | |
WO2017029749A1 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
KR20150106823A (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
KR102561274B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
JP2010205223A (ja) | 仮想対象に対するジェスチャーに従う制御を行うシステム及び装置 | |
US11029753B2 (en) | Human computer interaction system and human computer interaction method | |
JP2015176451A (ja) | ポインティング制御装置およびポインティング制御プログラム | |
WO2017113674A1 (zh) | 基于智能设备实现体感控制的方法、系统以及智能设备 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
US20190318503A1 (en) | Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker | |
JP2015207908A (ja) | 情報処理装置 | |
US20150035749A1 (en) | Information processing device, information processing method, and program | |
KR101860138B1 (ko) | 오브젝트 생성 및 오브젝트의 변환이 가능한 동작 인식 센서를 이용한 3차원 입력 장치 | |
JP2015052895A (ja) | 情報処理装置及び情報処理方法 | |
JP2018055685A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
KR102107182B1 (ko) | 손 제스처 인식 시스템 및 방법 | |
JP6170696B2 (ja) | 画像処理装置及び画像処理方法 |