JP5928757B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP5928757B2
JP5928757B2 JP2014545643A JP2014545643A JP5928757B2 JP 5928757 B2 JP5928757 B2 JP 5928757B2 JP 2014545643 A JP2014545643 A JP 2014545643A JP 2014545643 A JP2014545643 A JP 2014545643A JP 5928757 B2 JP5928757 B2 JP 5928757B2
Authority
JP
Japan
Prior art keywords
user
area
face
operation area
detection object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014545643A
Other languages
English (en)
Other versions
JPWO2014073384A1 (ja
Inventor
裕 横川
裕 横川
ニコラ ドゥセ
ニコラ ドゥセ
匠 吉田
匠 吉田
稲田 徹悟
徹悟 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Application granted granted Critical
Publication of JP5928757B2 publication Critical patent/JP5928757B2/ja
Publication of JPWO2014073384A1 publication Critical patent/JPWO2014073384A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Description

本発明は、ユーザを撮像して得られる撮像画像を用いてユーザからの操作入力に応じた画像を表示する情報処理装置に関する。
ゲームシステムなどの情報処理システムにおいては、ユーザから操作入力を受け付ける方法として各種のものが提案されている。その一つとして、ディスプレイの周辺に設置したカメラを使用してユーザが所持するコントローラやユーザ自身を撮像し、その結果得られる撮像画像の中から検出対象物(コントローラやユーザの手など)の位置を特定することによって、ユーザからの操作入力を受け付ける情報処理システムがある。このような情報処理システムによれば、ユーザは自分が所持しているコントローラ又は自分自身の手をカメラの前で動かすことによって情報処理システムに対する操作入力を行うことができる。
上述したような情報処理システムは、ディスプレイの画面に表示した複数のオブジェクトのいずれかをユーザに選ばせるときなど、画面内の一点を指定する操作入力をユーザから受け付けることがある。しかしながら、撮像画像を操作入力として用いる場合、ユーザは画面内の位置を指定する操作入力を行いにくいことがある。自身の手やコントローラの位置と画面内の位置との対応関係がわかりにくく、またその対応関係によっては画面内の一点を指定するために体を大きく動かす必要が生じたりするからである。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、ユーザを撮像して得られる撮像画像を用いてユーザからの操作入力を受け付ける場合に、画面内の位置を指定する操作入力を容易に実現できる情報処理装置、その制御方法、その制御プログラム、及び当該プログラムを格納する情報記憶媒体を提供することにある。
本発明に係る情報処理装置は、ユーザの顔を含む撮像画像を取得する撮像画像取得部と、前記撮像画像に含まれるユーザの顔の位置を特定する顔位置特定部と、前記特定される顔の位置に応じて決まる前記撮像画像内の位置に操作領域を設定する操作領域設定部と、前記操作領域内から検出対象物を検出し、当該検出した検出対象物の前記操作領域内における相対位置に対応する画面内の位置を、ユーザが指定する位置として受け付ける操作受付部と、を含むことを特徴とする。
また、本発明に係る情報処理装置の制御方法は、ユーザからの操作入力に応じた処理を実行する情報処理装置の制御方法であって、ユーザの顔を含む撮像画像を取得するステップと、前記撮像画像に含まれるユーザの顔の位置を特定するステップと、前記特定される顔の位置に応じて決まる前記撮像画像内の位置に操作領域を設定するステップと、前記操作領域内から検出対象物を検出し、当該検出した検出対象物の前記操作領域内における相対位置に対応する画面内の位置を、ユーザが指定する位置として受け付けるステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、ユーザの顔を含む撮像画像を取得する撮像画像取得部、前記撮像画像に含まれるユーザの顔の位置を特定する顔位置特定部、前記特定される顔の位置に応じて決まる前記撮像画像内の位置に操作領域を設定する操作領域設定部、及び、前記操作領域内から検出対象物を検出し、当該検出した検出対象物の前記操作領域内における相対位置に対応する画面内の位置を、ユーザが指定する位置として受け付ける操作受付部、としてコンピュータを機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能な情報記憶媒体に格納されてよい。
本発明の実施の形態に係る情報処理システムの全体構成図である。 コントローラの上側を臨む外観の一例を示す斜視図である。 コントローラの前側を臨む外観の一例を示す斜視図である。 ゲーム装置の機能ブロック図である。 ユーザがポインティング操作を行う際に撮像される基準画像の一例を示す図である。 ポインティング操作に応じて表示される表示画像の一例を示す図である。 ゲーム装置が実行する処理の流れの一例を示す図である。 複数のユーザがポインティング操作を行う場合に撮像される基準画像の一例を示す図である。 メニューの表示例を示す図である。 コントローラの表示位置からオブジェクトが飛び出す様子の表示例を示す図である。 特定されたユーザの顔に対して画像処理が施された様子の表示例を示す図である。 コントローラの姿勢に応じて画面に表示する画像の内容が変化する場合に表示される表示画像の一例を示す図である。 ユーザの顔の位置に応じて指定可能領域が決定される場合の基準画像の一例を示す図である。 ユーザの顔の位置に応じて指定可能領域が決定される場合の表示画像の一例を示す図である。 車を操縦するゲーム処理を実行する場合の基準画像の一例を示す図である。 車を操縦するゲーム処理を実行する場合の表示画像の一例を示す図である。表示画像の別の例を示す図である。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理システムの一例であるゲームシステム10の全体構成図である。図1に示すように、本実施形態に係るゲームシステム10は、本実施形態に係る情報処理装置の一例であるゲーム装置12、スピーカ等が内蔵された、家庭用テレビ受像機等のディスプレイ14、ステレオカメラ16、本実施形態に係る操作入力装置の一例であるコントローラ18(18−1〜18−m)、を含んでいる。
本実施形態では、ゲーム装置12とディスプレイ14とは、ケーブル(例えば、AVケーブルや、HDMI(登録商標)(High-Definition Multimedia Interface)ケーブル等)を介して接続されている。また、ゲーム装置12とステレオカメラ16とは、ケーブル(例えば、USBケーブルや、AVケーブルや、HDMIケーブル等)を介して接続されている。
ゲーム装置12は、例えば、ゲーム装置12にインストールされるプログラムに従って動作するMPU(Micro Processing Unit)等の制御部、ROMやRAM等の記憶素子やハードディスクドライブなどである記憶部、GPU(Graphical Processing Unit)とフレームバッファとから構成される画像処理部、SPU(Sound Processing Unit)とサウンドバッファとから構成される音声処理部、インターネット上のサーバ(図示せず)や、コントローラ18などとの間で、有線又は無線によりデータの送受信を行う、ネットワークボードや無線LANモジュールなどである通信部、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスク(コンピュータ読み取り可能な情報記憶媒体)を読み取る光ディスクドライブ、USB(Universal Serial Bus)ポート、HDMIポート等を含んでいる。これらの要素は互いにバスを介して相互にデータ授受可能に接続される。
画像処理部に含まれるGPUは、制御部から供給される画像データに基づいて、画像処理部に含まれるフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてディスプレイ14に出力される。
音声処理部に含まれるサウンドバッファには、光ディスクやハードディスクから読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。音声処理部に含まれるSPUは、これらの各種音声データを再生して、例えば、ディスプレイ14に内蔵されているスピーカや、コントローラ18に内蔵されているスピーカから出力させる。
ステレオカメラ16は、左右に並べて配置された、レンズ及び撮像素子などを含んで構成されるデジタルカメラのそれぞれが、所定時間(例えば、1/60秒)ごとに、画像を撮像して、ゲーム装置12に出力する。
コントローラ18は、本実施形態における操作入力装置であり、ユーザがコントローラ18に対して行った操作に応じた信号を、ゲーム装置12に送信する。コントローラ18は、方向キー、ボタン、タッチセンサ、アナログスティック、スピーカ、コントローラ18の姿勢や動きの検出に利用される種々のセンサ(加速度センサ、ジャイロセンサ、など)や、バッテリなどを内蔵している。
また、コントローラ18は、ゲーム装置12と通信可能となっている。図1に示すように、コントローラ18は、ゲーム装置12と無線通信(例えば、Bluetooth(登録商標)等の通信規格に従った無線通信)によって接続されるが、コントローラ18が、ゲーム装置12と有線通信によって接続されていてもよい。
本実施形態に係るゲーム装置12の制御部は、所定時間(例えば1/60秒)ごとにコントローラ18の各部の状態をスキャンして、ユーザによって行われた操作の内容をスキャンした状態に基づいて判断する。なお、ゲーム装置12は、複数のコントローラ18を接続可能に構成されており、各コントローラ18から入力される操作状態に基づいて、制御部が各種処理を実行するようになっている。
図2Aは、本実施形態に係るコントローラ18の上側を臨む外観の一例を示す斜視図である。図2Bは、本実施形態に係るコントローラ18の前側を臨む外観の一例を示す斜視図である。
図2A及び図2Bに示すように、本実施形態に係るコントローラ18は、その左部及び右部に、ユーザが保持するための被保持部をそれぞれ有している。左側の被保持部の上面には、方向キーが配置されている。右側の被保持部の上面には、ボタンが配置されている。また、本実施形態に係るコントローラ18は、右側の被保持部の上面以外にも、様々なボタンが配置されている。
また、左側の被保持部の前部と右側の被保持部の前部とを連結する中央部の上面には、パネルと、タッチセンサと、を含む板状操作部材22が配置されている。パネルは、タッチセンサの全体を覆っており、タッチセンサは、パネルの下面(裏面)に取り付けられている。タッチセンサは、検出面(本実施形態では、板状操作部材22の上面)上における物体(ユーザの指やスタイラス等)の位置を検出可能なセンサであり、物体の検出位置に応じた信号を出力する。コントローラ18は、当該信号をゲーム装置12に送信する。
タッチセンサは、本実施形態では、例えば、静電容量式のセンサである。また、タッチセンサは、いわゆるマルチタッチが可能となっており、検出面上の物体の位置を複数同時に検出できるようになっている。また、板状操作部材22は、ユーザの押下操作に応じて上下動できるように支持されている。コントローラ18は、板状操作部材22が押されたことを検出するスイッチを有し、板状操作部材22は、オン/オフ操作が可能なボタンとして機能する。
図2Bに示すように、左側の被保持部の前部と右側の被保持部の前部とを連結する中央部の前面には発光部24が設けられている。発光部24は、左側の被保持部の突出部と右側の被保持部の突出部との間に位置している。また、発光部24は、左右方向に細長い形状を有している。図2Bの例では、発光部24は直線的に伸びる棒状である。なお、発光部24の形状はこれに限られず、例えばV字形状でもよいし、弧状に湾曲してもよい。
本実施形態に係るゲーム装置12は、ステレオカメラ16を通して、発光部24の光を取得する。ゲーム装置12は、ステレオカメラ16を通して取得した画像に対して画像処理を行い、取得した画像における発光部24の位置や大きさに基づいて、コントローラ18の位置を検出する。
発光部24は任意の色で光ることができる。例えば発光部24は、赤色、緑色、及び、青色の発光体(例えば、発光ダイオード)を含み、各発光体の輝度を調節することで、ゲーム装置12が指定する色や、コントローラ18の動作状態に応じた色で光る。このため、複数のコントローラ18が同時に使用される場合であっても、ゲーム装置12は各コントローラ18の位置を検出できる。
また、本実施形態に係るコントローラ18は、左側の被保持部の前部と右側の被保持部の前部とを連結する中央部にスピーカが内蔵されている。そして、当該中央部の上面の、スピーカに対応する位置には、通音孔が形成されている。なお、通音孔の位置に、スピーカとともに、又は、スピーカの代わりに、マイクが配置されていてもよい。
以下、本実施形態においてゲーム装置12が実現する機能について、図3の機能ブロック図を用いて説明する。同図に示すように、ゲーム装置12は、機能的に、撮像画像取得部50と、顔検出部52と、操作受付部54と、表示画像生成部56と、を含んで構成されている。これらの機能は、ゲーム装置12内の記憶部に格納されたプログラムを制御部が実行することにより実現される。このプログラムは、インターネット等の通信回線を介してゲーム装置12に提供されてもよいし、光ディスク等の情報記憶媒体に格納されてゲーム装置12に提供されてもよい。これらの機能により、ゲーム装置12はユーザの操作に応じたゲーム処理を実現し、その処理結果をディスプレイ14の画面に表示する。特に本実施形態では、ユーザは、コントローラ18又はユーザ自身の手を動かして画面内のいずれかの位置を指定する操作を行う。以下では、このような操作をポインティング操作という。ユーザがポインティング操作を自身の手を用いて行うか、それともコントローラ18を用いて行うかは、ゲーム装置12が実行するゲームの種類や設定に応じて決定される。ゲーム装置12は、ユーザのポインティング操作によって指定された画面内の位置に応じたゲーム処理を実行する。
撮像画像取得部50は、ステレオカメラ16によって撮像された撮像画像を取得する。前述したようにステレオカメラ16は左右に並んだ二つのデジタルカメラを含んで構成されており、これら二つのデジタルカメラのそれぞれが画像を撮像する。撮像画像取得部50は、これら二つのデジタルカメラによって撮像された二つの撮像画像のうち、一方を基準画像Ic1、他方を比較用画像Ic2として取得する。基準画像Ic1は、後述する顔検出部52及び操作受付部54による処理の対象として使用される。比較用画像Ic2は、基準画像Ic1内における距離分布のデータを生成するために用いられる。二つのデジタルカメラで同じ被写体を撮像しても、視差によって、当該被写体の基準画像Ic1内における位置と比較用画像Ic2内における位置との間にはずれが生じる。撮像画像取得部50は、このずれを測定することによって、ステレオカメラ16の位置から被写体までの距離を特定することができる。具体的に撮像画像取得部50は、基準画像Ic1を複数のブロックに分割し、各ブロックについて、比較用画像Ic2を用いて当該ブロックに写っている被写体までの距離を測定する。このようにして撮像画像取得部50は、基準画像Ic1内における被写体の距離分布を示すデータを生成する。
顔検出部52は、撮像画像取得部50が取得した基準画像Ic1の中から人の顔を検出し、基準画像Ic1内における顔位置FPを特定する。顔検出部52が基準画像Ic1に対して顔の検出を行う具体的なアルゴリズムは、公知のものであってよい。なお、基準画像Ic1の中から複数の顔が検出された場合、顔検出部52は実際にゲームをプレイ中のユーザと検出された顔との対応関係を決定する必要がある。例えば一人用のゲームを実行中の場合、顔検出部52は基準画像Ic1の中心に最も近い位置で検出された顔をユーザの顔として特定してもよい。あるいは、基準画像Ic1に含まれる顔の中で最も大きな顔をユーザの顔として特定してもよい。また、前述した被写体の距離分布のデータを用いて、最もステレオカメラ16に近い位置(すなわち、最も手前側)にある顔をユーザの顔として特定してもよい。また、N人用のゲームを実行中の場合、中心に近い順、大きさが大きな順、又は距離が近い順にN個の顔を、ゲームをプレイ中のユーザの顔として特定してもよい。図4は、ユーザU1の顔を含んだ基準画像Ic1の一例を示している。この図において顔検出部52は、ユーザU1の顔を検出し、検出された顔の中心の位置座標を顔位置FPとして特定する。
操作受付部54は、ユーザからの操作を受け付けて、受け付けた操作の内容を示す情報を表示画像生成部56に対して出力する。特に本実施形態では、操作受付部54は、ユーザがポインティング操作によって指定する画面内の位置を特定し、その位置座標を表示画像生成部56に対して出力する。その際に操作受付部54は、顔検出部52によって検出された基準画像Ic1内の顔位置FPを基準位置として使用し、この顔位置FPに応じて決まる基準画像Ic1内の位置に操作領域OAを設定する。そして、操作領域OAの中から検出対象とする物体の位置を検出し、当該物体の位置に対応する画面内の位置を、ユーザが指定する位置として取得する。以下では、操作領域OA内において検出対象物が検出された位置を検出位置DPといい、検出位置DPに対応する画面内の位置を指定位置PPという。この指定位置PPが、ポインティング操作によってユーザが指定する位置となる。操作領域OAは基準画像Ic1内に設定される領域であるが、指定位置PPは画面内の位置である。そのため操作受付部54は、操作領域OA内の検出位置DPを画面内の指定位置PPに変換する必要がある。なお、検出対象物(操作受付部54が検出対象とする物体)は、ユーザが動かして位置の指定に用いることができる物体であればよく、ユーザ自身の手などユーザの体の一部であってもよいし、ユーザが手で把持するコントローラ18であってもよい。以下では具体例として、ユーザの一方の手が検出対象物である場合について説明する。
以下、操作受付部54が指定位置PPを取得する方法の具体例について、説明する。まず操作受付部54は、顔位置FPを用いて操作領域OAを基準画像Ic1内に設定する。具体的に、操作領域OAは顔位置FPの下方に設定される。ユーザは自分の顔より下の範囲内で自分の手を動かしてポインティング操作を行うと想定されるからである。操作領域OAの大きさは、予め定められた大きさであってもよいし、検出された顔の大きさやステレオカメラ16から検出された顔までの距離に応じて決定されてもよい。例えば操作受付部54は、検出された顔の大きさが大きいほど、あるいは顔までの距離が短いほど、操作領域OAが大きくなるように操作領域OAの大きさを決定する。ユーザがステレオカメラ16の近くにいるほど、ユーザが自分の手を動かす範囲は基準画像Ic1内の比較的広い範囲に及ぶと考えられるからである。同様に、顔位置FPから操作領域OAの中心までの距離も、予め定められた値であってもよいし、検出された顔の大きさ、又は検出された顔までの距離に応じて決定されてもよい。このようにして操作領域OAは、顔検出部52が検出したユーザの顔を基準として、そのユーザが検出対象物(ここではユーザの手)を動かすと想定される範囲に対応するように設定されることになる。操作領域OAの形状は、指定可能領域PA(ディスプレイ14の画面内においてポインティング操作による位置の指定が可能な領域)の形状と対応するよう決定される。この指定可能領域PAは、ディスプレイ14の画面全体であってもよいし、画面内の一部の領域(例えば画面内に表示されているウィンドウ)であってもよい。また、操作領域OAの形状は、指定可能領域PAの形状と同一であってもよいし、指定可能領域PAの縦横比を変化させた形状であってもよい。図4に示すように、操作領域OAの形状は矩形であってよい。なお、図4では操作領域OAの上端はユーザの顔より下方に配置されているが、操作領域OAはユーザの顔の一部又は全部と重なる領域であってもよい。
また、図4の例では操作領域OAは顔位置FPの真下に設定されており、操作領域OAの中心位置のX座標と顔位置FPのX座標とは一致している。しかしながら、操作領域OAは顔位置FPに対して左右どちらかにずれた位置に設定されてもよい。特に操作受付部54は、ユーザが左右どちらの手をポインティング操作に使用するかに応じて、操作領域OAの位置を変化させてもよい。具体的に、例えば操作受付部54は、ユーザが右手を使用してポインティング操作を行う場合、基準画像Ic1内において顔位置FPよりも左寄りの位置(ユーザから見て右寄りの位置)を中心に操作領域OAを設定し、ユーザが左手を使用してポインティング操作を行う場合には、顔位置FPよりも右寄りの位置を中心に操作領域OAを設定する。このとき操作受付部54は、予め定められた距離だけ操作領域OAの中心位置を顔位置FPから左右にずらしてもよいし、検出された顔の大きさに応じた距離だけ操作領域OAの中心位置を左右にずらしてもよい。あるいは操作受付部54は、距離分布データを用いて、ユーザが右手を使用する場合にはユーザの右肩の位置を、左手を使用する場合には左肩の位置を特定し、当該特定された肩の位置に中心のX座標が一致するように操作領域OAの位置を決定してもよい。ユーザが左右どちらの手を使用しているかは、例えば以下のようにして特定できる。すなわち、まず操作受付部54は、ユーザがポインティング操作を開始する際に、後述する検出位置DPの特定処理と同様に距離分布データを用いてユーザの手の位置を検出する。そして、検出されたユーザの手の位置が顔位置FPより右手寄りであればユーザが右手を使用していると判定し、左手寄りであればユーザが左手を使用していると判定する。これにより操作受付部54は、ユーザが使用するのが左右どちらの手なのかに合わせて、操作領域OAを設定することができる。あるいはゲーム装置12は、ポインティング操作の開始時に「左手を前に伸ばしてください」などのメッセージをディスプレイ12の画面に表示することにより、ユーザに特定の手を意図的に使用させてもよい。この例では操作受付部54は、ユーザが左手を使用してポインティング操作を行うと想定できるので、ユーザの左手寄りの位置に操作領域OAを設定すればよい。
次に操作受付部54は、操作領域OAの中から検出対象物を検出し、その位置(検出位置DP)を特定する。例えば操作受付部54は、前述した距離分布のデータを用いて、操作領域OA内において最もステレオカメラ16の近くに存在する物体の位置を検出位置DPとして特定する。ユーザは自身の手を前方に出してポインティング操作を行うので、操作領域OAの範囲内でユーザの手は他の物体よりも前方(ステレオカメラ16の近く)に位置すると考えられるからである。図4においては、ユーザの右手の位置が検出位置DPとして特定されている。
最後に操作受付部54は、検出位置DPの操作領域OA内における相対位置座標を用いて、指定位置PPの指定可能領域PA内における位置座標を算出する。ここで、検出位置DPの相対位置座標とは、操作領域OAの一点を原点位置とした場合の検出位置DPの位置座標である。例えば検出位置DPは、図4に示すように、操作領域OAの左上の隅を原点としてX座標DPx及びY座標DPyによって表される。ここで、操作領域OAの横幅をOAw、高さをOAhとし、画面内の指定可能領域PAの横幅をPAw、高さをPAhとする。この場合、指定位置PPの指定可能領域PA内におけるX座標PPx及びY座標PPyは、以下の計算式により算出される。
PPx=(DPx/OAw)・PAw
PPy=(DPy/OAh)・PAh
操作受付部54は、このX座標PPx及びY座標PPyを、指定位置PPの情報として表示画像生成部56に対して出力する。なお、基準画像Ic1がステレオカメラ16からユーザを見る方向で撮像された画像であるのに対して、表示画像はその逆向きにユーザによって観覧される。そのため、指定可能領域PA内の位置座標と操作領域OAの位置座標との対応関係は左右反転させる必要がある。具体的に、操作領域OAのX座標DPxが操作領域OAの左上隅を原点、向かって右方向を正方向として表される場合、指定位置PPのX座標PPxは、指定可能領域PAの右上隅を原点、向かって左方向を正方向として表される。
表示画像生成部56は、操作受付部54が出力する操作内容を示す情報を用いてゲーム処理を実行し、その実行結果を示す表示画像を生成する。生成された表示画像は、ゲーム装置12のフレームバッファに描画され、ディスプレイ14の画面に表示される。特に本実施形態では、表示画像生成部56は、ユーザがポインティング操作によって指定した指定位置PPに現在表示されているオブジェクト(表示要素)に応じた処理を実行する。例えば図5では、複数のオブジェクト(表示要素)O1〜O3が配置された3次元空間内の様子を示す画像がディスプレイ14の画面に表示されており、この画面全体が指定可能領域PAになっている。ここで、図5に示すように指定位置PPがオブジェクトO1に重なる状態が一定時間以上続いた場合、表示画像生成部56は、ユーザがポインティング操作によってオブジェクトO1を選択したと判断する。そして、この選択に応じてオブジェクトO1の状態を変化させるなどの処理を実行し、その結果を反映した表示画像を表示する。例えば表示画像生成部56は、ユーザが自分の手を動かして指定位置を移動させた場合に、その軌跡に沿ってオブジェクトO1を移動させる処理を行う。さらに、オブジェクトO1を選択した状態でユーザが表示画像の中に設定された目標領域内に指定位置を移動させ、指定位置PPが目標領域内に含まれる状態を一定時間以上維持した場合、選択されたオブジェクトO1を目標領域に表示されたオブジェクトにぶつける表示を行ってもよい。なお、表示画像生成部56は、現在の指定位置PPを示すマーカー画像を画面に表示させてもよい。こうすればユーザは指定位置PPがどこかを確認しながらポインティング操作を行うことができ、任意の位置を指定しやすくなる。
以下、ユーザがポインティング操作を行う場合にゲーム装置12が実行する処理の流れの一例について、図6のフロー図を用いて説明する。
まず撮像画像取得部50が、ステレオカメラ16によって撮像された二つの撮像画像、すなわち基準画像Ic1と比較用画像Ic2を取得する(S1)。そして、S1で取得した二つの撮像画像を用いて、被写体の距離分布データを生成する(S2)。
次に顔検出部52が、S1で取得された基準画像Ic1の中からユーザの顔を検出する(S3)。操作受付部54は、S3で検出されたユーザの顔位置FPを用いて、基準画像Ic1内に操作領域OAを設定する(S4)。さらに操作受付部54は、S2で生成された距離分布データを用いて、S4で設定された操作領域OA内のピーク位置を検出位置DPとして特定する(S5)。このピーク位置は、操作領域OA内において被写体が最もステレオカメラ16に近くなっている位置であって、このピーク位置がユーザの手の位置と想定される。
次いで操作受付部54は、S5で特定された検出位置DPの操作領域OA内における相対位置座標を用いて、操作可能領域PA内における指定位置PPの位置座標を算出し、表示画像生成部56に対して出力する(S6)。表示画像生成部56は、S6で算出された指定位置PPの位置座標をユーザからの操作入力として用いてゲーム処理を実行し、新たな表示画像を生成する(S7)。このゲーム処理は、画面内の指定位置PPに現在表示されているオブジェクトに対するユーザの操作を反映したものになる。S7で生成された表示画像は、ディスプレイ14の画面に表示される。
ゲーム装置12は、以上説明したS1からS7の処理を例えばディスプレイ14の1フレームレートが経過するごとに実行する。
以上説明したポインティング操作は、複数のユーザが同時に行うこともできる。図7は、この場合における基準画像Ic1の一例を示している。この図の例では、ユーザU1とユーザU2の二人がステレオカメラ16によって撮像されている。顔検出部52は、この基準画像Ic1の中からユーザU1の顔位置FP1とユーザU2の顔位置FP2とを検出する。そして操作受付部54は、顔位置FP1の位置に基づいて操作領域OA1を基準画像Ic1内に設定し、その中からユーザU1の手の位置を検出位置DP1として検出する。同様に、顔位置FP2の位置に基づいて操作領域OA2を基準画像Ic1内に設定し、その中からユーザU2の手の位置を検出位置DP2として検出する。最後に操作受付部54は、検出位置DP1の操作領域OA1内における相対位置座標を用いて操作可能領域PA内における指定位置PP1の位置座標を算出し、検出位置DP2の操作領域OA2内における相対位置座標を用いて操作可能領域PA内における指定位置PP2の位置座標を算出する。このようにしてゲーム装置12は、ユーザU1による指定位置PP1の指定、及びユーザU2による指定位置PP2の指定を同時に受け付けることができる。ここで、操作領域OA1及びOA2は基準画像Ic1内において互いに別の位置に設定されるが、指定位置PP1及びPP2はいずれも同じ指定可能領域PA内の位置として算出される。そのため二人のユーザは、互いに離れた位置でそれぞれ自分の体の前で手を動かせば、同じ指定可能領域PA内の位置を指定するポインティング操作を行うことができる。
また、以上の説明ではユーザは自分の手を用いてポインティング操作を行うこととした。しかしながら、これに限らずユーザはコントローラ18を用いてポインティング操作を行ってもよい。この場合ユーザは、コントローラ18の発光部24をステレオカメラ16の方に向けてコントローラ18を手で把持し、自分の体の前でコントローラ18を動かしてポインティング操作を行う。操作受付部54は、顔位置FPに基づいて基準画像Ic1内に操作領域OAを設定した後、操作領域OAの中から発光部24が発する光の位置を検出する。この光の位置が、検出位置DPとなる。なお、複数のユーザがそれぞれコントローラ18を把持してポインティング操作を行う場合、前述したように複数のコントローラ18が互いに異なる色で発光部24を発光させることにより、ゲーム装置12はそれぞれのコントローラ18の位置を区別して検出できる。また、ユーザはコントローラ18に限らず、例えば小型の表示画面を備えた携帯型デバイスを手で持ってポインティング操作を行ってもよい。この場合、携帯型デバイスが所定の符号画像を画面に表示した状態で、ユーザはその画面をステレオカメラ16に向けて携帯型デバイスを把持し、携帯型デバイスの位置を動かしてポインティング操作を行う。これに応じてゲーム装置12の操作受付部54は、操作領域OA内に写っている符号画像をパターン認識処理によって検出し、検出位置DPを特定する。
本実施形態に係るゲーム装置12は、ポインティング操作に限らずユーザから各種の操作入力を受け付け、これに応じてディスプレイ14の画面に各種の表示を行うことができる。以下では、このようなゲーム装置12の表示処理の具体例について説明する。
例えば表示画像生成部56は、指定位置PPだけでなく、顔位置FPに応じて表示画像を更新してもよい。具体的に表示画像生成部56は、顔位置FPの基準画像Ic1内における移動に応じて仮想三次元空間内に設定される視点の位置を移動させ、当該視点から見た仮想三次元空間内の様子を示す表示画像を生成してもよい。また、撮像画像取得部50が生成する距離分布データを用いることにより、顔検出部52はユーザの顔の上下左右の動きだけでなく、前後の動き(すなわち、ステレオカメラ16からユーザの顔までの距離の変化)も特定することができる。表示画像生成部56は、このようにして特定されたユーザの顔の前後の動きに応じて、視点位置を前後に移動させてもよい。こうすれば、ユーザがステレオカメラ16の前で上下前後左右のどの方向に自分の顔を移動させた場合であっても、表示画像生成部56は、その動きに合わせて仮想三次元空間内における視点の位置を移動させることができる。これにより、ユーザは自分が実際に仮想三次元空間内にいるかのような感覚を体験することができる。なお、ゲーム装置12が複数人プレイ用のゲームを実行しており、基準画像Ic1内にユーザの顔が複数存在する場合、表示画像生成部56は複数の顔の中から選択された一つの顔(例えば基準画像Ic1内において最も高い位置にある顔)を基準として視点を移動させてもよい。さらに表示画像生成部56は、ユーザの顔位置FPや指定位置PP、ユーザがコントローラ18に対して入力する操作内容だけでなく、ユーザが発する音に基づいて表示画像を更新してもよい。この場合、例えばステレオカメラ16に音の発生した方向を特定可能な集音デバイス(マイクロフォンアレイなど)が搭載される。表示画像生成部56は、ユーザが手を叩いたり声をあげたりした場合、集音デバイスにより集音された音声を用いて音が発せられた方向を特定し、当該方向に応じたゲーム処理(例えば音が発生した方向に向けてオブジェクトを移動させるなど)を実行する。そして、当該ゲーム処理の内容を反映した表示画像を生成し、ディスプレイ14に表示させる。
また、表示画像生成部56は、撮像画像取得部50によって取得された基準画像Ic1そのものに各種のオブジェクト(表示要素)を配置して表示画像を生成してもよい。さらにこの例において、操作受付部54は、ユーザのコントローラ18に対する操作を受け付けるとともに、基準画像Ic1内における当該コントローラ18の位置を発光部24からの光を検出することによって特定する。そして表示画像生成部56は、コントローラ18に対するユーザの操作内容に応じて画面に表示させるオブジェクトの位置を、当該コントローラ18の基準画像Ic1内における位置に基づいて決定する。これにより、ユーザがディスプレイ14の画面に写っている自分の姿を見ながら手元のコントローラ18に対する操作を行うと、画面内で自分が操作を行ったコントローラ18の位置を基準として表示画像の更新が行われる。そのためユーザは、より直接的に画面内のオブジェクトに対する操作を行っている感覚を得ることができる。
このような処理の具体例として、表示画像生成部56は、ユーザがメニューを呼び出す操作をコントローラ18に対して行った場合に、メニューをコントローラ18の位置に対応する位置に表示してもよい。図8はこの場合の表示例を示している。この図の例では、ユーザがコントローラ18に設けられたメニュー表示用のボタンを押下した場合に、当該操作を受け付けた操作受付部54が基準画像Ic1の中からコントローラ18の位置を検出する。そして、表示画像生成部56は検出されたコントローラ18の位置の上方に複数のメニュー項目を含んだメニュー画像Mを基準画像Ic1と重ねて表示画像を生成する。
また、表示画像生成部56は、コントローラ18に対してユーザが操作を行った場合に、コントローラ18の表示位置からオブジェクトが飛び出す様子を画面に表示してもよい。図9はこの場合の表示例を示しており、この例では、コントローラ18の板状操作部材22をユーザが操作した場合に、表示画像生成部56は基準画像Ic1内に写っているコントローラ18からオブジェクトO4が飛び出す様子を示す動画像を生成し、ディスプレイ14の画面に表示する。なお、図中における破線の矢印はオブジェクトO4の画面内における軌道を示しており、同図に示すように、オブジェクトO4はコントローラ18の位置を起点として画面内に表れる。さらにその後、コントローラ18から飛び出したオブジェクトO4から所定の距離まで近づくようにコントローラ18をユーザが移動させて特定の操作ボタンを押下すると、画面内のコントローラ18にオブジェクトO4が吸い込まれる様子を表示してもよい。また、オブジェクトO4が鳴き声やエンジン音などの音を立てる演出を行う場合、コントローラ18からオブジェクトO4が飛び出している間はディスプレイ14に設けられたスピーカからオブジェクトO4の音を再生し、オブジェクトO4がコントローラ18に吸い込まれた後はコントローラ18に設けられたスピーカからオブジェクトO4の音を再生してもよい。このような演出により、ユーザはオブジェクトO4を直接現実世界で操作しているのに近い感覚を得ることができる。このような制御を用いると、例えばユーザがコントローラ18をシャンパンのボトルに見立てて左右に振り、その後に板状操作部材22でスライド操作を行うことで、表示画像内におけるコントローラ18の位置からシャンパンが吹き出す様子を表示するなどの演出を行うことができる。このとき、ユーザがコントローラ18を左右に振る動きは、発光部24が発する光の動きやコントローラ18に内蔵されたセンサの出力により特定される。さらにこの場合、ユーザがコントローラ18を振る動きやユーザによる板状操作部材24の操作に応じて、コントローラ18が内蔵するスピーカから音を出したり内蔵するモータにより振動を起こしたりすることで、よりリアリティのある演出を行うことができる。
また、基準画像Ic1内に複数の顔が写っている場合に、表示画像生成部56は、コントローラ18を操作しているユーザの顔が複数の顔のうちのどれかをコントローラ18の位置を用いて特定し、特定されたユーザの顔に対して画像処理を実行してもよい。基準画像Ic1内には、コントローラ18を手で持っているユーザのほかに、単にゲームを観戦している他の人の顔が写ることがある。その場合一般には、顔画像から個人を特定する顔認識技術を用いなければ、どれがユーザの顔かを識別することは困難である。しかしながら本実施形態では、コントローラ18の基準画像Ic1内における位置を特定することが可能なので、このコントローラ18の位置と対応する位置に存在する顔を、ユーザの顔として判別することができる。より具体的に、顔検出部52が複数の顔を検出した場合、操作受付部54は、基準画像Ic1内に含まれる発光部24の光を検出することによって、現在使用されているコントローラ18の位置を特定する。そして、顔検出部52によって検出された複数の顔のうち、コントローラ18の位置の上方に位置する顔を、コントローラ18を使用しているユーザの顔であると判定する。ユーザが上体を大きく傾けているのでない限り、コントローラ18は当該コントローラ18を持っているユーザの顔の下方に存在すると考えられるからである。こうしてユーザの顔が特定されれば、当該ユーザの顔に対して何らかの画像処理を施して画面に表示するなどの処理が可能になる。
なお、以上の説明では一人のユーザが自分の持っているコントローラ18に対して操作を行うことを想定しているが、複数のユーザがそれぞれコントローラ18を所持して操作を行う場合であっても、以上説明したような表示処理を行うことができる。この場合ゲーム装置12は、予め各コントローラ18に他のコントローラ18とは異なる識別番号を割り当てるとともに、各コントローラ18の発光部24を他のコントローラ18とは異なる色で発光させる指示を行う。そして、各コントローラ18に割り当てた識別番号と、当該コントローラ18に指示した発光色との対応関係を示すテーブルを記憶しておく。その後、いずれかのコントローラ18から操作入力を受け付けた場合、このテーブルを用いて操作入力を行ったコントローラ18の識別番号に対応する色を特定し、当該色で発光している発光部24の位置を、当該コントローラ18の位置として特定する。このようにすれば、複数のユーザが同時にコントローラ18を持ってゲームをプレイしている場合にも、各ユーザの操作を受け付けた場合に、当該操作を行ったユーザが持っているコントローラ18の位置や当該操作を行ったユーザの顔の位置を特定することができる。
図10は、二人のユーザU1及びU2とその他の観覧者が基準画像Ic1に写っている場合に、ユーザU1及びU2それぞれの顔を特定し、当該特定した顔に対して画像処理を施す場合の例を示している。この図の例では、ユーザU1が識別番号1を割り当てられたコントローラ18−1を所持し、ユーザU2が識別番号2を割り当てられたコントローラ18−2を所持している。そして、操作受付部54は、発光色によってコントローラ18−1及び18−2それぞれの位置を特定し、コントローラ18−1の上方にある顔F1をユーザU1の顔、コントローラ18−2の上方にある顔F2をユーザU2の顔として特定する。そして、ユーザU1及びU2のうち、現在実行中のゲームにおいてより成績がよいユーザ(図10の例ではユーザU2)の顔に対して、王冠Cをかぶせた様子を示す表示画像を生成し、画面に表示する。なお、複数のユーザのうち、成績がよいユーザではなく成績が悪いユーザの顔に対して、何らかの画像処理を実行してもよい。
また、表示画像生成部56は、基準画像Ic1にオブジェクトを重ねて表示画像を生成する場合に、表示画像内におけるコントローラ18の位置と、表示中のオブジェクトと、の間の位置関係に応じて各種の処理を実行してもよい。例えば操作対象のオブジェクトがコントローラ18の位置から所定の距離範囲内にある場合と所定の距離範囲外にある場合とで、ユーザのコントローラ18に対する操作に応じたオブジェクトの挙動を変化させてもよい。
また、表示画像生成部56は、表示画像内に写っているユーザの手と表示画像内に配置されたオブジェクトとの間の距離に応じて、オブジェクトの挙動を制御してもよい。この場合においてユーザの手の位置は、前述したように基準画像Ic1の距離分布データを用いて指定位置PPとして特定できる。例えば表示画像生成部56は、ユーザの手を中心に表示画像内に所定の領域を設定し、当該領域外にオブジェクトが表示されている場合には、そのオブジェクトをユーザの手に向かって移動させ、当該領域内にオブジェクトが入った場合には、そのオブジェクトの移動を停止させてもよい。また、自身の手とオブジェクトとが重なるようにユーザが手を動かした場合、オブジェクトが指定位置PPから離れるような制御を行ってもよい。さらに表示画像生成部56は、手の動き(時間変化)をモニタし、その動きに応じてオブジェクトの向きや形状を変化させてもよい。こうすれば、あたかも画面内のオブジェクトがユーザの手の動きに反応するかのように演出することができる。
さらに操作受付部54は、コントローラ18に設けられたセンサによって検出されたコントローラ18の姿勢を示す情報を取得し、表示画像生成部56は、コントローラ18の姿勢に応じて画面に表示する画像の内容を変化させてもよい。図11は、このような処理によって表示される表示画像の例を示している。この図の例では、操作受付部54は、加速度センサやジャイロセンサなどのコントローラ18に内蔵された姿勢検出用センサの検出結果を用いて、コントローラ18の向きを検出する。表示画像生成部56は、このコントローラ18の向きの変化に応じて、画面に表示されたスリングSの向きを図中破線の矢印で示すように変化させる。そして、ユーザが例えば板状操作部材22上においていずれかの方向に向けて指をスライドさせる操作を行うと、当該操作に応じて弾を撃ち出すショットが行われる。このとき、弾が飛んでいく方向は、コントローラ18の向きに応じて決定される。そのためユーザは、スリングを動かして的を狙い、弾を撃ち出して的に当てるというゲームをより実際に近い動きで行うことができる。なお、この場合において弾が撃ち出される方向は、コントローラ18の向きと、板状操作部材22に対するスライド操作の向きとの双方に基づいて決定されてもよい。具体的に、例えばコントローラ18が基準姿勢(ゲーム開始時の姿勢)に対してθx度回転しており、さらにユーザが行ったスライド操作の向きがコントローラ18の前方に対してθy度傾いているとする。この場合に弾の撃ち出される向きは、ゲーム開始時の基準方向に対して(θx+θy)度傾いた方向に設定される。
また、以上の説明では顔位置FPに基づいて基準画像Ic1内における操作領域OAが決定されることとしたが、画面内に設定される指定可能領域PAも、基準画像Ic1から検出された人の顔の位置に応じて決定されてもよい。この場合の処理の具体例について、図12A及び図12Bを用いて説明する。
図12Aは、撮像画像取得部50が取得する基準画像Ic1の一例である。また、図12Bは、表示画像生成部56が生成する表示画像の一例である。図12Aの基準画像Ic1内には、コントローラ18を用いてゲーム操作を行うユーザU1と、ユーザU1によるゲーム操作のターゲットとなるユーザU2とが写っている。顔検出部52は、ユーザU1の顔F1とユーザU2の顔F2をそれぞれ検出する。ここで、コントローラ18の位置の上方にある顔がゲーム操作を行うユーザU1の顔F1として特定される。また、複数の人が基準画像Ic1内に写っている場合、ユーザU1に最も近い位置にある顔が操作対象となるユーザU2の顔F2として特定される。前述したように、操作領域OAはユーザU1の顔F1の位置に応じて決定される。さらにこの例においては、指定可能領域PPはユーザU2の顔F2の位置に応じて決定される。具体的に、図12Bの例では、指定可能領域PAは顔F2の下方を中心位置としてユーザU2の上半身を含むような矩形の領域として設定されている。指定可能領域PAの位置及び大きさは、検出された顔F2の大きさに応じて決定されてもよい。また、図12Bの例では、基準画像Ic1に重ねて指定可能領域PA内に別の画像を配置して表示画像が生成されている。ここでユーザU1が操作領域OA内でコントローラ18を動かすと、指定位置PPはユーザU2の体に重なる指定可能領域PA内でコントローラ18の動きに合わせて移動することになる。これにより、ユーザU1はユーザU2の体に配置された画像内でゲーム操作を行うことができる。
図13Aは、本実施形態に係るゲーム装置12がさらに別のゲーム処理を実行する場合における基準画像の例を示している。図13Bは、この場合の表示画像の例を示している。この例では、ユーザU1はコントローラ18を用いてハンドル操作を行うことで、画面内に表示されている車を操縦するゲームを行う。具体的に、まず操作受付部54が、基準画像Ic1内に含まれるコントローラ18の位置を特定し、その上方にある顔を、ゲームをプレイするユーザU1の顔F1として特定する。表示画像生成部56は、表示画像を生成する際に、基準画像Ic1の中から、特定された顔F1近傍の抽出領域EAを抽出して表示画像内の車オブジェクトを表示する位置に重ねて貼り付ける。これによりユーザは、自分の顔が表示画像内の車の中に写っている状態でゲームを楽しむことができる。
さらにこの例では、ユーザの顔の位置に応じて基準画像Ic1内に検出対象領域DAが設定される。具体的に、図13Aの例では抽出領域EAを囲むように検出対象領域DAが設定されている。操作受付部54は、検出対象領域DA内の画像の時間変化を検出することにより、ユーザがこの検出対象領域DA内で手を動かしたことを検知できる。このようなユーザの手の動きの検知に応じて、表示画像生成部56は、検知されたユーザの手の位置に対応する表示画像内の位置に配置しているオブジェクトを変化させる処理を行う。具体的に、図13A及び図13Bでは、ユーザの左手の動きに応じて、この左手の位置に対応する画面内の位置に配置されたオブジェクトO5がはね飛ばされる表示を行っている。
さらにこの例において、ゲームをプレイするユーザを別のユーザに変更する制御も、検出される顔F1の位置に応じて実行されてもよい。具体例として、ゲーム装置12は、ゲームをプレイ中のユーザU1の顔F1の位置の近くまで別のユーザU2が近づいた状態で、このユーザU2が所持するコントローラ18−2から所定の操作入力を受け付けた場合に、ゲームをプレイするユーザをユーザU1からユーザU2に交代することとし、それ以降はコントローラ18−2からの入力に応じて車を移動させる処理を行う。一方で、ユーザU2がユーザU1から離れた位置でユーザ交代の操作入力を行ったとしても、ゲーム装置12はその操作入力を無視する。特に図13A及び図13Bの例では、ユーザU2の顔が抽出領域EA内に入った状態で、ユーザ交代の指示を受け付けることとしてもよい。これにより、ユーザU2が車に乗り込んでから操縦を交代するような演出を行うことができる。
なお、本発明の実施の形態は以上説明したものに限られない。例えば、ゲーム装置12の撮像画像取得部50が、ステレオカメラ16ではないカメラから、撮像画像を取得するようにしてもよい。
また、例えば、ゲーム装置12が、赤外線を出力して、その赤外線が撮像対象オブジェクトに反射して戻ってくるまでの時間を測定して、その測定された時間に基づいて、被写体とゲーム装置12との距離分布を測定する距離分布測定部から、距離分布の測定結果を受け付けるようにしてもよい。
また、例えば、ゲーム装置12が、焦点距離の異なる複数のレンズから構成され、これらのレンズのうち、被写体に対してピントが合ったレンズに基づいて、被写体とゲーム装置12との距離分布を測定する距離分布測定部から、距離分布の測定結果を受け付けるようにしてもよい。

Claims (9)

  1. 第1ユーザ及び第2ユーザの顔を含む撮像画像を取得する撮像画像取得部と、
    前記撮像画像に含まれる前記第1ユーザ及び第2ユーザそれぞれの顔の位置を特定する顔位置特定部と、
    表示装置の画面に設定される指定可能領域に対応付けられる、前記第1ユーザの顔の位置に応じて決まる第1操作領域、及び、前記指定可能領域に対応付けられる、前記第2ユーザの顔の位置に応じて決まる第2操作領域を、それぞれ前記撮像画像内に設定する操作領域設定部と、
    前記第1操作領域から第1検出対象物を検出し、当該検出した第1検出対象物の前記第1操作領域内における相対位置に対応する前記指定可能領域内の位置を、前記第1ユーザが指定する位置として受け付け、前記第2操作領域から第2検出対象物を検出し、当該検出した第2検出対象物の前記第2操作領域内における相対位置に対応する前記指定可能領域内の位置を、前記第2ユーザが指定する位置として受け付ける操作受付部と、を含み、
    前記第1検出対象物の前記第1操作領域内における相対位置と前記第2検出対象物の前記第2操作領域内における相対位置とが同じである場合は、前記第1ユーザが指定する位置として前記操作受付部が受け付ける画面内の位置と前記第2ユーザが指定する位置として前記操作受付部が受け付ける画面内の位置とは同じとなる、
    とを特徴とする情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記撮像画像内にオブジェクトを配置して表示画像を生成し、表示装置の画面に表示させる表示画像生成部をさらに含み、
    前記表示画像生成部は、前記オブジェクトの配置位置を、前記撮像画像に含まれる検出対象物の位置に基づいて特定される、当該撮像画像に含まれる当該検出対象物を動かしているユーザの顔の位置に応じて決定する
    ことを特徴とする情報処理装置。
  3. 請求項2に記載の情報処理装置において、
    前記操作受付部は、前記検出対象物として発光部を備えたコントローラを検出し、
    前記表示画像生成部は、前記オブジェクトの配置位置を、前記撮像画像に含まれる、特定の色で発光している前記発光部の位置に基づいて特定される、当該撮像画像に含まれる、当該発光部を備える前記コントローラを操作するユーザの顔の位置に応じて決定する
    ことを特徴とする情報処理装置。
  4. 請求項1に記載の情報処理装置において、
    前記操作受付部は、前記第1操作領域内から、前記第1ユーザの手を前記第1検出対象物として検出し、前記第2操作領域内から、前記第2ユーザの手を前記第2検出対象物として検出する
    ことを特徴とする情報処理装置。
  5. 請求項4に記載の情報処理装置において、
    前記撮像画像取得部は、ステレオカメラによって撮像された二つの撮像画像を取得し、当該二つの撮像画像に基づいて前記ステレオカメラから被写体までの距離分布を示す距離分布データを生成し、
    前記操作受付部は、前記第1操作領域内において最も前記ステレオカメラの近くにある被写体の位置を、前記第1ユーザの手の位置として検出し、前記第2操作領域内において最も前記ステレオカメラの近くにある被写体の位置を、前記第2ユーザの手の位置として検出する
    ことを特徴とする情報処理装置。
  6. 請求項1に記載の情報処理装置において、
    前記操作受付部は、前記第1操作領域内から、前記第1ユーザが手で把持しているコントローラを前記第1検出対象物として検出し、前記第2操作領域内から、前記第2ユーザが手で把持しているコントローラを前記第2検出対象物として検出する
    ことを特徴とする情報処理装置。
  7. ユーザからの操作入力に応じた処理を実行する情報処理装置の制御方法であって、
    第1ユーザ及び第2ユーザの顔を含む撮像画像を取得するステップと、
    前記撮像画像に含まれる前記第1ユーザ及び第2ユーザそれぞれの顔の位置を特定するステップと、
    表示装置の画面に設定される指定可能領域に対応付けられる、前記第1ユーザの顔の位置に応じて決まる第1操作領域、及び、前記指定可能領域に対応付けられる、前記第2ユーザの顔の位置に応じて決まる第2操作領域を、それぞれ前記撮像画像内に設定するステップと、
    前記第1操作領域から第1検出対象物を検出し、当該検出した第1検出対象物の前記第1操作領域内における相対位置に対応する前記指定可能領域内の位置を、前記第1ユーザが指定する位置として受け付け、前記第2操作領域から第2検出対象物を検出し、当該検出した第2検出対象物の前記第2操作領域内における相対位置に対応する前記指定可能領域内の位置を、前記第2ユーザが指定する位置として受け付けるステップと、を含み、
    前記第1検出対象物の前記第1操作領域内における相対位置と前記第2検出対象物の前記第2操作領域内における相対位置とが同じである場合は、前記第1ユーザが指定する位置として受け付ける画面内の位置と前記第2ユーザが指定する位置として受け付ける画面内の位置とは同じとなる、
    とを特徴とする情報処理装置の制御方法。
  8. 第1ユーザ及び第2ユーザの顔を含む撮像画像を取得する撮像画像取得部、
    前記撮像画像に含まれる前記第1ユーザ及び第2ユーザそれぞれの顔の位置を特定する顔位置特定部、
    表示装置の画面に設定される指定可能領域に対応付けられる、前記第1ユーザの顔の位置に応じて決まる第1操作領域、及び、前記指定可能領域に対応付けられる、前記第2ユーザの顔の位置に応じて決まる第2操作領域を、それぞれ前記撮像画像内に設定する操作領域設定部、及び、
    前記第1操作領域から第1検出対象物を検出し、当該検出した第1検出対象物の前記第1操作領域内における相対位置に対応する前記指定可能領域内の位置を、前記第1ユーザが指定する位置として受け付け、前記第2操作領域から第2検出対象物を検出し、当該検出した第2検出対象物の前記第2操作領域内における相対位置に対応する前記指定可能領域内の位置を、前記第2ユーザが指定する位置として受け付ける操作受付部、としてコンピュータを機能させ、
    前記第1検出対象物の前記第1操作領域内における相対位置と前記第2検出対象物の前記第2操作領域内における相対位置とが同じである場合は、前記第1ユーザが指定する位置として前記操作受付部が受け付ける画面内の位置と前記第2ユーザが指定する位置として前記操作受付部が受け付ける画面内の位置とは同じとなる、
    ことを特徴とするプログラム。
  9. 請求項8に記載のプログラムを格納した、コンピュータ読み取り可能な情報記憶媒体。
JP2014545643A 2012-11-06 2013-10-24 情報処理装置 Active JP5928757B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012244920 2012-11-06
JP2012244920 2012-11-06
PCT/JP2013/078791 WO2014073384A1 (ja) 2012-11-06 2013-10-24 情報処理装置

Publications (2)

Publication Number Publication Date
JP5928757B2 true JP5928757B2 (ja) 2016-06-01
JPWO2014073384A1 JPWO2014073384A1 (ja) 2016-09-08

Family

ID=50684495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014545643A Active JP5928757B2 (ja) 2012-11-06 2013-10-24 情報処理装置

Country Status (5)

Country Link
US (1) US9672413B2 (ja)
EP (1) EP2919099B1 (ja)
JP (1) JP5928757B2 (ja)
CN (1) CN104781762A (ja)
WO (1) WO2014073384A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489107B (zh) * 2013-08-16 2015-11-25 北京京东尚科信息技术有限公司 一种制作虚拟试衣模特图像的方法和装置
US10489949B2 (en) * 2015-01-06 2019-11-26 Sony Corporation Effect generation device and effect generation method
CN205375273U (zh) * 2015-11-24 2016-07-06 深圳市爱坤电子科技有限公司 基于无线2.4g可拆装游戏手柄的平板电脑
US10902243B2 (en) * 2016-10-25 2021-01-26 Deep North, Inc. Vision based target tracking that distinguishes facial feature targets
KR20200066962A (ko) * 2018-12-03 2020-06-11 삼성전자주식회사 사용자의 움직임에 기반하여 콘텐트를 제공하기 위한 전자 장치 및 방법
CN110008802B (zh) * 2018-12-04 2023-08-29 创新先进技术有限公司 从多个脸部中选择目标脸部及脸部识别比对方法、装置
CN113486715A (zh) * 2021-06-04 2021-10-08 广州图匠数据科技有限公司 图像翻拍识别方法、智能终端以及计算机存储介质
WO2024072310A1 (en) * 2022-09-30 2024-04-04 Flatfrog Laboratories Ab An interaction system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
WO2007013652A1 (ja) * 2005-07-29 2007-02-01 Pioneer Corporation 画像表示制御装置、画像表示装置、遠隔操作器、画像表示システム
JP2010531520A (ja) * 2007-08-16 2010-09-24 株式会社ソニー・コンピュータエンタテインメント 傾斜角情報と結合したビデオ入力を用いたオブジェクト検出
JP2011054118A (ja) * 2009-09-04 2011-03-17 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2011081453A (ja) * 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
WO2012014590A1 (ja) * 2010-07-28 2012-02-02 パイオニア株式会社 映像処理装置及び方法
WO2012039140A1 (ja) * 2010-09-22 2012-03-29 島根県 操作入力装置および方法ならびにプログラム
JP2013250882A (ja) * 2012-06-01 2013-12-12 Sharp Corp 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5829390B2 (ja) * 2010-09-07 2015-12-09 ソニー株式会社 情報処理装置、および情報処理方法
JP5598232B2 (ja) * 2010-10-04 2014-10-01 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
WO2007013652A1 (ja) * 2005-07-29 2007-02-01 Pioneer Corporation 画像表示制御装置、画像表示装置、遠隔操作器、画像表示システム
JP2010531520A (ja) * 2007-08-16 2010-09-24 株式会社ソニー・コンピュータエンタテインメント 傾斜角情報と結合したビデオ入力を用いたオブジェクト検出
JP2011054118A (ja) * 2009-09-04 2011-03-17 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP2011081453A (ja) * 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
WO2012014590A1 (ja) * 2010-07-28 2012-02-02 パイオニア株式会社 映像処理装置及び方法
WO2012039140A1 (ja) * 2010-09-22 2012-03-29 島根県 操作入力装置および方法ならびにプログラム
JP2013250882A (ja) * 2012-06-01 2013-12-12 Sharp Corp 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム

Also Published As

Publication number Publication date
US20150278583A1 (en) 2015-10-01
JPWO2014073384A1 (ja) 2016-09-08
EP2919099A4 (en) 2016-06-22
CN104781762A (zh) 2015-07-15
EP2919099A1 (en) 2015-09-16
US9672413B2 (en) 2017-06-06
EP2919099B1 (en) 2020-04-15
WO2014073384A1 (ja) 2014-05-15

Similar Documents

Publication Publication Date Title
JP5928757B2 (ja) 情報処理装置
JP6158406B2 (ja) 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP5654430B2 (ja) 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用
KR101154636B1 (ko) 표시 장치, 게임 시스템 및 게임 처리 방법
JP5039808B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
TWI434717B (zh) 顯示裝置、遊戲系統及遊戲處理方法
US10994200B2 (en) Information processing apparatus, information processing system, information processing method, program and information recording medium
JP6532393B2 (ja) 表示制御装置及び表示制御方法
US8884987B2 (en) Storage medium having stored thereon display control program, display control apparatus, display control system, and display control method for setting and controlling display of a virtual object using a real world image
JP5800526B2 (ja) ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法
JP2011210019A (ja) プログラム、情報記憶媒体及び画像生成装置
JP5756299B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
KR20210031894A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US20180321817A1 (en) Information processing method, computer and program
JP5829040B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、および画像生成方法
JPWO2012001754A1 (ja) ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
US20130040737A1 (en) Input device, system and method
JP5757741B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
JP2023099570A (ja) プログラム、およびシステム
KR102538480B1 (ko) 프로그램이 기록된 컴퓨터 판독가능 기록 매체, 정보 처리 방법 및, 정보 처리 장치
KR101203787B1 (ko) 영상인식 기반 인터페이스를 사용하는 콘텐츠 제작 방법 및 시스템
JP2013090941A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2012148144A (ja) ゲームプログラム、ゲーム装置、およびゲームシステム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160412

R150 Certificate of patent or registration of utility model

Ref document number: 5928757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250