JP5437023B2 - 操作入力装置 - Google Patents

操作入力装置 Download PDF

Info

Publication number
JP5437023B2
JP5437023B2 JP2009252330A JP2009252330A JP5437023B2 JP 5437023 B2 JP5437023 B2 JP 5437023B2 JP 2009252330 A JP2009252330 A JP 2009252330A JP 2009252330 A JP2009252330 A JP 2009252330A JP 5437023 B2 JP5437023 B2 JP 5437023B2
Authority
JP
Japan
Prior art keywords
operation input
input device
subject
captured image
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009252330A
Other languages
English (en)
Other versions
JP2011095228A (ja
Inventor
渉一 池上
健太郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2009252330A priority Critical patent/JP5437023B2/ja
Priority to CN2010800603263A priority patent/CN102725713A/zh
Priority to PCT/JP2010/061822 priority patent/WO2011052270A1/ja
Priority to EP10826405.2A priority patent/EP2498170B1/en
Priority to US13/504,322 priority patent/US20120212410A1/en
Publication of JP2011095228A publication Critical patent/JP2011095228A/ja
Application granted granted Critical
Publication of JP5437023B2 publication Critical patent/JP5437023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ユーザが手で把持して使用する操作入力装置、当該操作入力装置と接続される情報処理装置、操作入力装置の姿勢検出方法、プログラム、及び情報記憶媒体に関する。
例えば家庭用ゲーム機のコントローラなど、ユーザが操作入力を行うための操作入力装置の中には、当該操作入力装置の姿勢を検知するために加速度センサやジャイロセンサ等の姿勢検出用センサを備えるものがある(例えば特許文献1参照)。このような操作入力装置を用いれば、ユーザは、操作ボタンを押したりするだけでなく、操作入力装置自体を傾けたり動かしたりすることで、各種の操作入力を行うことができる。例えばゲーム等のアプリケーションプログラムにおいて、このような操作入力装置を傾ける操作入力に応じた処理を実行するものが知られている。
米国特許出願公開第2007/0260727号明細書
しかしながら、操作入力装置の中には、上述した姿勢検出用センサを備えていないものも存在する。このような操作入力装置では、姿勢検出による操作入力を前提とするアプリケーションプログラムを利用できない。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、姿勢検出用センサがなくとも、操作入力装置の姿勢を変化させることによる操作入力を実現できる操作入力装置、情報処理装置、操作入力装置の姿勢検出方法、プログラム、及び情報記憶媒体を提供することにある。
本発明に係る操作入力装置は、ユーザが手で把持して使用する操作入力装置であって、当該操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段と、前記取得される撮像画像の解析結果に基づいて、当該操作入力装置の姿勢を検出する姿勢検出手段と、を含むことを特徴とする。
また、本発明に係る情報処理装置は、ユーザが手で把持して使用する操作入力装置と接続され、前記操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段と、前記取得される撮像画像の解析結果に基づいて、前記操作入力装置の姿勢を検出する姿勢検出手段と、を含むことを特徴とする。
また、本発明に係る操作入力装置の姿勢検出方法は、操作入力装置に設けられた撮像部によって撮像される撮像画像を取得するステップと、前記取得される撮像画像の解析結果に基づいて、前記操作入力装置の姿勢を検出するステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段、及び前記取得される撮像画像の解析結果に基づいて、前記操作入力装置の姿勢を検出する姿勢検出手段、としてコンピュータを機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能な情報記憶媒体に記憶されてよい。
本発明の第1実施形態に係る操作入力装置の外観を示す斜視図である。 本実施形態に係る操作入力装置の内部構成を示すブロック図である。 本実施形態に係る操作入力装置の機能例を示す機能ブロック図である。 ユーザの顔を含む撮像画像の一例を示す図である。 操作入力装置が基準姿勢に対してZ軸を中心に回転した状態を示す図である。 図5Aの状態における撮像画像を示す図である。 操作入力装置が基準姿勢に対してX軸を中心に回転した状態を示す図である。 図6Aの状態における撮像画像を示す図である。 操作入力装置が基準姿勢に対してY軸を中心に回転した状態を示す図である。 図7Aの状態における撮像画像を示す図である。 操作入力装置が平行移動した状態を示す図である。 図8Aの状態における撮像画像を示す図である。 本発明の第2実施形態に係る情報処理装置を含む情報処理システムの構成ブロック図である。
以下、本発明の実施の形態について、図面に基づき詳細に説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係る操作入力装置1の外観を示す斜視図である。本実施形態に係る操作入力装置1は、ユーザUが手で把持して使用する携帯型ゲーム機であるものとする。
この図に示されるように、操作入力装置1の筐体10は、全体として略矩形の平板状の形状をしており、その表面には表示部11が配置されている。また、筐体10の上端には、撮像部12が取り付けられている。なお、以下では操作入力装置1の横方向(長手方向)をX軸方向、縦方向をZ軸方向とする。また、操作入力装置1の厚さ方向をY軸方向とする。
表示部11は、液晶表示パネルや有機EL表示パネル等、各種の画像表示デバイスであってよい。撮像部12は、CCDカメラ等であって、周辺の画像を撮像する。具体的に、図1においては、撮像部12のレンズは、操作入力装置1の正面方向(Y軸正方向)に向けられており、当該方向を撮像方向Dcとして画像を撮像する。なお、撮像部12のレンズは、X軸方向を回転中心として180°回転可能になっている。これにより、撮像部12の撮像方向DcはY軸正方向からZ軸負方向を経由してY軸負方向(操作入力装置1の背面方向)まで変化する。
また、操作入力装置1の筐体10表面には、操作ボタンやアナログスティック等の各種の操作部材13が配置されている。ユーザUは、これらの操作部材13を操作することで、操作入力装置1に対する操作入力を行うことができる。
操作入力装置1の内部には、図2に示されるように、制御部14と、記憶部15と、が含まれる。
制御部14は、CPU等であって、記憶部15に記憶されたプログラムに従って各種の情報処理を実行する。本実施形態では、制御部14は、撮像部12によって撮像された撮像画像を用いて操作入力装置1の姿勢を検出し、当該検出結果をユーザUによる操作入力として用いて、表示部11の表示画像を更新する処理を実行する。制御部14が実行する処理の内容については、後述する。
記憶部15は、RAMやROM等のメモリ素子やハードディスクドライブ等を含んで構成され、制御部14が実行するプログラムや各種のデータを記憶する。また、記憶部15は、制御部14のワークメモリとしても動作する。
操作入力装置1は、図3に示すように、機能的に、撮像画像取得部21と、姿勢検出部22と、表示画像更新部23と、を含んで構成される。また、本実施形態では、姿勢検出部22は、画像解析部22aと、姿勢パラメタ算出部22bと、を含んで構成される。これらの機能は、制御部14が記憶部15に格納されたプログラムを実行することで実現される。このプログラムは、インターネット等の通信ネットワークを介して操作入力装置1に提供されてもよいし、光ディスクやメモリカード等のコンピュータ読み取り可能な各種の情報記憶媒体に格納されて提供されてもよい。
撮像画像取得部21は、撮像部12によって撮像された撮像画像Iを取得する。具体的に、撮像画像取得部21は、操作入力装置1が姿勢検出処理を行っている間、所定時間おきに当該時点における撮像画像Iを取得することとする。
なお、撮像画像Iは静止画像であってもよいし、動画像中の一時点におけるフレーム画像であってもよい。すなわち、撮像部12は、撮像画像取得部21が指示するタイミングで静止画像を撮像してもよい。あるいは、撮像部12は継続して動画像の撮像を実施し、撮像画像取得部21がその動画像の中からフレーム画像を撮像画像Iとして抽出してもよい。
姿勢検出部22は、撮像画像取得部21が取得した撮像画像Iの画像解析結果に基づいて、操作入力装置1の姿勢を検出する。
具体的に、画像解析部22aは、撮像画像取得部21が所定時間おきに取得した各撮像画像Iの解析を行って、当該撮像画像I内に含まれる物体(被写体)を特定する。この被写体は、操作入力装置1の姿勢を検出するための目印として用いられる物体であって、撮像画像I内における当該被写体の位置や向きが特定できるものであればどのようなものであってもよい。ここでは、画像解析部22aによる特定の対象となる被写体は、操作入力装置1を把持しているユーザUの顔であることとする。操作入力装置1のユーザUは、表示部11に表示される画像を閲覧するために、自分自身の顔の正面に操作入力装置1が位置するように、操作入力装置1を両手で把持して使用する。このとき、撮像部12の撮像方向DcにユーザUの顔が位置することになり、撮像画像I内にはユーザUの顔が映っていると想定される。
画像解析部22aは、撮像画像I内におけるユーザUの顔の中心位置(以下、顔位置Pfという)を特定する。また、撮像画像内におけるユーザUの顔の傾き(以下、顔方向Dfという)を特定する。ここでは顔方向Dfは、撮像画像I内においてユーザUの頭頂部が向いている方向として定義することとする。これらの顔位置Pf及び顔方向Dfは、公知の顔認識技術を用いて特定することができる。具体的に、例えば画像解析部22aは、顔に含まれる目や鼻などの部位を検出したり、撮像画像I内の輝度分布、色分布、熱分布、距離分布などを解析したりすることによって、顔位置Pf及び顔方向Dfを特定してもよい。なお、撮像画像I内から複数の顔が検出される場合、画像解析部22aは、例えば撮像画像I内で一番サイズの大きな顔をユーザUの顔として特定してもよい。図4は、このような画像解析によって特定される顔位置Pfの位置座標(xf,yf)及び顔方向Dfの角度値θfを示している。ここで、顔位置Pfの位置座標(xf,yf)は、撮像画像Iの中心位置を原点とした座標系によって表されている。また、顔方向Dfの角度値θfは、撮像画像Iの上方向(垂直方向)に対する顔の頭頂部方向の角度として表されている。
姿勢パラメタ算出部22bは、画像解析部22aによって得られた解析結果を用いて、操作入力装置1の姿勢を表す姿勢パラメタの値を算出する。具体的に、姿勢パラメタ算出部22bは、画像解析部22aによって特定された顔位置Pf及び顔方向Dfの少なくとも一方に基づいて、操作入力装置1の姿勢を検出する。ここでは姿勢パラメタ算出部22bは、顔位置Pf及び顔方向Dfを用いて、姿勢パラメタとして、ロール角θr、ピッチ角θp、及びヨー角θyのそれぞれを算出することとする。これらの姿勢パラメタは、後に詳しく説明するように、操作入力装置1に設定された各基準軸を中心とした、操作入力装置1の基準姿勢に対する回転角を表している。
なお、ここでは、撮像方向Dcを延長した直線上にユーザUの顔の中心が存在し、操作入力装置1の上方(Z軸負方向)とユーザUの顔から頭頂部に向かう方向が一致する状態を、操作入力装置1の基準姿勢とする。すなわち、操作入力装置1が基準姿勢にある状態では、撮像画像Iの中心に顔位置Pfが存在し、かつ、顔方向Dfが撮像画像Iの上方向に向いていることになる。以下では、操作入力装置1が基準姿勢にある状態における顔位置Pf及び顔方向Dfを、それぞれ基準顔位置Po及び基準顔方向Doと表記する。
ロール角θrは、Z軸を回転中心とした基準姿勢に対する回転角を示している。図5Aは、操作入力装置1がZ軸を回転中心として基準姿勢から回転した状態を示しており、ユーザU及び操作入力装置1を上方(Z軸負方向側)から見た様子を示している。また、図5Bは、この状態における撮像画像Iを示している。これらの図に示されるように、操作入力装置1がZ軸を回転中心として回転すると、撮像部12から見てユーザUは左右方向に移動することになり、撮像画像I内において顔位置Pfが基準顔位置Poに対して左右方向に移動する。そこで姿勢パラメタ算出部22bは、所定の関数を用いて、顔位置Pfのx座標値xfに基づいてロール角θrを算出する。例えば姿勢パラメタ算出部22bは、
θr=a1・f(xf/xmax
という計算式を用いてθrを算出する。ここで、a1は所定の係数、xmaxはx座標値の最大値であって、f(x)は所定の関数である。一例として、姿勢パラメタ算出部22bは、ロール角θrがx座標値xfに比例するとして、
θr=a1・xf/xmax
という計算式を用いてθrを算出してもよい。また、f(x)は、撮像部12の構造やレンズ特性等に応じた補正関数であってもよい。
また、ピッチ角θpは、X軸を回転中心とした基準姿勢に対する回転角を示している。図6Aは、操作入力装置1がX軸を回転中心として基準姿勢から回転した状態を示しており、ユーザU及び操作入力装置1を側方(X軸正方向側)から見た様子を示している。また、図6Bは、この状態における撮像画像Iを示している。これらの図に示されるように、操作入力装置1がX軸を回転中心として回転すると、撮像部12から見てユーザUは上下方向に移動することになり、撮像画像I内において顔位置Pfが基準顔位置Poに対して上下方向に移動する。そこで、姿勢パラメタ算出部22bは、所定の関数を用いて、顔位置Pfのy座標値yfに基づいてピッチ角θpを算出する。例えば姿勢パラメタ算出部22bは、
θp=a2・g(yf/ymax
という計算式を用いてθpを算出してもよい。ここで、θrの場合と同様に、a2は所定の係数であり、ymaxはy座標値の最大値であり、g(y)は所定の関数である。なお、g(y)はf(x)と同じ関数であってもよい。一例として、姿勢パラメタ算出部22bは、ピッチ角θpがy座標値yfに比例するとして、
θp=a2・yf/ymax
という計算式を用いてθpを算出してもよい。
以上説明したように、姿勢パラメタ算出部22bは、撮像画像I内における顔位置Pfに基づいて、ロール角θr及びピッチ角θpを算出する。これらの姿勢パラメタは、撮像部12からユーザUに向かう方向に対する操作入力装置1の傾きを表している。なお、ここではxf及びyfを、それぞれxmax及びymaxで除した値を用いて、θr及びθpを算出している。これにより、撮像画像I内における位置座標を正規化した値に基づいて、ロール角θr及びピッチ角θpを算出できる。このとき、a1とa2は互いに等しい値であってもよい。また、xmax及びymaxを用いずに、θr=a1・f(xf)、θp=a2・g(yf)という計算式でθr及びθpを算出してもよい。
なお、ここでは位置座標の原点と基準顔位置Poが一致することとしたが、位置座標の原点は基準顔位置Poと異なる位置にあってもよい。例えば撮像画像Iの四隅のいずれかを原点として、顔位置Pfの座標値を表してもよい。この場合、基準顔位置Poの位置座標を(xo,yo)と表記すると、上述した各計算式におけるxf及びyfの代わりに、(xf−xo)及び(yf−yo)を用いてθr及びθpを算出すれば、基準姿勢に対する回転角を求めることができる。
一方、ヨー角θyは、Y軸を回転中心とした基準姿勢に対する回転角(すなわち、撮像方向Dcに垂直な面内における操作入力装置1の傾き)を示している。図7Aは、操作入力装置1がY軸を回転中心として基準姿勢から回転した状態を示しており、ユーザU及び操作入力装置1を背面側(Y軸負方向側)から見た様子を示している。また、図7Bは、この状態における撮像画像Iを示している。これらの図に示されるように、操作入力装置1がY軸を回転中心として回転すると、これに応じて撮像画像I内の顔方向Dfは逆回りで回転する。そこで、姿勢パラメタ算出部22bは、所定の関数を用いて、顔方向Dfの角度値θfに基づいてヨー角θyを算出する。例えば姿勢パラメタ算出部22bは、
θy=a3・h(θf)
という計算式を用いてθyを算出する。ここで、a3は所定の係数であって、h(θ)は所定の関数である。一例として、姿勢パラメタ算出部22bは、ヨー角θyが角度値θfに比例するとして、
θy=a3・θf
という計算式を用いてθyを算出してもよい。
なお、以上の説明において、係数a1,a2及びa3は、アプリケーションプログラム等によって予め定められた固定値であってもよいし、ユーザUの指定に応じて変更可能な値であってもよい。
また、特に係数a1及びa2は、画像解析部22aによる画像解析によって得られる被写体の大きさ(ここではユーザUの顔の大きさ)に基づいて変化する値であってもよい。例えば、実際のユーザUの顔の位置と基準姿勢において想定される位置との間にわずかなずれがある場合(すなわち、ユーザUの顔の中心位置が撮像方向Dcを延長した直線上からずれている場合)、このずれによる影響は、ユーザUと撮像部12との間の距離によって変化する。すなわち、ユーザUと撮像部12との間の距離が比較的近いと、わずかに操作入力装置1の傾きが変化するだけでも、顔位置Pfは撮像画像I内において大きく移動する。一方で、ユーザUと撮像部12との間の距離が比較的遠い場合、操作入力装置1を同じ角度だけ傾けても、顔位置Pfの撮像画像I内における移動量は、ユーザUと撮像部12との間の距離が近い場合より少なくなる。ここで、画像解析部22aが顔位置Pf及び顔方向Dfを特定する際に、ユーザUの顔が撮像画像I内に占める顔領域の大きさも合わせて特定されるので、この顔領域の大きさを用いて、撮像部12からユーザUまでの距離を推定することができる。そのため、この顔領域の大きさに応じて係数a1及びa2を決定することで、姿勢パラメタ算出部22bは、上述したずれの影響を軽減して、操作入力装置1の姿勢変化を反映したロール角θr及びピッチ角θpを算出することができる。具体的に、姿勢パラメタ算出部22bは、画像解析部22aによって特定された顔領域の大きさが大きければ大きいほど、係数a1及びa2の値を小さくすればよい。なお、姿勢パラメタ算出部22bは、ユーザUの顔までの距離を推定するために、顔領域の大きさだけでなく、視差情報などの他の入力情報を用いてもよい。
また、以上の説明においては、ユーザUは操作入力装置1の向きは変化させるが、自分自身に対する操作入力装置1の位置自体は動かさない(すなわち、撮像部12の撮像方向Dcは変化しても、撮像位置自体は変化しない)ことを前提として姿勢パラメタを算出することとしている。もしユーザUが操作入力装置1の位置を平行移動させたとすると、その場合にも顔位置Pfは撮像画像I内を移動することになる。そのため、撮像画像I内の顔位置Pfの情報だけでは、ユーザUが操作入力装置1を回転させたのか、平行移動させたのか、判別できないことも考えられる。
そこで、姿勢検出部22は、撮像部12から被写体(ここではユーザUの顔)に向かう方向に対する、被写体の向きの変化を検出し、当該検出された被写体の向きの変化に応じて、操作入力装置1の傾きの変化の有無を判別することとしてもよい。具体的に、画像解析部22aは、撮像画像I内に含まれるユーザUの顔を特定する際に、ユーザUの顔の正面方向がどちらを向いているかを判定する。このような判定は、顔領域内における目や鼻などの特徴点の位置を特定し、当該特定された特徴点の顔領域内における分布(偏り度合い)を基準値と比較することで可能となる。
図8Aは、図5Aと同様にユーザU及び操作入力装置1を上方から見た様子を示す図であって、操作入力装置1の向きは変えずに位置だけを変化させた状態を示している。図5Aや図6Aに示されるように、ユーザUが操作入力装置1の向きだけを変化させた場合、撮像画像I内における顔位置Pfは撮像画像Iの中心から外周に向かって移動するが、実空間内において撮像部12のレンズに対するユーザUの顔の位置自体は変化しない。そのため、ユーザUの顔の正面は撮像部12のレンズに向けられたままであり、図5Bや図6Bに示されるように、撮像画像I内においてユーザUの顔の正面方向はほとんど変化しない。一方、ユーザUが操作入力装置1の位置を平行移動させた場合、図8Aに示されるように、ユーザUの顔の正面方向は撮像部12のレンズから離れていく。そのため、図8Bに示されるように、操作入力装置1が移動するにつれて、ユーザUの顔の正面は撮像画像Iの外側に向けられていく。
そこで姿勢パラメタ算出部22bは、撮像画像I内に含まれる顔画像を解析して、ユーザUから撮像部12に向かう方向に対するユーザUの顔の正面方向の角度を算出する。具体的に、例えば姿勢パラメタ算出部22bは、顔に含まれる目や鼻などの部位の位置分布や、顔領域内の輝度分布、色分布、熱分布、距離分布などを用いて、顔の正面方向の角度を算出してもよい。そして、当該角度に応じた量だけ操作入力装置1が平行移動したと判断し、顔位置Pfの位置座標値xf及びyfに対して、当該平行移動に起因する量を差し引く補正を行う。その後、姿勢パラメタ算出部22bは、補正されたxf及びyfの値を用いて、上述したθr及びθpの算出を行う。このようにすれば、撮像画像I内において顔位置Pfが変化した場合に、この変化のうち、操作入力装置1の平行移動に起因する部分と傾きの変化に起因する部分を分離し、傾きの変化だけを算出することができる。なお、姿勢パラメタ算出部22bは、顔全体の正面方向ではなく、顔に含まれる目や鼻などの正面方向の角度を特定し、当該特定された角度を用いて操作入力装置1の平行移動量を算出してもよい。
また、姿勢パラメタ算出部22bは、撮像画像I内に含まれる背景画像の動きを用いて、操作入力装置1の平行移動を検知してもよい。すなわち、ユーザUが操作入力装置1を平行移動させた場合は、撮像画像I内においてユーザUの位置が移動するだけでなく、ユーザUの背後の背景画像全体が平行移動する。一方、ユーザUが操作入力装置1を傾けただけの場合は、背景画像に歪みが生じることはあっても、背景の全体が平行移動することはない。そのため、撮像画像I内の背景画像を、過去に撮像された撮像画像I内における背景画像と比較し、背景画像の変化を解析することで、操作入力装置1の平行移動量を特定することができる。このような解析は、例えばKLT法(Kanade-Lucas-Tomasi Feature Tracker)などを用いて実現できる。
さらに、既に述べたように、姿勢検出部22は、顔領域の大きさによって撮像部12からユーザUの顔までの距離を算出できる。この距離の時間変化を用いれば、姿勢検出部22は、例えばユーザUが操作入力装置1を前後方向に振る操作などを検出できる。このように、姿勢検出部22は、X軸、Y軸、及びZ軸それぞれを回転中心とした回転(傾きの変化)だけでなく、X軸、Y軸、及びZ軸それぞれの方向に沿って操作入力装置1を移動させる操作についても検出し、当該移動の速度や加速度を算出して、表示画像更新部23に対して出力してもよい。
表示画像更新部23は、姿勢検出部22による姿勢検出結果に応じて表示部11に表示される表示画像を更新する処理を行う。具体的に、表示画像更新部23は、姿勢パラメタ算出部22bによって算出された姿勢パラメタの値を操作入力として用いて、表示画像を更新する。例えば表示画像更新部23は、θr及びθpの値に応じて特定される操作入力装置1の傾き方向及び傾き量に応じて、仮想3次元空間に配置されたユーザオブジェクトを移動させたり、仮想3次元空間に設定された視点位置を移動させたりする処理を実行する。そして、当該処理の結果を反映した画像を生成し、表示部11に表示させる。これにより、操作入力装置1は、ユーザUが操作入力装置1の姿勢を変化させる操作入力に応じて、例えばゲーム等のアプリケーションプログラムを実行し、その結果をユーザUに提示できる。
なお、表示画像更新部23は、姿勢パラメタの値に応じて実行した処理の結果とともに、撮像部12によって撮像された撮像画像Iそのものを表示部11内の一部領域に表示させることとしてもよい。あるいは、表示画像更新部23は、画像解析部22aによる解析の結果(すなわち、撮像画像I内から特定されたユーザUの顔位置Pfや顔方向Df等)を示す画像を表示部11に表示させてもよい。こうすれば、ユーザUは、自分が行った操作入力装置1の姿勢を変化させる操作入力の結果、撮像画像Iにどのような変化が生じたかを確認しながら、操作入力装置1の姿勢を変化させることができ、操作入力をしやすくなる。このとき、表示する撮像画像Iを左右反転したものにすれば、ユーザUにとって操作入力装置1の姿勢変化に応じた顔位置Pfの変化を直感的に把握しやすくなる。
以上の説明においては、操作入力装置1の基準姿勢は、基準顔位置Poが撮像画像Iの中心に一致するような予め定められた姿勢であることとしている。しかしながら、基準姿勢は、アプリケーションプログラムの実行開始時などに決定されてもよい。例えばユーザUは、画面に表示される指示に従って、操作入力装置1を自分の好みの姿勢で把持した状態で操作部材13を操作することとし、操作入力装置1は、この操作部材13に対する操作があった時点における顔位置Pf及び顔方向Dfを、基準顔位置Po及び基準顔方向Doとして決定する。以降は、この基準顔位置Poに対する顔位置Pfの変化や、基準顔方向Doに対する顔方向Dfの変化によって、姿勢検出部22は操作入力装置1の基準姿勢に対する変化を検出できる。
また、以上説明した姿勢検出処理を実行する際に、操作入力装置1を大きく傾けすぎると、ユーザUの顔が撮像部12の視野角から外に出てしまうこともあり得る。このような状態になると、姿勢検出部22は撮像画像I内におけるユーザUの顔の特定に失敗し、姿勢パラメタを算出できなくなる。このような場合、姿勢検出部22は、ユーザUの顔を特定できなくなる直前の撮像画像Iに基づいて検出された姿勢を、操作入力装置1が維持するものと仮定してもよい。すなわち、姿勢検出部22は、次に撮像画像I内からユーザUの顔の特定に成功するまで、最後に算出された姿勢パラメタの値を、そのまま表示画像更新部23に対して出力し続けることとする。あるいは姿勢検出部22は、ユーザUの顔の特定に失敗した場合には、姿勢の変化を一旦リセットし、操作入力装置1の姿勢が基準姿勢に戻った場合と同様の姿勢パラメタを出力することとしてもよい。
以上説明した本実施の形態に係る操作入力装置1によれば、加速度センサ等の姿勢検出用センサを備えておらずとも、このようなセンサを用いた場合と同様の姿勢検出を、撮像部12によって撮像された撮像画像Iを用いて実現できる。
なお、本発明の実施の形態は、以上説明したものに限られない。例えば撮像部12は、CCDカメラに限らず、例えば赤外線など可視光以外の光を検知するカメラや、複眼カメラなどであってもよい。このようなカメラを用いることで、操作入力装置1は、視差情報や、撮像画像I内の熱分布や距離分布などに関する情報を取得することができる。
また、以上の説明では、画像解析部22aは撮像画像Iに含まれるユーザUの顔を顔認識処理によって特定することとしたが、必ずしも顔認識を行う必要はない。例えば画像解析部22aは、人物の輪郭線を特定することによって、撮像画像I内における人の頭部の位置や傾きを特定してもよい。この場合には、肩のラインの向きなどを用いることによって、撮像画像I内における頭部の傾きを精度よく判別することができる。また、画像解析部22aは、ユーザUの顔の全体ではなく、その一部(例えば目や鼻など)の位置や向きを特定し、姿勢パラメタ算出部22bは、当該特定された顔の一部の位置や向きに基づいて、姿勢パラメタの値を算出してもよい。
さらに、画像解析部22aが特定するのは、操作入力装置1を把持するユーザU以外の人物であってもよい。既に述べたように、撮像部12のレンズは操作入力装置1の背面側に回転可能になっている。このように撮像部12の撮像方向Dcを操作入力装置1の背面側に向けた状態で、姿勢検出部22は、ユーザU以外の人物を含む撮像画像Iを撮像し、その中に含まれる人物の位置や向きによって、操作入力装置1の姿勢を検出できる。なお、この場合には、操作入力装置1に対する撮像部12の撮像方向Dcがこれまで説明した例とは逆向きになるので、撮像画像I内における顔位置Pfの左右方向の位置とロール角θrとの関係が逆転する。また、顔方向Dfの回転方向とヨー角θyとの関係も逆転する。そのため、例えば姿勢検出部22は、撮像部12のレンズが背面側に向けられている場合、撮像画像Iを左右反転させてから画像の解析を行うなどの方法で、撮像方向Dcの反転による影響を補正する。
また、姿勢検出部22は、人物以外の被写体を特定し、その位置や向きに基づいて操作入力装置1の姿勢検出を行ってもよい。あるいは、撮像画像I内から特定された特徴点の移動や回転に基づいて、操作入力装置1の姿勢の変化を検出してもよい。
また、以上の説明においては、姿勢検出部22は、回転角θr,θp及びθyの値を算出し、姿勢パラメタとして表示画像更新部23に出力することとしたが、これに限らず、他の姿勢を表すパラメタを算出してもよい。特に、加速度センサ等の姿勢検出用センサを備えた操作入力装置の代替として本実施形態に係る操作入力装置1を用いる場合、算出されたθr,θp及びθyの値を、加速度センサ等の出力値として想定される値に変換してから、表示画像更新部23に対して出力することとしてもよい。こうすれば、表示画像更新部23がゲーム等のアプリケーションプログラムによって実現される場合に、この表示画像更新部23の処理内容を従来のものから変更することなく、ユーザUは、姿勢検出用センサを備えた操作入力装置を利用する場合も、本実施形態に係る操作入力装置1を利用する場合も、同様の操作で同様の処理を実行させることが可能となる。
ここで、例えば加速度センサの出力は、重力加速度が生じる鉛直方向と、操作入力装置1の向きと、の関係によって変化する。そのため、本実施形態に係る操作入力装置1を用いて加速度センサによる出力のエミュレーションを行う場合、鉛直方向が特定できなければ、完全に加速度センサの出力を再現することはできない。しかしながら、加速度センサの出力を用いた処理を実行するプログラムの中には、重力加速度との関係で特定された操作入力装置1の姿勢情報を、単に基準姿勢に対する相対的な傾きの情報や、傾きの時間変化の情報としてしか利用しないものもある。このようなプログラムでは、真の鉛直方向が操作入力装置1に対してどちらの方向かは問題とされない。そこで、姿勢検出部22は、仮想的な重力方向を予め定められた方向に設定し、当該方向に重力が生じる場合の各基準軸に対する加速度を、θr,θp及びθyの値を用いて算出し、算出された加速度の値を表示画像更新部23に対して出力する。こうすれば、表示画像更新部23を実現するプログラムの内容を変更せずに、加速度センサを内蔵した操作入力装置を用いた場合と同様の操作で、表示画像を更新させる処理が実現できる。
なお、このような姿勢検出用センサを備えた操作入力装置のエミュレーションを行う場合、本実施形態に係る操作入力装置1のどの方向に対する姿勢の変化を、姿勢検出用センサを備えた操作入力装置のどの方向に対する姿勢の変化に割り当てるかは、ユーザUが自由に選択できることとしてもよい。例えば操作入力装置1は、当該操作入力装置1に設定されたX軸、Y軸及びZ軸それぞれを回転中心とした回転角θr,θp及びθyのそれぞれを、ユーザUの指定に応じて、姿勢検出用センサを備えた操作入力装置に設定されたX軸、Y軸及びZ軸のいずれかを回転中心とした回転角に割り当てることとする。こうすれば、ユーザUは、操作入力装置1の形状に関係なく、自分が操作しやすい向きに操作入力装置1を傾けて、操作入力を行うことが可能となる。また、操作入力装置1は、画像解析部22aによって検出されたユーザUの顔の向きや、アプリケーションプログラム等によって予め設定された条件に応じて、回転角θr,θp及びθyのそれぞれを、エミュレーション対象となる操作入力装置の各基準軸を回転中心とした回転角に割り当ててもよい。例えばユーザが操作入力装置1を縦方向及び横方向のそれぞれで把持して使用することが想定される場合、操作入力装置1は、検出された顔の向きや、アプリケーションプログラムの指定に応じて、ユーザが当該操作入力装置1を縦向きに把持しているか横向きに把持しているかを判定する。そして、その判定結果に応じて、回転角の割り当てを変更する。こうすれば、ユーザは、縦向き及び横向きのいずれで操作入力装置1を把持した場合も、操作入力装置1の向きを意識せずに操作入力装置1を傾ける操作入力を行うことができる。
[第2実施形態]
以下、本発明の第2実施形態に係る情報処理装置31を含んだ情報処理システムについて、図9を用いて説明する。第1実施形態では、操作入力装置1自体が撮像画像Iに基づいて操作入力装置1の姿勢検出を行うこととしたが、本実施形態では、操作入力装置32と接続された別の情報処理装置31が、操作入力装置32の姿勢検出を行って、当該姿勢検出結果に応じた情報処理を実行する。
ここで、操作入力装置32は例えば家庭用ゲーム機のコントローラであって、情報処理装置31に対するユーザUの操作入力に用いられる。情報処理装置31は、例えば家庭用ゲーム機本体であって、操作入力装置32を介したユーザUの操作入力に応じて各種の処理を行い、処理結果をテレビ受像機等の表示装置33の画面に表示させる。
図9の例では、操作入力装置32の外面には撮像部34が設けられている。また、操作入力装置32は通信部35を備えており、この通信部35を介して撮像部34によって撮像された撮像画像Iを情報処理装置31に送信する。情報処理装置31は、制御部36と、記憶部37と、通信部38と、を含んで構成されており、制御部36が記憶部37に格納されたプログラムに従って情報処理を行う。また、通信部38は操作入力装置32の通信部35との間でデータ通信を行う。
この例でも、情報処理装置31の制御部36は、前述した操作入力装置1の場合と同様の処理を実行することで、操作入力装置32の姿勢を検出することができる。すなわち、制御部36は、通信部35及び通信部38を介して、撮像部34によって撮像された撮像画像Iを取得する。そして、取得した撮像画像Iの解析結果に基づいて、操作入力装置32の姿勢を検出し、当該検出した姿勢に応じた処理を行う。
1 操作入力装置、10 筐体、11 表示部、12 撮像部、13 操作部材、14 制御部、15 記憶部、21 撮像画像取得部、22 姿勢検出部、22a 画像解析部、22b 姿勢パラメタ算出部、23 表示画像更新部、31 情報処理装置、32 操作入力装置、33 表示装置、34 撮像部、35 通信部、36 制御部、37 記憶部、38 通信部。

Claims (9)

  1. ユーザが手で把持して使用する操作入力装置であって、
    当該操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段と、
    前記取得される撮像画像内に含まれる被写体を特定し、当該特定される被写体の位置に基づいて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きを検出する姿勢検出手段と、
    を含み、
    前記姿勢検出手段は、前記撮像画像内における前記被写体の位置が変化する場合に、前記撮像部から前記被写体に向かう方向に対する前記被写体の向きの変化を検出し、当該検出された被写体の向きの変化に応じて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きの変化量を算出する
    ことを特徴とする操作入力装置。
  2. 請求項記載の操作入力装置において、
    前記被写体は前記操作入力装置を把持するユーザの顔の全部又は一部であって、
    前記姿勢検出手段は、前記ユーザの顔の全部又は一部の位置及び向きの少なくとも一方に基づいて、前記操作入力装置の姿勢を検出する
    ことを特徴とする操作入力装置。
  3. 請求項1又は2記載の操作入力装置において、
    前記姿勢検出手段は、前記撮像画像内における前記被写体の向きに基づいて、前記撮像方向に垂直な面内における前記操作入力装置の傾きを検出する
    ことを特徴とする操作入力装置。
  4. ユーザが手で把持して使用する操作入力装置と接続され、
    前記操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段と、
    前記取得される撮像画像内に含まれる被写体を特定し、当該特定される被写体の位置に基づいて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きを検出する姿勢検出手段と、
    を含み、
    前記姿勢検出手段は、前記撮像画像内における前記被写体の位置が変化する場合に、前記撮像部から前記被写体に向かう方向に対する前記被写体の向きの変化を検出し、当該検出された被写体の向きの変化に応じて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きの変化量を算出する
    ことを特徴とする情報処理装置。
  5. 操作入力装置に設けられた撮像部によって撮像される撮像画像を取得するステップと、
    前記取得される撮像画像内に含まれる被写体を特定し、当該特定される被写体の位置に基づいて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きを検出するステップと、
    を含み、
    前記傾きを検出するステップでは、前記撮像画像内における前記被写体の位置が変化する場合に、前記撮像部から前記被写体に向かう方向に対する前記被写体の向きの変化を検出し、当該検出された被写体の向きの変化に応じて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きの変化量を算出する
    ことを特徴とする操作入力装置の姿勢検出方法。
  6. 操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段、及び
    前記取得される撮像画像内に含まれる被写体を特定し、当該特定される被写体の位置に基づいて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きを検出する姿勢検出手段、
    としてコンピュータを機能させるためのプログラムであって、
    前記姿勢検出手段は、前記撮像画像内における前記被写体の位置が変化する場合に、前記撮像部から前記被写体に向かう方向に対する前記被写体の向きの変化を検出し、当該検出された被写体の向きの変化に応じて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きの変化量を算出する
    ことを特徴とするプログラム
  7. 請求項記載のプログラムが記憶されたコンピュータ読み取り可能な情報記憶媒体。
  8. ユーザが手で把持して使用する操作入力装置であって、
    当該操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段と、
    前記取得される撮像画像内に含まれる被写体及び背景画像を特定し、当該特定される被写体の位置の変化に基づいて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きの変化を検出する姿勢検出手段と、
    を含み、
    前記姿勢検出手段は、前記背景画像の変化に基づいて、前記被写体の位置の変化が、前記操作入力装置の平行移動によるものか否かを特定する
    ことを特徴とする操作入力装置。
  9. ユーザが手で把持して使用する操作入力装置と接続され、
    前記操作入力装置に設けられた撮像部によって撮像される撮像画像を取得する撮像画像取得手段と、
    前記取得される撮像画像内に含まれる被写体及び背景画像を特定し、当該特定される被写体の位置の変化に基づいて、前記撮像部から前記被写体に向かう方向に対する前記操作入力装置の傾きの変化を検出する姿勢検出手段と、
    を含み、
    前記姿勢検出手段は、前記背景画像の変化に基づいて、前記被写体の位置の変化が、前記操作入力装置の平行移動によるものか否かを特定する
    ことを特徴とする情報処理装置。
JP2009252330A 2009-11-02 2009-11-02 操作入力装置 Active JP5437023B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009252330A JP5437023B2 (ja) 2009-11-02 2009-11-02 操作入力装置
CN2010800603263A CN102725713A (zh) 2009-11-02 2010-07-13 操作输入设备
PCT/JP2010/061822 WO2011052270A1 (ja) 2009-11-02 2010-07-13 操作入力装置
EP10826405.2A EP2498170B1 (en) 2009-11-02 2010-07-13 Operation input device
US13/504,322 US20120212410A1 (en) 2009-11-02 2010-07-13 Operation input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009252330A JP5437023B2 (ja) 2009-11-02 2009-11-02 操作入力装置

Publications (2)

Publication Number Publication Date
JP2011095228A JP2011095228A (ja) 2011-05-12
JP5437023B2 true JP5437023B2 (ja) 2014-03-12

Family

ID=43921701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009252330A Active JP5437023B2 (ja) 2009-11-02 2009-11-02 操作入力装置

Country Status (5)

Country Link
US (1) US20120212410A1 (ja)
EP (1) EP2498170B1 (ja)
JP (1) JP5437023B2 (ja)
CN (1) CN102725713A (ja)
WO (1) WO2011052270A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5891659B2 (ja) * 2011-08-31 2016-03-23 ソニー株式会社 操作装置、その情報処理方法及び情報処理装置
US9407824B2 (en) * 2012-11-01 2016-08-02 Google Inc. Multi-directional content capture on mobile devices
US9213419B1 (en) * 2012-11-13 2015-12-15 Amazon Technologies, Inc. Orientation inclusive interface navigation
JP6547355B2 (ja) * 2015-03-20 2019-07-24 大日本印刷株式会社 印画物作製装置
JP2017129567A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3422383B2 (ja) * 1994-09-05 2003-06-30 株式会社タイトー 射撃ゲーム装置におけるビデオ画面とガンの相対位置を検出する方法及び装置
JPH1173510A (ja) * 1997-08-29 1999-03-16 Matsushita Electric Works Ltd 位置検出装置
US20020126090A1 (en) * 2001-01-18 2002-09-12 International Business Machines Corporation Navigating and selecting a portion of a screen by utilizing a state of an object as viewed by a camera
EP1398601A3 (en) * 2002-09-13 2014-05-07 Canon Kabushiki Kaisha Head up display for navigation purposes in a vehicle
JP3990619B2 (ja) * 2002-10-11 2007-10-17 株式会社東海理化電機製作所 顔の向き検知装置
JP2005100084A (ja) * 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
JP4412714B2 (ja) * 2004-03-31 2010-02-10 株式会社バンダイナムコゲームス 配置情報検出システム、ゲームシステム、プログラム、情報記憶媒体及び配置情報検出システムの制御方法
US20060192775A1 (en) * 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states
KR100643470B1 (ko) * 2005-09-29 2006-11-10 엘지전자 주식회사 휴대용 단말기의 그래픽 신호 표시장치 및 방법
JP2007304666A (ja) * 2006-05-08 2007-11-22 Sony Computer Entertainment Inc 情報出力システム及び情報出力方法
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation

Also Published As

Publication number Publication date
JP2011095228A (ja) 2011-05-12
US20120212410A1 (en) 2012-08-23
WO2011052270A1 (ja) 2011-05-05
EP2498170B1 (en) 2019-09-25
CN102725713A (zh) 2012-10-10
EP2498170A1 (en) 2012-09-12
EP2498170A4 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
TWI722280B (zh) 用於多個自由度之控制器追蹤
US8350896B2 (en) Terminal apparatus, display control method, and display control program
CN106255938B (zh) 传感器和投影仪的校准
JP4593968B2 (ja) 位置姿勢計測方法および装置
US9323338B2 (en) Interactive input system and method
JP4481280B2 (ja) 画像処理装置、及び画像処理方法
JP5434997B2 (ja) 画像表示装置
JP5471356B2 (ja) 3次元計測のためのキャリブレーション方法および3次元視覚センサ
JP6242039B2 (ja) 自動センタリング機能付きのジャイロ制御されるゲーム視点のための装置および方法
JP5437023B2 (ja) 操作入力装置
US20120026376A1 (en) Anamorphic projection device
US20100188355A1 (en) Apparatus and method for detecting an object pointed by a user
WO2017147748A1 (zh) 一种可穿戴式系统的手势控制方法以及可穿戴式系统
EP3201724A1 (en) Gesture based manipulation of three-dimensional images
KR20180121259A (ko) 카메라 탑재형 컴퓨터의 거리검출장치 및 그 방법
JP2014053794A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP2012208705A (ja) 画像操作装置、画像操作方法およびプログラム
WO2023160694A1 (zh) 一种输入设备的虚拟方法、装置、设备和存储介质
JPWO2005096130A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
US20220028095A1 (en) Systems and methods for continuous image alignment of separate cameras
JP6975001B2 (ja) 傾き測定装置及び傾き測定方法
JP2014010227A (ja) 携帯電子機器、その制御方法及びプログラム
US20140375777A1 (en) Three-dimensional interactive system and interactive sensing method thereof
JP6643825B2 (ja) 装置及び方法
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131211

R150 Certificate of patent or registration of utility model

Ref document number: 5437023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250