JP4581204B2 - POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE - Google Patents
POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE Download PDFInfo
- Publication number
- JP4581204B2 JP4581204B2 JP2000275397A JP2000275397A JP4581204B2 JP 4581204 B2 JP4581204 B2 JP 4581204B2 JP 2000275397 A JP2000275397 A JP 2000275397A JP 2000275397 A JP2000275397 A JP 2000275397A JP 4581204 B2 JP4581204 B2 JP 4581204B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- imaging
- signal
- identifier
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、一方の機器に対する他方の機器の相対位置を検出するための位置解析装置及び位置解析方法、並びに、エンターテインメント装置に関し、特に、識別子を検出して解析することにより相対位置を検出するための位置解析装置及び位置解析方法、並びに、これらを適用したエンターテインメント装置に関する。
【0002】
【従来の技術】
近年、電子ゲーム技術の発展に伴い、幾つかの入力ボタンの組み合わせにより操作入力を行ったり、いわゆるジョイスティック等により操作入力を行ったりするだけのゲームでは、ユーザの要求を満たしたり、ユーザの興味を獲得することが困難になってきた。
【0003】
そこで、例えば、釣りをするゲームであれば釣り道具を模した入力装置を使用し、楽器を演奏するゲームであれば楽器を模した入力装置を使用し、射撃ゲームであれば本物の銃に模した入力装置を使用するなどして、より現実的な操作によりゲームを行うことができるように工夫されている。また、ユーザが画面を見ながら、実際に身体を動かして行うゲーム装置も存在する。
【0004】
この場合、身体全体の動きを検出するのではなく、所定位置に接触するとそれが検出されるような入力装置を用いて、ユーザの身体の動きを、例えばステップ等の部分的な動きとして入力している。
【0005】
ユーザが現実的な動作により近い動作を行うことでゲームの入力を行うために、ユーザの動きを検出し、これを入力信号として利用することが考えられている。例えば、ゲームプレーヤ(ユーザ)を撮像装置により撮像して、その撮像画像に基づいてゲームプレーヤ(ユーザ)の動きを解析し、その解析結果をゲームの入力に反映させるといったものである。
【0006】
ユーザの動き、或いは所定部位の位置を非接触にて検知するシステムは、既に実現されており、このような位置検出システムとしては、例えば、ブラウン管の走査線をビームで感光させて発光素子で検出する場合、赤外線、或いは超音波を使用して位置検知する場合等がある。
【0007】
【発明が解決しようとする課題】
ところが、非接触で目標部位の位置を検出する場合、特に、赤外線を用いる場合は、予め設置された複数の赤外線発生装置からの赤外線を受けて干渉縞を検出することにより位置を特定するために、至近距離で使用しないと位置検出精度が低くなってしまう。また、赤外線を使用した他の機器からの干渉を受けやすいため、特に同じ装置を並べて使用するような場合に位置検出精度が低下するという問題点があった。また、超音波を使用する場合は、予め設置された複数の超音波センサが受ける反射波を測定することにより、位置並びに動きを特定するため、赤外線を用いるときと同様に、反射波が干渉を受けるような条件では、やはり位置検出精度が低下する。
【0008】
また、ユーザが画面に表示される標的に向かって射撃を行うゲーム装置では、ブラウン管の走査線をビームで感光させ、これを受光素子で検出することで、画面上の位置を検出する方法を採用しているが、検出動作の度に画面の一部又は全域をフラッシュさせる必要がある。そのため、位置検出動作の度に画面をフラッシュさせても違和感のないようなアプリケーションにしか適用できなかった。その上、この方法を適用した位置検出は、走査線を有した表示装置にのみ有効であって、プロジェクタで映し出される画像や、液晶モニタに表示される画像に対しては適用できないという問題点があった。
【0009】
そこで、このような不都合を解消するための位置検出装置が特開平6−301475号公報に開示されている。ところが、ここに開示された位置検出装置を射撃ゲームに適用した場合、銃型コントローラとしての撮像装置の傾きが検出されないため、ユーザが銃型コントローラとしての撮像装置を正確に水平に保たない限り、ユーザが狙った照準と検出された位置との間で誤差が生じる。
【0010】
また、特開平11−305935号公報にも撮像装置を用いた位置検出装置が開示されているが、識別子として赤外線発光素子が用いられているため、例えば、この位置検出装置を家庭用のディスプレイに適用させようとすることは困難であって、業務用の大型筐体のゲーム機としての利用に限定されてしまう。また、この位置検出装置は、赤外線カットフィルタを備えていないため、撮像装置を取り外しても通常のカメラとして使用することができないのは、利便性に欠けるものである。
【0011】
このように、従来型のユーザインターフェイスとして、接触型インターフェイスによるGUI(Graphical User Interface)や、デスクトップメタファ(Desktop metaphor)といった概念があるが、上述したような種々の問題点が存在する。
【0012】
そこで本発明は、このような従来の実情に鑑みて提案されたものであり、あらゆる種類の表示装置に対応し、高精度の動き検出が可能な非接触の画像入力による新しいユーザインターフェイスとしての位置解析装置及び位置解析方法、並びに、このような位置解析方法を適用したエンターテインメント装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
本発明に係る位置解析装置は、表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析手段と、過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段とを備え、上記解析手段は、上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析することにより、上述の目的を達成する。
【0014】
また、本発明に係る位置解析方法は、表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析工程と、過去に撮像された撮像範囲内の所定点の位置を記憶手段に記憶する記憶工程とを備え、上記解析工程では、上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析することにより、上述の目的を達成する。
【0015】
また、本発明に係るエンターテインメント装置は、表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析手段と、過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段と、上記解析手段で解析された位置情報を制御情報に変換してプログラムを制御する制御手段とを備え、上記解析手段は上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析することにより上述の目的を達成する。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
【0017】
本発明の第1の実施の形態として示す位置検出システム1は、表示装置に識別子を表示し、この識別子を含む表示画像を操作入力装置としての撮像装置で撮影し、撮影した画像を解析手段において解析することによって、表示装置と撮像装置との位置関係、並びに撮像装置の表示装置に対する向き等を非接触により検出する位置検出システムであって、例えば表示装置に表示される画像の所定位置或いは所定の画像に対して、操作入力装置としての撮像装置を対向して選択動作を行うことで、操作入力を行うことが可能なユーザインターフェイスである。
【0018】
位置検出システム1を図1に示す。位置検出システム1は、後述する表示部12及びスピーカ13を有したゲーム筐体10と、銃を模したコントローラ型撮像装置11とを備える。
【0019】
表示部12には、ゲームの内容であるアニメーション画像等が出力され、スピーカ13からは、表示部12に表示される画像に合わせて、効果音や音楽等が再生される。図1に示す位置検出システム1において、表示部12には、詳細は図示しないが背景画像と、識別子14と、標的15と、照準点16とが表示されている。
【0020】
このように、当該位置検出システム1は、例えば、ユーザ1000が銃を模した操作入力装置としてのコントローラ型撮像装置11を用いて、表示部12に表示される標的15に向かって照準点16を定めて射撃をするゲーム装置を構成している。
【0021】
コントローラ型撮像装置11は、撮像素子としてCCD(Charge Coupled Device)を備えた撮像カメラであり、ユーザ1000によってゲーム筐体10の表示部12に対向されるとき、表示部12に表示されている画像を含めた周辺の環境を撮像し、この撮像範囲17の画像をゲーム筐体10に送信している。このとき、コントローラ型撮像装置11が捕らえた撮像範囲17の中心が照準点16として表示部12上の対応箇所に表示される。
【0022】
次に、このゲーム装置としての位置検出システム1の具体的な回路構成を図2に示す。
【0023】
図2に示すように、位置検出システム1におけるゲーム筐体10は、レンズ部20、固体撮像素子とされるCCD(Charge Coupled Device)部或いはCCDイメージャ21(Imager)21、S/H(Sampling/Hold)部22、AGC(Auto Gain Controler)部23、A/D(Analog/Digital)部24、信号処理部25、TG(Timing Generator)部26、撮像駆動部27、撮像制御部28、SDRAM(Synchronous Dynamic Random Access Memory)29、メインメモリ30、機械的I/F(Interface)31、ゲーム制御部32、表示制御部33、ROM(Read Only Memory)34、画像処理部35及びフレームメモリ36を備えている。
【0024】
このような構成からなる位置検出システム1において、CCD(Charge Coupled Device)部或いはCCDイメージャ(Imager)21、S/H部22、AGC部23、A/D部25、信号処理部25、TG部26、撮像駆動部27、撮像制御部28及びSDRAM29からコントローラ型撮像装置11が構成され、ゲーム制御部32は、コントローラ型撮像装置11から出力された時間的に異なる撮影画像を比較して動き検出をする動き検出手段として機能する。
【0025】
具体的には、コントローラ型撮像装置11は、非同期のシャッタにより任意のタイミングで撮像を行う機能と、撮像のための同期信号の一周期内において複数の撮像を行う多重露光撮影により撮像を行う機能とを有している。これらの機能の詳細は後述する。
【0026】
また、ゲーム制御部32は、ある時間における表示部12を撮影した画像と、所定時間経過後のゲームプレーヤ(ユーザ)の動作後の撮影画像とを比較して動きを検出する。ゲーム制御部32は、検出した動き検出結果に基づいてプログラムを実行する制御手段としての機能も有する。
【0027】
このような位置検出システム1において、レンズ部10を介して入力される撮像された画像は、固体撮像素子であるCCD部11にて光電変換される。ここで撮像素子は、CCDに限定されるものではなく、例えば、CMOSセンサー等といった他の撮像素子を用いることもできる。CCD部11にて光電変換された画像信号は、S/H部22においてサンプリング及びホールドされ、続いてAGC部23にて利得の調節がなされて、A/D部25に入力される。このとき、CCD部11からの画像信号の読み出しタイミングやS/H部22における処理タイミングは、TG部26からの読み出しタイミング信号によって制御されている。
【0028】
A/D部25では、入力された撮像信号は量子化される。A/D部25にて量子化された画像情報は信号処理部25にて一般的なカメラ信号処理が施されて、情報記憶部であるSDRAM29に格納される。ここで、画像情報が記憶される情報記憶部は、SDRAM29に限定されるものではなく、他の揮発性記憶手段であってよい。SDRAM29に格納された画像は、ゲーム制御部32の要求に応じて撮像制御部28にてストリームにされて、ゲーム制御部32を介してメインメモリ30に転送される。
【0029】
撮像制御部28は、位置検出システム1の各部を統括して制御している。撮像制御部28は、撮像駆動部17を制御してレンズ部10を駆動し、絞り、ズーム、フォーカス等の制御を行う。
【0030】
ゲーム制御部32は、SDRAM29からストリームとして転送された画像を画像処理して動き検出を行うものである。なお、ここでゲーム制御部32と撮像制御部28とは、同一のプロセッサとして構成されていてもよい。
【0031】
動き検出は、例えば後述する特開平9-247556号公報に開示された多重露光撮影技術によって行われる。多重露光撮影技術を用いた動き検出についての詳細は、後述する。
【0032】
ゲーム制御部32は、転送された画像を画像処理して予め決められている特徴点を検出する。すなわち、表示部の所定位置に表示されている識別子14を抽出し、コントローラ型撮像装置11が捕らえた撮像範囲17の中心を照準点16として表示部12上の対応箇所に表示する。
【0033】
次に、ゲーム制御部32は、上述のようにして抽出した識別子14の座標を記憶する。そして、ゲーム制御部32は、次々に転送されてくる画像、すなわちコントローラ型撮像装置11にて撮像されて、順次転送されてくる画像について上述した処理を繰り返す。
【0034】
ゲーム制御部32は、識別子14の座標を時系列で統計・分析することにより識別子14の動き検出を行う。また、動体予測によって識別子14の動きを補正する。
【0035】
検出した識別子14の動き及び照準点16の位置は、機械的I/F部31からの制御信号や撮影時のトリガ信号とともに制御信号として扱われ、ゲームに対するユーザの入力信号として使用される。ゲーム制御部32は、この入力信号としての制御信号に基づいてゲームを実行し、照準の位置とトリガに依存した標的や照準等が表示部12において表示される。
【0036】
すなわち、ゲーム制御部32は、識別子14の動きを検出し、その動き検出結果を制御信号に含めることによって、ゲーム筐体10に対するコントローラ型撮像装置11の動きを、表示部12に表示される動きを伴うキャラクター、特に、本発明にかかる実施の形態においては照準点16の動きに反映させている。
【0037】
照準点16の動きを検出するに際して、図3に示すように、ユーザに対して規定の動作を促すための看板、或いは音声ガイド等を設けたり、図4に示すように、ゲーム制御手段32に同期して表示部12に規定の動作を促す表示を行うことで、識別子14の基準相対位置を予め検出するキャリブレーション動作を行うことで、位置検出がより容易に行える。
【0038】
なお、ROM34には、ゲームを実行するためのプログラム等が記憶されている。また、画像処理部35は、画像処理を行う部であって、例えば、クロマキー処理等を行う。
【0039】
続いて、位置検出システム1におけるコントローラ型撮像装置11が表示部12を含めたゲーム筐体10の周辺の環境を撮像し、当該コントローラ型撮像装置11の表示部12に対する向きに応じて、表示部12に照準点16を表示する処理を図5を用いて説明する。
【0040】
撮像制御部28は、常に撮像条件を監視・検出している。撮像制御部28は、ステップS1において、撮像条件が適正か否かの判別を行う。
【0041】
撮像制御部28は、ステップS1において撮像条件が適正でないと判断した場合、ステップS2に進み、絞り(Iris)、ズーム(Zoom)、フォーカス(Focus)を制御する撮像駆動部27と、TG部26と、AGC部23と信号処理部25とを直ちに制御して撮像条件を調整する。
【0042】
ステップS1において、撮像条件が適正であると判断された場合、ステップS3に進んで、動き検出の要求が出されたか否かの判別を行う。
【0043】
ステップS3において、動き検出を行うことが要求されなかった場合、ステップS1の工程を繰り返す。一方、動き検出を行うことを要求された場合、ステップS4に進んで、コントローラ型撮像装置11は、撮像範囲17の画像を取得し、ゲーム筐体10に対して出力し、ステップS1の工程を繰り返す。
【0044】
このとき、ゲーム筐体10内のゲーム制御部32がコントローラ型撮像装置11からの画像に基づいて動き検出を行う処理を図6に示す。
【0045】
ゲーム制御部32は、ステップS10において、画像が入力されたか否かの判別を行う。画像が入力された場合、ステップS11において、画像情報の中から識別子14を抽出する。
【0046】
続いてゲーム制御部32は、ステップS12において、抽出した識別子の画角に対する座標を記憶し、コントローラ型撮像装置11の表示部12に対する方向・角度と照準点16とを補正する後述するキャリブレーション動作の際に識別子の基準相対位置から位置予測を行い、不可視の識別子の位置を予測する。
【0047】
ここで図7を用いて、識別子14の位置を予測する際の概念を説明する。図7(a)に示す基準となる基準相対位置と、図7(b)に示す撮像された識別子14とは常に相似であることを前提として、撮像された識別子が図7(c)のようであった場合、相対位置が相似であることから図7(c)に示す位置に識別子Cが存在することを予測する。
【0048】
ゲーム制御部32は、ステップS13において、予測によって補完した識別子含む複数の識別子の相対位置から照準点16の位置を検出する。
【0049】
ステップS14において、検出した照準点16の位置を、さらに動体予測によって補正し、ノイズを除去し、制御信号としてゲームの入力に反映させる。
【0050】
以上示したように、図1に示す位置検出システム1は、ユーザが入力装置としてのコントローラ型撮像装置11のトリガを引くと、コントローラ型撮像装置11から画像情報とトリガが引かれたことを示すトリガ情報とがゲーム筐体10に送信される。このときゲーム制御部32は、画像情報から識別子14を認識し、複数の識別子の相対位置からコントローラ型撮像装置11が表示部12のどの位置に向けられているかを解析する。解析した結果は、トリガ情報とともゲーム制御部32に送られ、制御信号に変換されて照準点16として表示するほか、ゲームの入力として使用される。
【0051】
したがって、第1の実施の形態として示した位置検出システム1は、コントローラ型撮像装置11によって撮影された撮影範囲17の画像から、表示部12に背景画像とともに表示される識別子14を検出して、識別子14の座標に応じて照準点16を表示することができる。
【0052】
これにより、位置検出システム1は、ゲームプレーヤ(ユーザ)の動きや実際の射撃動作を入力情報として使用し、例えばゲームのような仮想世界に現実世界の動作を反映させることを可能としている。
【0053】
続いて、本発明の第2の実施の形態について説明する。第2の実施の形態として示す位置検出システム2は、本発明に係る位置検出システムを家庭用のゲーム装置に適用したものである。この位置検出システム2は、図8に示すように、モニタ40、ゲーム装置50及びコントローラ型撮像装置60を備えて構成されている。
【0054】
ここで、モニタ40は画像表示手段であり、通常、外部からの映像及び音声入力が可能なテレビジョン受像機(以下、テレビと記す。)である。ゲーム装置50は、第1の実施の形態に示したような業務用のゲーム筐体10を小型化した家庭用ゲーム装置であって、所定のプログラムに従ってゲームを実行する処理手段を備えている。コントローラ型撮像装置60は、入力装置であって、ゲームの入力に必要な操作ボタン等の他の入力手段が備えられているが、基本的には撮像装置であって、ゲームの入力装置としての使用に止まることなく通常のCCDカメラ装置のように撮像装置単体として使用することができる。
【0055】
例えばゲーム装置50とコントローラ型撮像装置60とは、無線通信又は有線通信によりデータの送受信を行うことができるようになっている。モニタ40、ゲーム装置50及びコントローラ型撮像装置60は、概略を図8に示すように、それぞれ互いに接続されている。
【0056】
この第2の実施の形態の位置検出システムは、モニタ40、ゲーム装置50及びコントローラ型撮像装置60により、上述した第1の実施の形態に示した位置検出システム1の処理と同様の処理を行うことができる。すなわち、第2の実施の形態において、モニタ40は、位置検出システム1の表示部12に対応し、ゲーム装置50は、上述の位置検出システム1における動き検出等の処理を行うゲーム筐体10内の構成要素に対応している。
【0057】
位置検出システム2の回路構成を図9に示す。上述のように第2の実施の形態として示す位置検出システム2は、第1の実施の形態の位置検出システム1と同様の処理を行うことから、基本的には第1の実施の形態の位置検出システム1と共通の構成要素とすることができる。よって、位置検出システム1と共通する構成部分については同一番号を付して詳細な説明を省略する。
【0058】
なお、当然のことながら、第1の実施の形態の位置検出システム1と共通の構成部分であっても、第2の実施の形態の位置検出システム2に適応するように適宜変更を加えることができることはいうまでもない。
【0059】
位置検出システム2は、基本的には、第1の実施の形態として示した位置検出システム1と同様の処理を行う。コントローラ型撮像装置60において、レンズ部10を介して入力される撮像された像は、CCD部11にて光電変換される。
CCD部11にて光電変換された画像信号は、S/H部22にてサンプルホールドによりサンプリングされ、続いてAGC部23にて利得調節されて、A/D部25に入力される。ここで、CCD部11からの画像信号の読み出しタイミングやS/H部22における処理タイミングは、TG部26からの読み出しタイミング信号によって制御されている。
【0060】
A/D部25では、入力された撮像信号は量子化される。A/D部25にて量子化された画像情報は信号処理部25にて一般的なカメラ信号処理が施されて、情報記憶部とされるSDRAM29に格納される。SDRAM29に格納された画像は、ゲーム制御部32の要求に応じて撮像制御部28にてストリームとされて、ゲーム制御部32を介してメインメモリ30に転送される。
【0061】
コントローラ型撮像装置60は、I/F(interface;インターフェイス)部61を備えており、このI/F部61を介してゲーム装置50との間でデータ通信を行う。対応するゲーム装置50は、I/F部51を備えており、このI/F部51を介してコントローラ型撮像装置60のI/F部61との間でデータ通信を行う。I/F61とI/F部51とは、例えば無線通信或いは有線通信によりデータの送受信が可能な通信手段で構成されている。
【0062】
ゲーム装置50では、ゲーム制御部32において、SDRAM29からストリームとして転送された画像を画像処理して動き検出が行われる。ゲーム制御部32による動き検出については、第1の実施の形態の位置検出システム1と同様の処理によって行われる。検出された結果は、機械的I/F部31からの制御信号とともに制御信号として扱われ、ゲームに対する入力情報に反映される。
【0063】
ゲーム制御部32は、入力情報が含まれる制御信号に基づいてゲームを実行し、モニタI/F部52を介して、ユーザが動かす入力装置としてのコントローラ型撮像装置60の動きに依存して照準点16をモニタ40に表示する。
【0064】
このとき位置検出システム2におけるコントローラ型撮像装置60が表示部12を含めたゲーム筐体40の周辺の環境を撮像し、当該コントローラ型撮像装置60の表示部12に対する向きに応じて、表示部12に照準点16を表示する処理を図10を用いて説明する。
【0065】
撮像制御部28は、常に撮像条件を監視・検出している。撮像制御部28は、ステップS21において、撮像条件が適正か否かの判別を行う。
【0066】
撮像制御部28は、ステップS21において撮像条件が適正でないと判断した場合、ステップS22に進み、絞り(Iris)、ズーム(Zoom)、フォーカス(Focus)を制御する撮像駆動部27と、TG部26と、AGC部23と信号処理部25とを直ちに制御して撮像条件を調整する。
【0067】
ステップS21において、撮像条件が適正であると判断された場合、ステップS23に進んで、動き検出の要求が出されたか否かの判別を行う。
【0068】
ステップS23において、動き検出の要求がなかった場合、ステップS21の工程へと戻る。動き検出を行うことを要求された場合、ステップS24に進んで、コントローラ型撮像装置60における撮像制御部28は、撮像範囲17の画像を取得し、これを所定の形式で圧縮する。
【0069】
撮像制御部28は、ステップS25において、所定の形式で圧縮した画像をゲーム装置50に対して出力する。
【0070】
このときゲーム装置50内のゲーム制御部32がコントローラ型撮像装置60からの画像に基づいて動き検出を行う処理を図11に示す。
【0071】
ゲーム制御部32は、ステップS31において、画像が入力されたか否かの判別を行う。画像が入力された場合、ステップS32において、入力した圧縮画像を展開(解凍)する。
【0072】
ゲーム制御部32は、ステップS33において、画像情報の中から識別子14を抽出する。
【0073】
続いて、ゲーム制御部32は、ステップS34において、抽出した識別子の画角に対する座標を記憶し、コントローラ型撮像装置60の表示部12に対する方向・角度と照準点16とを補正する後述するキャリブレーション動作の際に識別子の基準相対位置から位置予測を行い、不可視の識別子の位置を予測する。このとき、図7に示す上述した位置予測が行われる。
【0074】
ゲーム制御部32は、ステップS35おいて、予測によって補完した識別子含む複数の識別子の相対位置から照準点16の位置を検出する。
【0075】
ステップS36において、検出した照準点16の位置を、さらに動体予測によって補正し、ノイズを除去し、制御信号としてゲームの入力に反映させる。
【0076】
以上示したように、図9に示す位置検出システム2は、ユーザが入力装置としてのコントローラ型撮像装置60のトリガを引くと、コントローラ型撮像装置60から画像情報とトリガが引かれたことを示すトリガ情報とがゲーム装置50に送信される。このときゲーム制御部32は、画像情報から識別子14を認識し、複数の識別子の相対位置からコントローラ型撮像装置60がモニタ40のどの位置に向けられているかを解析する。解析した結果は、トリガ情報とともゲーム制御部32に送られ、制御信号に変換されて照準点16として表示するほか、ゲームの入力情報として使用される。
【0077】
したがって、第2の実施の形態として示した位置検出システム2は、コントローラ型撮像装置60によって撮影された撮影範囲17の画像から、モニタ40に背景画像とともに表示される識別子14を検出して、識別子14の座標に応じてモニタ40に照準点16を表示することができる。
【0078】
これにより、位置検出システム2は、小型化された家庭用のゲーム装置50において、ゲームプレーヤ(ユーザ)の動きや実際の射撃動作を入力情報として使用し、例えばゲームのような仮想世界に現実世界の動作を反映させることを可能としている。また、位置検出システム2において、コントローラ型撮像装置60は、ゲーム装置50の入力装置のみならず、通常の撮像装置として使用することができる。
【0079】
位置検出システム2は、ゲーム制御部32における動き検出をコントローラ型撮像装置60の撮像制御部28において行うようにすることも可能である。この場合の撮像制御部28における処理を図12に示す。
【0080】
撮像制御部28は、常に撮像条件を監視・検出している。撮像制御部28は、ステップS41において、撮像条件が適正か否かの判別を行う。
【0081】
撮像制御部28は、ステップS41において撮像条件が適正でないと判断した場合、ステップS42に進み、絞り(Iris)、ズーム(Zoom)、フォーカス(Focus)を制御する撮像駆動部27と、TG部26と、AGC部23と信号処理部25とを直ちに制御して撮像条件を調整する。
【0082】
ステップS41において、撮像条件が適正であると判断された場合、ステップS43に進んで、動き検出の要求が出されたか否かの判別を行う。
【0083】
ステップS43において、動き検出の要求がなかった場合、ステップS41の工程を繰り返す。動き検出を行うことを要求された場合、ステップS44において、撮像制御部28は、撮像範囲17の画像を取得し、画像情報の中から識別子14を抽出する。
【0084】
撮像制御部28は、ステップS45において、抽出した識別子の画角に対する座標を記憶し、コントローラ型撮像装置60の表示部12に対する方向・角度と照準点16とを補正する後述するキャリブレーション動作の際に識別子の基準相対位置から位置予測を行い、不可視の識別子の位置を予測する。このとき図7に示す位置予測が行われる。
【0085】
撮像制御部28は、ステップS46おいて、予測によって補完した識別子含む複数の識別子の相対位置から照準点16の位置を検出する。
【0086】
撮像制御部28は、ステップS47において、検出した照準点16の位置をさらに動体予測によって補正し、ノイズを除去し、制御信号としてゲームの入力に反映させる。
【0087】
撮像制御部28は、ゲーム制御部32に対して、検出した照準点16の座標を出力する。
【0088】
以上のように、撮像制御部28において動き検出を行う場合は、ゲーム制御部32において動き検出を行う場合と比較して、I/F部51及び61を介して転送する処理にかかる遅延がないため、動き検出の動作がさらに高速化される。
【0089】
第2の実施の形態として示す位置検出システム2では、ベクトル演算を行うためのベクトル演算ユニットを設け、当該ベクトル演算ユニットにおいて上述の位置検出システム1及び2と同様の動き検出を行うようにしてもよい。このような位置検出システムを第3の実施の形態として図13に示す。
【0090】
第3の実施の形態として示す位置検出システム3は、ゲーム装置50にベクトル演算ユニット53を備えている。ベクトル演算ユニット53は、ゲーム等に特有の高速画像処理を行うためのベクトル演算専用のハードである。
【0091】
なお、図13に示す位置検出システム3では、ゲーム制御部32は、メインメモリ30、機械的I/F部31、ROM34、画像処理部35及びフレームメモリ36がバス37を介して接続されている構成となっているが、図13に示す位置検出システム3と、図9に示す位置検出システム2の基本的な構成は同じである。
【0092】
図13に示すゲームシステムにおいて、ベクトル演算ユニット53は、現フレームにて撮像したフレームと、メインメモリ30に記憶されている1つ前のフレームで撮影した画像とからベクトル場を計算する。続いて、ベクトル演算ユニット53は、このベクトル場から特徴点を抽出して、対応するベクトル場を追いかけることにより動き検出を行う。ゲーム制御部32は、ベクトル演算ユニット53による動き検出の結果を制御信号をとして扱い、入力情報に反映させている。
【0093】
ベクトル場による動き検出の概念について図14及び図15を用いて具体的に示す。
【0094】
ベクトル場の算出では、まず図14に示すように、濃度曲面を基準として現フレームと前フレームとの差分をとり濃度の変化を求める。その後、再び現フレームに対してその濃度の変化を乗算することにより、当該濃度曲面に関しての動きベクトル場を算出する。
【0095】
次に、図15を用いて濃度変化から動きベクトルを算出する手順の概要について説明する。ここで提案している動き検出の手法はオプティカルフローを応用した相関を用いて行うものである。まず、時間tが0から1に遷移するにあたり、濃度Qが位置Xに対してガウス分布し、t=0の時にその中心がX=1の位置にあり、t=1の時に中心がX=2の位置に移動するような濃度変化を想定してみる。本提案では、X=1,2,3という基本セルでの濃度遷移から動きを検出するため、その中間の位置では濃度がサンプルできないと仮定し、各基本セル毎に濃度遷移に対応した動きベクトルを出力することを目的としている。ここでは一例として、X=2の位置における動きベクトルVX を計算する。
【0096】
t=1の時のX=2の位置におけるX軸に正方向の動きに対する相関をC2,1とすると、それはサンプリングレートX=1刻みに対しての動きとの相関が最大にならなくてはならないため、t=0の時のX=1の位置での濃度Q1,0と、t=1の時のX=2の位置での濃度Q2,1との相関を中心に計算する必要がある。よって本提案では、C2,1=Q1,0×Q2,1としての相関を算出している。同様に、t=1の時のX=2の位置におけるX軸に負方向の動きに対する相関をC2,3とすると、それはC2,3=Q3,0×Q2,1として算出できる。最後にX=2の位置における動きベクトルVXを相関値C2,1−C2,3として計算することができる。
【0097】
一般にゲーム装置では、ベクトル演算に特化した演算処理装置をハードとして備えている。このようなベクトル演算ユニットは、ベクトル演算処理速度を高速化できるため、上記のようなベクトル演算に焼き直し易い相関の算出における動き検出が有効である。以上のようにして濃度変化から動きベクトルを算出している。
【0098】
続いて、このとき位置検出システム3におけるベクトル演算ユニット53が、動き検出する際の処理を図16を用いて説明するが、動き検出は、図16に示した一連の処理により実行されることに限定されるものではない。
【0099】
ゲーム装置50におけるゲーム制御部32は、ステップS51において、撮影画像が入力されたか否かを判別する。ゲーム制御部32は、撮影画像が入力されるまでこのステップS51における処理を繰り返し行う。
【0100】
撮像画像が入力されると、ゲーム制御部32は、ステップS52において、ベクトル演算ユニット53を用いて画素値の濃度曲面を算出する。
【0101】
ゲーム制御部32は、続くステップS53において、画像全体の動きを検出して統計処理することでぶれを抽出し補正する。
【0102】
ベクトル演算ユニット53は、ステップS54において、補正後の画像を格子状のブロックに分け、各々のブロック毎に動きベクトルを抽出することでベクトル場を算出する。
【0103】
ゲーム制御部32は、ステップS55において、連続した類似のベクトルをまとめることにより特徴物体を抽出する。
【0104】
続いてステップS56において、パターンマッチングと追跡判定を施すことにより特徴物体が識別子14であることを認識する。
【0105】
ゲーム制御部32は、ステップS57において、不可視の識別子がある場合、複数の可視識別子の基準相対位置から不可視の識別子の位置を予測し、これらの識別子の相対位置から照準点16の位置を検出する。
【0106】
ゲーム制御部32は、ステップS58において、検出された照準点16の位置を制御信号に変換して、ゲームへの入力情報として反映させる。
【0107】
以上示したように、ベクトル演算ユニット53を備えた位置検出システム3によれば、色・紋様等に頼っていた特徴点の抽出処理がより高精度でリアルタイム制を向上した動き検出が可能になる。
【0108】
ここで、上述した非同期のシャッタにより任意のタイミングで撮像を行う機能と、撮像のための同期信号の一周期内において複数の撮像を行う多重露光撮影により撮像を行う機能とを説明する。以下に、本発明が先行関連技術として利用した特開平9-247556号公報(発明の名称「個体撮像部を備えた撮像装置」)について説明する。この先行関連技術では、発明を撮像装置に適用している。
【0109】
撮像装置は、例えば図17に示すように、光電変換を行う多数の受光素子部が多数の並行列を形成して配列形成されるとともに、各受光素子部で得られた電荷を転送するCCDにより形成された電荷転送領域が設けられて成る受光・電荷転送部を有するものとされた固体撮像部111が備えられている。また、固体撮像部111の前方には、絞り機構112、レンズ・システム113等を含んで構成される光学系が配されており、この光学系は、固体撮像部111が有する受光・電荷転送部に外光を入射させて被写体像を投影する。
【0110】
受光・電荷転送部は、図18に示すように、半導体基体115上に、各々が個々の画素を構成する多数の受光素子部116が、多数の水平方向(矢印hの方向)に伸びる並行列(画素水平列)を形成するものとされて配列配置されている。
多数の画素水平列のそれぞれを形成する受光素子部116は、また、多数の垂直方向(矢印vの方向)に伸びる並行列(画素垂直列)をも形成しており、このような受光素子部116が形成する各画素垂直列に沿って、CCD群により形成された垂直電荷転送部117が配されている。各垂直電荷転送部117は、例えば、2相の垂直転送駆動信号φV1及びφV2により駆動されて電荷転送動作を行う。そして、各画素垂直列を形成する複数の受光素子部116それぞれとその垂直列に対応する垂直電荷転送部117との間には、電荷読出ゲート部118が設けられている。
【0111】
また、各受光素子部116の周囲には、図19に示すように、チャンネル・ストッパー部119及びオーバーフロー制御部120が形成されている。さらに、オーバーフロー制御部120に隣接してドレイン部121が配され、このドレイン部121と隣の垂直電荷転送部117との間が、チャンネル・ストッパー部122によって区別されている。
【0112】
上述の各部の上には絶縁層が配されており、その絶縁層を介して、垂直電荷転送部117上に水平方向に伸びる垂直転送電極E1及びE2が垂直方向に交互に配されている。垂直転送電極E1は、蓄積部電極E1cと転送部電極E1tとで構成され、また、垂直転送電極E2が、蓄積部電極E2cと転送部電極E2tとで構成されている。そして、垂直転送電極E1及びE2に垂直転送駆動信号φV1及びφV2がそれぞれ供給される。
【0113】
また、電荷読出ゲート部118上には、垂直方向に伸びる読出ゲート電極EGが配され、さらに、オーバーフロー制御部120上には、同じく垂直方向に伸びるオーバーフローゲート電極EDが配されている。これらの読出ゲート電極EG及びオーバーフローゲート電極EDには、読出ゲート制御信号SG及びオーバーフローゲート制御信号SDがそれぞれ供給される。そして、受光素子部116上を残して他の各部の上には、遮光層が配されている。
【0114】
複数の垂直電荷転送部117のそれぞれの一端部側は、半導体基体115の端縁部において、CCD群により形成されて水平方向に伸びるものとされた水平電荷転送部123に連結されている。水平電荷転送部123は、例えば、2相の水平転送駆動信号φH1及びφH2により駆動されて電荷転送動作を行う。そして、水平電荷転送部123の一端には出力部24が設けられており、出力部124からは出力端子125が導出されている。
【0115】
また、半導体基体115における複数の垂直電荷転送部117それぞれの他端部側には、水平方向に伸びる電荷吸収部126が設けられている。
【0116】
このような図18及び図19に示される受光・電荷転送部を有した固体撮像部111において静止画撮像動作が行われる際には、受光・電荷転送部についての所定の受光期間が設定され、その受光期間において、レンズ・システム113、絞り機構112等を含む光学系を通じて受光・電荷転送部に入射する撮像対象からの光を受けた多数の受光素子部116のそれぞれが、光電変換を行って受光に応じた電荷を蓄積する。その後、複数の電荷読出ゲート部118が、それに供給される駆動信号形成部130からの読出ゲート制御信号SGに応じて、対応する受光素子部116に蓄積された電荷を対応する垂直電荷転送部117へと読み出す。
【0117】
続いて、各垂直電荷転送部117に読み出された電荷が、駆動信号形成部130から信号電荷転送駆動信号STとして固体撮像部111における垂直転送電極E1及びE2にそれぞれ供給される2相の垂直転送駆動信号φV1及びφV2によって駆動される各垂直電荷転送部117の電荷転送動作により、各画素水平列を形成する複数の受光素子部116により得られた分宛、順次、信号電荷として水平電荷転送部123に向けて転送されていく。水平電荷転送部123においては、駆動信号形成部130から信号電荷転送駆動信号STとして供給される2相の水平転送駆動信号φH1及びφH2によって駆動されることにより行われる電荷転送動作により信号電荷として転送される、1画素水平列を形成する複数の受光素子部116で得られた分の電荷が、出力部124へと供給される。出力部124においては、水平電荷転送部123により転送されてくる電荷が順次信号化されて出力端子125に導出され、出力端子125に、複数の受光素子部116に蓄積された電荷に基づく、撮像対象に応じた撮像出力信号IPが得られる。
【0118】
斯かる場合、受光・電荷転送部における全画素水平列のそれぞれを形成する複数の受光素子部116で得られた電荷についての1画素水平列分宛の、各垂直電荷転送部117による水平電荷転送部123への転送は、各フレーム期間内において終了し、また、水平電荷転送部123に転送される1画素水平列を形成する複数の受光素子部116で得られた分の電荷についての、水平電荷転送部123による出力部124への供給は、各ライン期間内において終了するものとされるように、信号電荷転送駆動信号STとされる2相の垂直転送駆動信号φV1及びφV2及び2相の水平転送駆動信号φH1及びφH2のそれぞれが設定される。
それゆえ、出力端子125に導出される撮像出力信号IPは、ライン期間分を単位とするものが連なって形成されるフレーム期間分が繰り返されるものとされることになる。
【0119】
駆動信号形成部130は、タイミング信号発生部131からの電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが供給され、電荷読出タイミング信号TGに応じて形成した読出ゲート制御信号SGを送出し、また、信号電荷転送タイミング信号TTに応じて形成した2相の垂直転送駆動信号φV1及びφV2及び2相の水平転送駆動信号φH1及びφH2を信号電荷転送信号STとして送出する状態と、電荷掃出し転送タイミング信号TSに応じて形成した2相の垂直転送駆動信号φV2及びφV1及び2相の水平転送駆動信号φH2及びφH1を掃出し転送駆動信号SSとして送出する状態とを選択的にとり、さらに、電荷排出タイミング信号TDに応じて形成したオーバーフローゲート制御信号SDを送出する。
【0120】
タイミング信号発生部131は、同期信号発生部132からのフレーム同期信号SF及びライン同期信号SHが供給され、さらに、動作制御部を形成する制御ユニット133からの受光期間信号SE、非同期ノーマル受光モード設定信号SN、非同期シャッタ待モード設定信号SWS、同期復帰指令信号SR及び多重露光モード設定信号SMMも供給される。
【0121】
そして、タイミング信号発生部131にあっては、制御ユニット133からの受光期間信号SE、非同期ノーマル受光モード設定信号SN、非同期シャッタ待モード設定信号SWS、同期復帰指令信号SR及び多重露光モード設定信号SMMの状態に応じて、フレーム同期信号SF及びライン同期信号SHにそれぞれ同期したもの、すなわち、フレーム同期信号SF及びライン同期信号SHとそれぞれ同位相のものもしくはフレーム同期信号SFとの間及びライン同期信号SHとの間にそれぞれ一定の位相差を有したものとされる内部フレーム同期信号SFO及び内部ライン同期信号SHOを発生する状態と、フレーム同期信号SF及びライン同期信号SHに対して非同期とされた内部フレーム同期信号SFO及び内部ライン同期信号SHOを発生する状態とが選択的にとられる。
【0122】
さらに、駆動信号形成部130は、タイミング信号発生部131においてフレーム同期信号SF及びライン同期信号SHにそれぞれ同期したものとされる内部フレーム同期信号SFO及び内部ライン同期信号SHOが得られるもとで、それらの内部フレーム同期信号SFO及び内部ライン同期信号SHOに基づいて形成された電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが供給され、電荷読出タイミング信号TGに応じて形成した読出ゲート制御信号SGを送出する動作状態、及び、タイミング信号発生部131においてフレーム同期信号SF及びライン同期信号SHに対して非同期とされる内部フレーム同期信号SFO及び内部ライン同期信号SHOが得られるもとで、それらの内部フレーム同期信号SFO及び内部ライン同期信号SHOに基づいて形成された電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが供給され、電荷読出タイミング信号TGに応じて形成した読出ゲート制御信号SGを送出する動作状態を選択的にとる。
【0123】
同期信号発生部132からのフレーム同期信号SF及びライン同期信号SH、及び、タイミング信号発生部131において形成される内部フレーム同期信号SFO及び内部ライン同期信号SHOは、制御ユニット133にも供給され、また、タイミング信号発生部131において得られる電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDも制御ユニット133に供給される。さらに、動作制御部を形成する制御ユニット133には、動作モード指定信号SMが端子134を通じて、シャッタ速度指定信号SSVが端子135を通じて、及び、装置に撮像動作を行わせるための操作であるシャッタ操作に応じて発せられる、受光指令信号であるシャッタ信号SSHが端子136を通じてそれぞれ供給される。
【0124】
図18に示される固体撮像部111の受光・電荷転送部における出力端子125に得られる撮像出力信号IPは、図17に示される如くに、自動利得制御(AGC)増幅部140により増幅されてサンプリング・ホールド部141に供給される。サンプリング・ホールド部141においては、撮像出力信号IPに対する所定の短周期毎のレベル・サンプリング及びサンプル・レベル保持が行われて、サンプリング・ホールド出力信号SIが得られ、それがアナログ/ディジタル(A/D)変換部142に供給される。A/D変換部142においては、サンプリング・ホールド出力信号SIに基づいての撮像出力信号IPのディジタル化が図られ、A/D変換部142から、撮像出力信号IPに対応するディジタル撮像信号DIが得られて、それが撮像信号ディジタル処理部143に供給される。
【0125】
なお、図2に示した位置検出システム1のコントローラ型撮像装置11では、S/H部22から出力された信号がAGC部23において処理されており、前述の撮像装置の信号処理手順と異なっているが、位置検出システム1のコントローラ型撮像装置11は、前述の撮像装置のように、AGC増幅部140において処理された信号をサンプルホールド部(S/H部)141において処理するようにしてもよい。
【0126】
撮像信号ディジタル処理部143と制御ユニット133との相互間においては、制御データDCC及び制御データDCDの遣り取りが行われ、撮像信号ディジタル処理部143においては、制御データDCC及び制御データDCDの遣り取りに応じて、撮像出力信号IPに対する各種のディジタル処理が施される。その結果、撮像信号ディジタル処理部143から出力端子144に、ディジタル撮像出力信号DIOが導出される。
【0127】
このようなもとで、静止画撮像動作が行われる際には、制御ユニット133に、選択されるべき動作モードを指定する動作モード指定信号SMが端子134を通じて供給されるとともに、選択されるべきシャッタ速度を指定するシャッタ速度指定信号SSVが供給される。動作モード指定信号SMにより指定される動作モードは、例えば、非同期ノーマル受光モード、非同期シャッタ待受光モード、多重露光モード等とされる。以下、各モードにおける撮像装置の処理について説明する。
【0128】
動作モード指定信号SMが指定する動作モードが非同期ノーマル受光モードであるときには、制御ユニット33は、非同期ノーマル受光モード設定信号SNをタイミング信号発生部131に供給する。タイミング信号発生部131は、非同期ノーマル受光モード設定信号SNに応じて、図20における時点ta前の期間において見られる如くに、図20のAに示される同期信号発生部132からのフレーム同期信号SFとの間に一定の位相差を有した図20のDに示される内部フレーム同期信号SFOに基づく、図20のEに示される如くのタイミング信号SXOが形成される。
【0129】
また、このとき、タイミング信号発生部131から内部フレーム同期信号SFOに応じた電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが送出されることにより、駆動信号形成部130から、図20における時点ta前の期間において見られる如くに、内部フレーム同期信号SFOに同期した、図20のFに示される如くの読出ゲート制御信号SG及び図20のGに示される如くの掃出し転送駆動信号SSが送出される。図20における時点ta前の期間においては、図20のJに示される如く、フレーム同期信号SFに同期したSF同期モードがとられていることになる。
【0130】
斯かるもとで、図20における時点taにおいてシャッタ操作が行われると、図20のBに示される如くの、受光指令信号であるシャッタ信号SSHが、端子136を通じて制御ユニット133に供給される。
【0131】
制御ユニット133は、シャッタ信号SSHの前縁に応じて、図20のCに示される如くの受光期間信号SEをタイミング信号発生部131に供給する。このときタイミング信号発生部131は、図20のC及びDに示される如く、受光期間信号SEの前縁により内部フレーム同期信号SFOの形成にリセットをかけて、内部フレーム同期信号SFOをフレーム同期信号SFと非同期なものとするとともに、タイミング信号SXOの形成を中断し、また、受光期間信号SEの前縁に応じた電荷読出タイミング信号TG及び電荷排出タイミング信号TDを送出する。
【0132】
そして、駆動信号形成部130から、図20のF及びGに示される如くに、受光期間信号SEの前縁に応じた読出ゲート制御信号SG及び掃出し転送駆動信号SSが、固体撮像部111の受光・電荷転送部へと送出される。それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて開状態をとり、各受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを行うとともに、各垂直電荷転送部117が、掃出し転送駆動信号SSに応じて、開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、半導体基体115における水平電荷転送部123とは反対側に設けられた電荷吸収部126へと転送する電荷掃出し動作を行う。電荷掃出しにより転送された電荷は電荷吸収部126において吸収される。このような電荷掃出し動作が行われる電荷掃出期間は、例えば、27ライン期間程度とされる。
【0133】
そして、受光期間信号SEの前縁において、電荷掃出期間を含む固体撮像部111の受光・電荷転送部についての受光期間が開始され、図20のJに示される如くに、SF同期モードから自走モードに移行することになる。受光期間にあっては、図20のDに示される如く、受光期間信号SEの前縁においてリセットされ、フレーム同期信号SFと非同期なものとされた内部フレーム同期信号SFOが得られるが、タイミング信号SXOは得られない。それにより、受光期間においては、読出ゲート制御信号SGも受光期間信号SEの前縁に応じて得られた以降においては得られず、電荷掃出期間の始めの短期間を除いて電荷読出ゲート部118が閉状態に維持されて、多数の受光素子部116に受光による電荷の蓄積が図20のIに示される如くになされる。
【0134】
図21は、制御ユニット133に供給されるシャッタ信号SSHと内部ライン同期信号SHO、受光期間信号SE、読出ゲート制御信号SG及び掃出し転送駆動信号SSとの詳細なタイミング関係を拡大して示す。図21に示されるタイミング関係にあっては、時点taにおいてシャッタ信号SSHの前縁が到来すると、その後の最初の内部ライン同期信号SHOの前縁の時点において、受光期間信号SEの前縁が得られる。そして、受光期間信号SEの前縁の時点において、読出ゲート制御信号SGの前縁及び掃出し転送駆動信号SSの前縁が得られ、SF同期モードから自走モードに移行する。すなわち、受光期間信号SEの前縁はシャッタ信号SSHの前縁より僅か(最大で略1ライン期間)に遅れることになる。
【0135】
その後、図20に示される如く、時点tbにおいて、制御ユニット133からタイミング信号発生部131に供給される受光期間信号SEの後縁が到来すると、タイミング信号発生部131においては、図20のD及びEに示される如く、受光期間信号SEの後縁に応じて内部フレーム同期信号SFOが得られるとともに、その内部フレーム同期信号SFOの前縁応じてタイミング信号SXOが得られる。受光期間信号SEの後縁の時点tbは、制御ユニット133により、それに供給されるシャッタ速度指定信号SSVが指定するシャッタ速度に応じて設定される。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び信号電荷転送タイミング信号TTを送出する。それにより、駆動信号形成部130から、図20のF及びHに示される如く、受光期間信号SEの後縁に応じた前縁を有する読出ゲート制御信号SG及び受光期間信号SEの後縁に応じた前縁を有する信号電荷転送駆動信号STが、固体撮像部111の受光・電荷転送部に送出されて受光期間が終了する。
【0136】
それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて開状態をとり、図20のIに示される如くに、多数の受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを行うとともに、各垂直電荷転送部117が、信号電荷転送駆動信号STに応じて、開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、信号電荷として半導体基体115における水平電荷転送部123へと転送する電荷転送動作が行われる。そして、さらに、水平電荷転送部123が、信号電荷転送駆動信号STに応じて、各垂直電荷転送部117により転送された電荷を、信号電荷として出力部124へと転送する電荷転送動作が行われる。出力部124に転送された電荷は出力部124において撮像出力信号IPに変換され、撮像出力信号IPが出力端子125に導出される。
【0137】
このような各垂直電荷転送部117及び水平電荷転送部123による電荷転送動作が行われる電荷転送期間は、その後にタイミング信号発生部31において、図20のD及びEに示される如く、内部フレーム同期信号SFOが得られ、その内部フレーム同期信号SFOの前縁に応じてタイミング信号SXOが得られる時点tcにおいて、信号電荷転送駆動信号STの後縁が到来して終了する。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び信号電荷転送タイミング信号TTを送出し、それにより、駆動信号形成部130から、図20のF及びGに示される如く、信号電荷転送駆動信号STの後縁に応じた前縁を有する読出ゲート制御信号SG及び信号電荷転送駆動信号STの後縁に応じた前縁を有する掃出し転送駆動信号SSが、固体撮像部111の受光・電荷転送部に送出されて電荷掃出し動作が行われる。
【0138】
その後、時点tdにおいて、図20のDに示される如くに、タイミング信号発生部131において得られる内部フレーム同期信号SFOが、再び、フレーム同期信号SFとの間に一定の位相差を有するものとされて、図20のJに示される如くに、自走モードからSF同期モードに戻ることになる。
【0139】
このように、非同期ノーマル受光モードのもとでの静止画撮像動作が行われる場合には、シャッタ操作が行われると、そのシャッタ操作の時点から最大で略1ライン期間とされる僅かに遅れた時点において、固体撮像部111の受光・電荷転送部についての受光期間が開始され、その開始から電荷掃出し動作が終了する、例えば、27ライン期間後には、受光・電荷転送部における多数の受光素子部116に有効な電荷蓄積が行われる受光状態が得られることになる。従って、シャッタ操作がなされた際における受光応答動作の迅速性が大幅に改善される。
【0140】
次に、非同期シャッタ待受光モードについて説明する。動作モード指定信号SMが指定する動作モードが非同期シャッタ待受光モードであるときに、制御ユニット133は、非同期シャッタ待モード設定信号SWSをタイミング信号発生部131に供給する。タイミング信号発生部131は、非同期シャッタ待モード設定信号SWSに応じて、図22における時点te前の期間において見られる如くに、図22のAに示される同期信号発生部132からのフレーム同期信号SFとの間に一定の位相差を有した図22のDに示される内部フレーム同期信号SFOが得られているもとで、時点te以降、タイミング信号SXOの形成を停止するとともに、時点te後の最初の内部フレーム同期信号SFOの前縁に応じて、電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSの継続的送出を開始する。それにより、図22のBに示される如く、時点teにおいて、ノーマル受光状態からシャッタ待状態への移行が行われる。
【0141】
タイミング信号発生部131からの電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSの継続的送出の開始により、駆動信号形成部130から、図22のG及びHに示される如く、時点te後の最初の内部フレーム同期信号SFOの前縁に応じて、読出ゲート制御信号SG及び掃出し転送駆動信号SSが継続的に固体撮像部111の受光・電荷転送部に送出される状態とされる。それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて継続的に開状態をとり、各受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを継続的に行うとともに、各垂直電荷転送部117が、掃出し転送駆動信号SSに応じて、継続的に開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、半導体基体115における水平電荷転送部123とは反対側に設けられた電荷吸収部126へと継続的に転送する電荷掃出し動作を行う。電荷掃出しにより転送された電荷は電荷吸収部126において吸収される。このような継続的な電荷掃出し動作が行われる電荷掃出期間においては、図22のJに示される如く、固体撮像部111の受光・電荷転送部における電荷の蓄積はなされない。
【0142】
そして、固体撮像部111の受光・電荷転送部において電荷掃出し動作が継続的に行われているもとで、図22における時点tfにおいてシャッタ操作が行われると、図22のCに示される如くのシャッタ信号SSHが端子136を通じて制御ユニット133に供給される。制御ユニット133は、シャッタ信号SSHの前縁に応じて、図22のFに示される如くの受光期間信号SEをタイミング信号発生部131に供給する。このときタイミング信号発生部131は、図22のD及びEに示される如く、受光期間信号SEの前縁により内部フレーム同期信号SFOの形成にリセットをかけて、内部フレーム同期信号SFOをフレーム同期信号SFと非同期なものとするとともに、タイミング信号SXOの形成を中断し、また、電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSの継続的送出を終了する。
【0143】
それにより、駆動信号形成部130が、図22のG及びHに示される如く、受光期間信号SEの前縁に応じて読出ゲート制御信号SG及び掃出し転送駆動信号SSの継続的送出を停止する。そして、図22のFに示される如く、受光期間信号SEの前縁において、電荷掃出期間を含むことなく、固体撮像部111の受光・電荷転送部についての受光期間が開始され、図22のBに示される如くに、シャッタ待状態からノーマル受光状態への移行が行われる。
【0144】
受光期間にあっては、図22のDに示される如く、受光期間信号SEの前縁においてリセットされ、フレーム同期信号SFと非同期なものとされた内部フレーム同期信号SFOが得られるが、タイミング信号SXOは得られない。それにより、受光期間においては、読出ゲート制御信号SGも得られず、電荷読出ゲート部118が閉状態に維持されて、多数の受光素子部116に受光による電荷の蓄積が図22のJに示される如くになされる。
【0145】
その後、時点tgにおいて制御ユニット133からタイミング信号発生部131に供給される受光期間信号SEの後縁が到来すると、タイミング信号発生部131においては、図22のD及びEに示される如く、受光期間信号SEの後縁に応じて内部フレーム同期信号SFOが得られるとともに、その内部フレーム同期信号SFOの前縁応じてタイミング信号SXOが得られる。受光期間信号SEの後縁の時点tfは、制御ユニット133により、それに供給されるシャッタ速度指定信号SSVが指定するシャッタ速度に応じて設定される。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び信号電荷転送タイミング信号TTを送出する。それにより、駆動信号形成部130から、図22のG及びIに示される如く、受光期間信号SEの後縁に応じた前縁を有する読出ゲート制御信号SG及び受光期間信号SEの後縁に応じた前縁を有する信号電荷転送駆動信号STが、固体撮像部111の受光・電荷転送部に送出されて受光期間が終了する。
【0146】
それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて開状態をとり、図22のJに示される如くに、多数の受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを行うとともに、各垂直電荷転送部117が、信号電荷転送駆動信号STに応じて、開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、信号電荷として半導体基体115における水平電荷転送部123へと転送する電荷転送動作が行われる。そして、さらに、水平電荷転送部123が、信号電荷転送駆動信号STに応じて、各垂直電荷転送部117により転送された電荷を、信号電荷として出力部124へと転送する電荷転送動作が行われる。出力部124に転送された電荷は出力部124において撮像出力信号IPに変換され、撮像出力信号IPが出力端子125に導出される。
【0147】
このような各垂直電荷転送部117及び水平電荷転送部123による電荷転送動作が行われる電荷転送期間は、その後にタイミング信号発生部131において、図22のD及びEに示される如く、内部フレーム同期信号SFOが得られ、その内部フレーム同期信号SFOの前縁に応じてタイミング信号SXOが得られる時点thにおいて、信号電荷転送駆動信号STの後縁が到来して終了する。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSを送出し、それにより、駆動信号形成部130から、図22のG及びHに示される如く、信号電荷転送駆動信号STの後縁に応じた前縁を有する読出ゲート制御信号SG及び信号電荷転送駆動信号STの後縁に応じた前縁を有する掃出し電荷転送駆動信号SSが、固体撮像部111の受光・電荷転送部に送出されて電荷掃出し動作が行われる。
【0148】
その後、時点tiにおいて、制御ユニット133からタイミング信号発生部31に同期復帰指令信号SRが送出され、それにより、図22のDに示される如くに、タイミング信号発生部131において得られる内部フレーム同期信号SFOが、再び、フレーム同期信号SFとの間に一定の位相差を有するものとされて、SF同期が復活される。
【0149】
このように、非同期シャッタ待受光モードのもとでの静止画撮像動作が行われる場合には、予めシャッタ待状態がとられて固体撮像部111の受光・電荷転送部において電荷掃出し動作が継続的に行われているもとで、シャッタ操作が行われると、そのシャッタ操作の時点まで行われていた継続的な電荷掃出し動作が終了せしめられて、ただちに、固体撮像部111の受光・電荷転送部についての受光期間が開始され、受光・電荷転送部における多数の受光素子部116に有効な電荷蓄積が行われる受光状態が得られることになる。従って、シャッタ操作がなされた際において、極めて迅速な受光応答動作が行われることになる。
【0150】
次に、多重露光モードについて説明する。動作モード指定信号SMが指定する動作モードが多重露光モードであるときに、制御ユニット133は、多重露光モード設定信号SMMをタイミング信号発生部131に供給する。タイミング信号発生部131は、多重露光モード設定信号SMMに応じて、図23のAに示される同期信号発生部132からのフレーム同期信号SFに対して内部フレーム同期信号SFOを発生するとともに、図23のCに示される如く、内部フレーム同期信号SFOについての3周期分を単位期間として、各単位期間内においてその開始時点から所定数、例えば、7個のタイミング信号SXOを一定の周期をもって発生する。
【0151】
また、タイミング信号発生部131は、内部フレーム同期信号SFOについての3周期分の各単位期間において、所定数のタイミング信号SXOのそれぞれの前縁に応じた電荷読出タイミング信号TGを送出するとともに、所定数のタイミング信号SXOの最後のものの後縁の時点から単位期間の終了時点までの期間において、電荷排出タイミング信号TDを継続的に送出し、さらに、内部フレーム同期信号SFOについての3周期分の各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間に、信号電荷転送タイミング信号TTを送出する。
【0152】
それにより、駆動信号形成部130が、電荷読出タイミング信号TGに応じて、図23のDに示される如くの、内部フレーム同期信号SFOについての3周期分とされる各単位期間内における所定数、例えば、7個の読出ゲート制御信号SGを、固体撮像部111の受光・電荷転送部に送出するとともに、電荷排出タイミング信号TDに応じて、図23のEに示される如くの、内部フレーム同期信号SFOについての3周期分とされる各単位期間内における所定数の読出ゲート制御信号SGの最後のものの後縁の時点から単位期間の終了時点までの期間中継続するオーバーフローゲート制御信号SDを固体撮像部111の受光・電荷転送部に送出する。さらに、駆動信号形成部130は、信号電荷転送タイミング信号TTに応じて、図23のGに示される如く、内部フレーム同期信号SFOについての3周期分とされる各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間に、信号電荷転送駆動信号STを固体撮像部111の受光・電荷転送部に送出する。
【0153】
その結果、固体撮像部111の受光・電荷転送部において、内部フレーム同期信号SFOについての3周期分とされる各単位期間中において、所定数、例えば、7個の読出ゲート制御信号SGの相互間が受光・電荷転送部についての分断受光期間とされることになり、図23のFに示される如くに、分断受光期間それぞれにおいて、受光・電荷転送部における多数の受光素子部116に受光による電荷の蓄積がなされる。そして、各分断受光期間により得られた電荷は、その期間に続く期間に読出ゲート制御信号SGが供給されて開状態とされる各電荷読出ゲート部18により各垂直電荷転送部117へと順次読み出される。
【0154】
このようにして、内部フレーム同期信号SFOについての3周期分とされる各単位期間中に、受光・電荷転送部における多数の受光素子部116から各電荷読出ゲート部118を通じて各垂直電荷転送部117に断続的に読み出される電荷は、各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間が到来するまでは、各垂直電荷転送部117において重畳蓄積される。
それにより、実質的に、内部フレーム同期信号SFOについての3周期分とされる各単位期間中において、受光・電荷転送部における多数の受光素子部116に対しての多重露光が行われることになる。
【0155】
そして、各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間が到来すると、各垂直電荷転送部117において重畳蓄積された電荷は、固体撮像部111の受光・電荷転送部に信号電荷転送駆動信号STが供給されることにより、信号電荷として各垂直電荷転送部117から水平電荷転送部123へ、さらに、水平電荷転送部123から出力部124へと転送される。
そして、出力部124に転送された電荷は、出力部124において撮像出力信号IPに変換され、出力端子125に撮像出力信号IPが導出される。
【0156】
このように各垂直電荷転送部117において重畳蓄積された電荷が信号電荷として転送される期間において、固体撮像部111の受光・電荷転送部における多数の受光素子部116に受光によって得られる電荷は、そのとき受光・電荷転送部に設けられたオーバーフローゲート電極EDにオーバーフローゲート制御信号SDが継続的に供給されることにより開状態とされるオーバーフロー制御部120を通じて、ドレイン部121に排出される。従って、各単位期間中における受光・電荷転送部についての分断受光期間の開始時にあっては、受光・電荷転送部における多数の受光素子部116に、その分断受光期間に先立つ受光による不要な電荷が蓄積されていることになる事態は生じない。
【0157】
このようにして、多重露光モードのもとでの静止画撮像動作が行われる場合には、比較的簡単な構成及び動作制御にもとに、実質的に、内部フレーム同期信号SFOについての3周期分とされる各単位期間中において、受光・電荷転送部における多数の受光素子部116に対しての多重露光が行われて得られる信号電荷に基づく撮像出力信号IPが得られることになる。
【0158】
このような先行関連技術に基づく多重露光撮影及び非同期シャッタを本発明に適用した場合について考える。
【0159】
多重露光撮影された画像には、多重露光の回数(N)に応じた枚数の画像が重ねて表示されていることになる。例えばN=2の多重露光撮影が為された画像の場合、図24に示すような画像201と画像202として示す2枚分の画像が1枚の画像203の中に重ねて表示された画像となる。
【0160】
この場合、画像203の中には、時間経過とともに位置が変化していく複数の識別子が表示されている。ここでは多重露光の回数がN=2である場合について考えているため、時系列で考えて、2倍精密な照準点の位置検出が可能となる。
1つの画像に表示される複数の識別子間の時間的な前後関係は、記憶した過去の照準点の位置変化が連続になっていることを手掛かりとして類推される。
【0161】
ここでは、ベクトル演算処理に対応した多重露光機能を持ったTG(Timing Generator)を使用することにより、N=2の多重露光撮影を行えば、従来と同等のサンプリングレートが期待できる。さらに、N=4とすれば、従来の倍のサンプリングレートが期待でき、より細かなタイミングで位置検出が実現できる。また、このときの画像の転送レートは、サンプリングレートのN分の1で良いため、本発明に係る位置検出システムに適用した場合、転送レートを稼ぐことが可能となり、より効率の良い位置検出システムが構築できる。
【0162】
例えば、USBVer.1.1に準拠した高速モード12MHzで転送しても、OVGA16bitの色数で30fpsの画像を転送するのが限界だったが、これをN=4で多重露光することにより、例えば図16に示すステップS25における連続した類似ベクトルをまとめることによって物体を抽出する工程までは30fpsの時と変わらないCPUパワーで120fpsに相当するサンプリングレートによって、より高精度な位置検出を実現することができる。
【0163】
次に、非同期シャッタにより任意のタイミングで撮像する場合について考える。図25(A)は、従来の固定されたタイミングにより撮像する場合を示し、図25(B)は、本発明が適用されたゲーム装置が任意のタイミングで撮像する場合を示している。
【0164】
従来では、図25(A)に示すように、前の画像210と後の画像211とは1/30秒間隔で固定のタイミングにより撮像され、最初の撮像から1/30秒までの間の任意のタイミングでの撮像することは不可能であった。
【0165】
本発明にかかる位置検出システムに、図20及び図22を用いて説明した非同期による撮像技術を利用することにより、図25(B)に示すように、画像212を任意のタイミングで得ることができる。
【0166】
なお、任意のタイミングにより得た画像の直前の画像(本来の固定のタイミングにより撮像された画像)213は、掃き捨てられるため読めない。しかし、任意のタイミングにより得た画像212の後の画像214は、通常の撮像タイミングとして、1/30秒のCCDの読み取りタイミングに合わせて読み取られる。
【0167】
従来の撮像装置を使用した場合、1/30秒等のCCDの読み出しタイミングで得た画像からしか特徴点の位置検出ができなかった。また、上述したように、多重露光撮影により撮像した場合でも、1/30秒等のCCDの読み出しタイミングをN=4程度までの小さな整数で時分割したタイミングで得た画像からしか位置検出ができなかった。一方、本発明にかかる位置検出システムは、任意のタイミングで画像を撮像し、任意のタイミングで特徴点の位置を測定できるため、補間により特徴点の位置を類推する場合に比べ、より高精度の動き検出が可能となる。
【0168】
このように本発明に係る位置検出システムは、多重露光撮影及び非同期シャッタによる撮影を適用することによって、さらに、第4の実施の形態及び第5の実施の形態として以下に示す位置検出を可能とする。
【0169】
本発明の第4の実施の形態として示す位置検出システム4は、表示装置に識別子を表示し、この識別子を含む表示画像を操作入力装置としての撮像装置で撮影し、撮影した画像を解析手段において解析することによって、表示装置と撮像装置との位置関係、並びに撮像装置の表示装置に対する向き等を非接触により検出する位置検出システムであって、例えば表示装置に表示される画像の所定位置或いは所定の画像に対して、操作入力装置としての撮像装置を対向して選択動作を行うことで操作入力を行うことを可能としたことに加え、多重露光撮影によって選択動作を連続して行うことを可能にしたユーザインターフェイスである。
【0170】
位置検出システム4は、図26に示すように、表示部73とスピーカ74とを有したゲーム筐体70と、銃を模した銃型撮像装置71と、盾を模した盾型撮像装置72とを備える。
【0171】
表示部73には、ゲームの内容であるアニメーション画像等が出力され、スピーカ74からは、表示部73に表示される画像に合わせて、効果音や音楽等が再生される。図26に示す位置検出システム4において、表示部73には、詳細は図示しないが背景画像と、識別子75と、照準点76と、照準点77とが表示されている。
【0172】
このように、当該位置検出システム4は、例えば、ユーザ1000が銃を模した操作入力装置としての銃型撮像装置71を用いて表示部73に表示される射撃対象に向かって照準点76を定めて射撃をし、かつ盾を模した操作入力装置としての盾型撮像装置72を用いて盾としての照準点77を定めて飛来物を防御するようなゲーム装置を構成している。
【0173】
銃型撮像装置71は、撮像素子としてCCD(Charge Coupled Device)を備えた撮像カメラであり、ユーザ1000によってゲーム筐体70の表示部73に対向されるとき、表示部73に表示される画像を含めた周辺の環境を撮像し、この撮像範囲78の画像をゲーム筐体70に送信している。このとき、銃型撮像装置71が捕らえた撮像範囲78の中心が照準点76として表示部73上の対応箇所に表示される。
【0174】
また、盾型撮像装置72は、同じくCCDを備えた撮像カメラであり、ユーザによって表示部73に対向されるとき、表示部73に表示される画像を含めた周辺の環境を撮像し、この撮像範囲79の画像をゲーム筐体70に送信している。
このとき撮像範囲79の中心の所定領域が照準点77として表示部73の対応箇所に表示される。
【0175】
位置検出システム4は、第1の実施の形態の位置検出システム1と同様の処理を行うことから、具体的な回路構成は、第1の実施の形態の位置検出システム1と共通の構成要素とすることができるため詳細な説明は省略する。
【0176】
なお、当然のことながら、第1の実施の形態の位置検出システム1と共通の構成部分であっても、第4の実施の形態の位置検出システム4に適応するように適宜変更を加えることができることはいうまでもない。
【0177】
照準点を表示する処理は、上述した位置検出システム1乃至3と同じであるため省略する。
【0178】
また、本発明の第5の実施の形態として示す位置検出システム5は、表示装置に識別子を表示し、この識別子を含む表示画像を操作入力装置としての撮像装置で撮影し、撮影した画像を解析手段において解析することによって、表示装置と撮像装置との位置関係、並びに撮像装置の表示装置に対する向き等を非接触により検出する位置検出システムであって、例えば表示装置に表示される画像の所定位置或いは所定の画像に対して操作入力装置としての撮像装置を対向し、非同期シャッタを用いた位置検出動作によって操作入力を行うことを可能としたユーザインターフェイスである。
【0179】
位置検出システム5は、図27に示すように、表示部82とスピーカ83とを有したゲーム筐体80と、ラケットを模したラケット型撮像装置81と、接触センサ84とを備えている。
【0180】
表示部82には、ゲームの内容であるアニメーション画像等が出力され、スピーカ83からは、表示部82に表示される画像に合わせて、効果音や音楽等が再生される。図27に示す位置検出システム5において、表示部82には、詳細は図示しないが背景画像と、識別子85と、球86とが表示されている。
【0181】
このように、当該位置検出システム5は、例えば、ユーザ1000がラケットを模した操作入力装置としてのラケット型撮像装置81を用いて、実際に球を打ち返す動作を行って、表示部82に表示される球86をプレーヤに対して打ち返すようなゲーム装置を構成している。
【0182】
位置検出システム5は、第1の実施の形態の位置検出システム1と同様の処理を行うことから、具体的な回路構成は、第1の実施の形態の位置検出システム1と共通の構成要素とすることができるため詳細な説明は省略する。
【0183】
ユーザは、表示部82に3次元の深さをもって表示される球にあわせて卓球のラケットに模したラケット型撮像装置81を構え、表示される球を打ち返す動作を行う。このとき撮像範囲87の画像が撮像されて、ゲーム筐体80へと転送される。
【0184】
ゲーム筐体80に備えられたゲーム制御部は、表示装置に3次元の深さを持って表示される球86がユーザの元に達するのに相当するタイミングでラケット型撮像装置81の位置と向きとを検出することにより、実際に検出された位置と角度から球が打ち出されるような打球の軌道を計算して、その軌道に合わせて球86が打ち出されていくように表示する。
【0185】
また、例えばユーザは、スマッシュの際に接触センサ84を強く踏む。このとき接触センサ84が踏まれたタイミングをトリガとして、非同期シャッタによる位置検出を行う。
【0186】
したがって、このような位置検出システム5は、高速な動きでありながら、ラケット型撮像装置81の向きと角度とを正確に検出することが可能となる。位置検出システム5は、卓球のスマッシュのみならず、テニスのスマッシュ、ゴルフのショット、野球のバッティング、ダンスのステップ等の同様の動きに対して適用可能である。
【0187】
なお、当然のことながら、第1の実施の形態の位置検出システム1と共通の構成部分であっても、第5の実施の形態の位置検出システム5に適応するように適宜変更を加えることができることはいうまでもない。
【0188】
従来のようなブラウン管の走査線を受光素子で検知する方法では、位置検出の都度、画面をフラッシュする必要があったため、常に位置を検出し、ポインタを表示し続けようとするような使用には適していなかったが、上述した多重露光撮影を駆使することによって、位置検出システム4及び位置検出システム5に示すような従来の位置検出システムを上回るサンプリングレートでの位置検出を実現することができる。
【0189】
したがって、このような動き検出動作は、動き検出の判定誤差範囲を人間(ユーザ)の感覚誤差の範囲内に納めることが可能であるため、ユーザにとって、照準点77があたかもポインタのように常時表示されているかのようにすることが可能である。また、非同期シャッタでの撮影により、高速の動きに対しても正確な位置検出を可能とし、ユーザにとって違和感のない快適な操作入力を実現する。
【0190】
以上、第1の実施の形態乃至第5の実施の形態として示した位置検出システムによれば、ゲームプレーヤ(ユーザ)の動きやゲーム世界での動作に類似した動作を入力情報として使用して、例えばゲームのような仮想世界に現実世界の動作を反映させることを可能とし、より高精度でリアルタイム制を向上した動き検出が可能になる。
【0191】
また、以上のような位置検出装置は、一般家庭で導入され始めたプロジェクタ、液晶テレビ、VGAモニタ等にも対応可能であって、NTSC、PALといった走査線の仕様に影響されることがない。
【0192】
なお、位置検出システム1乃至5において、識別子は、通常表示されないようにすることもできる。すなわち、操作入力装置としての撮像装置からの入力があった場合にのみ、例えば射撃ゲームであれば、銃型コントローラのトリガが引かれた場合にのみ識別子が表示されるようにすることも可能である。
【0193】
この他にも、多重露光撮影時における各露光タイミング、或いは非同期シャッタによる撮影時の各シャッタタイミング等を識別子を表示するタイミングとして用いることができる。
【0194】
なお、位置検出システム1乃至5において、ゲーム処理部はクロマキー処理を施すことによって特徴点の抽出をより高性能にすることができる。クロマキー処理は、画像処理部で行われるようにしてもよい。
【0195】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0196】
【発明の効果】
以上詳細に説明したように、本発明に係る位置検出装置及び位置検出方法は、は、複数の識別子を表示して、結像部を介して識別子を撮像して、撮像された識別子を含む画像を用いて撮像手段の表示手段に対する位置を解析するものである。
【0197】
したがって、以上のような位置検出装置及び位置検出方法によれば、表示される画像等の仮想世界での動作に類似した実際の動作を非接触により検出することで仮想世界に現実世界の動作を反映させることを可能とし、表示装置の種類に関わらず、より高精度でリアルタイム制を向上した動き検出を行うことが可能になる。
【0198】
また、以上のような位置検出装置及び位置検出方法は、表示装置の種類によらず適用可能である。そのため、一般家庭で導入され始めたプロジェクタ、液晶テレビ、VGAモニタ等にも対応可能であって、NTSC、PALといった走査線の仕様に影響されることがない。したがって、導入の際のコストが低減され、ユーザに対する利便性が向上する。
【0199】
本発明に係るエンターテインメント装置は、複数の識別子を表示する制御を行う表示制御手段と、結像部を介して上記識別子を撮像する撮像手段と、撮像された識別子を用いて上記撮像手段の上記複数の識別子を表示する表示手段に対する位置を解析する解析手段と、解析手段で解析された位置情報を制御情報に変換してプログラムを制御する制御手段とを備える。
【0200】
したがって、以上のようなエンターテインメント装置によれば、ゲームプレーヤ(ユーザ)の動きやゲーム世界のような仮想世界での動作に類似した実際の動作を非接触により検出することで仮想世界に現実世界の動作を反映させることを可能とし、表示装置の種類に関わらず、より高精度でリアルタイム制を向上した動き検出を行うことが可能になる。さらに、検出した位置情報を制御情報に変換してプログラムの制御を行うことを可能になる。
【0201】
また、以上のようなエンターテインメント装置は、表示装置の種類によらず適用可能である。そのため、一般家庭で導入され始めたプロジェクタ、液晶テレビ、VGAモニタ等にも対応可能であって、NTSC、PALといった走査線の仕様に影響されることがない。したがって、導入の際のコストが低減され、ユーザに対する利便性が向上する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【図2】本発明の第1の実施の形態として示す位置検出システムの構成を示すブロック図である。
【図3】本発明の第1の実施の形態として示す位置検出システムがキャリブレーションを行う際の概略を示した概略図である。
【図4】本発明の第1の実施の形態として示す位置検出システムがキャリブレーションを行う際の概略を示した概略図である。
【図5】本発明の第1の実施の形態として示す位置検出システムにおけるコントロール型撮像装置が画像を取り込む処理を示すフローチャートである。
【図6】本発明の第1の実施の形態として示す位置検出システムにおけるゲーム制御部が照準点の位置を検出する処理を示すフローチャートである。
【図7】識別子の位置を予測する際の概念を示した模式図である。
【図8】本発明の第2の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【図9】本発明の第2の実施の形態として示す位置検出システムの構成を示すブロック図である。
【図10】本発明の第2の実施の形態として示す位置検出システムにおけるコントロール型撮像装置が画像を取り込む処理を示すフローチャートである。
【図11】本発明の第2の実施の形態として示す位置検出システムにおけるゲーム制御部が照準点の位置を検出する処理を示すフローチャートである。
【図12】本発明の第2の実施の形態として示す位置検出システムにおける画像制御部が行う処理を示すフローチャートである。
【図13】本発明の第3の実施の形態として示す位置検出システムの構成を示すブロック図である。
【図14】ベクトル場の概念を示す概念図である。
【図15】濃度変化から動きベクトルを算出する手順を説明するために使用した特性図である。
【図16】本発明の第3の実施の形態として示す位置検出システムにおけるゲーム制御部が照準点の位置を検出する処理を示すフローチャートである。
【図17】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の構成を示すブロック図である。
【図18】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の固体撮像部における受光・電荷転送部を説明する説明図である。
【図19】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の固体撮像部における受光・電荷転送部の一部を示した図である。
【図20】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の動作を説明するタイムチャートである。
【図21】図20に示したタイムチャートの一部を拡大して示すタイムチャートの拡大図である。
【図22】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の動作を説明するタイムチャートである。
【図23】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の動作を説明するタイムチャートである。
【図24】N=2の多重露光撮影が為された画像を示す模式図である。
【図25】非同期シャッタにより任意のタイミングで撮像する場合の撮像タイミングを説明する図である。
【図26】本発明の第4の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【図27】本発明の第5の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【符号の説明】
1,2,3,4,5 位置検出システム、10,70,80 ゲーム筐体、11,60 コントローラ型撮像装置、12,73,82 表示部、13,74,83 スピーカ、14,75,85 識別子、15 標的、16 照準点、17,78,79 撮像範囲、20 レンズ部、21 CCDイメージャ、22 S/H部、23 AGC部、24 A/D部、25 信号処理部、26 TG部、27 撮像駆動部、28 撮像制御部、29 SDRAM、30 メインメモリ、31 機械的I/F、32 ゲーム制御部、33 表示制御部、34 ROM、35 画像表示部、36 フレームメモリ、37 バス、40 モニタ、50ゲーム装置、51 I/F部、52 モニタI/F部、53 ベクトル演算ユニット、61 I/F部、71 銃型撮像装置、72 盾型撮像装置、76,77 照準点、81 ラケット型撮像装置、84 接触センサ、86 球[0001]
BACKGROUND OF THE INVENTION
The present invention detects the relative position of the other device with respect to one device. for position analysis Equipment and position analysis The present invention relates to a method and an entertainment apparatus, and particularly detects a relative position by detecting and analyzing an identifier. for position analysis Equipment and position analysis The present invention relates to a method and an entertainment apparatus to which these are applied.
[0002]
[Prior art]
In recent years, with the development of electronic game technology, games that only require operation input by a combination of several input buttons, or operation input using a so-called joystick or the like, satisfy the user's requirements or increase the user's interest. It has become difficult to acquire.
[0003]
Therefore, for example, an input device imitating a fishing tool is used for a fishing game, an input device imitating a musical instrument is used for playing a musical instrument, and a real gun is imitated for a shooting game. The game device is devised so that the game can be performed by a more realistic operation by using the input device. In addition, there is a game device in which the user moves the body while watching the screen.
[0004]
In this case, instead of detecting the movement of the whole body, the movement of the user's body is input as a partial movement such as a step by using an input device that detects when a predetermined position is touched. ing.
[0005]
In order for a user to input a game by performing an action closer to a realistic action, it is considered that a user's movement is detected and used as an input signal. For example, a game player (user) is imaged by an imaging device, the movement of the game player (user) is analyzed based on the captured image, and the analysis result is reflected in the input of the game.
[0006]
A system for detecting the movement of a user or the position of a predetermined part in a non-contact manner has already been realized. As such a position detection system, for example, a scanning line of a cathode ray tube is exposed with a beam and detected by a light emitting element. In some cases, the position is detected using infrared rays or ultrasonic waves.
[0007]
[Problems to be solved by the invention]
However, when detecting the position of the target part in a non-contact manner, in particular, when using infrared rays, in order to identify the position by detecting the interference fringes by receiving infrared rays from a plurality of infrared ray generators installed in advance. If it is not used at a close distance, the position detection accuracy is lowered. Moreover, since it is easy to receive interference from other devices using infrared rays, there is a problem that the position detection accuracy is lowered particularly when the same devices are used side by side. In addition, when ultrasonic waves are used, the reflected waves interfere with each other in the same manner as when infrared rays are used to determine the position and movement by measuring the reflected waves received by a plurality of ultrasonic sensors installed in advance. Under such conditions, the position detection accuracy is lowered.
[0008]
In addition, a game device in which a user shoots at a target displayed on the screen employs a method of detecting the position on the screen by exposing the scanning line of the cathode ray tube with a beam and detecting it with a light receiving element. However, it is necessary to flash a part or the entire area of the screen every detection operation. For this reason, it can only be applied to an application that does not feel uncomfortable even if the screen is flashed for each position detection operation. In addition, position detection using this method is effective only for a display device having scanning lines, and cannot be applied to an image projected by a projector or an image displayed on a liquid crystal monitor. there were.
[0009]
Therefore, a position detecting device for solving such inconvenience is disclosed in Japanese Patent Laid-Open No. 6-301475. However, when the position detection device disclosed here is applied to a shooting game, the inclination of the imaging device as a gun-type controller is not detected, so unless the user keeps the imaging device as a gun-type controller accurately level. An error occurs between the aim aimed by the user and the detected position.
[0010]
Japanese Patent Application Laid-Open No. 11-305935 discloses a position detection device using an imaging device. However, since an infrared light emitting element is used as an identifier, for example, the position detection device is used as a home display. It is difficult to apply it, and it is limited to use as a game machine with a large-sized case for business use. Further, since this position detection device does not include an infrared cut filter, it cannot be used as a normal camera even if the image pickup device is detached, which is inconvenient.
[0011]
As described above, as a conventional user interface, there are concepts such as a GUI (Graphical User Interface) using a contact type interface and a desktop metaphor, but there are various problems as described above.
[0012]
Therefore, the present invention has been proposed in view of such a conventional situation, and is a position as a new user interface by non-contact image input capable of high-precision motion detection corresponding to all kinds of display devices. analysis Equipment and position analysis Method and such position analysis An object is to provide an entertainment apparatus to which the method is applied.
[0013]
[Means for Solving the Problems]
The position analysis apparatus according to the present invention is an analysis means for analyzing a position of the image pickup means relative to the display means using an identifier picked up by an image pickup means for picking up an identifier displayed on the display means. Storage means for storing the position of a predetermined point within the imaging range imaged in the past; With , The analysis means is , Using images taken by multiple exposure by the imaging means By analogizing the temporal change between the plurality of identifiers displayed in one image as a clue that the position change of the predetermined point in the past stored in the storage means is continuous, By analyzing the position, the above object is achieved.
[0014]
In the position analysis method according to the present invention, the analysis step of analyzing the position of the imaging unit with respect to the display unit using the identifier imaged by the imaging unit that images the identifier displayed on the display unit. And a storing step for storing the position of a predetermined point in the imaging range captured in the past in the storage means; With , In the above analysis process , Using images taken by multiple exposure by the imaging means By analogizing the temporal change between the plurality of identifiers displayed in one image as a clue that the position change of the predetermined point in the past stored in the storage means is continuous, By analyzing the position, the above object is achieved.
[0015]
In addition, the entertainment device according to the present invention includes an analysis unit that analyzes a position of the imaging unit with respect to the display unit using an identifier captured by an imaging unit that captures an identifier displayed on the display unit; Storage means for storing the position of a predetermined point in the imaging range captured in the past; Control means for controlling the program by converting the position information analyzed by the analysis means into control information, and the analysis means uses an image taken by the exposure means by the imaging means. By analogizing the temporal change between the plurality of identifiers displayed in one image as a clue that the position change of the predetermined point in the past stored in the storage means is continuous, The above object is achieved by analyzing the position.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0017]
The
[0018]
A
[0019]
An animation image or the like that is the content of the game is output to the
[0020]
As described above, the
[0021]
The controller type
[0022]
Next, a specific circuit configuration of the
[0023]
As shown in FIG. 2, the
[0024]
In the
[0025]
Specifically, the controller
[0026]
Further, the
[0027]
In such a
[0028]
In the A /
[0029]
The
[0030]
The
[0031]
The motion detection is performed by, for example, a multiple exposure photographing technique disclosed in JP-A-9-247556 described later. Details of motion detection using the multiple exposure imaging technique will be described later.
[0032]
The
[0033]
Next, the
[0034]
The
[0035]
The detected movement of the
[0036]
That is, the
[0037]
When detecting the movement of the aiming
[0038]
The
[0039]
Subsequently, the controller
[0040]
The
[0041]
If the
[0042]
If it is determined in step S1 that the imaging conditions are appropriate, the process proceeds to step S3 to determine whether or not a motion detection request has been issued.
[0043]
If it is not required to perform motion detection in step S3, the process of step S1 is repeated. On the other hand, when it is requested to perform motion detection, the process proceeds to step S4, where the controller
[0044]
At this time, a process in which the
[0045]
In step S10, the
[0046]
Subsequently, in step S12, the
[0047]
Here, the concept for predicting the position of the
[0048]
In step S <b> 13, the
[0049]
In step S14, the detected position of the aiming
[0050]
As described above, the
[0051]
Therefore, the
[0052]
As a result, the
[0053]
Next, a second embodiment of the present invention will be described. A
[0054]
Here, the
[0055]
For example, the
[0056]
In the position detection system according to the second embodiment, the
[0057]
A circuit configuration of the
[0058]
As a matter of course, even components that are common to the
[0059]
The
The image signal photoelectrically converted by the
[0060]
In the A /
[0061]
The controller-
[0062]
In the
[0063]
The
[0064]
At this time, the controller
[0065]
The
[0066]
If the
[0067]
If it is determined in step S21 that the imaging conditions are appropriate, the process proceeds to step S23, where it is determined whether a motion detection request has been issued.
[0068]
In step S23, when there is no motion detection request, the process returns to step S21. When it is requested to perform motion detection, the process proceeds to step S24, and the
[0069]
In step S <b> 25, the
[0070]
FIG. 11 shows a process in which the
[0071]
In step S31, the
[0072]
In step S33, the
[0073]
Subsequently, in step S34, the
[0074]
In step S <b> 35, the
[0075]
In step S36, the detected position of the aiming
[0076]
As described above, the
[0077]
Therefore, the
[0078]
As a result, the
[0079]
The
[0080]
The
[0081]
If the
[0082]
If it is determined in step S41 that the imaging conditions are appropriate, the process proceeds to step S43, where it is determined whether a motion detection request has been issued.
[0083]
If there is no motion detection request in step S43, the process of step S41 is repeated. When it is requested to perform motion detection, in step S44, the
[0084]
In step S45, the
[0085]
In step S46, the
[0086]
In step S47, the
[0087]
The
[0088]
As described above, when motion detection is performed in the
[0089]
In the
[0090]
A
[0091]
In the
[0092]
In the game system shown in FIG. 13, the
[0093]
The concept of motion detection using a vector field will be specifically described with reference to FIGS.
[0094]
In the calculation of the vector field, as shown in FIG. 14, first, a change in density is obtained by taking the difference between the current frame and the previous frame on the basis of the density curved surface. Thereafter, the motion vector field for the density curved surface is calculated by multiplying the current frame again by the change in density.
[0095]
Next, an outline of a procedure for calculating a motion vector from a density change will be described with reference to FIG. The motion detection method proposed here is based on correlation using optical flow. First, when the time t transitions from 0 to 1, the density Q is Gaussian distributed with respect to the position X. When t = 0, the center is located at X = 1, and when t = 1, the center is X = Assume a density change that moves to
[0096]
Assuming that the correlation with the movement in the positive direction on the X axis at the position X = 2 at t = 1 is C2,1, the correlation with the movement with respect to the sampling rate X = 1 increments must be maximized. Therefore, the density Q at the position X = 1 when t = 0 1,0 And the density Q at the position X = 2 when t = 1. 2,1 It is necessary to calculate around the correlation. Therefore, in this proposal, C 2,1 = Q 1,0 × Q 2,1 As a correlation. Similarly, the correlation with respect to the movement in the negative direction on the X axis at the position X = 2 when t = 1 is represented by C 2,3 Then it is C 2,3 = Q 3,0 × Q 2,1 Can be calculated as Finally, the motion vector V at the position X = 2 X Is the correlation value C 2,1 -C 2,3 Can be calculated as
[0097]
In general, a game apparatus includes an arithmetic processing device specialized for vector arithmetic as hardware. Since such a vector operation unit can increase the vector operation processing speed, motion detection in the calculation of a correlation that can be easily rewritten into the vector operation as described above is effective. As described above, the motion vector is calculated from the density change.
[0098]
Subsequently, processing when the
[0099]
In step S51, the
[0100]
When the captured image is input, the
[0101]
In the subsequent step S53, the
[0102]
In step S54, the
[0103]
In step S55, the
[0104]
Subsequently, in step S56, it is recognized that the characteristic object is the
[0105]
In step S57, when there is an invisible identifier, the
[0106]
In step S58, the
[0107]
As described above, according to the
[0108]
Here, a function of performing imaging at an arbitrary timing by the above-described asynchronous shutter and a function of performing imaging by multiple exposure shooting in which a plurality of images are captured within one cycle of a synchronization signal for imaging will be described. The following is a description of Japanese Patent Application Laid-Open No. 9-247556 (name of the invention “imaging device provided with an individual imaging unit”) used by the present invention as a prior art. In this prior art, the invention is applied to an imaging device.
[0109]
For example, as shown in FIG. 17, the imaging device includes a plurality of light receiving element portions that perform photoelectric conversion and are arranged in a number of parallel rows, and a CCD that transfers charges obtained in each light receiving element portion. A solid-state imaging unit 111 having a light receiving / charge transfer unit provided with the formed charge transfer region is provided. Further, an optical system including a
[0110]
As shown in FIG. 18, the light receiving / charge transferring section includes a plurality of light receiving
The light
[0111]
Further, as shown in FIG. 19, a
[0112]
An insulating layer is disposed on each of the above-described portions, and the vertical transfer electrodes E1 and E2 extending in the horizontal direction are alternately disposed in the vertical direction on the vertical
[0113]
A read gate electrode EG extending in the vertical direction is disposed on the charge read
[0114]
One end side of each of the plurality of vertical
[0115]
In addition, on the other end side of each of the plurality of vertical
[0116]
When a still image imaging operation is performed in the solid-state imaging unit 111 having the light receiving / charge transfer unit illustrated in FIGS. 18 and 19, a predetermined light receiving period for the light receiving / charge transfer unit is set, During the light receiving period, each of a large number of light receiving
[0117]
Subsequently, the charges read to each vertical
[0118]
In such a case, horizontal charge transfer by each vertical
Therefore, the imaging output signal IP derived to the
[0119]
The drive
[0120]
The timing
[0121]
In the
[0122]
Further, the drive
[0123]
The frame synchronization signal SF and the line synchronization signal SH from the
[0124]
The imaging output signal IP obtained at the
[0125]
In the controller
[0126]
The control signal DCC and the control data DCD are exchanged between the imaging signal
[0127]
Under such circumstances, when a still image capturing operation is performed, an operation mode designation signal SM for designating an operation mode to be selected is supplied to the
[0128]
When the operation mode designated by the operation mode designation signal SM is the asynchronous normal light reception mode, the
[0129]
At this time, the
[0130]
Under such circumstances, when a shutter operation is performed at time ta in FIG. 20, a shutter signal SSH as a light reception command signal as shown in FIG. 20B is supplied to the
[0131]
The
[0132]
Then, as shown in F and G of FIG. 20, the read gate control signal SG and the sweep transfer drive signal SS corresponding to the leading edge of the light reception period signal SE are received from the drive
[0133]
Then, at the leading edge of the light reception period signal SE, a light reception period for the light reception / charge transfer section of the solid-state imaging unit 111 including the charge sweeping period is started. As shown in J of FIG. It will shift to the running mode. In the light reception period, as shown in FIG. 20D, the internal frame synchronization signal SFO which is reset at the leading edge of the light reception period signal SE and is asynchronous with the frame synchronization signal SF is obtained. SXO is not obtained. As a result, in the light receiving period, the readout gate control signal SG is not obtained after being obtained according to the leading edge of the light receiving period signal SE, and the charge readout gate portion except for the short period at the beginning of the charge sweeping period. 118 is maintained in a closed state, and charges are accumulated in a large number of light receiving
[0134]
FIG. 21 shows an enlarged detailed timing relationship between the shutter signal SSH supplied to the
[0135]
After that, as shown in FIG. 20, when the trailing edge of the light receiving period signal SE supplied from the
[0136]
As a result, in the light receiving / charge transfer unit of the solid-state imaging unit 111, each charge
[0137]
In the charge transfer period in which the charge transfer operation by each of the vertical
[0138]
After that, at time td, as shown in FIG. 20D, the internal frame synchronization signal SFO obtained by the
[0139]
As described above, in the case where the still image capturing operation is performed under the asynchronous normal light receiving mode, when the shutter operation is performed, a maximum delay of approximately one line period from the time of the shutter operation is delayed. At the time, the light receiving period for the light receiving / charge transfer unit of the solid-state imaging unit 111 is started, and the charge sweeping operation ends from the start. For example, after the 27th line period, a large number of light receiving element units in the light receiving / charge transfer unit A light receiving state in which effective charge accumulation is performed in 116 is obtained. Therefore, the quickness of the light reception response operation when the shutter operation is performed is greatly improved.
[0140]
Next, the asynchronous shutter standby light receiving mode will be described. When the operation mode designated by the operation mode designation signal SM is the asynchronous shutter standby light receiving mode, the
[0141]
With the start of continuous transmission of the charge read timing signal TG and the charge sweep transfer timing signal TS from the
[0142]
When the shutter operation is performed at time tf in FIG. 22 while the charge sweeping operation is continuously performed in the light receiving / charge transfer unit of the solid-state imaging unit 111, as shown in FIG. 22C. The shutter signal SSH is supplied to the
[0143]
As a result, the drive
[0144]
In the light reception period, as shown in FIG. 22D, the internal frame synchronization signal SFO which is reset at the leading edge of the light reception period signal SE and is asynchronous with the frame synchronization signal SF is obtained. SXO is not obtained. As a result, during the light receiving period, the readout gate control signal SG is not obtained, the charge
[0145]
After that, when the trailing edge of the light reception period signal SE supplied from the
[0146]
As a result, in the light receiving / charge transfer unit of the solid-state imaging unit 111, each charge
[0147]
During the charge transfer period in which the charge transfer operation by each vertical
[0148]
Thereafter, at time ti, the
[0149]
As described above, when the still image capturing operation is performed under the asynchronous shutter standby light receiving mode, the shutter standby state is taken in advance, and the charge sweeping operation is continuously performed in the light receiving / charge transfer unit of the solid-state imaging unit 111. When the shutter operation is performed, the continuous charge sweeping operation performed until the time of the shutter operation is terminated, and immediately, the light receiving / charge transfer unit of the solid-state imaging unit 111 As a result, a light receiving state in which effective charge accumulation is performed in a large number of light receiving
[0150]
Next, the multiple exposure mode will be described. When the operation mode designated by the operation mode designation signal SM is the multiple exposure mode, the
[0151]
In addition, the
[0152]
As a result, the drive
[0153]
As a result, in the light receiving / charge transfer unit of the solid-state imaging unit 111, a predetermined number of, for example, seven read gate control signals SG between each other during each unit period of three cycles of the internal frame synchronization signal SFO. Is a divided light receiving period for the light receiving / charge transfer unit, and as shown in FIG. 23F, in each divided light receiving period, a large number of light receiving
[0154]
In this way, during each unit period of three periods for the internal frame synchronization signal SFO, each vertical
As a result, multiple exposure is performed on a large number of light receiving
[0155]
Then, when a period of one cycle for the final internal frame synchronization signal SFO in each unit period arrives, the charges accumulated and accumulated in each vertical
Then, the charge transferred to the
[0156]
Thus, during the period in which the charges accumulated and accumulated in each vertical
[0157]
In this way, when a still image capturing operation is performed under the multiple exposure mode, substantially three cycles of the internal frame synchronization signal SFO are obtained based on a relatively simple configuration and operation control. During each unit period, the imaging output signal IP based on the signal charges obtained by performing multiple exposure on the large number of light receiving
[0158]
Consider a case where such multiple exposure photography and asynchronous shutter based on the prior art are applied to the present invention.
[0159]
The number of images corresponding to the number of times of multiple exposure (N) is displayed superimposed on the image that has been shot with multiple exposure. For example, in the case of an image that has been subjected to multiple exposure shooting with N = 2, an
[0160]
In this case, the
The temporal relationship between a plurality of identifiers displayed in one image is inferred from the fact that the stored position changes of past aiming points are continuous.
[0161]
Here, if N = 2 multiple exposure shooting is performed by using a TG (Timing Generator) having a multiple exposure function corresponding to vector calculation processing, a sampling rate equivalent to the conventional one can be expected. Furthermore, if N = 4, it is possible to expect a sampling rate twice that of the prior art, and position detection can be realized at a finer timing. Further, since the transfer rate of the image at this time may be 1 / N of the sampling rate, when applied to the position detection system according to the present invention, the transfer rate can be earned, and a more efficient position detection system. Can be built.
[0162]
For example, USB Ver. Even if transfer is performed at a high-speed mode of 12 MHz conforming to 1.1, it is limited to transfer an image of 30 fps with OVGA 16-bit color number. By performing multiple exposure with N = 4, for example, as shown in FIG. Until the step of extracting the object by collecting successive similar vectors in step S25, more accurate position detection can be realized with a CPU rate that is the same as that at 30 fps and a sampling rate corresponding to 120 fps.
[0163]
Next, consider a case where imaging is performed at an arbitrary timing by an asynchronous shutter. FIG. 25A shows a case where an image is taken at a conventional fixed timing, and FIG. 25B shows a case where a game device to which the present invention is applied takes an image at an arbitrary timing.
[0164]
Conventionally, as shown in FIG. 25 (A), the
[0165]
By using the asynchronous imaging technique described with reference to FIGS. 20 and 22 in the position detection system according to the present invention, an
[0166]
Note that an image immediately before an image obtained at an arbitrary timing (an image captured at an original fixed timing) 213 cannot be read because it is swept away. However, the
[0167]
When a conventional imaging device is used, the position of a feature point can be detected only from an image obtained at a CCD readout timing such as 1/30 second. In addition, as described above, even when the image is taken by multiple exposure shooting, the position can be detected only from the image obtained by time-dividing the CCD readout timing such as 1/30 second by a small integer up to about N = 4. There wasn't. On the other hand, since the position detection system according to the present invention can capture an image at an arbitrary timing and measure the position of a feature point at an arbitrary timing, it is more accurate than the case of estimating the position of a feature point by interpolation. Motion detection is possible.
[0168]
As described above, the position detection system according to the present invention can perform the following position detection as the fourth embodiment and the fifth embodiment by applying the multiple exposure shooting and the shooting by the asynchronous shutter. To do.
[0169]
The
[0170]
As shown in FIG. 26, the
[0171]
An animation image or the like that is the content of the game is output to the
[0172]
In this way, the
[0173]
The gun-type imaging device 71 is an imaging camera including a CCD (Charge Coupled Device) as an imaging device, and displays an image displayed on the
[0174]
The shield-type
At this time, a predetermined area at the center of the
[0175]
Since the
[0176]
As a matter of course, even components that are common to the
[0177]
Since the process of displaying the aiming point is the same as that of the
[0178]
The
[0179]
As shown in FIG. 27, the
[0180]
An animation image or the like that is the content of the game is output to the
[0181]
In this way, the
[0182]
Since the
[0183]
The user holds the racket-
[0184]
The game control unit provided in the
[0185]
Further, for example, the user strongly steps on the
[0186]
Therefore, such a
[0187]
As a matter of course, even components that are common to the
[0188]
In the conventional method of detecting the scanning line of the cathode ray tube with the light receiving element, it is necessary to flash the screen every time the position is detected. Therefore, it is necessary to always detect the position and continuously display the pointer. Although not suitable, position detection at a sampling rate higher than the conventional position detection system as shown in the
[0189]
Accordingly, in such a motion detection operation, the determination error range of motion detection can be within the range of human (user) sensory error, so that the aiming
[0190]
As described above, according to the position detection system shown as the first to fifth embodiments, the movement similar to the movement of the game player (user) or the movement in the game world is used as the input information. For example, it is possible to reflect a real-world motion in a virtual world such as a game, and motion detection with higher accuracy and improved real-time control becomes possible.
[0191]
The position detection apparatus as described above can also be applied to projectors, liquid crystal televisions, VGA monitors, and the like that have been introduced in general homes, and is not affected by the specifications of scanning lines such as NTSC and PAL.
[0192]
In the
[0193]
In addition, each exposure timing at the time of multiple exposure shooting or each shutter timing at the time of shooting by an asynchronous shutter can be used as the timing for displaying the identifier.
[0194]
In the
[0195]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
[0196]
【The invention's effect】
As described above in detail, the position detection device and the position detection method according to the present invention displays a plurality of identifiers, images the identifiers via the imaging unit, and includes the captured identifiers. Is used to analyze the position of the imaging means relative to the display means.
[0197]
Therefore, according to the position detection device and the position detection method as described above, the real world operation can be performed in the virtual world by detecting the actual operation similar to the operation in the virtual world such as the displayed image without contact. It is possible to reflect the motion, and it is possible to perform motion detection with higher accuracy and improved real-time control regardless of the type of display device.
[0198]
Further, the position detection device and the position detection method as described above can be applied regardless of the type of display device. Therefore, it can be applied to projectors, liquid crystal televisions, VGA monitors, and the like that have begun to be introduced in ordinary homes, and is not affected by the specifications of scanning lines such as NTSC and PAL. Therefore, the cost at the time of introduction is reduced, and convenience for the user is improved.
[0199]
The entertainment apparatus according to the present invention includes a display control unit that performs control to display a plurality of identifiers, an imaging unit that captures the identifiers via an imaging unit, and the plurality of imaging units that use the captured identifiers. Analysis means for analyzing the position relative to the display means for displaying the identifier, and control means for controlling the program by converting the position information analyzed by the analysis means into control information.
[0200]
Therefore, according to the entertainment apparatus as described above, the real world can be detected in the virtual world by detecting the actual movement similar to the movement of the game player (user) and the virtual world such as the game world in a non-contact manner. It is possible to reflect the motion, and it is possible to perform motion detection with higher accuracy and improved real-time control regardless of the type of display device. Furthermore, it is possible to control the program by converting the detected position information into control information.
[0201]
In addition, the entertainment device as described above can be applied regardless of the type of display device. Therefore, it can be applied to projectors, liquid crystal televisions, VGA monitors, and the like that have begun to be introduced in ordinary homes, and is not affected by the specifications of scanning lines such as NTSC and PAL. Therefore, the cost at the time of introduction is reduced, and convenience for the user is improved.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an outline of a configuration of a position detection system shown as a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a position detection system shown as the first embodiment of the present invention.
FIG. 3 is a schematic diagram showing an outline when the position detection system shown as the first embodiment of the present invention performs calibration.
FIG. 4 is a schematic diagram showing an outline when the position detection system shown as the first embodiment of the present invention performs calibration.
FIG. 5 is a flowchart showing a process in which an image is captured by the control type imaging apparatus in the position detection system shown as the first embodiment of the present invention.
FIG. 6 is a flowchart showing processing in which the game control unit in the position detection system shown as the first embodiment of the present invention detects the position of the aiming point.
FIG. 7 is a schematic diagram showing a concept for predicting the position of an identifier.
FIG. 8 is a schematic diagram showing an outline of a configuration of a position detection system shown as a second embodiment of the present invention.
FIG. 9 is a block diagram showing a configuration of a position detection system shown as a second embodiment of the present invention.
FIG. 10 is a flowchart illustrating a process in which an image is captured by a control-type imaging device in the position detection system according to the second embodiment of the present invention.
FIG. 11 is a flowchart showing processing in which the game control unit detects the position of the aiming point in the position detection system shown as the second embodiment of the present invention.
FIG. 12 is a flowchart showing processing performed by an image control unit in the position detection system shown as the second embodiment of the present invention.
FIG. 13 is a block diagram showing a configuration of a position detection system shown as a third embodiment of the present invention.
FIG. 14 is a conceptual diagram showing the concept of a vector field.
FIG. 15 is a characteristic diagram used to explain a procedure for calculating a motion vector from a density change.
FIG. 16 is a flowchart showing processing in which the game control unit in the position detection system shown as the third embodiment of the present invention detects the position of the aiming point.
FIG. 17 is a block diagram illustrating a configuration of an imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 18 is an explanatory diagram illustrating a light receiving / charge transfer unit in a solid-state imaging unit of an imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 19 is a diagram illustrating a part of a light receiving / charge transfer unit in a solid-state imaging unit of an imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 20 is a time chart for explaining the operation of the imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 21 is an enlarged view of the time chart showing a part of the time chart shown in FIG. 20 in an enlarged manner.
FIG. 22 is a time chart for explaining the operation of the imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 23 is a time chart for explaining the operation of the imaging apparatus that performs shooting using an asynchronous shutter and multiple exposure shooting.
FIG. 24 is a schematic diagram showing an image that has been subjected to multiple exposure shooting of N = 2.
FIG. 25 is a diagram illustrating imaging timing when imaging is performed at an arbitrary timing by an asynchronous shutter.
FIG. 26 is a schematic diagram showing an outline of a configuration of a position detection system shown as a fourth embodiment of the present invention.
FIG. 27 is a schematic diagram showing an outline of a configuration of a position detection system shown as a fifth embodiment of the present invention.
[Explanation of symbols]
1, 2, 3, 4, 5
Claims (15)
過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段とを備え、
上記解析手段は、上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析する位置解析装置。Analyzing means for analyzing the position of the imaging means relative to the display means using an identifier imaged by an imaging means for imaging the identifier displayed on the display means ;
Storage means for storing the position of a predetermined point within the imaging range imaged in the past ,
The analysis means uses the image taken by multiple exposure by the imaging means, and the temporal relationship between a plurality of identifiers displayed in one image is stored in the storage means in the past. A position analysis device that analyzes the position by analogy with the fact that the position change is continuous .
上記解析手段は、上記ベクトル演算手段により動き検出を行う請求項1記載の位置解析装置。It further comprises vector calculation means for performing motion detection,
The position analysis apparatus according to claim 1, wherein the analysis unit performs motion detection by the vector calculation unit.
過去に撮像された撮像範囲内の所定点の位置を記憶手段に記憶する記憶工程とを備え、
上記解析工程では、上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析する位置解析方法。An analysis step of analyzing the position of the imaging means relative to the display means using an identifier imaged by an imaging means for imaging the identifier displayed on the display means ;
A storage step of storing the position of a predetermined point in the imaging range captured in the past in the storage means ,
In the above analysis process, using an image that is multiple exposure shooting by the image pickup means, a temporal context between a plurality of identifiers to be displayed in one image, past the predetermined point stored in the storage means A position analysis method for analyzing the position by analogy with the fact that the position change is continuous .
過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段と、
上記解析手段で解析された位置情報を制御情報に変換してプログラムを制御する制御手段とを備え、
上記解析手段は、上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析するエンターテインメント装置。Analyzing means for analyzing the position of the imaging means relative to the display means using an identifier imaged by an imaging means for imaging the identifier displayed on the display means;
Storage means for storing the position of a predetermined point within the imaging range imaged in the past;
Control means for controlling the program by converting the position information analyzed by the analysis means into control information,
The analysis means uses the image that has been subjected to multiple exposure photography by the imaging means, and the temporal relationship between a plurality of identifiers displayed in one image is stored in the storage means in the past. An entertainment device that analyzes the position by analogy with the fact that the position change is continuous .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000275397A JP4581204B2 (en) | 2000-09-11 | 2000-09-11 | POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000275397A JP4581204B2 (en) | 2000-09-11 | 2000-09-11 | POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002081909A JP2002081909A (en) | 2002-03-22 |
JP4581204B2 true JP4581204B2 (en) | 2010-11-17 |
Family
ID=18761025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000275397A Expired - Fee Related JP4581204B2 (en) | 2000-09-11 | 2000-09-11 | POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4581204B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8456534B2 (en) | 2004-10-25 | 2013-06-04 | I-Interactive Llc | Multi-directional remote control system and method |
WO2006074290A2 (en) | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Optical flow based tilt sensor |
TWI281623B (en) * | 2005-05-10 | 2007-05-21 | Pixart Imaging Inc | Orientation point orientating method of orientation device and device thereof |
JP4715366B2 (en) * | 2005-07-27 | 2011-07-06 | パナソニック電工株式会社 | Multiple image composition method and multiple image composition device |
JP4773170B2 (en) | 2005-09-14 | 2011-09-14 | 任天堂株式会社 | Game program and game system |
US7553229B2 (en) * | 2006-03-21 | 2009-06-30 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Active referencing method with interleaved crosshair navigation frames |
US8096880B2 (en) | 2006-08-15 | 2012-01-17 | Nintendo Co., Ltd. | Systems and methods for reducing jitter associated with a control device |
JP5132131B2 (en) * | 2006-11-17 | 2013-01-30 | 任天堂株式会社 | Pointing device adjustment program and pointing device |
TWI338241B (en) * | 2007-08-23 | 2011-03-01 | Pixart Imaging Inc | Interactive image system, interactive device and operative method thereof |
JP5384047B2 (en) * | 2008-07-24 | 2014-01-08 | 株式会社タイトー | Game machine input device, game machine |
CN102422306B (en) | 2009-04-08 | 2015-09-09 | 高通股份有限公司 | Enhancement mode handheld screen-sensing pointer |
JP5735865B2 (en) * | 2011-06-17 | 2015-06-17 | 任天堂株式会社 | Game system and game program |
US9569892B2 (en) | 2013-09-26 | 2017-02-14 | Qualcomm Incorporated | Image capture input and projection output |
CN113040084B (en) * | 2021-03-23 | 2022-10-14 | 武汉大学 | Experimental device for analyzing influence of current field in water on fish behaviors |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3422383B2 (en) * | 1994-09-05 | 2003-06-30 | 株式会社タイトー | Method and apparatus for detecting relative position between video screen and gun in shooting game machine |
JP2681454B2 (en) * | 1995-02-21 | 1997-11-26 | コナミ株式会社 | Shooting game device |
JPH11305935A (en) * | 1998-04-24 | 1999-11-05 | Image Tec Kk | Position detection system |
-
2000
- 2000-09-11 JP JP2000275397A patent/JP4581204B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002081909A (en) | 2002-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4581204B2 (en) | POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE | |
US8711230B2 (en) | Image capture apparatus and program | |
US10225477B2 (en) | Imaging apparatus and display control method thereof | |
JP4018695B2 (en) | Method and apparatus for continuous focusing and exposure adjustment in a digital imaging device | |
US20070263106A1 (en) | Photographing apparatus and method | |
CN106575027A (en) | Image pickup device and tracking method for subject thereof | |
US10382704B2 (en) | Image processing device that generates a composite image | |
JP2004215283A (en) | Apparatus and method for reducing image blur in digital camera | |
WO2001067748A1 (en) | Digital camera | |
JP2012213041A (en) | Imaging apparatus, image synthesizing method and program | |
JP2001358984A (en) | Moving picture processing camera | |
JP2002027315A (en) | Apparatus and method for detecting movement | |
US9215426B2 (en) | Imaging apparatus and imaging method | |
JP5896102B2 (en) | Imaging apparatus, imaging control method, and program | |
JP2002024833A (en) | Entertainment system, entertainment device and information processing method | |
JP5136326B2 (en) | IMAGING DEVICE, PROGRAM THEREOF, AND ELECTRONIC DEVICE | |
CN111279352B (en) | Three-dimensional information acquisition system through pitching exercise and camera parameter calculation method | |
JP5383361B2 (en) | Imaging apparatus, control method therefor, and program | |
JP2010171491A (en) | Imaging device, imaging method, and program | |
JP4231216B2 (en) | Virtual scene shooting method and apparatus | |
JP2007225550A (en) | Speed measuring device, imaging device, imaging method, and control program | |
KR102346928B1 (en) | Image processing apparatus, image processing method, and program | |
JP2010093451A (en) | Imaging apparatus and program for imaging apparatus | |
JP2001215604A (en) | Automatic release device and automatic photographing system for camera | |
WO2019082832A1 (en) | Imaging apparatus, imaging apparatus control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090910 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100226 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20100323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100803 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100816 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130910 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |