JP4581204B2 - POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE - Google Patents

POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE Download PDF

Info

Publication number
JP4581204B2
JP4581204B2 JP2000275397A JP2000275397A JP4581204B2 JP 4581204 B2 JP4581204 B2 JP 4581204B2 JP 2000275397 A JP2000275397 A JP 2000275397A JP 2000275397 A JP2000275397 A JP 2000275397A JP 4581204 B2 JP4581204 B2 JP 4581204B2
Authority
JP
Japan
Prior art keywords
unit
imaging
signal
identifier
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000275397A
Other languages
Japanese (ja)
Other versions
JP2002081909A (en
Inventor
順一 坂上
繁 盛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000275397A priority Critical patent/JP4581204B2/en
Publication of JP2002081909A publication Critical patent/JP2002081909A/en
Application granted granted Critical
Publication of JP4581204B2 publication Critical patent/JP4581204B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、一方の機器に対する他方の機器の相対位置を検出するための位置解析装置及び位置解析方法、並びに、エンターテインメント装置に関し、特に、識別子を検出して解析することにより相対位置を検出するための位置解析装置及び位置解析方法、並びに、これらを適用したエンターテインメント装置に関する。
【0002】
【従来の技術】
近年、電子ゲーム技術の発展に伴い、幾つかの入力ボタンの組み合わせにより操作入力を行ったり、いわゆるジョイスティック等により操作入力を行ったりするだけのゲームでは、ユーザの要求を満たしたり、ユーザの興味を獲得することが困難になってきた。
【0003】
そこで、例えば、釣りをするゲームであれば釣り道具を模した入力装置を使用し、楽器を演奏するゲームであれば楽器を模した入力装置を使用し、射撃ゲームであれば本物の銃に模した入力装置を使用するなどして、より現実的な操作によりゲームを行うことができるように工夫されている。また、ユーザが画面を見ながら、実際に身体を動かして行うゲーム装置も存在する。
【0004】
この場合、身体全体の動きを検出するのではなく、所定位置に接触するとそれが検出されるような入力装置を用いて、ユーザの身体の動きを、例えばステップ等の部分的な動きとして入力している。
【0005】
ユーザが現実的な動作により近い動作を行うことでゲームの入力を行うために、ユーザの動きを検出し、これを入力信号として利用することが考えられている。例えば、ゲームプレーヤ(ユーザ)を撮像装置により撮像して、その撮像画像に基づいてゲームプレーヤ(ユーザ)の動きを解析し、その解析結果をゲームの入力に反映させるといったものである。
【0006】
ユーザの動き、或いは所定部位の位置を非接触にて検知するシステムは、既に実現されており、このような位置検出システムとしては、例えば、ブラウン管の走査線をビームで感光させて発光素子で検出する場合、赤外線、或いは超音波を使用して位置検知する場合等がある。
【0007】
【発明が解決しようとする課題】
ところが、非接触で目標部位の位置を検出する場合、特に、赤外線を用いる場合は、予め設置された複数の赤外線発生装置からの赤外線を受けて干渉縞を検出することにより位置を特定するために、至近距離で使用しないと位置検出精度が低くなってしまう。また、赤外線を使用した他の機器からの干渉を受けやすいため、特に同じ装置を並べて使用するような場合に位置検出精度が低下するという問題点があった。また、超音波を使用する場合は、予め設置された複数の超音波センサが受ける反射波を測定することにより、位置並びに動きを特定するため、赤外線を用いるときと同様に、反射波が干渉を受けるような条件では、やはり位置検出精度が低下する。
【0008】
また、ユーザが画面に表示される標的に向かって射撃を行うゲーム装置では、ブラウン管の走査線をビームで感光させ、これを受光素子で検出することで、画面上の位置を検出する方法を採用しているが、検出動作の度に画面の一部又は全域をフラッシュさせる必要がある。そのため、位置検出動作の度に画面をフラッシュさせても違和感のないようなアプリケーションにしか適用できなかった。その上、この方法を適用した位置検出は、走査線を有した表示装置にのみ有効であって、プロジェクタで映し出される画像や、液晶モニタに表示される画像に対しては適用できないという問題点があった。
【0009】
そこで、このような不都合を解消するための位置検出装置が特開平6−301475号公報に開示されている。ところが、ここに開示された位置検出装置を射撃ゲームに適用した場合、銃型コントローラとしての撮像装置の傾きが検出されないため、ユーザが銃型コントローラとしての撮像装置を正確に水平に保たない限り、ユーザが狙った照準と検出された位置との間で誤差が生じる。
【0010】
また、特開平11−305935号公報にも撮像装置を用いた位置検出装置が開示されているが、識別子として赤外線発光素子が用いられているため、例えば、この位置検出装置を家庭用のディスプレイに適用させようとすることは困難であって、業務用の大型筐体のゲーム機としての利用に限定されてしまう。また、この位置検出装置は、赤外線カットフィルタを備えていないため、撮像装置を取り外しても通常のカメラとして使用することができないのは、利便性に欠けるものである。
【0011】
このように、従来型のユーザインターフェイスとして、接触型インターフェイスによるGUI(Graphical User Interface)や、デスクトップメタファ(Desktop metaphor)といった概念があるが、上述したような種々の問題点が存在する。
【0012】
そこで本発明は、このような従来の実情に鑑みて提案されたものであり、あらゆる種類の表示装置に対応し、高精度の動き検出が可能な非接触の画像入力による新しいユーザインターフェイスとしての位置解析装置及び位置解析方法、並びに、このような位置解析方法を適用したエンターテインメント装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
本発明に係る位置解析装置は、表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析手段と、過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段とを備え上記解析手段は上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析することにより、上述の目的を達成する。
【0014】
また、本発明に係る位置解析方法は、表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析工程と、過去に撮像された撮像範囲内の所定点の位置を記憶手段に記憶する記憶工程とを備え上記解析工程では上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析することにより、上述の目的を達成する。
【0015】
また、本発明に係るエンターテインメント装置は、表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析手段と、過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段と、上記解析手段で解析された位置情報を制御情報に変換してプログラムを制御する制御手段とを備え、上記解析手段は上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析することにより上述の目的を達成する。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
【0017】
本発明の第1の実施の形態として示す位置検出システム1は、表示装置に識別子を表示し、この識別子を含む表示画像を操作入力装置としての撮像装置で撮影し、撮影した画像を解析手段において解析することによって、表示装置と撮像装置との位置関係、並びに撮像装置の表示装置に対する向き等を非接触により検出する位置検出システムであって、例えば表示装置に表示される画像の所定位置或いは所定の画像に対して、操作入力装置としての撮像装置を対向して選択動作を行うことで、操作入力を行うことが可能なユーザインターフェイスである。
【0018】
位置検出システム1を図1に示す。位置検出システム1は、後述する表示部12及びスピーカ13を有したゲーム筐体10と、銃を模したコントローラ型撮像装置11とを備える。
【0019】
表示部12には、ゲームの内容であるアニメーション画像等が出力され、スピーカ13からは、表示部12に表示される画像に合わせて、効果音や音楽等が再生される。図1に示す位置検出システム1において、表示部12には、詳細は図示しないが背景画像と、識別子14と、標的15と、照準点16とが表示されている。
【0020】
このように、当該位置検出システム1は、例えば、ユーザ1000が銃を模した操作入力装置としてのコントローラ型撮像装置11を用いて、表示部12に表示される標的15に向かって照準点16を定めて射撃をするゲーム装置を構成している。
【0021】
コントローラ型撮像装置11は、撮像素子としてCCD(Charge Coupled Device)を備えた撮像カメラであり、ユーザ1000によってゲーム筐体10の表示部12に対向されるとき、表示部12に表示されている画像を含めた周辺の環境を撮像し、この撮像範囲17の画像をゲーム筐体10に送信している。このとき、コントローラ型撮像装置11が捕らえた撮像範囲17の中心が照準点16として表示部12上の対応箇所に表示される。
【0022】
次に、このゲーム装置としての位置検出システム1の具体的な回路構成を図2に示す。
【0023】
図2に示すように、位置検出システム1におけるゲーム筐体10は、レンズ部20、固体撮像素子とされるCCD(Charge Coupled Device)部或いはCCDイメージャ21(Imager)21、S/H(Sampling/Hold)部22、AGC(Auto Gain Controler)部23、A/D(Analog/Digital)部24、信号処理部25、TG(Timing Generator)部26、撮像駆動部27、撮像制御部28、SDRAM(Synchronous Dynamic Random Access Memory)29、メインメモリ30、機械的I/F(Interface)31、ゲーム制御部32、表示制御部33、ROM(Read Only Memory)34、画像処理部35及びフレームメモリ36を備えている。
【0024】
このような構成からなる位置検出システム1において、CCD(Charge Coupled Device)部或いはCCDイメージャ(Imager)21、S/H部22、AGC部23、A/D部25、信号処理部25、TG部26、撮像駆動部27、撮像制御部28及びSDRAM29からコントローラ型撮像装置11が構成され、ゲーム制御部32は、コントローラ型撮像装置11から出力された時間的に異なる撮影画像を比較して動き検出をする動き検出手段として機能する。
【0025】
具体的には、コントローラ型撮像装置11は、非同期のシャッタにより任意のタイミングで撮像を行う機能と、撮像のための同期信号の一周期内において複数の撮像を行う多重露光撮影により撮像を行う機能とを有している。これらの機能の詳細は後述する。
【0026】
また、ゲーム制御部32は、ある時間における表示部12を撮影した画像と、所定時間経過後のゲームプレーヤ(ユーザ)の動作後の撮影画像とを比較して動きを検出する。ゲーム制御部32は、検出した動き検出結果に基づいてプログラムを実行する制御手段としての機能も有する。
【0027】
このような位置検出システム1において、レンズ部10を介して入力される撮像された画像は、固体撮像素子であるCCD部11にて光電変換される。ここで撮像素子は、CCDに限定されるものではなく、例えば、CMOSセンサー等といった他の撮像素子を用いることもできる。CCD部11にて光電変換された画像信号は、S/H部22においてサンプリング及びホールドされ、続いてAGC部23にて利得の調節がなされて、A/D部25に入力される。このとき、CCD部11からの画像信号の読み出しタイミングやS/H部22における処理タイミングは、TG部26からの読み出しタイミング信号によって制御されている。
【0028】
A/D部25では、入力された撮像信号は量子化される。A/D部25にて量子化された画像情報は信号処理部25にて一般的なカメラ信号処理が施されて、情報記憶部であるSDRAM29に格納される。ここで、画像情報が記憶される情報記憶部は、SDRAM29に限定されるものではなく、他の揮発性記憶手段であってよい。SDRAM29に格納された画像は、ゲーム制御部32の要求に応じて撮像制御部28にてストリームにされて、ゲーム制御部32を介してメインメモリ30に転送される。
【0029】
撮像制御部28は、位置検出システム1の各部を統括して制御している。撮像制御部28は、撮像駆動部17を制御してレンズ部10を駆動し、絞り、ズーム、フォーカス等の制御を行う。
【0030】
ゲーム制御部32は、SDRAM29からストリームとして転送された画像を画像処理して動き検出を行うものである。なお、ここでゲーム制御部32と撮像制御部28とは、同一のプロセッサとして構成されていてもよい。
【0031】
動き検出は、例えば後述する特開平9-247556号公報に開示された多重露光撮影技術によって行われる。多重露光撮影技術を用いた動き検出についての詳細は、後述する。
【0032】
ゲーム制御部32は、転送された画像を画像処理して予め決められている特徴点を検出する。すなわち、表示部の所定位置に表示されている識別子14を抽出し、コントローラ型撮像装置11が捕らえた撮像範囲17の中心を照準点16として表示部12上の対応箇所に表示する。
【0033】
次に、ゲーム制御部32は、上述のようにして抽出した識別子14の座標を記憶する。そして、ゲーム制御部32は、次々に転送されてくる画像、すなわちコントローラ型撮像装置11にて撮像されて、順次転送されてくる画像について上述した処理を繰り返す。
【0034】
ゲーム制御部32は、識別子14の座標を時系列で統計・分析することにより識別子14の動き検出を行う。また、動体予測によって識別子14の動きを補正する。
【0035】
検出した識別子14の動き及び照準点16の位置は、機械的I/F部31からの制御信号や撮影時のトリガ信号とともに制御信号として扱われ、ゲームに対するユーザの入力信号として使用される。ゲーム制御部32は、この入力信号としての制御信号に基づいてゲームを実行し、照準の位置とトリガに依存した標的や照準等が表示部12において表示される。
【0036】
すなわち、ゲーム制御部32は、識別子14の動きを検出し、その動き検出結果を制御信号に含めることによって、ゲーム筐体10に対するコントローラ型撮像装置11の動きを、表示部12に表示される動きを伴うキャラクター、特に、本発明にかかる実施の形態においては照準点16の動きに反映させている。
【0037】
照準点16の動きを検出するに際して、図3に示すように、ユーザに対して規定の動作を促すための看板、或いは音声ガイド等を設けたり、図4に示すように、ゲーム制御手段32に同期して表示部12に規定の動作を促す表示を行うことで、識別子14の基準相対位置を予め検出するキャリブレーション動作を行うことで、位置検出がより容易に行える。
【0038】
なお、ROM34には、ゲームを実行するためのプログラム等が記憶されている。また、画像処理部35は、画像処理を行う部であって、例えば、クロマキー処理等を行う。
【0039】
続いて、位置検出システム1におけるコントローラ型撮像装置11が表示部12を含めたゲーム筐体10の周辺の環境を撮像し、当該コントローラ型撮像装置11の表示部12に対する向きに応じて、表示部12に照準点16を表示する処理を図5を用いて説明する。
【0040】
撮像制御部28は、常に撮像条件を監視・検出している。撮像制御部28は、ステップS1において、撮像条件が適正か否かの判別を行う。
【0041】
撮像制御部28は、ステップS1において撮像条件が適正でないと判断した場合、ステップS2に進み、絞り(Iris)、ズーム(Zoom)、フォーカス(Focus)を制御する撮像駆動部27と、TG部26と、AGC部23と信号処理部25とを直ちに制御して撮像条件を調整する。
【0042】
ステップS1において、撮像条件が適正であると判断された場合、ステップS3に進んで、動き検出の要求が出されたか否かの判別を行う。
【0043】
ステップS3において、動き検出を行うことが要求されなかった場合、ステップS1の工程を繰り返す。一方、動き検出を行うことを要求された場合、ステップS4に進んで、コントローラ型撮像装置11は、撮像範囲17の画像を取得し、ゲーム筐体10に対して出力し、ステップS1の工程を繰り返す。
【0044】
このとき、ゲーム筐体10内のゲーム制御部32がコントローラ型撮像装置11からの画像に基づいて動き検出を行う処理を図6に示す。
【0045】
ゲーム制御部32は、ステップS10において、画像が入力されたか否かの判別を行う。画像が入力された場合、ステップS11において、画像情報の中から識別子14を抽出する。
【0046】
続いてゲーム制御部32は、ステップS12において、抽出した識別子の画角に対する座標を記憶し、コントローラ型撮像装置11の表示部12に対する方向・角度と照準点16とを補正する後述するキャリブレーション動作の際に識別子の基準相対位置から位置予測を行い、不可視の識別子の位置を予測する。
【0047】
ここで図7を用いて、識別子14の位置を予測する際の概念を説明する。図7(a)に示す基準となる基準相対位置と、図7(b)に示す撮像された識別子14とは常に相似であることを前提として、撮像された識別子が図7(c)のようであった場合、相対位置が相似であることから図7(c)に示す位置に識別子Cが存在することを予測する。
【0048】
ゲーム制御部32は、ステップS13において、予測によって補完した識別子含む複数の識別子の相対位置から照準点16の位置を検出する。
【0049】
ステップS14において、検出した照準点16の位置を、さらに動体予測によって補正し、ノイズを除去し、制御信号としてゲームの入力に反映させる。
【0050】
以上示したように、図1に示す位置検出システム1は、ユーザが入力装置としてのコントローラ型撮像装置11のトリガを引くと、コントローラ型撮像装置11から画像情報とトリガが引かれたことを示すトリガ情報とがゲーム筐体10に送信される。このときゲーム制御部32は、画像情報から識別子14を認識し、複数の識別子の相対位置からコントローラ型撮像装置11が表示部12のどの位置に向けられているかを解析する。解析した結果は、トリガ情報とともゲーム制御部32に送られ、制御信号に変換されて照準点16として表示するほか、ゲームの入力として使用される。
【0051】
したがって、第1の実施の形態として示した位置検出システム1は、コントローラ型撮像装置11によって撮影された撮影範囲17の画像から、表示部12に背景画像とともに表示される識別子14を検出して、識別子14の座標に応じて照準点16を表示することができる。
【0052】
これにより、位置検出システム1は、ゲームプレーヤ(ユーザ)の動きや実際の射撃動作を入力情報として使用し、例えばゲームのような仮想世界に現実世界の動作を反映させることを可能としている。
【0053】
続いて、本発明の第2の実施の形態について説明する。第2の実施の形態として示す位置検出システム2は、本発明に係る位置検出システムを家庭用のゲーム装置に適用したものである。この位置検出システム2は、図8に示すように、モニタ40、ゲーム装置50及びコントローラ型撮像装置60を備えて構成されている。
【0054】
ここで、モニタ40は画像表示手段であり、通常、外部からの映像及び音声入力が可能なテレビジョン受像機(以下、テレビと記す。)である。ゲーム装置50は、第1の実施の形態に示したような業務用のゲーム筐体10を小型化した家庭用ゲーム装置であって、所定のプログラムに従ってゲームを実行する処理手段を備えている。コントローラ型撮像装置60は、入力装置であって、ゲームの入力に必要な操作ボタン等の他の入力手段が備えられているが、基本的には撮像装置であって、ゲームの入力装置としての使用に止まることなく通常のCCDカメラ装置のように撮像装置単体として使用することができる。
【0055】
例えばゲーム装置50とコントローラ型撮像装置60とは、無線通信又は有線通信によりデータの送受信を行うことができるようになっている。モニタ40、ゲーム装置50及びコントローラ型撮像装置60は、概略を図8に示すように、それぞれ互いに接続されている。
【0056】
この第2の実施の形態の位置検出システムは、モニタ40、ゲーム装置50及びコントローラ型撮像装置60により、上述した第1の実施の形態に示した位置検出システム1の処理と同様の処理を行うことができる。すなわち、第2の実施の形態において、モニタ40は、位置検出システム1の表示部12に対応し、ゲーム装置50は、上述の位置検出システム1における動き検出等の処理を行うゲーム筐体10内の構成要素に対応している。
【0057】
位置検出システム2の回路構成を図9に示す。上述のように第2の実施の形態として示す位置検出システム2は、第1の実施の形態の位置検出システム1と同様の処理を行うことから、基本的には第1の実施の形態の位置検出システム1と共通の構成要素とすることができる。よって、位置検出システム1と共通する構成部分については同一番号を付して詳細な説明を省略する。
【0058】
なお、当然のことながら、第1の実施の形態の位置検出システム1と共通の構成部分であっても、第2の実施の形態の位置検出システム2に適応するように適宜変更を加えることができることはいうまでもない。
【0059】
位置検出システム2は、基本的には、第1の実施の形態として示した位置検出システム1と同様の処理を行う。コントローラ型撮像装置60において、レンズ部10を介して入力される撮像された像は、CCD部11にて光電変換される。
CCD部11にて光電変換された画像信号は、S/H部22にてサンプルホールドによりサンプリングされ、続いてAGC部23にて利得調節されて、A/D部25に入力される。ここで、CCD部11からの画像信号の読み出しタイミングやS/H部22における処理タイミングは、TG部26からの読み出しタイミング信号によって制御されている。
【0060】
A/D部25では、入力された撮像信号は量子化される。A/D部25にて量子化された画像情報は信号処理部25にて一般的なカメラ信号処理が施されて、情報記憶部とされるSDRAM29に格納される。SDRAM29に格納された画像は、ゲーム制御部32の要求に応じて撮像制御部28にてストリームとされて、ゲーム制御部32を介してメインメモリ30に転送される。
【0061】
コントローラ型撮像装置60は、I/F(interface;インターフェイス)部61を備えており、このI/F部61を介してゲーム装置50との間でデータ通信を行う。対応するゲーム装置50は、I/F部51を備えており、このI/F部51を介してコントローラ型撮像装置60のI/F部61との間でデータ通信を行う。I/F61とI/F部51とは、例えば無線通信或いは有線通信によりデータの送受信が可能な通信手段で構成されている。
【0062】
ゲーム装置50では、ゲーム制御部32において、SDRAM29からストリームとして転送された画像を画像処理して動き検出が行われる。ゲーム制御部32による動き検出については、第1の実施の形態の位置検出システム1と同様の処理によって行われる。検出された結果は、機械的I/F部31からの制御信号とともに制御信号として扱われ、ゲームに対する入力情報に反映される。
【0063】
ゲーム制御部32は、入力情報が含まれる制御信号に基づいてゲームを実行し、モニタI/F部52を介して、ユーザが動かす入力装置としてのコントローラ型撮像装置60の動きに依存して照準点16をモニタ40に表示する。
【0064】
このとき位置検出システム2におけるコントローラ型撮像装置60が表示部12を含めたゲーム筐体40の周辺の環境を撮像し、当該コントローラ型撮像装置60の表示部12に対する向きに応じて、表示部12に照準点16を表示する処理を図10を用いて説明する。
【0065】
撮像制御部28は、常に撮像条件を監視・検出している。撮像制御部28は、ステップS21において、撮像条件が適正か否かの判別を行う。
【0066】
撮像制御部28は、ステップS21において撮像条件が適正でないと判断した場合、ステップS22に進み、絞り(Iris)、ズーム(Zoom)、フォーカス(Focus)を制御する撮像駆動部27と、TG部26と、AGC部23と信号処理部25とを直ちに制御して撮像条件を調整する。
【0067】
ステップS21において、撮像条件が適正であると判断された場合、ステップS23に進んで、動き検出の要求が出されたか否かの判別を行う。
【0068】
ステップS23において、動き検出の要求がなかった場合、ステップS21の工程へと戻る。動き検出を行うことを要求された場合、ステップS24に進んで、コントローラ型撮像装置60における撮像制御部28は、撮像範囲17の画像を取得し、これを所定の形式で圧縮する。
【0069】
撮像制御部28は、ステップS25において、所定の形式で圧縮した画像をゲーム装置50に対して出力する。
【0070】
このときゲーム装置50内のゲーム制御部32がコントローラ型撮像装置60からの画像に基づいて動き検出を行う処理を図11に示す。
【0071】
ゲーム制御部32は、ステップS31において、画像が入力されたか否かの判別を行う。画像が入力された場合、ステップS32において、入力した圧縮画像を展開(解凍)する。
【0072】
ゲーム制御部32は、ステップS33において、画像情報の中から識別子14を抽出する。
【0073】
続いて、ゲーム制御部32は、ステップS34において、抽出した識別子の画角に対する座標を記憶し、コントローラ型撮像装置60の表示部12に対する方向・角度と照準点16とを補正する後述するキャリブレーション動作の際に識別子の基準相対位置から位置予測を行い、不可視の識別子の位置を予測する。このとき、図7に示す上述した位置予測が行われる。
【0074】
ゲーム制御部32は、ステップS35おいて、予測によって補完した識別子含む複数の識別子の相対位置から照準点16の位置を検出する。
【0075】
ステップS36において、検出した照準点16の位置を、さらに動体予測によって補正し、ノイズを除去し、制御信号としてゲームの入力に反映させる。
【0076】
以上示したように、図9に示す位置検出システム2は、ユーザが入力装置としてのコントローラ型撮像装置60のトリガを引くと、コントローラ型撮像装置60から画像情報とトリガが引かれたことを示すトリガ情報とがゲーム装置50に送信される。このときゲーム制御部32は、画像情報から識別子14を認識し、複数の識別子の相対位置からコントローラ型撮像装置60がモニタ40のどの位置に向けられているかを解析する。解析した結果は、トリガ情報とともゲーム制御部32に送られ、制御信号に変換されて照準点16として表示するほか、ゲームの入力情報として使用される。
【0077】
したがって、第2の実施の形態として示した位置検出システム2は、コントローラ型撮像装置60によって撮影された撮影範囲17の画像から、モニタ40に背景画像とともに表示される識別子14を検出して、識別子14の座標に応じてモニタ40に照準点16を表示することができる。
【0078】
これにより、位置検出システム2は、小型化された家庭用のゲーム装置50において、ゲームプレーヤ(ユーザ)の動きや実際の射撃動作を入力情報として使用し、例えばゲームのような仮想世界に現実世界の動作を反映させることを可能としている。また、位置検出システム2において、コントローラ型撮像装置60は、ゲーム装置50の入力装置のみならず、通常の撮像装置として使用することができる。
【0079】
位置検出システム2は、ゲーム制御部32における動き検出をコントローラ型撮像装置60の撮像制御部28において行うようにすることも可能である。この場合の撮像制御部28における処理を図12に示す。
【0080】
撮像制御部28は、常に撮像条件を監視・検出している。撮像制御部28は、ステップS41において、撮像条件が適正か否かの判別を行う。
【0081】
撮像制御部28は、ステップS41において撮像条件が適正でないと判断した場合、ステップS42に進み、絞り(Iris)、ズーム(Zoom)、フォーカス(Focus)を制御する撮像駆動部27と、TG部26と、AGC部23と信号処理部25とを直ちに制御して撮像条件を調整する。
【0082】
ステップS41において、撮像条件が適正であると判断された場合、ステップS43に進んで、動き検出の要求が出されたか否かの判別を行う。
【0083】
ステップS43において、動き検出の要求がなかった場合、ステップS41の工程を繰り返す。動き検出を行うことを要求された場合、ステップS44において、撮像制御部28は、撮像範囲17の画像を取得し、画像情報の中から識別子14を抽出する。
【0084】
撮像制御部28は、ステップS45において、抽出した識別子の画角に対する座標を記憶し、コントローラ型撮像装置60の表示部12に対する方向・角度と照準点16とを補正する後述するキャリブレーション動作の際に識別子の基準相対位置から位置予測を行い、不可視の識別子の位置を予測する。このとき図7に示す位置予測が行われる。
【0085】
撮像制御部28は、ステップS46おいて、予測によって補完した識別子含む複数の識別子の相対位置から照準点16の位置を検出する。
【0086】
撮像制御部28は、ステップS47において、検出した照準点16の位置をさらに動体予測によって補正し、ノイズを除去し、制御信号としてゲームの入力に反映させる。
【0087】
撮像制御部28は、ゲーム制御部32に対して、検出した照準点16の座標を出力する。
【0088】
以上のように、撮像制御部28において動き検出を行う場合は、ゲーム制御部32において動き検出を行う場合と比較して、I/F部51及び61を介して転送する処理にかかる遅延がないため、動き検出の動作がさらに高速化される。
【0089】
第2の実施の形態として示す位置検出システム2では、ベクトル演算を行うためのベクトル演算ユニットを設け、当該ベクトル演算ユニットにおいて上述の位置検出システム1及び2と同様の動き検出を行うようにしてもよい。このような位置検出システムを第3の実施の形態として図13に示す。
【0090】
第3の実施の形態として示す位置検出システム3は、ゲーム装置50にベクトル演算ユニット53を備えている。ベクトル演算ユニット53は、ゲーム等に特有の高速画像処理を行うためのベクトル演算専用のハードである。
【0091】
なお、図13に示す位置検出システム3では、ゲーム制御部32は、メインメモリ30、機械的I/F部31、ROM34、画像処理部35及びフレームメモリ36がバス37を介して接続されている構成となっているが、図13に示す位置検出システム3と、図9に示す位置検出システム2の基本的な構成は同じである。
【0092】
図13に示すゲームシステムにおいて、ベクトル演算ユニット53は、現フレームにて撮像したフレームと、メインメモリ30に記憶されている1つ前のフレームで撮影した画像とからベクトル場を計算する。続いて、ベクトル演算ユニット53は、このベクトル場から特徴点を抽出して、対応するベクトル場を追いかけることにより動き検出を行う。ゲーム制御部32は、ベクトル演算ユニット53による動き検出の結果を制御信号をとして扱い、入力情報に反映させている。
【0093】
ベクトル場による動き検出の概念について図14及び図15を用いて具体的に示す。
【0094】
ベクトル場の算出では、まず図14に示すように、濃度曲面を基準として現フレームと前フレームとの差分をとり濃度の変化を求める。その後、再び現フレームに対してその濃度の変化を乗算することにより、当該濃度曲面に関しての動きベクトル場を算出する。
【0095】
次に、図15を用いて濃度変化から動きベクトルを算出する手順の概要について説明する。ここで提案している動き検出の手法はオプティカルフローを応用した相関を用いて行うものである。まず、時間tが0から1に遷移するにあたり、濃度Qが位置Xに対してガウス分布し、t=0の時にその中心がX=1の位置にあり、t=1の時に中心がX=2の位置に移動するような濃度変化を想定してみる。本提案では、X=1,2,3という基本セルでの濃度遷移から動きを検出するため、その中間の位置では濃度がサンプルできないと仮定し、各基本セル毎に濃度遷移に対応した動きベクトルを出力することを目的としている。ここでは一例として、X=2の位置における動きベクトルVX を計算する。
【0096】
t=1の時のX=2の位置におけるX軸に正方向の動きに対する相関をC2,1とすると、それはサンプリングレートX=1刻みに対しての動きとの相関が最大にならなくてはならないため、t=0の時のX=1の位置での濃度Q1,0と、t=1の時のX=2の位置での濃度Q2,1との相関を中心に計算する必要がある。よって本提案では、C2,1=Q1,0×Q2,1としての相関を算出している。同様に、t=1の時のX=2の位置におけるX軸に負方向の動きに対する相関をC2,3とすると、それはC2,3=Q3,0×Q2,1として算出できる。最後にX=2の位置における動きベクトルVXを相関値C2,1−C2,3として計算することができる。
【0097】
一般にゲーム装置では、ベクトル演算に特化した演算処理装置をハードとして備えている。このようなベクトル演算ユニットは、ベクトル演算処理速度を高速化できるため、上記のようなベクトル演算に焼き直し易い相関の算出における動き検出が有効である。以上のようにして濃度変化から動きベクトルを算出している。
【0098】
続いて、このとき位置検出システム3におけるベクトル演算ユニット53が、動き検出する際の処理を図16を用いて説明するが、動き検出は、図16に示した一連の処理により実行されることに限定されるものではない。
【0099】
ゲーム装置50におけるゲーム制御部32は、ステップS51において、撮影画像が入力されたか否かを判別する。ゲーム制御部32は、撮影画像が入力されるまでこのステップS51における処理を繰り返し行う。
【0100】
撮像画像が入力されると、ゲーム制御部32は、ステップS52において、ベクトル演算ユニット53を用いて画素値の濃度曲面を算出する。
【0101】
ゲーム制御部32は、続くステップS53において、画像全体の動きを検出して統計処理することでぶれを抽出し補正する。
【0102】
ベクトル演算ユニット53は、ステップS54において、補正後の画像を格子状のブロックに分け、各々のブロック毎に動きベクトルを抽出することでベクトル場を算出する。
【0103】
ゲーム制御部32は、ステップS55において、連続した類似のベクトルをまとめることにより特徴物体を抽出する。
【0104】
続いてステップS56において、パターンマッチングと追跡判定を施すことにより特徴物体が識別子14であることを認識する。
【0105】
ゲーム制御部32は、ステップS57において、不可視の識別子がある場合、複数の可視識別子の基準相対位置から不可視の識別子の位置を予測し、これらの識別子の相対位置から照準点16の位置を検出する。
【0106】
ゲーム制御部32は、ステップS58において、検出された照準点16の位置を制御信号に変換して、ゲームへの入力情報として反映させる。
【0107】
以上示したように、ベクトル演算ユニット53を備えた位置検出システム3によれば、色・紋様等に頼っていた特徴点の抽出処理がより高精度でリアルタイム制を向上した動き検出が可能になる。
【0108】
ここで、上述した非同期のシャッタにより任意のタイミングで撮像を行う機能と、撮像のための同期信号の一周期内において複数の撮像を行う多重露光撮影により撮像を行う機能とを説明する。以下に、本発明が先行関連技術として利用した特開平9-247556号公報(発明の名称「個体撮像部を備えた撮像装置」)について説明する。この先行関連技術では、発明を撮像装置に適用している。
【0109】
撮像装置は、例えば図17に示すように、光電変換を行う多数の受光素子部が多数の並行列を形成して配列形成されるとともに、各受光素子部で得られた電荷を転送するCCDにより形成された電荷転送領域が設けられて成る受光・電荷転送部を有するものとされた固体撮像部111が備えられている。また、固体撮像部111の前方には、絞り機構112、レンズ・システム113等を含んで構成される光学系が配されており、この光学系は、固体撮像部111が有する受光・電荷転送部に外光を入射させて被写体像を投影する。
【0110】
受光・電荷転送部は、図18に示すように、半導体基体115上に、各々が個々の画素を構成する多数の受光素子部116が、多数の水平方向(矢印hの方向)に伸びる並行列(画素水平列)を形成するものとされて配列配置されている。
多数の画素水平列のそれぞれを形成する受光素子部116は、また、多数の垂直方向(矢印vの方向)に伸びる並行列(画素垂直列)をも形成しており、このような受光素子部116が形成する各画素垂直列に沿って、CCD群により形成された垂直電荷転送部117が配されている。各垂直電荷転送部117は、例えば、2相の垂直転送駆動信号φV1及びφV2により駆動されて電荷転送動作を行う。そして、各画素垂直列を形成する複数の受光素子部116それぞれとその垂直列に対応する垂直電荷転送部117との間には、電荷読出ゲート部118が設けられている。
【0111】
また、各受光素子部116の周囲には、図19に示すように、チャンネル・ストッパー部119及びオーバーフロー制御部120が形成されている。さらに、オーバーフロー制御部120に隣接してドレイン部121が配され、このドレイン部121と隣の垂直電荷転送部117との間が、チャンネル・ストッパー部122によって区別されている。
【0112】
上述の各部の上には絶縁層が配されており、その絶縁層を介して、垂直電荷転送部117上に水平方向に伸びる垂直転送電極E1及びE2が垂直方向に交互に配されている。垂直転送電極E1は、蓄積部電極E1cと転送部電極E1tとで構成され、また、垂直転送電極E2が、蓄積部電極E2cと転送部電極E2tとで構成されている。そして、垂直転送電極E1及びE2に垂直転送駆動信号φV1及びφV2がそれぞれ供給される。
【0113】
また、電荷読出ゲート部118上には、垂直方向に伸びる読出ゲート電極EGが配され、さらに、オーバーフロー制御部120上には、同じく垂直方向に伸びるオーバーフローゲート電極EDが配されている。これらの読出ゲート電極EG及びオーバーフローゲート電極EDには、読出ゲート制御信号SG及びオーバーフローゲート制御信号SDがそれぞれ供給される。そして、受光素子部116上を残して他の各部の上には、遮光層が配されている。
【0114】
複数の垂直電荷転送部117のそれぞれの一端部側は、半導体基体115の端縁部において、CCD群により形成されて水平方向に伸びるものとされた水平電荷転送部123に連結されている。水平電荷転送部123は、例えば、2相の水平転送駆動信号φH1及びφH2により駆動されて電荷転送動作を行う。そして、水平電荷転送部123の一端には出力部24が設けられており、出力部124からは出力端子125が導出されている。
【0115】
また、半導体基体115における複数の垂直電荷転送部117それぞれの他端部側には、水平方向に伸びる電荷吸収部126が設けられている。
【0116】
このような図18及び図19に示される受光・電荷転送部を有した固体撮像部111において静止画撮像動作が行われる際には、受光・電荷転送部についての所定の受光期間が設定され、その受光期間において、レンズ・システム113、絞り機構112等を含む光学系を通じて受光・電荷転送部に入射する撮像対象からの光を受けた多数の受光素子部116のそれぞれが、光電変換を行って受光に応じた電荷を蓄積する。その後、複数の電荷読出ゲート部118が、それに供給される駆動信号形成部130からの読出ゲート制御信号SGに応じて、対応する受光素子部116に蓄積された電荷を対応する垂直電荷転送部117へと読み出す。
【0117】
続いて、各垂直電荷転送部117に読み出された電荷が、駆動信号形成部130から信号電荷転送駆動信号STとして固体撮像部111における垂直転送電極E1及びE2にそれぞれ供給される2相の垂直転送駆動信号φV1及びφV2によって駆動される各垂直電荷転送部117の電荷転送動作により、各画素水平列を形成する複数の受光素子部116により得られた分宛、順次、信号電荷として水平電荷転送部123に向けて転送されていく。水平電荷転送部123においては、駆動信号形成部130から信号電荷転送駆動信号STとして供給される2相の水平転送駆動信号φH1及びφH2によって駆動されることにより行われる電荷転送動作により信号電荷として転送される、1画素水平列を形成する複数の受光素子部116で得られた分の電荷が、出力部124へと供給される。出力部124においては、水平電荷転送部123により転送されてくる電荷が順次信号化されて出力端子125に導出され、出力端子125に、複数の受光素子部116に蓄積された電荷に基づく、撮像対象に応じた撮像出力信号IPが得られる。
【0118】
斯かる場合、受光・電荷転送部における全画素水平列のそれぞれを形成する複数の受光素子部116で得られた電荷についての1画素水平列分宛の、各垂直電荷転送部117による水平電荷転送部123への転送は、各フレーム期間内において終了し、また、水平電荷転送部123に転送される1画素水平列を形成する複数の受光素子部116で得られた分の電荷についての、水平電荷転送部123による出力部124への供給は、各ライン期間内において終了するものとされるように、信号電荷転送駆動信号STとされる2相の垂直転送駆動信号φV1及びφV2及び2相の水平転送駆動信号φH1及びφH2のそれぞれが設定される。
それゆえ、出力端子125に導出される撮像出力信号IPは、ライン期間分を単位とするものが連なって形成されるフレーム期間分が繰り返されるものとされることになる。
【0119】
駆動信号形成部130は、タイミング信号発生部131からの電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが供給され、電荷読出タイミング信号TGに応じて形成した読出ゲート制御信号SGを送出し、また、信号電荷転送タイミング信号TTに応じて形成した2相の垂直転送駆動信号φV1及びφV2及び2相の水平転送駆動信号φH1及びφH2を信号電荷転送信号STとして送出する状態と、電荷掃出し転送タイミング信号TSに応じて形成した2相の垂直転送駆動信号φV2及びφV1及び2相の水平転送駆動信号φH2及びφH1を掃出し転送駆動信号SSとして送出する状態とを選択的にとり、さらに、電荷排出タイミング信号TDに応じて形成したオーバーフローゲート制御信号SDを送出する。
【0120】
タイミング信号発生部131は、同期信号発生部132からのフレーム同期信号SF及びライン同期信号SHが供給され、さらに、動作制御部を形成する制御ユニット133からの受光期間信号SE、非同期ノーマル受光モード設定信号SN、非同期シャッタ待モード設定信号SWS、同期復帰指令信号SR及び多重露光モード設定信号SMMも供給される。
【0121】
そして、タイミング信号発生部131にあっては、制御ユニット133からの受光期間信号SE、非同期ノーマル受光モード設定信号SN、非同期シャッタ待モード設定信号SWS、同期復帰指令信号SR及び多重露光モード設定信号SMMの状態に応じて、フレーム同期信号SF及びライン同期信号SHにそれぞれ同期したもの、すなわち、フレーム同期信号SF及びライン同期信号SHとそれぞれ同位相のものもしくはフレーム同期信号SFとの間及びライン同期信号SHとの間にそれぞれ一定の位相差を有したものとされる内部フレーム同期信号SFO及び内部ライン同期信号SHOを発生する状態と、フレーム同期信号SF及びライン同期信号SHに対して非同期とされた内部フレーム同期信号SFO及び内部ライン同期信号SHOを発生する状態とが選択的にとられる。
【0122】
さらに、駆動信号形成部130は、タイミング信号発生部131においてフレーム同期信号SF及びライン同期信号SHにそれぞれ同期したものとされる内部フレーム同期信号SFO及び内部ライン同期信号SHOが得られるもとで、それらの内部フレーム同期信号SFO及び内部ライン同期信号SHOに基づいて形成された電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが供給され、電荷読出タイミング信号TGに応じて形成した読出ゲート制御信号SGを送出する動作状態、及び、タイミング信号発生部131においてフレーム同期信号SF及びライン同期信号SHに対して非同期とされる内部フレーム同期信号SFO及び内部ライン同期信号SHOが得られるもとで、それらの内部フレーム同期信号SFO及び内部ライン同期信号SHOに基づいて形成された電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが供給され、電荷読出タイミング信号TGに応じて形成した読出ゲート制御信号SGを送出する動作状態を選択的にとる。
【0123】
同期信号発生部132からのフレーム同期信号SF及びライン同期信号SH、及び、タイミング信号発生部131において形成される内部フレーム同期信号SFO及び内部ライン同期信号SHOは、制御ユニット133にも供給され、また、タイミング信号発生部131において得られる電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDも制御ユニット133に供給される。さらに、動作制御部を形成する制御ユニット133には、動作モード指定信号SMが端子134を通じて、シャッタ速度指定信号SSVが端子135を通じて、及び、装置に撮像動作を行わせるための操作であるシャッタ操作に応じて発せられる、受光指令信号であるシャッタ信号SSHが端子136を通じてそれぞれ供給される。
【0124】
図18に示される固体撮像部111の受光・電荷転送部における出力端子125に得られる撮像出力信号IPは、図17に示される如くに、自動利得制御(AGC)増幅部140により増幅されてサンプリング・ホールド部141に供給される。サンプリング・ホールド部141においては、撮像出力信号IPに対する所定の短周期毎のレベル・サンプリング及びサンプル・レベル保持が行われて、サンプリング・ホールド出力信号SIが得られ、それがアナログ/ディジタル(A/D)変換部142に供給される。A/D変換部142においては、サンプリング・ホールド出力信号SIに基づいての撮像出力信号IPのディジタル化が図られ、A/D変換部142から、撮像出力信号IPに対応するディジタル撮像信号DIが得られて、それが撮像信号ディジタル処理部143に供給される。
【0125】
なお、図2に示した位置検出システム1のコントローラ型撮像装置11では、S/H部22から出力された信号がAGC部23において処理されており、前述の撮像装置の信号処理手順と異なっているが、位置検出システム1のコントローラ型撮像装置11は、前述の撮像装置のように、AGC増幅部140において処理された信号をサンプルホールド部(S/H部)141において処理するようにしてもよい。
【0126】
撮像信号ディジタル処理部143と制御ユニット133との相互間においては、制御データDCC及び制御データDCDの遣り取りが行われ、撮像信号ディジタル処理部143においては、制御データDCC及び制御データDCDの遣り取りに応じて、撮像出力信号IPに対する各種のディジタル処理が施される。その結果、撮像信号ディジタル処理部143から出力端子144に、ディジタル撮像出力信号DIOが導出される。
【0127】
このようなもとで、静止画撮像動作が行われる際には、制御ユニット133に、選択されるべき動作モードを指定する動作モード指定信号SMが端子134を通じて供給されるとともに、選択されるべきシャッタ速度を指定するシャッタ速度指定信号SSVが供給される。動作モード指定信号SMにより指定される動作モードは、例えば、非同期ノーマル受光モード、非同期シャッタ待受光モード、多重露光モード等とされる。以下、各モードにおける撮像装置の処理について説明する。
【0128】
動作モード指定信号SMが指定する動作モードが非同期ノーマル受光モードであるときには、制御ユニット33は、非同期ノーマル受光モード設定信号SNをタイミング信号発生部131に供給する。タイミング信号発生部131は、非同期ノーマル受光モード設定信号SNに応じて、図20における時点ta前の期間において見られる如くに、図20のAに示される同期信号発生部132からのフレーム同期信号SFとの間に一定の位相差を有した図20のDに示される内部フレーム同期信号SFOに基づく、図20のEに示される如くのタイミング信号SXOが形成される。
【0129】
また、このとき、タイミング信号発生部131から内部フレーム同期信号SFOに応じた電荷読出タイミング信号TG、信号電荷転送タイミング信号TT、電荷掃出し転送タイミング信号TS及び電荷排出タイミング信号TDが送出されることにより、駆動信号形成部130から、図20における時点ta前の期間において見られる如くに、内部フレーム同期信号SFOに同期した、図20のFに示される如くの読出ゲート制御信号SG及び図20のGに示される如くの掃出し転送駆動信号SSが送出される。図20における時点ta前の期間においては、図20のJに示される如く、フレーム同期信号SFに同期したSF同期モードがとられていることになる。
【0130】
斯かるもとで、図20における時点taにおいてシャッタ操作が行われると、図20のBに示される如くの、受光指令信号であるシャッタ信号SSHが、端子136を通じて制御ユニット133に供給される。
【0131】
制御ユニット133は、シャッタ信号SSHの前縁に応じて、図20のCに示される如くの受光期間信号SEをタイミング信号発生部131に供給する。このときタイミング信号発生部131は、図20のC及びDに示される如く、受光期間信号SEの前縁により内部フレーム同期信号SFOの形成にリセットをかけて、内部フレーム同期信号SFOをフレーム同期信号SFと非同期なものとするとともに、タイミング信号SXOの形成を中断し、また、受光期間信号SEの前縁に応じた電荷読出タイミング信号TG及び電荷排出タイミング信号TDを送出する。
【0132】
そして、駆動信号形成部130から、図20のF及びGに示される如くに、受光期間信号SEの前縁に応じた読出ゲート制御信号SG及び掃出し転送駆動信号SSが、固体撮像部111の受光・電荷転送部へと送出される。それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて開状態をとり、各受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを行うとともに、各垂直電荷転送部117が、掃出し転送駆動信号SSに応じて、開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、半導体基体115における水平電荷転送部123とは反対側に設けられた電荷吸収部126へと転送する電荷掃出し動作を行う。電荷掃出しにより転送された電荷は電荷吸収部126において吸収される。このような電荷掃出し動作が行われる電荷掃出期間は、例えば、27ライン期間程度とされる。
【0133】
そして、受光期間信号SEの前縁において、電荷掃出期間を含む固体撮像部111の受光・電荷転送部についての受光期間が開始され、図20のJに示される如くに、SF同期モードから自走モードに移行することになる。受光期間にあっては、図20のDに示される如く、受光期間信号SEの前縁においてリセットされ、フレーム同期信号SFと非同期なものとされた内部フレーム同期信号SFOが得られるが、タイミング信号SXOは得られない。それにより、受光期間においては、読出ゲート制御信号SGも受光期間信号SEの前縁に応じて得られた以降においては得られず、電荷掃出期間の始めの短期間を除いて電荷読出ゲート部118が閉状態に維持されて、多数の受光素子部116に受光による電荷の蓄積が図20のIに示される如くになされる。
【0134】
図21は、制御ユニット133に供給されるシャッタ信号SSHと内部ライン同期信号SHO、受光期間信号SE、読出ゲート制御信号SG及び掃出し転送駆動信号SSとの詳細なタイミング関係を拡大して示す。図21に示されるタイミング関係にあっては、時点taにおいてシャッタ信号SSHの前縁が到来すると、その後の最初の内部ライン同期信号SHOの前縁の時点において、受光期間信号SEの前縁が得られる。そして、受光期間信号SEの前縁の時点において、読出ゲート制御信号SGの前縁及び掃出し転送駆動信号SSの前縁が得られ、SF同期モードから自走モードに移行する。すなわち、受光期間信号SEの前縁はシャッタ信号SSHの前縁より僅か(最大で略1ライン期間)に遅れることになる。
【0135】
その後、図20に示される如く、時点tbにおいて、制御ユニット133からタイミング信号発生部131に供給される受光期間信号SEの後縁が到来すると、タイミング信号発生部131においては、図20のD及びEに示される如く、受光期間信号SEの後縁に応じて内部フレーム同期信号SFOが得られるとともに、その内部フレーム同期信号SFOの前縁応じてタイミング信号SXOが得られる。受光期間信号SEの後縁の時点tbは、制御ユニット133により、それに供給されるシャッタ速度指定信号SSVが指定するシャッタ速度に応じて設定される。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び信号電荷転送タイミング信号TTを送出する。それにより、駆動信号形成部130から、図20のF及びHに示される如く、受光期間信号SEの後縁に応じた前縁を有する読出ゲート制御信号SG及び受光期間信号SEの後縁に応じた前縁を有する信号電荷転送駆動信号STが、固体撮像部111の受光・電荷転送部に送出されて受光期間が終了する。
【0136】
それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて開状態をとり、図20のIに示される如くに、多数の受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを行うとともに、各垂直電荷転送部117が、信号電荷転送駆動信号STに応じて、開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、信号電荷として半導体基体115における水平電荷転送部123へと転送する電荷転送動作が行われる。そして、さらに、水平電荷転送部123が、信号電荷転送駆動信号STに応じて、各垂直電荷転送部117により転送された電荷を、信号電荷として出力部124へと転送する電荷転送動作が行われる。出力部124に転送された電荷は出力部124において撮像出力信号IPに変換され、撮像出力信号IPが出力端子125に導出される。
【0137】
このような各垂直電荷転送部117及び水平電荷転送部123による電荷転送動作が行われる電荷転送期間は、その後にタイミング信号発生部31において、図20のD及びEに示される如く、内部フレーム同期信号SFOが得られ、その内部フレーム同期信号SFOの前縁に応じてタイミング信号SXOが得られる時点tcにおいて、信号電荷転送駆動信号STの後縁が到来して終了する。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び信号電荷転送タイミング信号TTを送出し、それにより、駆動信号形成部130から、図20のF及びGに示される如く、信号電荷転送駆動信号STの後縁に応じた前縁を有する読出ゲート制御信号SG及び信号電荷転送駆動信号STの後縁に応じた前縁を有する掃出し転送駆動信号SSが、固体撮像部111の受光・電荷転送部に送出されて電荷掃出し動作が行われる。
【0138】
その後、時点tdにおいて、図20のDに示される如くに、タイミング信号発生部131において得られる内部フレーム同期信号SFOが、再び、フレーム同期信号SFとの間に一定の位相差を有するものとされて、図20のJに示される如くに、自走モードからSF同期モードに戻ることになる。
【0139】
このように、非同期ノーマル受光モードのもとでの静止画撮像動作が行われる場合には、シャッタ操作が行われると、そのシャッタ操作の時点から最大で略1ライン期間とされる僅かに遅れた時点において、固体撮像部111の受光・電荷転送部についての受光期間が開始され、その開始から電荷掃出し動作が終了する、例えば、27ライン期間後には、受光・電荷転送部における多数の受光素子部116に有効な電荷蓄積が行われる受光状態が得られることになる。従って、シャッタ操作がなされた際における受光応答動作の迅速性が大幅に改善される。
【0140】
次に、非同期シャッタ待受光モードについて説明する。動作モード指定信号SMが指定する動作モードが非同期シャッタ待受光モードであるときに、制御ユニット133は、非同期シャッタ待モード設定信号SWSをタイミング信号発生部131に供給する。タイミング信号発生部131は、非同期シャッタ待モード設定信号SWSに応じて、図22における時点te前の期間において見られる如くに、図22のAに示される同期信号発生部132からのフレーム同期信号SFとの間に一定の位相差を有した図22のDに示される内部フレーム同期信号SFOが得られているもとで、時点te以降、タイミング信号SXOの形成を停止するとともに、時点te後の最初の内部フレーム同期信号SFOの前縁に応じて、電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSの継続的送出を開始する。それにより、図22のBに示される如く、時点teにおいて、ノーマル受光状態からシャッタ待状態への移行が行われる。
【0141】
タイミング信号発生部131からの電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSの継続的送出の開始により、駆動信号形成部130から、図22のG及びHに示される如く、時点te後の最初の内部フレーム同期信号SFOの前縁に応じて、読出ゲート制御信号SG及び掃出し転送駆動信号SSが継続的に固体撮像部111の受光・電荷転送部に送出される状態とされる。それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて継続的に開状態をとり、各受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを継続的に行うとともに、各垂直電荷転送部117が、掃出し転送駆動信号SSに応じて、継続的に開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、半導体基体115における水平電荷転送部123とは反対側に設けられた電荷吸収部126へと継続的に転送する電荷掃出し動作を行う。電荷掃出しにより転送された電荷は電荷吸収部126において吸収される。このような継続的な電荷掃出し動作が行われる電荷掃出期間においては、図22のJに示される如く、固体撮像部111の受光・電荷転送部における電荷の蓄積はなされない。
【0142】
そして、固体撮像部111の受光・電荷転送部において電荷掃出し動作が継続的に行われているもとで、図22における時点tfにおいてシャッタ操作が行われると、図22のCに示される如くのシャッタ信号SSHが端子136を通じて制御ユニット133に供給される。制御ユニット133は、シャッタ信号SSHの前縁に応じて、図22のFに示される如くの受光期間信号SEをタイミング信号発生部131に供給する。このときタイミング信号発生部131は、図22のD及びEに示される如く、受光期間信号SEの前縁により内部フレーム同期信号SFOの形成にリセットをかけて、内部フレーム同期信号SFOをフレーム同期信号SFと非同期なものとするとともに、タイミング信号SXOの形成を中断し、また、電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSの継続的送出を終了する。
【0143】
それにより、駆動信号形成部130が、図22のG及びHに示される如く、受光期間信号SEの前縁に応じて読出ゲート制御信号SG及び掃出し転送駆動信号SSの継続的送出を停止する。そして、図22のFに示される如く、受光期間信号SEの前縁において、電荷掃出期間を含むことなく、固体撮像部111の受光・電荷転送部についての受光期間が開始され、図22のBに示される如くに、シャッタ待状態からノーマル受光状態への移行が行われる。
【0144】
受光期間にあっては、図22のDに示される如く、受光期間信号SEの前縁においてリセットされ、フレーム同期信号SFと非同期なものとされた内部フレーム同期信号SFOが得られるが、タイミング信号SXOは得られない。それにより、受光期間においては、読出ゲート制御信号SGも得られず、電荷読出ゲート部118が閉状態に維持されて、多数の受光素子部116に受光による電荷の蓄積が図22のJに示される如くになされる。
【0145】
その後、時点tgにおいて制御ユニット133からタイミング信号発生部131に供給される受光期間信号SEの後縁が到来すると、タイミング信号発生部131においては、図22のD及びEに示される如く、受光期間信号SEの後縁に応じて内部フレーム同期信号SFOが得られるとともに、その内部フレーム同期信号SFOの前縁応じてタイミング信号SXOが得られる。受光期間信号SEの後縁の時点tfは、制御ユニット133により、それに供給されるシャッタ速度指定信号SSVが指定するシャッタ速度に応じて設定される。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び信号電荷転送タイミング信号TTを送出する。それにより、駆動信号形成部130から、図22のG及びIに示される如く、受光期間信号SEの後縁に応じた前縁を有する読出ゲート制御信号SG及び受光期間信号SEの後縁に応じた前縁を有する信号電荷転送駆動信号STが、固体撮像部111の受光・電荷転送部に送出されて受光期間が終了する。
【0146】
それにより、固体撮像部111の受光・電荷転送部において、各電荷読出ゲート部118が、読出ゲート制御信号SGに応じて開状態をとり、図22のJに示される如くに、多数の受光素子部116における電荷を各垂直電荷転送部117へ読み出す電荷読出しを行うとともに、各垂直電荷転送部117が、信号電荷転送駆動信号STに応じて、開状態をとる電荷読出ゲート部118を通じて読み出された電荷を、信号電荷として半導体基体115における水平電荷転送部123へと転送する電荷転送動作が行われる。そして、さらに、水平電荷転送部123が、信号電荷転送駆動信号STに応じて、各垂直電荷転送部117により転送された電荷を、信号電荷として出力部124へと転送する電荷転送動作が行われる。出力部124に転送された電荷は出力部124において撮像出力信号IPに変換され、撮像出力信号IPが出力端子125に導出される。
【0147】
このような各垂直電荷転送部117及び水平電荷転送部123による電荷転送動作が行われる電荷転送期間は、その後にタイミング信号発生部131において、図22のD及びEに示される如く、内部フレーム同期信号SFOが得られ、その内部フレーム同期信号SFOの前縁に応じてタイミング信号SXOが得られる時点thにおいて、信号電荷転送駆動信号STの後縁が到来して終了する。そして、タイミング信号発生部131は、タイミング信号SXOに応じて、電荷読出タイミング信号TG及び電荷掃出し転送タイミング信号TSを送出し、それにより、駆動信号形成部130から、図22のG及びHに示される如く、信号電荷転送駆動信号STの後縁に応じた前縁を有する読出ゲート制御信号SG及び信号電荷転送駆動信号STの後縁に応じた前縁を有する掃出し電荷転送駆動信号SSが、固体撮像部111の受光・電荷転送部に送出されて電荷掃出し動作が行われる。
【0148】
その後、時点tiにおいて、制御ユニット133からタイミング信号発生部31に同期復帰指令信号SRが送出され、それにより、図22のDに示される如くに、タイミング信号発生部131において得られる内部フレーム同期信号SFOが、再び、フレーム同期信号SFとの間に一定の位相差を有するものとされて、SF同期が復活される。
【0149】
このように、非同期シャッタ待受光モードのもとでの静止画撮像動作が行われる場合には、予めシャッタ待状態がとられて固体撮像部111の受光・電荷転送部において電荷掃出し動作が継続的に行われているもとで、シャッタ操作が行われると、そのシャッタ操作の時点まで行われていた継続的な電荷掃出し動作が終了せしめられて、ただちに、固体撮像部111の受光・電荷転送部についての受光期間が開始され、受光・電荷転送部における多数の受光素子部116に有効な電荷蓄積が行われる受光状態が得られることになる。従って、シャッタ操作がなされた際において、極めて迅速な受光応答動作が行われることになる。
【0150】
次に、多重露光モードについて説明する。動作モード指定信号SMが指定する動作モードが多重露光モードであるときに、制御ユニット133は、多重露光モード設定信号SMMをタイミング信号発生部131に供給する。タイミング信号発生部131は、多重露光モード設定信号SMMに応じて、図23のAに示される同期信号発生部132からのフレーム同期信号SFに対して内部フレーム同期信号SFOを発生するとともに、図23のCに示される如く、内部フレーム同期信号SFOについての3周期分を単位期間として、各単位期間内においてその開始時点から所定数、例えば、7個のタイミング信号SXOを一定の周期をもって発生する。
【0151】
また、タイミング信号発生部131は、内部フレーム同期信号SFOについての3周期分の各単位期間において、所定数のタイミング信号SXOのそれぞれの前縁に応じた電荷読出タイミング信号TGを送出するとともに、所定数のタイミング信号SXOの最後のものの後縁の時点から単位期間の終了時点までの期間において、電荷排出タイミング信号TDを継続的に送出し、さらに、内部フレーム同期信号SFOについての3周期分の各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間に、信号電荷転送タイミング信号TTを送出する。
【0152】
それにより、駆動信号形成部130が、電荷読出タイミング信号TGに応じて、図23のDに示される如くの、内部フレーム同期信号SFOについての3周期分とされる各単位期間内における所定数、例えば、7個の読出ゲート制御信号SGを、固体撮像部111の受光・電荷転送部に送出するとともに、電荷排出タイミング信号TDに応じて、図23のEに示される如くの、内部フレーム同期信号SFOについての3周期分とされる各単位期間内における所定数の読出ゲート制御信号SGの最後のものの後縁の時点から単位期間の終了時点までの期間中継続するオーバーフローゲート制御信号SDを固体撮像部111の受光・電荷転送部に送出する。さらに、駆動信号形成部130は、信号電荷転送タイミング信号TTに応じて、図23のGに示される如く、内部フレーム同期信号SFOについての3周期分とされる各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間に、信号電荷転送駆動信号STを固体撮像部111の受光・電荷転送部に送出する。
【0153】
その結果、固体撮像部111の受光・電荷転送部において、内部フレーム同期信号SFOについての3周期分とされる各単位期間中において、所定数、例えば、7個の読出ゲート制御信号SGの相互間が受光・電荷転送部についての分断受光期間とされることになり、図23のFに示される如くに、分断受光期間それぞれにおいて、受光・電荷転送部における多数の受光素子部116に受光による電荷の蓄積がなされる。そして、各分断受光期間により得られた電荷は、その期間に続く期間に読出ゲート制御信号SGが供給されて開状態とされる各電荷読出ゲート部18により各垂直電荷転送部117へと順次読み出される。
【0154】
このようにして、内部フレーム同期信号SFOについての3周期分とされる各単位期間中に、受光・電荷転送部における多数の受光素子部116から各電荷読出ゲート部118を通じて各垂直電荷転送部117に断続的に読み出される電荷は、各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間が到来するまでは、各垂直電荷転送部117において重畳蓄積される。
それにより、実質的に、内部フレーム同期信号SFOについての3周期分とされる各単位期間中において、受光・電荷転送部における多数の受光素子部116に対しての多重露光が行われることになる。
【0155】
そして、各単位期間中における最終の内部フレーム同期信号SFOについての1周期分の期間が到来すると、各垂直電荷転送部117において重畳蓄積された電荷は、固体撮像部111の受光・電荷転送部に信号電荷転送駆動信号STが供給されることにより、信号電荷として各垂直電荷転送部117から水平電荷転送部123へ、さらに、水平電荷転送部123から出力部124へと転送される。
そして、出力部124に転送された電荷は、出力部124において撮像出力信号IPに変換され、出力端子125に撮像出力信号IPが導出される。
【0156】
このように各垂直電荷転送部117において重畳蓄積された電荷が信号電荷として転送される期間において、固体撮像部111の受光・電荷転送部における多数の受光素子部116に受光によって得られる電荷は、そのとき受光・電荷転送部に設けられたオーバーフローゲート電極EDにオーバーフローゲート制御信号SDが継続的に供給されることにより開状態とされるオーバーフロー制御部120を通じて、ドレイン部121に排出される。従って、各単位期間中における受光・電荷転送部についての分断受光期間の開始時にあっては、受光・電荷転送部における多数の受光素子部116に、その分断受光期間に先立つ受光による不要な電荷が蓄積されていることになる事態は生じない。
【0157】
このようにして、多重露光モードのもとでの静止画撮像動作が行われる場合には、比較的簡単な構成及び動作制御にもとに、実質的に、内部フレーム同期信号SFOについての3周期分とされる各単位期間中において、受光・電荷転送部における多数の受光素子部116に対しての多重露光が行われて得られる信号電荷に基づく撮像出力信号IPが得られることになる。
【0158】
このような先行関連技術に基づく多重露光撮影及び非同期シャッタを本発明に適用した場合について考える。
【0159】
多重露光撮影された画像には、多重露光の回数(N)に応じた枚数の画像が重ねて表示されていることになる。例えばN=2の多重露光撮影が為された画像の場合、図24に示すような画像201と画像202として示す2枚分の画像が1枚の画像203の中に重ねて表示された画像となる。
【0160】
この場合、画像203の中には、時間経過とともに位置が変化していく複数の識別子が表示されている。ここでは多重露光の回数がN=2である場合について考えているため、時系列で考えて、2倍精密な照準点の位置検出が可能となる。
1つの画像に表示される複数の識別子間の時間的な前後関係は、記憶した過去の照準点の位置変化が連続になっていることを手掛かりとして類推される。
【0161】
ここでは、ベクトル演算処理に対応した多重露光機能を持ったTG(Timing Generator)を使用することにより、N=2の多重露光撮影を行えば、従来と同等のサンプリングレートが期待できる。さらに、N=4とすれば、従来の倍のサンプリングレートが期待でき、より細かなタイミングで位置検出が実現できる。また、このときの画像の転送レートは、サンプリングレートのN分の1で良いため、本発明に係る位置検出システムに適用した場合、転送レートを稼ぐことが可能となり、より効率の良い位置検出システムが構築できる。
【0162】
例えば、USBVer.1.1に準拠した高速モード12MHzで転送しても、OVGA16bitの色数で30fpsの画像を転送するのが限界だったが、これをN=4で多重露光することにより、例えば図16に示すステップS25における連続した類似ベクトルをまとめることによって物体を抽出する工程までは30fpsの時と変わらないCPUパワーで120fpsに相当するサンプリングレートによって、より高精度な位置検出を実現することができる。
【0163】
次に、非同期シャッタにより任意のタイミングで撮像する場合について考える。図25(A)は、従来の固定されたタイミングにより撮像する場合を示し、図25(B)は、本発明が適用されたゲーム装置が任意のタイミングで撮像する場合を示している。
【0164】
従来では、図25(A)に示すように、前の画像210と後の画像211とは1/30秒間隔で固定のタイミングにより撮像され、最初の撮像から1/30秒までの間の任意のタイミングでの撮像することは不可能であった。
【0165】
本発明にかかる位置検出システムに、図20及び図22を用いて説明した非同期による撮像技術を利用することにより、図25(B)に示すように、画像212を任意のタイミングで得ることができる。
【0166】
なお、任意のタイミングにより得た画像の直前の画像(本来の固定のタイミングにより撮像された画像)213は、掃き捨てられるため読めない。しかし、任意のタイミングにより得た画像212の後の画像214は、通常の撮像タイミングとして、1/30秒のCCDの読み取りタイミングに合わせて読み取られる。
【0167】
従来の撮像装置を使用した場合、1/30秒等のCCDの読み出しタイミングで得た画像からしか特徴点の位置検出ができなかった。また、上述したように、多重露光撮影により撮像した場合でも、1/30秒等のCCDの読み出しタイミングをN=4程度までの小さな整数で時分割したタイミングで得た画像からしか位置検出ができなかった。一方、本発明にかかる位置検出システムは、任意のタイミングで画像を撮像し、任意のタイミングで特徴点の位置を測定できるため、補間により特徴点の位置を類推する場合に比べ、より高精度の動き検出が可能となる。
【0168】
このように本発明に係る位置検出システムは、多重露光撮影及び非同期シャッタによる撮影を適用することによって、さらに、第4の実施の形態及び第5の実施の形態として以下に示す位置検出を可能とする。
【0169】
本発明の第4の実施の形態として示す位置検出システム4は、表示装置に識別子を表示し、この識別子を含む表示画像を操作入力装置としての撮像装置で撮影し、撮影した画像を解析手段において解析することによって、表示装置と撮像装置との位置関係、並びに撮像装置の表示装置に対する向き等を非接触により検出する位置検出システムであって、例えば表示装置に表示される画像の所定位置或いは所定の画像に対して、操作入力装置としての撮像装置を対向して選択動作を行うことで操作入力を行うことを可能としたことに加え、多重露光撮影によって選択動作を連続して行うことを可能にしたユーザインターフェイスである。
【0170】
位置検出システム4は、図26に示すように、表示部73とスピーカ74とを有したゲーム筐体70と、銃を模した銃型撮像装置71と、盾を模した盾型撮像装置72とを備える。
【0171】
表示部73には、ゲームの内容であるアニメーション画像等が出力され、スピーカ74からは、表示部73に表示される画像に合わせて、効果音や音楽等が再生される。図26に示す位置検出システム4において、表示部73には、詳細は図示しないが背景画像と、識別子75と、照準点76と、照準点77とが表示されている。
【0172】
このように、当該位置検出システム4は、例えば、ユーザ1000が銃を模した操作入力装置としての銃型撮像装置71を用いて表示部73に表示される射撃対象に向かって照準点76を定めて射撃をし、かつ盾を模した操作入力装置としての盾型撮像装置72を用いて盾としての照準点77を定めて飛来物を防御するようなゲーム装置を構成している。
【0173】
銃型撮像装置71は、撮像素子としてCCD(Charge Coupled Device)を備えた撮像カメラであり、ユーザ1000によってゲーム筐体70の表示部73に対向されるとき、表示部73に表示される画像を含めた周辺の環境を撮像し、この撮像範囲78の画像をゲーム筐体70に送信している。このとき、銃型撮像装置71が捕らえた撮像範囲78の中心が照準点76として表示部73上の対応箇所に表示される。
【0174】
また、盾型撮像装置72は、同じくCCDを備えた撮像カメラであり、ユーザによって表示部73に対向されるとき、表示部73に表示される画像を含めた周辺の環境を撮像し、この撮像範囲79の画像をゲーム筐体70に送信している。
このとき撮像範囲79の中心の所定領域が照準点77として表示部73の対応箇所に表示される。
【0175】
位置検出システム4は、第1の実施の形態の位置検出システム1と同様の処理を行うことから、具体的な回路構成は、第1の実施の形態の位置検出システム1と共通の構成要素とすることができるため詳細な説明は省略する。
【0176】
なお、当然のことながら、第1の実施の形態の位置検出システム1と共通の構成部分であっても、第4の実施の形態の位置検出システム4に適応するように適宜変更を加えることができることはいうまでもない。
【0177】
照準点を表示する処理は、上述した位置検出システム1乃至3と同じであるため省略する。
【0178】
また、本発明の第5の実施の形態として示す位置検出システム5は、表示装置に識別子を表示し、この識別子を含む表示画像を操作入力装置としての撮像装置で撮影し、撮影した画像を解析手段において解析することによって、表示装置と撮像装置との位置関係、並びに撮像装置の表示装置に対する向き等を非接触により検出する位置検出システムであって、例えば表示装置に表示される画像の所定位置或いは所定の画像に対して操作入力装置としての撮像装置を対向し、非同期シャッタを用いた位置検出動作によって操作入力を行うことを可能としたユーザインターフェイスである。
【0179】
位置検出システム5は、図27に示すように、表示部82とスピーカ83とを有したゲーム筐体80と、ラケットを模したラケット型撮像装置81と、接触センサ84とを備えている。
【0180】
表示部82には、ゲームの内容であるアニメーション画像等が出力され、スピーカ83からは、表示部82に表示される画像に合わせて、効果音や音楽等が再生される。図27に示す位置検出システム5において、表示部82には、詳細は図示しないが背景画像と、識別子85と、球86とが表示されている。
【0181】
このように、当該位置検出システム5は、例えば、ユーザ1000がラケットを模した操作入力装置としてのラケット型撮像装置81を用いて、実際に球を打ち返す動作を行って、表示部82に表示される球86をプレーヤに対して打ち返すようなゲーム装置を構成している。
【0182】
位置検出システム5は、第1の実施の形態の位置検出システム1と同様の処理を行うことから、具体的な回路構成は、第1の実施の形態の位置検出システム1と共通の構成要素とすることができるため詳細な説明は省略する。
【0183】
ユーザは、表示部82に3次元の深さをもって表示される球にあわせて卓球のラケットに模したラケット型撮像装置81を構え、表示される球を打ち返す動作を行う。このとき撮像範囲87の画像が撮像されて、ゲーム筐体80へと転送される。
【0184】
ゲーム筐体80に備えられたゲーム制御部は、表示装置に3次元の深さを持って表示される球86がユーザの元に達するのに相当するタイミングでラケット型撮像装置81の位置と向きとを検出することにより、実際に検出された位置と角度から球が打ち出されるような打球の軌道を計算して、その軌道に合わせて球86が打ち出されていくように表示する。
【0185】
また、例えばユーザは、スマッシュの際に接触センサ84を強く踏む。このとき接触センサ84が踏まれたタイミングをトリガとして、非同期シャッタによる位置検出を行う。
【0186】
したがって、このような位置検出システム5は、高速な動きでありながら、ラケット型撮像装置81の向きと角度とを正確に検出することが可能となる。位置検出システム5は、卓球のスマッシュのみならず、テニスのスマッシュ、ゴルフのショット、野球のバッティング、ダンスのステップ等の同様の動きに対して適用可能である。
【0187】
なお、当然のことながら、第1の実施の形態の位置検出システム1と共通の構成部分であっても、第5の実施の形態の位置検出システム5に適応するように適宜変更を加えることができることはいうまでもない。
【0188】
従来のようなブラウン管の走査線を受光素子で検知する方法では、位置検出の都度、画面をフラッシュする必要があったため、常に位置を検出し、ポインタを表示し続けようとするような使用には適していなかったが、上述した多重露光撮影を駆使することによって、位置検出システム4及び位置検出システム5に示すような従来の位置検出システムを上回るサンプリングレートでの位置検出を実現することができる。
【0189】
したがって、このような動き検出動作は、動き検出の判定誤差範囲を人間(ユーザ)の感覚誤差の範囲内に納めることが可能であるため、ユーザにとって、照準点77があたかもポインタのように常時表示されているかのようにすることが可能である。また、非同期シャッタでの撮影により、高速の動きに対しても正確な位置検出を可能とし、ユーザにとって違和感のない快適な操作入力を実現する。
【0190】
以上、第1の実施の形態乃至第5の実施の形態として示した位置検出システムによれば、ゲームプレーヤ(ユーザ)の動きやゲーム世界での動作に類似した動作を入力情報として使用して、例えばゲームのような仮想世界に現実世界の動作を反映させることを可能とし、より高精度でリアルタイム制を向上した動き検出が可能になる。
【0191】
また、以上のような位置検出装置は、一般家庭で導入され始めたプロジェクタ、液晶テレビ、VGAモニタ等にも対応可能であって、NTSC、PALといった走査線の仕様に影響されることがない。
【0192】
なお、位置検出システム1乃至5において、識別子は、通常表示されないようにすることもできる。すなわち、操作入力装置としての撮像装置からの入力があった場合にのみ、例えば射撃ゲームであれば、銃型コントローラのトリガが引かれた場合にのみ識別子が表示されるようにすることも可能である。
【0193】
この他にも、多重露光撮影時における各露光タイミング、或いは非同期シャッタによる撮影時の各シャッタタイミング等を識別子を表示するタイミングとして用いることができる。
【0194】
なお、位置検出システム1乃至5において、ゲーム処理部はクロマキー処理を施すことによって特徴点の抽出をより高性能にすることができる。クロマキー処理は、画像処理部で行われるようにしてもよい。
【0195】
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
【0196】
【発明の効果】
以上詳細に説明したように、本発明に係る位置検出装置及び位置検出方法は、は、複数の識別子を表示して、結像部を介して識別子を撮像して、撮像された識別子を含む画像を用いて撮像手段の表示手段に対する位置を解析するものである。
【0197】
したがって、以上のような位置検出装置及び位置検出方法によれば、表示される画像等の仮想世界での動作に類似した実際の動作を非接触により検出することで仮想世界に現実世界の動作を反映させることを可能とし、表示装置の種類に関わらず、より高精度でリアルタイム制を向上した動き検出を行うことが可能になる。
【0198】
また、以上のような位置検出装置及び位置検出方法は、表示装置の種類によらず適用可能である。そのため、一般家庭で導入され始めたプロジェクタ、液晶テレビ、VGAモニタ等にも対応可能であって、NTSC、PALといった走査線の仕様に影響されることがない。したがって、導入の際のコストが低減され、ユーザに対する利便性が向上する。
【0199】
本発明に係るエンターテインメント装置は、複数の識別子を表示する制御を行う表示制御手段と、結像部を介して上記識別子を撮像する撮像手段と、撮像された識別子を用いて上記撮像手段の上記複数の識別子を表示する表示手段に対する位置を解析する解析手段と、解析手段で解析された位置情報を制御情報に変換してプログラムを制御する制御手段とを備える。
【0200】
したがって、以上のようなエンターテインメント装置によれば、ゲームプレーヤ(ユーザ)の動きやゲーム世界のような仮想世界での動作に類似した実際の動作を非接触により検出することで仮想世界に現実世界の動作を反映させることを可能とし、表示装置の種類に関わらず、より高精度でリアルタイム制を向上した動き検出を行うことが可能になる。さらに、検出した位置情報を制御情報に変換してプログラムの制御を行うことを可能になる。
【0201】
また、以上のようなエンターテインメント装置は、表示装置の種類によらず適用可能である。そのため、一般家庭で導入され始めたプロジェクタ、液晶テレビ、VGAモニタ等にも対応可能であって、NTSC、PALといった走査線の仕様に影響されることがない。したがって、導入の際のコストが低減され、ユーザに対する利便性が向上する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【図2】本発明の第1の実施の形態として示す位置検出システムの構成を示すブロック図である。
【図3】本発明の第1の実施の形態として示す位置検出システムがキャリブレーションを行う際の概略を示した概略図である。
【図4】本発明の第1の実施の形態として示す位置検出システムがキャリブレーションを行う際の概略を示した概略図である。
【図5】本発明の第1の実施の形態として示す位置検出システムにおけるコントロール型撮像装置が画像を取り込む処理を示すフローチャートである。
【図6】本発明の第1の実施の形態として示す位置検出システムにおけるゲーム制御部が照準点の位置を検出する処理を示すフローチャートである。
【図7】識別子の位置を予測する際の概念を示した模式図である。
【図8】本発明の第2の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【図9】本発明の第2の実施の形態として示す位置検出システムの構成を示すブロック図である。
【図10】本発明の第2の実施の形態として示す位置検出システムにおけるコントロール型撮像装置が画像を取り込む処理を示すフローチャートである。
【図11】本発明の第2の実施の形態として示す位置検出システムにおけるゲーム制御部が照準点の位置を検出する処理を示すフローチャートである。
【図12】本発明の第2の実施の形態として示す位置検出システムにおける画像制御部が行う処理を示すフローチャートである。
【図13】本発明の第3の実施の形態として示す位置検出システムの構成を示すブロック図である。
【図14】ベクトル場の概念を示す概念図である。
【図15】濃度変化から動きベクトルを算出する手順を説明するために使用した特性図である。
【図16】本発明の第3の実施の形態として示す位置検出システムにおけるゲーム制御部が照準点の位置を検出する処理を示すフローチャートである。
【図17】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の構成を示すブロック図である。
【図18】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の固体撮像部における受光・電荷転送部を説明する説明図である。
【図19】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の固体撮像部における受光・電荷転送部の一部を示した図である。
【図20】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の動作を説明するタイムチャートである。
【図21】図20に示したタイムチャートの一部を拡大して示すタイムチャートの拡大図である。
【図22】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の動作を説明するタイムチャートである。
【図23】非同期シャッタによる撮影及び多重露光撮影を行う撮像装置の動作を説明するタイムチャートである。
【図24】N=2の多重露光撮影が為された画像を示す模式図である。
【図25】非同期シャッタにより任意のタイミングで撮像する場合の撮像タイミングを説明する図である。
【図26】本発明の第4の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【図27】本発明の第5の実施の形態として示す位置検出システムの構成の概略を示す概略図である。
【符号の説明】
1,2,3,4,5 位置検出システム、10,70,80 ゲーム筐体、11,60 コントローラ型撮像装置、12,73,82 表示部、13,74,83 スピーカ、14,75,85 識別子、15 標的、16 照準点、17,78,79 撮像範囲、20 レンズ部、21 CCDイメージャ、22 S/H部、23 AGC部、24 A/D部、25 信号処理部、26 TG部、27 撮像駆動部、28 撮像制御部、29 SDRAM、30 メインメモリ、31 機械的I/F、32 ゲーム制御部、33 表示制御部、34 ROM、35 画像表示部、36 フレームメモリ、37 バス、40 モニタ、50ゲーム装置、51 I/F部、52 モニタI/F部、53 ベクトル演算ユニット、61 I/F部、71 銃型撮像装置、72 盾型撮像装置、76,77 照準点、81 ラケット型撮像装置、84 接触センサ、86 球
[0001]
BACKGROUND OF THE INVENTION
The present invention detects the relative position of the other device with respect to one device. for position analysis Equipment and position analysis The present invention relates to a method and an entertainment apparatus, and particularly detects a relative position by detecting and analyzing an identifier. for position analysis Equipment and position analysis The present invention relates to a method and an entertainment apparatus to which these are applied.
[0002]
[Prior art]
In recent years, with the development of electronic game technology, games that only require operation input by a combination of several input buttons, or operation input using a so-called joystick or the like, satisfy the user's requirements or increase the user's interest. It has become difficult to acquire.
[0003]
Therefore, for example, an input device imitating a fishing tool is used for a fishing game, an input device imitating a musical instrument is used for playing a musical instrument, and a real gun is imitated for a shooting game. The game device is devised so that the game can be performed by a more realistic operation by using the input device. In addition, there is a game device in which the user moves the body while watching the screen.
[0004]
In this case, instead of detecting the movement of the whole body, the movement of the user's body is input as a partial movement such as a step by using an input device that detects when a predetermined position is touched. ing.
[0005]
In order for a user to input a game by performing an action closer to a realistic action, it is considered that a user's movement is detected and used as an input signal. For example, a game player (user) is imaged by an imaging device, the movement of the game player (user) is analyzed based on the captured image, and the analysis result is reflected in the input of the game.
[0006]
A system for detecting the movement of a user or the position of a predetermined part in a non-contact manner has already been realized. As such a position detection system, for example, a scanning line of a cathode ray tube is exposed with a beam and detected by a light emitting element. In some cases, the position is detected using infrared rays or ultrasonic waves.
[0007]
[Problems to be solved by the invention]
However, when detecting the position of the target part in a non-contact manner, in particular, when using infrared rays, in order to identify the position by detecting the interference fringes by receiving infrared rays from a plurality of infrared ray generators installed in advance. If it is not used at a close distance, the position detection accuracy is lowered. Moreover, since it is easy to receive interference from other devices using infrared rays, there is a problem that the position detection accuracy is lowered particularly when the same devices are used side by side. In addition, when ultrasonic waves are used, the reflected waves interfere with each other in the same manner as when infrared rays are used to determine the position and movement by measuring the reflected waves received by a plurality of ultrasonic sensors installed in advance. Under such conditions, the position detection accuracy is lowered.
[0008]
In addition, a game device in which a user shoots at a target displayed on the screen employs a method of detecting the position on the screen by exposing the scanning line of the cathode ray tube with a beam and detecting it with a light receiving element. However, it is necessary to flash a part or the entire area of the screen every detection operation. For this reason, it can only be applied to an application that does not feel uncomfortable even if the screen is flashed for each position detection operation. In addition, position detection using this method is effective only for a display device having scanning lines, and cannot be applied to an image projected by a projector or an image displayed on a liquid crystal monitor. there were.
[0009]
Therefore, a position detecting device for solving such inconvenience is disclosed in Japanese Patent Laid-Open No. 6-301475. However, when the position detection device disclosed here is applied to a shooting game, the inclination of the imaging device as a gun-type controller is not detected, so unless the user keeps the imaging device as a gun-type controller accurately level. An error occurs between the aim aimed by the user and the detected position.
[0010]
Japanese Patent Application Laid-Open No. 11-305935 discloses a position detection device using an imaging device. However, since an infrared light emitting element is used as an identifier, for example, the position detection device is used as a home display. It is difficult to apply it, and it is limited to use as a game machine with a large-sized case for business use. Further, since this position detection device does not include an infrared cut filter, it cannot be used as a normal camera even if the image pickup device is detached, which is inconvenient.
[0011]
As described above, as a conventional user interface, there are concepts such as a GUI (Graphical User Interface) using a contact type interface and a desktop metaphor, but there are various problems as described above.
[0012]
Therefore, the present invention has been proposed in view of such a conventional situation, and is a position as a new user interface by non-contact image input capable of high-precision motion detection corresponding to all kinds of display devices. analysis Equipment and position analysis Method and such position analysis An object is to provide an entertainment apparatus to which the method is applied.
[0013]
[Means for Solving the Problems]
The position analysis apparatus according to the present invention is an analysis means for analyzing a position of the image pickup means relative to the display means using an identifier picked up by an image pickup means for picking up an identifier displayed on the display means. Storage means for storing the position of a predetermined point within the imaging range imaged in the past; With , The analysis means is , Using images taken by multiple exposure by the imaging means By analogizing the temporal change between the plurality of identifiers displayed in one image as a clue that the position change of the predetermined point in the past stored in the storage means is continuous, By analyzing the position, the above object is achieved.
[0014]
In the position analysis method according to the present invention, the analysis step of analyzing the position of the imaging unit with respect to the display unit using the identifier imaged by the imaging unit that images the identifier displayed on the display unit. And a storing step for storing the position of a predetermined point in the imaging range captured in the past in the storage means; With , In the above analysis process , Using images taken by multiple exposure by the imaging means By analogizing the temporal change between the plurality of identifiers displayed in one image as a clue that the position change of the predetermined point in the past stored in the storage means is continuous, By analyzing the position, the above object is achieved.
[0015]
In addition, the entertainment device according to the present invention includes an analysis unit that analyzes a position of the imaging unit with respect to the display unit using an identifier captured by an imaging unit that captures an identifier displayed on the display unit; Storage means for storing the position of a predetermined point in the imaging range captured in the past; Control means for controlling the program by converting the position information analyzed by the analysis means into control information, and the analysis means uses an image taken by the exposure means by the imaging means. By analogizing the temporal change between the plurality of identifiers displayed in one image as a clue that the position change of the predetermined point in the past stored in the storage means is continuous, The above object is achieved by analyzing the position.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0017]
The position detection system 1 shown as the first embodiment of the present invention displays an identifier on a display device, captures a display image including the identifier with an imaging device as an operation input device, and analyzes the captured image in an analysis unit. A position detection system that detects a positional relationship between a display device and an imaging device and an orientation of the imaging device with respect to the display device by non-contact by performing analysis, for example, a predetermined position or a predetermined position of an image displayed on the display device It is a user interface which can perform operation input by performing selection operation | movement with the imaging device as an operation input device facing with respect to this image.
[0018]
A position detection system 1 is shown in FIG. The position detection system 1 includes a game housing 10 having a display unit 12 and a speaker 13 which will be described later, and a controller type imaging device 11 imitating a gun.
[0019]
An animation image or the like that is the content of the game is output to the display unit 12, and sound effects, music, and the like are reproduced from the speaker 13 in accordance with the image displayed on the display unit 12. In the position detection system 1 shown in FIG. 1, a background image, an identifier 14, a target 15, and an aiming point 16 are displayed on the display unit 12 although details are not shown.
[0020]
As described above, the position detection system 1 uses the controller-type imaging device 11 as an operation input device imitating the gun of the user 1000, for example, and moves the aiming point 16 toward the target 15 displayed on the display unit 12. It constitutes a game device that shoots in a fixed manner.
[0021]
The controller type image pickup device 11 is an image pickup camera including a CCD (Charge Coupled Device) as an image pickup element, and is displayed on the display unit 12 when the user 1000 faces the display unit 12 of the game housing 10. The surrounding environment including the image is captured, and the image in the imaging range 17 is transmitted to the game housing 10. At this time, the center of the imaging range 17 captured by the controller type imaging device 11 is displayed as a sighting point 16 at a corresponding location on the display unit 12.
[0022]
Next, a specific circuit configuration of the position detection system 1 as the game apparatus is shown in FIG.
[0023]
As shown in FIG. 2, the game case 10 in the position detection system 1 includes a lens unit 20, a CCD (Charge Coupled Device) unit or a CCD imager 21 (Imager) 21, S / H (Sampling / Hold unit 22, AGC (Auto Gain Controller) unit 23, A / D (Analog / Digital) unit 24, signal processing unit 25, TG (Timing Generator) unit 26, imaging drive unit 27, imaging control unit 28, SDRAM ( Synchronous Dynamic Random Access Memory) 29, main memory 30, mechanical I / F (Interface) 31, game control unit 32, display control unit 33, ROM (Read Only Memory) 34, image processing unit 35, and frame memory 36 ing.
[0024]
In the position detection system 1 having such a configuration, a CCD (Charge Coupled Device) unit or a CCD imager 21, an S / H unit 22, an AGC unit 23, an A / D unit 25, a signal processing unit 25, and a TG unit. 26, the imaging drive unit 27, the imaging control unit 28, and the SDRAM 29 constitute the controller type imaging device 11, and the game control unit 32 compares the captured images output from the controller type imaging device 11 to detect motion. It functions as a motion detection means.
[0025]
Specifically, the controller type imaging device 11 has a function of performing imaging at an arbitrary timing by an asynchronous shutter, and a function of performing imaging by multiple exposure shooting that performs a plurality of imaging within one cycle of a synchronization signal for imaging. And have. Details of these functions will be described later.
[0026]
Further, the game control unit 32 detects a motion by comparing an image obtained by photographing the display unit 12 at a certain time with a photographed image after the operation of the game player (user) after a predetermined time has elapsed. The game control unit 32 also has a function as a control unit that executes a program based on the detected motion detection result.
[0027]
In such a position detection system 1, a captured image input through the lens unit 10 is photoelectrically converted by the CCD unit 11 that is a solid-state imaging device. Here, the image pickup device is not limited to the CCD, and other image pickup devices such as a CMOS sensor may be used. The image signal photoelectrically converted by the CCD unit 11 is sampled and held by the S / H unit 22, and then the gain is adjusted by the AGC unit 23 and input to the A / D unit 25. At this time, the readout timing of the image signal from the CCD unit 11 and the processing timing in the S / H unit 22 are controlled by the readout timing signal from the TG unit 26.
[0028]
In the A / D unit 25, the input imaging signal is quantized. The image information quantized by the A / D unit 25 is subjected to general camera signal processing by the signal processing unit 25 and stored in the SDRAM 29 which is an information storage unit. Here, the information storage unit in which the image information is stored is not limited to the SDRAM 29, and may be another volatile storage unit. The image stored in the SDRAM 29 is streamed by the imaging control unit 28 in response to a request from the game control unit 32 and transferred to the main memory 30 via the game control unit 32.
[0029]
The imaging control unit 28 controls each part of the position detection system 1 in an integrated manner. The imaging control unit 28 controls the imaging driving unit 17 to drive the lens unit 10 and controls the aperture, zoom, focus, and the like.
[0030]
The game control unit 32 performs motion detection by performing image processing on the image transferred from the SDRAM 29 as a stream. Here, the game control unit 32 and the imaging control unit 28 may be configured as the same processor.
[0031]
The motion detection is performed by, for example, a multiple exposure photographing technique disclosed in JP-A-9-247556 described later. Details of motion detection using the multiple exposure imaging technique will be described later.
[0032]
The game control unit 32 performs image processing on the transferred image and detects a predetermined feature point. That is, the identifier 14 displayed at a predetermined position on the display unit is extracted, and the center of the imaging range 17 captured by the controller type imaging device 11 is displayed as a sighting point 16 at a corresponding location on the display unit 12.
[0033]
Next, the game control unit 32 stores the coordinates of the identifier 14 extracted as described above. And the game control part 32 repeats the process mentioned above about the image transferred one after another, ie, the image imaged by the controller type imaging device 11, and the image transferred sequentially.
[0034]
The game control unit 32 performs motion detection of the identifier 14 by statistically analyzing the coordinates of the identifier 14 in time series. Further, the motion of the identifier 14 is corrected by moving object prediction.
[0035]
The detected movement of the identifier 14 and the position of the aiming point 16 are treated as a control signal together with a control signal from the mechanical I / F unit 31 and a trigger signal at the time of shooting, and used as a user input signal to the game. The game control unit 32 executes the game based on the control signal as the input signal, and the target, the aim, etc. depending on the aim position and the trigger are displayed on the display unit 12.
[0036]
That is, the game control unit 32 detects the movement of the identifier 14 and includes the movement detection result in the control signal, whereby the movement of the controller type imaging device 11 with respect to the game housing 10 is displayed on the display unit 12. In particular, in the embodiment according to the present invention, it is reflected in the movement of the aiming point 16.
[0037]
When detecting the movement of the aiming point 16, as shown in FIG. 3, a signboard or a voice guide for prompting the user to perform a prescribed operation is provided, or as shown in FIG. By performing a display for prompting a predetermined operation on the display unit 12 synchronously, and performing a calibration operation for detecting the reference relative position of the identifier 14 in advance, the position can be detected more easily.
[0038]
The ROM 34 stores a program for executing the game. The image processing unit 35 performs image processing, and performs, for example, chroma key processing.
[0039]
Subsequently, the controller type imaging device 11 in the position detection system 1 images the environment around the game housing 10 including the display unit 12, and the display unit is displayed according to the orientation of the controller type imaging device 11 with respect to the display unit 12. The process of displaying the aiming point 16 on the screen 12 will be described with reference to FIG.
[0040]
The imaging control unit 28 constantly monitors and detects imaging conditions. In step S1, the imaging control unit 28 determines whether the imaging conditions are appropriate.
[0041]
If the imaging control unit 28 determines that the imaging conditions are not appropriate in step S1, the imaging control unit 28 proceeds to step S2, and the imaging driving unit 27 that controls the iris (Iris), zoom (Zoom), and focus (Focus), and the TG unit 26. Then, the AGC unit 23 and the signal processing unit 25 are immediately controlled to adjust the imaging condition.
[0042]
If it is determined in step S1 that the imaging conditions are appropriate, the process proceeds to step S3 to determine whether or not a motion detection request has been issued.
[0043]
If it is not required to perform motion detection in step S3, the process of step S1 is repeated. On the other hand, when it is requested to perform motion detection, the process proceeds to step S4, where the controller type imaging device 11 acquires an image of the imaging range 17 and outputs it to the game housing 10, and the process of step S1 is performed. repeat.
[0044]
At this time, a process in which the game control unit 32 in the game housing 10 performs motion detection based on an image from the controller type imaging device 11 is shown in FIG.
[0045]
In step S10, the game control unit 32 determines whether an image has been input. If an image is input, the identifier 14 is extracted from the image information in step S11.
[0046]
Subsequently, in step S12, the game control unit 32 stores the coordinates of the extracted identifier with respect to the angle of view, and corrects the direction / angle and the aiming point 16 with respect to the display unit 12 of the controller type imaging device 11 to be described later. In this case, the position is predicted from the reference relative position of the identifier, and the position of the invisible identifier is predicted.
[0047]
Here, the concept for predicting the position of the identifier 14 will be described with reference to FIG. Assuming that the reference relative position as a reference shown in FIG. 7A is always similar to the imaged identifier 14 shown in FIG. 7B, the imaged identifier is as shown in FIG. 7C. , It is predicted that the identifier C exists at the position shown in FIG.
[0048]
In step S <b> 13, the game control unit 32 detects the position of the aiming point 16 from the relative positions of a plurality of identifiers including the identifier supplemented by prediction.
[0049]
In step S14, the detected position of the aiming point 16 is further corrected by moving object prediction, noise is removed, and it is reflected in the input of the game as a control signal.
[0050]
As described above, the position detection system 1 illustrated in FIG. 1 indicates that when the user pulls the trigger of the controller type imaging device 11 as an input device, the image information and the trigger are pulled from the controller type imaging device 11. Trigger information is transmitted to the game housing 10. At this time, the game control unit 32 recognizes the identifier 14 from the image information, and analyzes to which position of the display unit 12 the controller type imaging device 11 is directed from the relative positions of the plurality of identifiers. The analyzed result is sent to the game control unit 32 together with the trigger information, converted into a control signal and displayed as the aiming point 16, and used as an input for the game.
[0051]
Therefore, the position detection system 1 shown as the first embodiment detects the identifier 14 displayed together with the background image on the display unit 12 from the image of the shooting range 17 shot by the controller type imaging device 11. The aiming point 16 can be displayed according to the coordinates of the identifier 14.
[0052]
As a result, the position detection system 1 uses the movement of the game player (user) and the actual shooting action as input information, and can reflect the action of the real world in a virtual world such as a game.
[0053]
Next, a second embodiment of the present invention will be described. A position detection system 2 shown as a second embodiment is an application of the position detection system according to the present invention to a home game device. As shown in FIG. 8, the position detection system 2 includes a monitor 40, a game device 50, and a controller type imaging device 60.
[0054]
Here, the monitor 40 is an image display means, and is usually a television receiver (hereinafter referred to as a television) capable of inputting video and audio from the outside. The game device 50 is a home game device in which the business game housing 10 as shown in the first embodiment is miniaturized, and includes processing means for executing a game according to a predetermined program. The controller-type imaging device 60 is an input device and is provided with other input means such as operation buttons necessary for game input, but is basically an imaging device and is used as a game input device. It can be used as a single imaging device like a normal CCD camera device without stopping to use.
[0055]
For example, the game device 50 and the controller-type imaging device 60 can transmit and receive data by wireless communication or wired communication. The monitor 40, the game device 50, and the controller type imaging device 60 are connected to each other as schematically shown in FIG.
[0056]
In the position detection system according to the second embodiment, the monitor 40, the game device 50, and the controller type imaging device 60 perform the same processing as the processing of the position detection system 1 described in the first embodiment. be able to. That is, in the second embodiment, the monitor 40 corresponds to the display unit 12 of the position detection system 1, and the game apparatus 50 is in the game housing 10 that performs processing such as motion detection in the position detection system 1 described above. It corresponds to the component of.
[0057]
A circuit configuration of the position detection system 2 is shown in FIG. As described above, since the position detection system 2 shown as the second embodiment performs the same processing as the position detection system 1 of the first embodiment, basically, the position detection system 2 according to the first embodiment. The detection system 1 can be a common component. Therefore, the same components as those in the position detection system 1 are denoted by the same reference numerals and detailed description thereof is omitted.
[0058]
As a matter of course, even components that are common to the position detection system 1 of the first embodiment can be appropriately changed so as to be adapted to the position detection system 2 of the second embodiment. Needless to say, it can be done.
[0059]
The position detection system 2 basically performs the same processing as the position detection system 1 shown as the first embodiment. In the controller type imaging device 60, a captured image input via the lens unit 10 is photoelectrically converted by the CCD unit 11.
The image signal photoelectrically converted by the CCD unit 11 is sampled by the sample / hold in the S / H unit 22, subsequently gain-adjusted by the AGC unit 23, and input to the A / D unit 25. Here, the readout timing of the image signal from the CCD unit 11 and the processing timing in the S / H unit 22 are controlled by the readout timing signal from the TG unit 26.
[0060]
In the A / D unit 25, the input imaging signal is quantized. The image information quantized by the A / D unit 25 is subjected to general camera signal processing by the signal processing unit 25 and stored in the SDRAM 29 serving as an information storage unit. The images stored in the SDRAM 29 are streamed by the imaging control unit 28 in response to a request from the game control unit 32 and transferred to the main memory 30 via the game control unit 32.
[0061]
The controller-type imaging device 60 includes an I / F (interface) unit 61, and performs data communication with the game device 50 via the I / F unit 61. The corresponding game device 50 includes an I / F unit 51, and performs data communication with the I / F unit 61 of the controller type imaging device 60 via the I / F unit 51. The I / F 61 and the I / F unit 51 are configured by communication means capable of transmitting and receiving data by, for example, wireless communication or wired communication.
[0062]
In the game apparatus 50, the game control unit 32 performs image processing on the image transferred as a stream from the SDRAM 29, and performs motion detection. About the motion detection by the game control part 32, it is performed by the process similar to the position detection system 1 of 1st Embodiment. The detected result is treated as a control signal together with a control signal from the mechanical I / F unit 31, and is reflected in input information for the game.
[0063]
The game control unit 32 executes a game based on a control signal including input information, and aims through the monitor I / F unit 52 depending on the movement of the controller-type imaging device 60 as an input device moved by the user. Point 16 is displayed on the monitor 40.
[0064]
At this time, the controller type imaging device 60 in the position detection system 2 images the surrounding environment of the game housing 40 including the display unit 12, and the display unit 12 according to the orientation of the controller type imaging device 60 with respect to the display unit 12. The process of displaying the aiming point 16 on the screen will be described with reference to FIG.
[0065]
The imaging control unit 28 constantly monitors and detects imaging conditions. In step S21, the imaging control unit 28 determines whether the imaging conditions are appropriate.
[0066]
If the imaging control unit 28 determines that the imaging conditions are not appropriate in step S21, the imaging control unit 28 proceeds to step S22, and the imaging drive unit 27 that controls the aperture (Iris), zoom (Zoom), and focus (Focus), and the TG unit 26. Then, the AGC unit 23 and the signal processing unit 25 are immediately controlled to adjust the imaging condition.
[0067]
If it is determined in step S21 that the imaging conditions are appropriate, the process proceeds to step S23, where it is determined whether a motion detection request has been issued.
[0068]
In step S23, when there is no motion detection request, the process returns to step S21. When it is requested to perform motion detection, the process proceeds to step S24, and the imaging control unit 28 in the controller type imaging device 60 acquires the image of the imaging range 17, and compresses it in a predetermined format.
[0069]
In step S <b> 25, the imaging control unit 28 outputs an image compressed in a predetermined format to the game device 50.
[0070]
FIG. 11 shows a process in which the game control unit 32 in the game device 50 performs motion detection based on the image from the controller type imaging device 60 at this time.
[0071]
In step S31, the game control unit 32 determines whether an image has been input. If an image is input, the input compressed image is expanded (decompressed) in step S32.
[0072]
In step S33, the game control unit 32 extracts the identifier 14 from the image information.
[0073]
Subsequently, in step S34, the game control unit 32 stores the coordinates of the extracted identifier with respect to the angle of view, and corrects the direction / angle and the aiming point 16 with respect to the display unit 12 of the controller type imaging device 60, which will be described later. During operation, the position is predicted from the reference relative position of the identifier, and the position of the invisible identifier is predicted. At this time, the above-described position prediction shown in FIG. 7 is performed.
[0074]
In step S <b> 35, the game control unit 32 detects the position of the aiming point 16 from the relative positions of the plurality of identifiers including the identifier supplemented by the prediction.
[0075]
In step S36, the detected position of the aiming point 16 is further corrected by moving object prediction, noise is removed, and the result is reflected in the game input as a control signal.
[0076]
As described above, the position detection system 2 illustrated in FIG. 9 indicates that when the user pulls the trigger of the controller type imaging device 60 as an input device, the image information and the trigger are pulled from the controller type imaging device 60. The trigger information is transmitted to the game apparatus 50. At this time, the game control unit 32 recognizes the identifier 14 from the image information, and analyzes to which position of the monitor 40 the controller type imaging device 60 is directed from the relative positions of the plurality of identifiers. The analyzed result is sent to the game control unit 32 together with the trigger information, converted into a control signal and displayed as the aiming point 16, and used as game input information.
[0077]
Therefore, the position detection system 2 shown as the second embodiment detects the identifier 14 displayed together with the background image on the monitor 40 from the image of the photographing range 17 photographed by the controller type imaging device 60, and the identifier The aiming point 16 can be displayed on the monitor 40 in accordance with the 14 coordinates.
[0078]
As a result, the position detection system 2 uses the movement of the game player (user) and the actual shooting operation as input information in the miniaturized home game device 50, for example, in a virtual world such as a game. It is possible to reflect the operation of. In the position detection system 2, the controller type imaging device 60 can be used not only as an input device of the game apparatus 50 but also as a normal imaging device.
[0079]
The position detection system 2 can also perform motion detection in the game control unit 32 in the imaging control unit 28 of the controller type imaging device 60. The process in the imaging control unit 28 in this case is shown in FIG.
[0080]
The imaging control unit 28 constantly monitors and detects imaging conditions. In step S41, the imaging control unit 28 determines whether the imaging conditions are appropriate.
[0081]
If the imaging control unit 28 determines that the imaging conditions are not appropriate in step S41, the imaging control unit 28 proceeds to step S42, and the imaging driving unit 27 that controls the iris (Iris), zoom (Zoom), and focus (Focus), and the TG unit 26. Then, the AGC unit 23 and the signal processing unit 25 are immediately controlled to adjust the imaging condition.
[0082]
If it is determined in step S41 that the imaging conditions are appropriate, the process proceeds to step S43, where it is determined whether a motion detection request has been issued.
[0083]
If there is no motion detection request in step S43, the process of step S41 is repeated. When it is requested to perform motion detection, in step S44, the imaging control unit 28 acquires an image of the imaging range 17, and extracts the identifier 14 from the image information.
[0084]
In step S45, the imaging control unit 28 stores the coordinates of the extracted identifier with respect to the angle of view, and corrects the direction / angle and the aiming point 16 with respect to the display unit 12 of the controller-type imaging device 60. The position is predicted from the reference relative position of the identifier, and the position of the invisible identifier is predicted. At this time, the position prediction shown in FIG. 7 is performed.
[0085]
In step S46, the imaging control unit 28 detects the position of the aiming point 16 from the relative positions of the plurality of identifiers including the identifier supplemented by the prediction.
[0086]
In step S47, the imaging control unit 28 further corrects the detected position of the aiming point 16 by moving object prediction, removes noise, and reflects it as a control signal in the input of the game.
[0087]
The imaging control unit 28 outputs the detected coordinates of the aiming point 16 to the game control unit 32.
[0088]
As described above, when motion detection is performed in the imaging control unit 28, there is no delay in processing to transfer via the I / F units 51 and 61, compared to when motion detection is performed in the game control unit 32. Therefore, the motion detection operation is further speeded up.
[0089]
In the position detection system 2 shown as the second embodiment, a vector calculation unit for performing vector calculation is provided, and the motion detection similar to the position detection systems 1 and 2 described above may be performed in the vector calculation unit. Good. Such a position detection system is shown in FIG. 13 as a third embodiment.
[0090]
A position detection system 3 shown as the third embodiment includes a vector arithmetic unit 53 in the game apparatus 50. The vector calculation unit 53 is hardware dedicated to vector calculation for performing high-speed image processing unique to a game or the like.
[0091]
In the position detection system 3 shown in FIG. 13, the game control unit 32 includes a main memory 30, a mechanical I / F unit 31, a ROM 34, an image processing unit 35, and a frame memory 36 connected via a bus 37. Although the configuration is the same, the basic configuration of the position detection system 3 shown in FIG. 13 and the position detection system 2 shown in FIG. 9 is the same.
[0092]
In the game system shown in FIG. 13, the vector calculation unit 53 calculates a vector field from the frame captured in the current frame and the image captured in the previous frame stored in the main memory 30. Subsequently, the vector calculation unit 53 extracts feature points from the vector field, and performs motion detection by following the corresponding vector field. The game control unit 32 treats the result of motion detection by the vector arithmetic unit 53 as a control signal and reflects it in the input information.
[0093]
The concept of motion detection using a vector field will be specifically described with reference to FIGS.
[0094]
In the calculation of the vector field, as shown in FIG. 14, first, a change in density is obtained by taking the difference between the current frame and the previous frame on the basis of the density curved surface. Thereafter, the motion vector field for the density curved surface is calculated by multiplying the current frame again by the change in density.
[0095]
Next, an outline of a procedure for calculating a motion vector from a density change will be described with reference to FIG. The motion detection method proposed here is based on correlation using optical flow. First, when the time t transitions from 0 to 1, the density Q is Gaussian distributed with respect to the position X. When t = 0, the center is located at X = 1, and when t = 1, the center is X = Assume a density change that moves to position 2. In this proposal, since the motion is detected from the density transition in the basic cell of X = 1, 2, 3, 3, it is assumed that the density cannot be sampled at an intermediate position, and the motion vector corresponding to the density transition is obtained for each basic cell. Is intended to output. Here, as an example, the motion vector V at the position X = 2 X Calculate
[0096]
Assuming that the correlation with the movement in the positive direction on the X axis at the position X = 2 at t = 1 is C2,1, the correlation with the movement with respect to the sampling rate X = 1 increments must be maximized. Therefore, the density Q at the position X = 1 when t = 0 1,0 And the density Q at the position X = 2 when t = 1. 2,1 It is necessary to calculate around the correlation. Therefore, in this proposal, C 2,1 = Q 1,0 × Q 2,1 As a correlation. Similarly, the correlation with respect to the movement in the negative direction on the X axis at the position X = 2 when t = 1 is represented by C 2,3 Then it is C 2,3 = Q 3,0 × Q 2,1 Can be calculated as Finally, the motion vector V at the position X = 2 X Is the correlation value C 2,1 -C 2,3 Can be calculated as
[0097]
In general, a game apparatus includes an arithmetic processing device specialized for vector arithmetic as hardware. Since such a vector operation unit can increase the vector operation processing speed, motion detection in the calculation of a correlation that can be easily rewritten into the vector operation as described above is effective. As described above, the motion vector is calculated from the density change.
[0098]
Subsequently, processing when the vector calculation unit 53 in the position detection system 3 detects motion at this time will be described with reference to FIG. 16, and motion detection is executed by a series of processing shown in FIG. It is not limited.
[0099]
In step S51, the game control unit 32 in the game device 50 determines whether or not a captured image has been input. The game control unit 32 repeatedly performs the process in step S51 until a captured image is input.
[0100]
When the captured image is input, the game control unit 32 calculates a density curved surface of the pixel value using the vector calculation unit 53 in step S52.
[0101]
In the subsequent step S53, the game control unit 32 detects and corrects the movement of the entire image and performs statistical processing to extract and correct the blur.
[0102]
In step S54, the vector calculation unit 53 divides the corrected image into grid blocks, and calculates a vector field by extracting a motion vector for each block.
[0103]
In step S55, the game control unit 32 extracts feature objects by collecting consecutive similar vectors.
[0104]
Subsequently, in step S56, it is recognized that the characteristic object is the identifier 14 by performing pattern matching and tracking determination.
[0105]
In step S57, when there is an invisible identifier, the game control unit 32 predicts the position of the invisible identifier from the reference relative positions of the plurality of visible identifiers, and detects the position of the aiming point 16 from the relative positions of these identifiers. .
[0106]
In step S58, the game control unit 32 converts the detected position of the aiming point 16 into a control signal and reflects it as input information to the game.
[0107]
As described above, according to the position detection system 3 provided with the vector calculation unit 53, the feature point extraction process that relies on the color, the pattern, etc., can perform motion detection with higher accuracy and improved real-time control. .
[0108]
Here, a function of performing imaging at an arbitrary timing by the above-described asynchronous shutter and a function of performing imaging by multiple exposure shooting in which a plurality of images are captured within one cycle of a synchronization signal for imaging will be described. The following is a description of Japanese Patent Application Laid-Open No. 9-247556 (name of the invention “imaging device provided with an individual imaging unit”) used by the present invention as a prior art. In this prior art, the invention is applied to an imaging device.
[0109]
For example, as shown in FIG. 17, the imaging device includes a plurality of light receiving element portions that perform photoelectric conversion and are arranged in a number of parallel rows, and a CCD that transfers charges obtained in each light receiving element portion. A solid-state imaging unit 111 having a light receiving / charge transfer unit provided with the formed charge transfer region is provided. Further, an optical system including a diaphragm mechanism 112, a lens system 113, and the like is disposed in front of the solid-state imaging unit 111. This optical system is a light receiving / charge transfer unit included in the solid-state imaging unit 111. A subject image is projected by allowing external light to enter.
[0110]
As shown in FIG. 18, the light receiving / charge transferring section includes a plurality of light receiving element sections 116, each of which constitutes an individual pixel, on a semiconductor substrate 115, extending in a number of horizontal directions (in the direction of the arrow h). (Pixel horizontal row) is formed and arranged.
The light receiving element portion 116 forming each of a large number of pixel horizontal columns also forms a large number of parallel columns (pixel vertical columns) extending in the vertical direction (the direction of the arrow v). A vertical charge transfer unit 117 formed by a CCD group is arranged along each pixel vertical column formed by 116. Each vertical charge transfer unit 117 is driven by, for example, two-phase vertical transfer drive signals φV1 and φV2 to perform a charge transfer operation. A charge readout gate unit 118 is provided between each of the plurality of light receiving element units 116 forming each pixel vertical column and the vertical charge transfer unit 117 corresponding to the vertical column.
[0111]
Further, as shown in FIG. 19, a channel stopper 119 and an overflow control unit 120 are formed around each light receiving element unit 116. Further, a drain part 121 is arranged adjacent to the overflow control part 120, and the channel stopper part 122 distinguishes between the drain part 121 and the adjacent vertical charge transfer part 117.
[0112]
An insulating layer is disposed on each of the above-described portions, and the vertical transfer electrodes E1 and E2 extending in the horizontal direction are alternately disposed in the vertical direction on the vertical charge transfer portion 117 via the insulating layer. The vertical transfer electrode E1 is configured by the storage unit electrode E1c and the transfer unit electrode E1t, and the vertical transfer electrode E2 is configured by the storage unit electrode E2c and the transfer unit electrode E2t. The vertical transfer drive signals φV1 and φV2 are supplied to the vertical transfer electrodes E1 and E2, respectively.
[0113]
A read gate electrode EG extending in the vertical direction is disposed on the charge read gate portion 118, and an overflow gate electrode ED extending in the vertical direction is disposed on the overflow control portion 120. A read gate control signal SG and an overflow gate control signal SD are supplied to the read gate electrode EG and the overflow gate electrode ED, respectively. Then, a light shielding layer is disposed on the other portions except the light receiving element portion 116.
[0114]
One end side of each of the plurality of vertical charge transfer units 117 is connected to a horizontal charge transfer unit 123 formed by a CCD group and extending in the horizontal direction at the edge of the semiconductor substrate 115. The horizontal charge transfer unit 123 is driven by, for example, two-phase horizontal transfer drive signals φH1 and φH2 to perform a charge transfer operation. An output unit 24 is provided at one end of the horizontal charge transfer unit 123, and an output terminal 125 is led out from the output unit 124.
[0115]
In addition, on the other end side of each of the plurality of vertical charge transfer units 117 in the semiconductor substrate 115, a charge absorption unit 126 extending in the horizontal direction is provided.
[0116]
When a still image imaging operation is performed in the solid-state imaging unit 111 having the light receiving / charge transfer unit illustrated in FIGS. 18 and 19, a predetermined light receiving period for the light receiving / charge transfer unit is set, During the light receiving period, each of a large number of light receiving element units 116 receiving light from an imaging target incident on the light receiving / charge transfer unit through an optical system including the lens system 113, the diaphragm mechanism 112, etc. performs photoelectric conversion. Charges corresponding to the received light are accumulated. Thereafter, the plurality of charge read gate units 118 transfer the charges accumulated in the corresponding light receiving element units 116 in accordance with the read gate control signal SG from the drive signal forming unit 130 supplied thereto, and the corresponding vertical charge transfer units 117. Read out.
[0117]
Subsequently, the charges read to each vertical charge transfer unit 117 are supplied to the vertical transfer electrodes E1 and E2 in the solid-state imaging unit 111 as the signal charge transfer drive signal ST from the drive signal forming unit 130, respectively. The horizontal charge transfer is sequentially performed as signal charges for the signals obtained by the plurality of light receiving element portions 116 forming each pixel horizontal column by the charge transfer operation of each vertical charge transfer portion 117 driven by the transfer drive signals φV1 and φV2. The data is transferred toward the unit 123. The horizontal charge transfer unit 123 transfers the signal charge as a signal charge by a charge transfer operation performed by being driven by the two-phase horizontal transfer drive signals φH1 and φH2 supplied as the signal charge transfer drive signal ST from the drive signal forming unit 130. Charges obtained by the plurality of light receiving element portions 116 forming one pixel horizontal row are supplied to the output unit 124. In the output unit 124, the charges transferred by the horizontal charge transfer unit 123 are sequentially signaled and led to the output terminal 125, and imaging based on the charges accumulated in the plurality of light receiving element units 116 at the output terminal 125. An imaging output signal IP corresponding to the object is obtained.
[0118]
In such a case, horizontal charge transfer by each vertical charge transfer unit 117 addressed to one pixel horizontal column with respect to the charges obtained by the plurality of light receiving element units 116 forming each of all the pixel horizontal columns in the light receiving / charge transfer unit. The transfer to the unit 123 is completed within each frame period, and the horizontal charge of the charges obtained by the plurality of light receiving element units 116 forming the one-pixel horizontal row transferred to the horizontal charge transfer unit 123 is horizontal. The supply to the output unit 124 by the charge transfer unit 123 is completed within each line period, and the two-phase vertical transfer drive signals φV1 and φV2 and the two-phase signals that are the signal charge transfer drive signal ST are used. Each of the horizontal transfer drive signals φH1 and φH2 is set.
Therefore, the imaging output signal IP derived to the output terminal 125 is repeated for a frame period formed by a unit of line periods.
[0119]
The drive signal forming unit 130 is supplied with the charge read timing signal TG, the signal charge transfer timing signal TT, the charge sweep transfer timing signal TS, and the charge discharge timing signal TD from the timing signal generating unit 131, and according to the charge read timing signal TG. The read gate control signal SG formed in this manner is sent, and the two-phase vertical transfer drive signals φV1 and φV2 and the two-phase horizontal transfer drive signals φH1 and φH2 formed in response to the signal charge transfer timing signal TT are signal-charge transferred. State to send as signal ST and State to send two-phase vertical transfer drive signals φV2 and φV1 and two-phase horizontal transfer drive signals φH2 and φH1 formed according to charge sweep transfer timing signal TS as sweep transfer drive signal SS Is selected according to the charge discharge timing signal TD. The generated overflow gate control signal SD is sent out.
[0120]
The timing signal generation unit 131 is supplied with the frame synchronization signal SF and the line synchronization signal SH from the synchronization signal generation unit 132, and further receives the light reception period signal SE from the control unit 133 forming the operation control unit, and the asynchronous normal light reception mode setting. A signal SN, an asynchronous shutter standby mode setting signal SWS, a synchronous return command signal SR, and a multiple exposure mode setting signal SMM are also supplied.
[0121]
In the timing signal generator 131, the light reception period signal SE from the control unit 133, the asynchronous normal light reception mode setting signal SN, the asynchronous shutter standby mode setting signal SWS, the synchronous return command signal SR, and the multiple exposure mode setting signal SMM. Depending on the state of the frame synchronization signal SF and the line synchronization signal SH, that is, between the frame synchronization signal SF and the line synchronization signal SH in the same phase or the frame synchronization signal SF and the line synchronization signal, respectively. The internal frame synchronization signal SFO and the internal line synchronization signal SHO, each having a certain phase difference from the SH, are generated asynchronously with the frame synchronization signal SF and the line synchronization signal SH. Internal frame synchronization signal SFO and internal line synchronization signal SHO A condition that occurs is taken selectively.
[0122]
Further, the drive signal forming unit 130 obtains the internal frame synchronization signal SFO and the internal line synchronization signal SHO that are synchronized with the frame synchronization signal SF and the line synchronization signal SH, respectively, in the timing signal generation unit 131. A charge read timing signal TG, a signal charge transfer timing signal TT, a charge sweep transfer timing signal TS, and a charge discharge timing signal TD, which are formed based on the internal frame synchronization signal SFO and the internal line synchronization signal SHO, are supplied to read the charge. An operation state in which the read gate control signal SG formed according to the timing signal TG is sent, and the internal frame synchronization signal SFO and the internal state which are made asynchronous with respect to the frame synchronization signal SF and the line synchronization signal SH in the timing signal generator 131 Line synchronization signal SH Are obtained based on the internal frame synchronization signal SFO and the internal line synchronization signal SHO, the charge read timing signal TG, the signal charge transfer timing signal TT, the charge sweep transfer timing signal TS, and the charge discharge timing signal. TD is supplied, and an operation state in which a read gate control signal SG formed in response to the charge read timing signal TG is selectively taken.
[0123]
The frame synchronization signal SF and the line synchronization signal SH from the synchronization signal generator 132, and the internal frame synchronization signal SFO and the internal line synchronization signal SHO formed in the timing signal generator 131 are also supplied to the control unit 133. The charge read timing signal TG, the signal charge transfer timing signal TT, the charge sweep transfer timing signal TS and the charge discharge timing signal TD obtained in the timing signal generator 131 are also supplied to the control unit 133. Further, the control unit 133 forming the operation control unit includes an operation mode designation signal SM through the terminal 134, a shutter speed designation signal SSV through the terminal 135, and a shutter operation which is an operation for causing the apparatus to perform an imaging operation. A shutter signal SSH that is a light reception command signal that is generated in response to the signal is supplied through a terminal 136.
[0124]
The imaging output signal IP obtained at the output terminal 125 in the light receiving / charge transfer unit of the solid-state imaging unit 111 shown in FIG. 18 is amplified and sampled by the automatic gain control (AGC) amplification unit 140 as shown in FIG. -It is supplied to the hold unit 141. The sampling and holding unit 141 performs level sampling and sample level holding for each predetermined short period for the imaging output signal IP to obtain a sampling and holding output signal SI, which is analog / digital (A / D) Supplied to the conversion unit 142. The A / D conversion unit 142 digitizes the imaging output signal IP based on the sampling and holding output signal SI, and the A / D conversion unit 142 generates a digital imaging signal DI corresponding to the imaging output signal IP. Obtained and supplied to the imaging signal digital processing unit 143.
[0125]
In the controller type imaging device 11 of the position detection system 1 shown in FIG. 2, the signal output from the S / H unit 22 is processed in the AGC unit 23, which is different from the signal processing procedure of the imaging device described above. However, the controller-type imaging device 11 of the position detection system 1 may process the signal processed in the AGC amplification unit 140 in the sample hold unit (S / H unit) 141 as in the above-described imaging device. Good.
[0126]
The control signal DCC and the control data DCD are exchanged between the imaging signal digital processing unit 143 and the control unit 133, and the imaging signal digital processing unit 143 responds to the exchange of the control data DCC and the control data DCD. Thus, various digital processes are performed on the imaging output signal IP. As a result, the digital imaging output signal DIO is derived from the imaging signal digital processing unit 143 to the output terminal 144.
[0127]
Under such circumstances, when a still image capturing operation is performed, an operation mode designation signal SM for designating an operation mode to be selected is supplied to the control unit 133 through the terminal 134 and should be selected. A shutter speed designation signal SSV for designating the shutter speed is supplied. The operation mode designated by the operation mode designation signal SM is, for example, an asynchronous normal light receiving mode, an asynchronous shutter standby light receiving mode, a multiple exposure mode, or the like. Hereinafter, processing of the imaging apparatus in each mode will be described.
[0128]
When the operation mode designated by the operation mode designation signal SM is the asynchronous normal light reception mode, the control unit 33 supplies the asynchronous normal light reception mode setting signal SN to the timing signal generator 131. In response to the asynchronous normal light reception mode setting signal SN, the timing signal generator 131 receives the frame synchronization signal SF from the synchronization signal generator 132 shown in FIG. 20A as seen in the period before time ta in FIG. A timing signal SXO as shown in E of FIG. 20 is formed based on the internal frame synchronization signal SFO shown in D of FIG. 20 having a certain phase difference between and.
[0129]
At this time, the timing signal generator 131 sends out a charge read timing signal TG, a signal charge transfer timing signal TT, a charge sweep transfer timing signal TS and a charge discharge timing signal TD corresponding to the internal frame synchronization signal SFO. As shown in the period before time ta in FIG. 20, the read gate control signal SG as shown in F of FIG. 20 and the G of FIG. 20 are synchronized with the internal frame synchronization signal SFO as seen from the drive signal forming unit 130. A sweep transfer drive signal SS as shown in FIG. In the period before time ta in FIG. 20, as shown in J of FIG. 20, the SF synchronization mode synchronized with the frame synchronization signal SF is taken.
[0130]
Under such circumstances, when a shutter operation is performed at time ta in FIG. 20, a shutter signal SSH as a light reception command signal as shown in FIG. 20B is supplied to the control unit 133 through the terminal 136.
[0131]
The control unit 133 supplies a light reception period signal SE as shown in FIG. 20C to the timing signal generator 131 in accordance with the leading edge of the shutter signal SSH. At this time, as shown in C and D of FIG. 20, the timing signal generator 131 resets the formation of the internal frame synchronization signal SFO by the leading edge of the light receiving period signal SE, and uses the internal frame synchronization signal SFO as the frame synchronization signal. Asynchronous with SF, the formation of the timing signal SXO is interrupted, and the charge read timing signal TG and the charge discharge timing signal TD corresponding to the leading edge of the light receiving period signal SE are sent out.
[0132]
Then, as shown in F and G of FIG. 20, the read gate control signal SG and the sweep transfer drive signal SS corresponding to the leading edge of the light reception period signal SE are received from the drive signal forming unit 130 by the solid-state imaging unit 111.・ Sent to the charge transfer unit. Thereby, in the light receiving / charge transfer unit of the solid-state imaging unit 111, each charge readout gate unit 118 is opened according to the readout gate control signal SG, and the charge in each light receiving element unit 116 is transferred to each vertical charge transfer unit 117. The vertical charge transfer unit 117 reads the charge read through the open charge read gate unit 118 in accordance with the sweep transfer drive signal SS, and reads the charge read to the horizontal charge transfer unit in the semiconductor substrate 115. A charge sweeping operation for transferring to the charge absorbing portion 126 provided on the opposite side to the 123 is performed. The charge transferred by the charge sweeping is absorbed by the charge absorbing unit 126. The charge sweep period during which such charge sweep operation is performed is, for example, about 27 line periods.
[0133]
Then, at the leading edge of the light reception period signal SE, a light reception period for the light reception / charge transfer section of the solid-state imaging unit 111 including the charge sweeping period is started. As shown in J of FIG. It will shift to the running mode. In the light reception period, as shown in FIG. 20D, the internal frame synchronization signal SFO which is reset at the leading edge of the light reception period signal SE and is asynchronous with the frame synchronization signal SF is obtained. SXO is not obtained. As a result, in the light receiving period, the readout gate control signal SG is not obtained after being obtained according to the leading edge of the light receiving period signal SE, and the charge readout gate portion except for the short period at the beginning of the charge sweeping period. 118 is maintained in a closed state, and charges are accumulated in a large number of light receiving element portions 116 by light reception as shown in I of FIG.
[0134]
FIG. 21 shows an enlarged detailed timing relationship between the shutter signal SSH supplied to the control unit 133, the internal line synchronization signal SHO, the light receiving period signal SE, the readout gate control signal SG, and the sweep transfer drive signal SS. In the timing relationship shown in FIG. 21, when the leading edge of the shutter signal SSH arrives at time ta, the leading edge of the light receiving period signal SE is obtained at the time of the leading edge of the first internal line synchronization signal SHO thereafter. It is done. Then, at the time of the leading edge of the light receiving period signal SE, the leading edge of the read gate control signal SG and the leading edge of the sweep transfer drive signal SS are obtained, and the mode shifts from the SF synchronous mode to the free-running mode. In other words, the leading edge of the light receiving period signal SE is slightly delayed (at most about one line period) from the leading edge of the shutter signal SSH.
[0135]
After that, as shown in FIG. 20, when the trailing edge of the light receiving period signal SE supplied from the control unit 133 to the timing signal generating unit 131 arrives at the time tb, the timing signal generating unit 131 receives the D in FIG. As indicated by E, the internal frame synchronization signal SFO is obtained according to the trailing edge of the light receiving period signal SE, and the timing signal SXO is obtained according to the leading edge of the internal frame synchronization signal SFO. The time tb at the trailing edge of the light receiving period signal SE is set by the control unit 133 according to the shutter speed designated by the shutter speed designation signal SSV supplied thereto. Then, the timing signal generator 131 sends out a charge read timing signal TG and a signal charge transfer timing signal TT in response to the timing signal SXO. Accordingly, as shown in F and H of FIG. 20, the drive signal forming unit 130 responds to the read gate control signal SG having the leading edge corresponding to the trailing edge of the light receiving period signal SE and the trailing edge of the light receiving period signal SE. The signal charge transfer drive signal ST having the leading edge is sent to the light receiving / charge transferring unit of the solid-state imaging unit 111, and the light receiving period ends.
[0136]
As a result, in the light receiving / charge transfer unit of the solid-state imaging unit 111, each charge readout gate unit 118 is opened according to the readout gate control signal SG, and as shown in I of FIG. In addition to reading out the charges in the unit 116 to each vertical charge transfer unit 117, each vertical charge transfer unit 117 is read out through the charge read gate unit 118 which is opened in accordance with the signal charge transfer drive signal ST. A charge transfer operation is performed to transfer the generated charges as signal charges to the horizontal charge transfer unit 123 in the semiconductor substrate 115. Further, a charge transfer operation is performed in which the horizontal charge transfer unit 123 transfers the charges transferred by the vertical charge transfer units 117 to the output unit 124 as signal charges in accordance with the signal charge transfer drive signal ST. . The charge transferred to the output unit 124 is converted into an imaging output signal IP by the output unit 124, and the imaging output signal IP is led to the output terminal 125.
[0137]
In the charge transfer period in which the charge transfer operation by each of the vertical charge transfer units 117 and the horizontal charge transfer unit 123 is performed, the timing signal generation unit 31 thereafter performs internal frame synchronization as shown in FIGS. At the time tc when the signal SFO is obtained and the timing signal SXO is obtained according to the leading edge of the internal frame synchronization signal SFO, the trailing edge of the signal charge transfer drive signal ST arrives and ends. Then, the timing signal generation unit 131 sends out the charge read timing signal TG and the signal charge transfer timing signal TT in response to the timing signal SXO, thereby causing the drive signal forming unit 130 to show the signals F and G in FIG. As shown, the readout gate control signal SG having a leading edge corresponding to the trailing edge of the signal charge transfer driving signal ST and the sweeping transfer driving signal SS having a leading edge corresponding to the trailing edge of the signal charge transfer driving signal ST are solid-state imaging. The charge is discharged to the light receiving / charge transfer unit of the unit 111 to perform the charge sweeping operation.
[0138]
After that, at time td, as shown in FIG. 20D, the internal frame synchronization signal SFO obtained by the timing signal generator 131 again has a certain phase difference from the frame synchronization signal SF. Thus, as shown in FIG. 20J, the self-running mode returns to the SF synchronous mode.
[0139]
As described above, in the case where the still image capturing operation is performed under the asynchronous normal light receiving mode, when the shutter operation is performed, a maximum delay of approximately one line period from the time of the shutter operation is delayed. At the time, the light receiving period for the light receiving / charge transfer unit of the solid-state imaging unit 111 is started, and the charge sweeping operation ends from the start. For example, after the 27th line period, a large number of light receiving element units in the light receiving / charge transfer unit A light receiving state in which effective charge accumulation is performed in 116 is obtained. Therefore, the quickness of the light reception response operation when the shutter operation is performed is greatly improved.
[0140]
Next, the asynchronous shutter standby light receiving mode will be described. When the operation mode designated by the operation mode designation signal SM is the asynchronous shutter standby light receiving mode, the control unit 133 supplies the asynchronous shutter standby mode setting signal SWS to the timing signal generator 131. In response to the asynchronous shutter standby mode setting signal SWS, the timing signal generator 131 receives the frame synchronization signal SF from the synchronization signal generator 132 shown in FIG. 22A as seen in the period before the time te in FIG. 22, the internal frame synchronization signal SFO shown in D of FIG. 22 having a certain phase difference is obtained, and after the time te, the formation of the timing signal SXO is stopped and after the time te In accordance with the leading edge of the first internal frame synchronization signal SFO, continuous transmission of the charge read timing signal TG and the charge sweep transfer timing signal TS is started. Thereby, as shown in FIG. 22B, the transition from the normal light receiving state to the shutter waiting state is performed at time te.
[0141]
With the start of continuous transmission of the charge read timing signal TG and the charge sweep transfer timing signal TS from the timing signal generator 131, as shown in G and H of FIG. In accordance with the leading edge of the internal frame synchronization signal SFO, the read gate control signal SG and the sweep transfer drive signal SS are continuously sent to the light receiving / charge transfer unit of the solid-state imaging unit 111. Thereby, in the light receiving / charge transfer unit of the solid-state imaging unit 111, each charge reading gate unit 118 is continuously opened according to the reading gate control signal SG, and the charge in each light receiving element unit 116 is changed to each vertical charge. The charge reading to the transfer unit 117 is continuously performed, and the charges read by the vertical charge transfer units 117 through the charge reading gate unit 118 that is continuously opened in response to the sweep transfer drive signal SS. Then, a charge sweeping operation for continuously transferring to the charge absorbing portion 126 provided on the opposite side to the horizontal charge transferring portion 123 in the semiconductor substrate 115 is performed. The charge transferred by the charge sweeping is absorbed by the charge absorbing unit 126. In the charge sweeping period in which such a continuous charge sweeping operation is performed, as shown in FIG. 22J, no charge is accumulated in the light receiving / charge transfer unit of the solid-state imaging unit 111.
[0142]
When the shutter operation is performed at time tf in FIG. 22 while the charge sweeping operation is continuously performed in the light receiving / charge transfer unit of the solid-state imaging unit 111, as shown in FIG. 22C. The shutter signal SSH is supplied to the control unit 133 through the terminal 136. The control unit 133 supplies a light reception period signal SE as shown in F of FIG. 22 to the timing signal generator 131 in accordance with the leading edge of the shutter signal SSH. At this time, as shown in FIGS. 22D and 22E, the timing signal generator 131 resets the formation of the internal frame synchronization signal SFO by the leading edge of the light reception period signal SE, and uses the internal frame synchronization signal SFO as the frame synchronization signal. Asynchronous with the SF, the formation of the timing signal SXO is interrupted, and the continuous transmission of the charge read timing signal TG and the charge sweep transfer timing signal TS is terminated.
[0143]
As a result, the drive signal forming unit 130 stops the continuous transmission of the read gate control signal SG and the sweep transfer drive signal SS in accordance with the leading edge of the light receiving period signal SE as shown in G and H of FIG. Then, as shown in FIG. 22F, at the leading edge of the light reception period signal SE, the light reception period for the light reception / charge transfer section of the solid-state imaging unit 111 is started without including the charge sweeping period. As shown in B, a transition from the shutter standby state to the normal light receiving state is performed.
[0144]
In the light reception period, as shown in FIG. 22D, the internal frame synchronization signal SFO which is reset at the leading edge of the light reception period signal SE and is asynchronous with the frame synchronization signal SF is obtained. SXO is not obtained. As a result, during the light receiving period, the readout gate control signal SG is not obtained, the charge readout gate unit 118 is maintained in the closed state, and charge accumulation by light reception in a large number of light receiving element units 116 is shown in FIG. It is done as you can.
[0145]
After that, when the trailing edge of the light reception period signal SE supplied from the control unit 133 to the timing signal generator 131 arrives at the time point tg, the timing signal generator 131 receives the light reception period as shown in D and E of FIG. An internal frame synchronization signal SFO is obtained according to the trailing edge of the signal SE, and a timing signal SXO is obtained according to the leading edge of the internal frame synchronization signal SFO. The time tf at the trailing edge of the light receiving period signal SE is set by the control unit 133 according to the shutter speed designated by the shutter speed designation signal SSV supplied thereto. Then, the timing signal generator 131 sends out a charge read timing signal TG and a signal charge transfer timing signal TT in response to the timing signal SXO. As a result, as shown in G and I of FIG. 22, the drive signal forming unit 130 responds to the read gate control signal SG having the leading edge corresponding to the trailing edge of the light receiving period signal SE and the trailing edge of the light receiving period signal SE. The signal charge transfer drive signal ST having the leading edge is sent to the light receiving / charge transferring unit of the solid-state imaging unit 111, and the light receiving period ends.
[0146]
As a result, in the light receiving / charge transfer unit of the solid-state imaging unit 111, each charge readout gate unit 118 is opened according to the readout gate control signal SG, and as shown in FIG. In addition to reading out the charges in the unit 116 to each vertical charge transfer unit 117, each vertical charge transfer unit 117 is read out through the charge read gate unit 118 which is opened in accordance with the signal charge transfer drive signal ST. A charge transfer operation is performed to transfer the generated charges as signal charges to the horizontal charge transfer unit 123 in the semiconductor substrate 115. Further, a charge transfer operation is performed in which the horizontal charge transfer unit 123 transfers the charges transferred by the vertical charge transfer units 117 to the output unit 124 as signal charges in accordance with the signal charge transfer drive signal ST. . The charge transferred to the output unit 124 is converted into an imaging output signal IP by the output unit 124, and the imaging output signal IP is led to the output terminal 125.
[0147]
During the charge transfer period in which the charge transfer operation by each vertical charge transfer unit 117 and horizontal charge transfer unit 123 is performed, the timing signal generation unit 131 thereafter performs internal frame synchronization as shown in D and E of FIG. At the time point th when the signal SFO is obtained and the timing signal SXO is obtained in accordance with the leading edge of the internal frame synchronization signal SFO, the trailing edge of the signal charge transfer drive signal ST arrives and ends. Then, the timing signal generator 131 sends out the charge read timing signal TG and the charge sweep transfer timing signal TS in accordance with the timing signal SXO, thereby causing the drive signal forming unit 130 to show the signals G and H in FIG. As shown, the read gate control signal SG having a leading edge corresponding to the trailing edge of the signal charge transfer driving signal ST and the sweeping charge transfer driving signal SS having a leading edge corresponding to the trailing edge of the signal charge transfer driving signal ST are solidified. The charge is discharged to the light receiving / charge transfer unit of the imaging unit 111 and the charge sweeping operation is performed.
[0148]
Thereafter, at time ti, the control unit 133 sends a synchronization return command signal SR to the timing signal generator 31, and thereby, as shown in FIG. 22D, the internal frame synchronization signal obtained in the timing signal generator 131. The SFO again has a certain phase difference from the frame synchronization signal SF, and the SF synchronization is restored.
[0149]
As described above, when the still image capturing operation is performed under the asynchronous shutter standby light receiving mode, the shutter standby state is taken in advance, and the charge sweeping operation is continuously performed in the light receiving / charge transfer unit of the solid-state imaging unit 111. When the shutter operation is performed, the continuous charge sweeping operation performed until the time of the shutter operation is terminated, and immediately, the light receiving / charge transfer unit of the solid-state imaging unit 111 As a result, a light receiving state in which effective charge accumulation is performed in a large number of light receiving element portions 116 in the light receiving / charge transferring portion is obtained. Therefore, when a shutter operation is performed, an extremely quick light reception response operation is performed.
[0150]
Next, the multiple exposure mode will be described. When the operation mode designated by the operation mode designation signal SM is the multiple exposure mode, the control unit 133 supplies the multiple exposure mode setting signal SMM to the timing signal generator 131. In response to the multiple exposure mode setting signal SMM, the timing signal generator 131 generates an internal frame synchronization signal SFO for the frame synchronization signal SF from the synchronization signal generator 132 shown in FIG. As shown in C, three periods of the internal frame synchronization signal SFO are set as unit periods, and a predetermined number, for example, seven timing signals SXO, for example, seven timing signals SXO are generated with a constant period within each unit period.
[0151]
In addition, the timing signal generator 131 sends out a charge read timing signal TG corresponding to the leading edge of each of a predetermined number of timing signals SXO in each unit period of three cycles of the internal frame synchronization signal SFO, The charge discharge timing signal TD is continuously transmitted during the period from the trailing edge of the last number of timing signals SXO to the end of the unit period, and each of the three periods of the internal frame synchronization signal SFO The signal charge transfer timing signal TT is sent during a period of one cycle for the final internal frame synchronization signal SFO in the unit period.
[0152]
As a result, the drive signal forming unit 130, in accordance with the charge readout timing signal TG, as shown in FIG. 23D, a predetermined number within each unit period for three cycles of the internal frame synchronization signal SFO, For example, the seven readout gate control signals SG are sent to the light receiving / charge transfer unit of the solid-state imaging unit 111, and the internal frame synchronization signal as shown in FIG. 23E according to the charge discharge timing signal TD. Solid-state imaging of the overflow gate control signal SD that continues during the period from the trailing edge of the predetermined number of read gate control signals SG in each unit period of SFO for the three periods to the end of the unit period To the light reception / charge transfer unit of the unit 111. Further, the drive signal forming unit 130 determines the final internal frame in each unit period corresponding to three cycles of the internal frame synchronization signal SFO, as shown in G of FIG. 23, according to the signal charge transfer timing signal TT. The signal charge transfer drive signal ST is sent to the light receiving / charge transfer unit of the solid-state imaging unit 111 during a period of one cycle of the synchronization signal SFO.
[0153]
As a result, in the light receiving / charge transfer unit of the solid-state imaging unit 111, a predetermined number of, for example, seven read gate control signals SG between each other during each unit period of three cycles of the internal frame synchronization signal SFO. Is a divided light receiving period for the light receiving / charge transfer unit, and as shown in FIG. 23F, in each divided light receiving period, a large number of light receiving element units 116 in the light receiving / charge transfer unit receive charges due to light reception. Is accumulated. Then, the charges obtained in each divided light receiving period are sequentially read out to each vertical charge transfer section 117 by each charge reading gate section 18 which is opened by supplying a reading gate control signal SG in a period following that period. It is.
[0154]
In this way, during each unit period of three periods for the internal frame synchronization signal SFO, each vertical charge transfer unit 117 from each of the light receiving element units 116 in the light receiving / charge transfer unit through each charge read gate unit 118. The charges that are intermittently read out are accumulated and accumulated in each vertical charge transfer unit 117 until the period of one cycle for the final internal frame synchronization signal SFO in each unit period arrives.
As a result, multiple exposure is performed on a large number of light receiving element portions 116 in the light receiving / charge transfer portion during each unit period substantially corresponding to three cycles of the internal frame synchronization signal SFO. .
[0155]
Then, when a period of one cycle for the final internal frame synchronization signal SFO in each unit period arrives, the charges accumulated and accumulated in each vertical charge transfer unit 117 are transferred to the light receiving / charge transfer unit of the solid-state imaging unit 111. By supplying the signal charge transfer drive signal ST, signal charges are transferred from each vertical charge transfer unit 117 to the horizontal charge transfer unit 123 and further from the horizontal charge transfer unit 123 to the output unit 124.
Then, the charge transferred to the output unit 124 is converted into the imaging output signal IP by the output unit 124, and the imaging output signal IP is derived to the output terminal 125.
[0156]
Thus, during the period in which the charges accumulated and accumulated in each vertical charge transfer unit 117 are transferred as signal charges, the charges obtained by receiving light in the many light receiving element units 116 in the light receiving / charge transferring unit of the solid-state imaging unit 111 are: At that time, the overflow gate control signal SD is continuously supplied to the overflow gate electrode ED provided in the light receiving / charge transfer unit, and is discharged to the drain unit 121 through the overflow control unit 120 which is opened. Therefore, at the start of the divided light-receiving period for the light-receiving / charge transfer unit in each unit period, unnecessary charges due to light reception prior to the divided light-receiving period are received in the many light-receiving element units 116 in the light-receiving / charge transfer unit. There is no situation that would be accumulated.
[0157]
In this way, when a still image capturing operation is performed under the multiple exposure mode, substantially three cycles of the internal frame synchronization signal SFO are obtained based on a relatively simple configuration and operation control. During each unit period, the imaging output signal IP based on the signal charges obtained by performing multiple exposure on the large number of light receiving element portions 116 in the light receiving / charge transferring portion is obtained.
[0158]
Consider a case where such multiple exposure photography and asynchronous shutter based on the prior art are applied to the present invention.
[0159]
The number of images corresponding to the number of times of multiple exposure (N) is displayed superimposed on the image that has been shot with multiple exposure. For example, in the case of an image that has been subjected to multiple exposure shooting with N = 2, an image 201 and an image 202 as shown in FIG. Become.
[0160]
In this case, the image 203 displays a plurality of identifiers whose positions change with time. Here, since the case where the number of multiple exposures is N = 2 is considered, it is possible to detect the position of the aiming point twice as accurately in consideration of time series.
The temporal relationship between a plurality of identifiers displayed in one image is inferred from the fact that the stored position changes of past aiming points are continuous.
[0161]
Here, if N = 2 multiple exposure shooting is performed by using a TG (Timing Generator) having a multiple exposure function corresponding to vector calculation processing, a sampling rate equivalent to the conventional one can be expected. Furthermore, if N = 4, it is possible to expect a sampling rate twice that of the prior art, and position detection can be realized at a finer timing. Further, since the transfer rate of the image at this time may be 1 / N of the sampling rate, when applied to the position detection system according to the present invention, the transfer rate can be earned, and a more efficient position detection system. Can be built.
[0162]
For example, USB Ver. Even if transfer is performed at a high-speed mode of 12 MHz conforming to 1.1, it is limited to transfer an image of 30 fps with OVGA 16-bit color number. By performing multiple exposure with N = 4, for example, as shown in FIG. Until the step of extracting the object by collecting successive similar vectors in step S25, more accurate position detection can be realized with a CPU rate that is the same as that at 30 fps and a sampling rate corresponding to 120 fps.
[0163]
Next, consider a case where imaging is performed at an arbitrary timing by an asynchronous shutter. FIG. 25A shows a case where an image is taken at a conventional fixed timing, and FIG. 25B shows a case where a game device to which the present invention is applied takes an image at an arbitrary timing.
[0164]
Conventionally, as shown in FIG. 25 (A), the previous image 210 and the subsequent image 211 are imaged at a fixed timing at an interval of 1/30 seconds, and an arbitrary period from the first imaging to 1/30 seconds. It was impossible to take an image at this timing.
[0165]
By using the asynchronous imaging technique described with reference to FIGS. 20 and 22 in the position detection system according to the present invention, an image 212 can be obtained at an arbitrary timing as shown in FIG. .
[0166]
Note that an image immediately before an image obtained at an arbitrary timing (an image captured at an original fixed timing) 213 cannot be read because it is swept away. However, the image 214 after the image 212 obtained at an arbitrary timing is read in accordance with the CCD reading timing of 1/30 seconds as a normal imaging timing.
[0167]
When a conventional imaging device is used, the position of a feature point can be detected only from an image obtained at a CCD readout timing such as 1/30 second. In addition, as described above, even when the image is taken by multiple exposure shooting, the position can be detected only from the image obtained by time-dividing the CCD readout timing such as 1/30 second by a small integer up to about N = 4. There wasn't. On the other hand, since the position detection system according to the present invention can capture an image at an arbitrary timing and measure the position of a feature point at an arbitrary timing, it is more accurate than the case of estimating the position of a feature point by interpolation. Motion detection is possible.
[0168]
As described above, the position detection system according to the present invention can perform the following position detection as the fourth embodiment and the fifth embodiment by applying the multiple exposure shooting and the shooting by the asynchronous shutter. To do.
[0169]
The position detection system 4 shown as the fourth embodiment of the present invention displays an identifier on a display device, captures a display image including the identifier with an imaging device as an operation input device, and analyzes the captured image in an analysis unit. A position detection system that detects a positional relationship between a display device and an imaging device and an orientation of the imaging device with respect to the display device by non-contact by performing analysis, for example, a predetermined position or a predetermined position of an image displayed on the display device In addition to making it possible to input an image by selecting an image pickup device as an operation input device to face the image, it is possible to perform the selection operation continuously by multiple exposure shooting. This is the user interface.
[0170]
As shown in FIG. 26, the position detection system 4 includes a game casing 70 having a display unit 73 and a speaker 74, a gun-type imaging device 71 that imitates a gun, a shield-type imaging device 72 that imitates a shield, Is provided.
[0171]
An animation image or the like that is the content of the game is output to the display unit 73, and sound effects, music, and the like are reproduced from the speaker 74 in accordance with the image displayed on the display unit 73. In the position detection system 4 shown in FIG. 26, a background image, an identifier 75, an aiming point 76, and an aiming point 77 are displayed on the display unit 73, although details are not shown.
[0172]
In this way, the position detection system 4 determines the aim point 76 toward the shooting target displayed on the display unit 73 using the gun-type imaging device 71 as an operation input device imitating the gun 1000, for example. The game device is configured such that the aiming point 77 as a shield is set using the shield-type imaging device 72 as an operation input device imitating a shield to prevent flying objects.
[0173]
The gun-type imaging device 71 is an imaging camera including a CCD (Charge Coupled Device) as an imaging device, and displays an image displayed on the display unit 73 when the user 1000 faces the display unit 73 of the game housing 70. The surrounding environment including the image is captured, and the image in the imaging range 78 is transmitted to the game housing 70. At this time, the center of the imaging range 78 captured by the gun-type imaging device 71 is displayed as a sighting point 76 at a corresponding location on the display unit 73.
[0174]
The shield-type image pickup device 72 is also an image pickup camera having a CCD, and picks up the surrounding environment including an image displayed on the display unit 73 when facing the display unit 73 by the user. An image in the range 79 is transmitted to the game housing 70.
At this time, a predetermined area at the center of the imaging range 79 is displayed as a sighting point 77 at a corresponding portion of the display unit 73.
[0175]
Since the position detection system 4 performs the same processing as the position detection system 1 of the first embodiment, the specific circuit configuration is the same as those of the position detection system 1 of the first embodiment. Detailed description will be omitted.
[0176]
As a matter of course, even components that are common to the position detection system 1 of the first embodiment can be appropriately modified so as to be adapted to the position detection system 4 of the fourth embodiment. Needless to say, it can be done.
[0177]
Since the process of displaying the aiming point is the same as that of the position detection systems 1 to 3 described above, a description thereof will be omitted.
[0178]
The position detection system 5 shown as the fifth embodiment of the present invention displays an identifier on a display device, captures a display image including the identifier with an imaging device as an operation input device, and analyzes the captured image. A position detection system that detects the positional relationship between the display device and the imaging device, the orientation of the imaging device with respect to the display device, and the like by non-contact by analyzing in the means, Alternatively, it is a user interface that allows an imaging device as an operation input device to face a predetermined image and can perform operation input by a position detection operation using an asynchronous shutter.
[0179]
As shown in FIG. 27, the position detection system 5 includes a game housing 80 having a display unit 82 and a speaker 83, a racket-type imaging device 81 that imitates a racket, and a contact sensor 84.
[0180]
An animation image or the like that is the content of the game is output to the display unit 82, and sound effects, music, and the like are reproduced from the speaker 83 in accordance with the image displayed on the display unit 82. In the position detection system 5 shown in FIG. 27, a background image, an identifier 85, and a sphere 86 are displayed on the display unit 82, although details are not shown.
[0181]
In this way, the position detection system 5 is displayed on the display unit 82 by performing an operation of actually hitting a ball using the racket type imaging device 81 as an operation input device imitating the racket, for example. The game device is configured such that the ball 86 is returned to the player.
[0182]
Since the position detection system 5 performs the same processing as the position detection system 1 of the first embodiment, the specific circuit configuration is the same as that of the position detection system 1 of the first embodiment. Detailed description will be omitted.
[0183]
The user holds the racket-type imaging device 81 imitating a table tennis racket in accordance with a sphere displayed with a three-dimensional depth on the display unit 82, and performs an operation of hitting the displayed sphere. At this time, an image in the imaging range 87 is captured and transferred to the game housing 80.
[0184]
The game control unit provided in the game housing 80 detects the position and orientation of the racket-type imaging device 81 at a timing corresponding to the time when the sphere 86 displayed with a three-dimensional depth on the display device reaches the user. Is detected from the actually detected position and angle, and the trajectory of the hit ball is calculated and displayed so that the ball 86 is hit according to the trajectory.
[0185]
Further, for example, the user strongly steps on the contact sensor 84 during smashing. At this time, the position detection by the asynchronous shutter is performed using the timing when the contact sensor 84 is stepped on as a trigger.
[0186]
Therefore, such a position detection system 5 can accurately detect the orientation and angle of the racket-type imaging device 81 while performing high-speed movement. The position detection system 5 can be applied not only to table tennis smash but also to similar movements such as tennis smash, golf shot, baseball batting, and dance step.
[0187]
As a matter of course, even components that are common to the position detection system 1 of the first embodiment can be appropriately modified so as to be adapted to the position detection system 5 of the fifth embodiment. Needless to say, it can be done.
[0188]
In the conventional method of detecting the scanning line of the cathode ray tube with the light receiving element, it is necessary to flash the screen every time the position is detected. Therefore, it is necessary to always detect the position and continuously display the pointer. Although not suitable, position detection at a sampling rate higher than the conventional position detection system as shown in the position detection system 4 and the position detection system 5 can be realized by making full use of the above-described multiple exposure photographing.
[0189]
Accordingly, in such a motion detection operation, the determination error range of motion detection can be within the range of human (user) sensory error, so that the aiming point 77 is always displayed as if it were a pointer for the user. It is possible to be as it is. In addition, shooting with an asynchronous shutter enables accurate position detection even for high-speed movements, thereby realizing comfortable operation input that does not give the user a sense of incongruity.
[0190]
As described above, according to the position detection system shown as the first to fifth embodiments, the movement similar to the movement of the game player (user) or the movement in the game world is used as the input information. For example, it is possible to reflect a real-world motion in a virtual world such as a game, and motion detection with higher accuracy and improved real-time control becomes possible.
[0191]
The position detection apparatus as described above can also be applied to projectors, liquid crystal televisions, VGA monitors, and the like that have been introduced in general homes, and is not affected by the specifications of scanning lines such as NTSC and PAL.
[0192]
In the position detection systems 1 to 5, the identifier may not be normally displayed. That is, only when there is an input from the imaging device as the operation input device, for example, in the case of a shooting game, the identifier can be displayed only when the trigger of the gun-type controller is pulled. is there.
[0193]
In addition, each exposure timing at the time of multiple exposure shooting or each shutter timing at the time of shooting by an asynchronous shutter can be used as the timing for displaying the identifier.
[0194]
In the position detection systems 1 to 5, the game processing unit can perform the extraction of feature points by performing chroma key processing. The chroma key process may be performed by the image processing unit.
[0195]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
[0196]
【The invention's effect】
As described above in detail, the position detection device and the position detection method according to the present invention displays a plurality of identifiers, images the identifiers via the imaging unit, and includes the captured identifiers. Is used to analyze the position of the imaging means relative to the display means.
[0197]
Therefore, according to the position detection device and the position detection method as described above, the real world operation can be performed in the virtual world by detecting the actual operation similar to the operation in the virtual world such as the displayed image without contact. It is possible to reflect the motion, and it is possible to perform motion detection with higher accuracy and improved real-time control regardless of the type of display device.
[0198]
Further, the position detection device and the position detection method as described above can be applied regardless of the type of display device. Therefore, it can be applied to projectors, liquid crystal televisions, VGA monitors, and the like that have begun to be introduced in ordinary homes, and is not affected by the specifications of scanning lines such as NTSC and PAL. Therefore, the cost at the time of introduction is reduced, and convenience for the user is improved.
[0199]
The entertainment apparatus according to the present invention includes a display control unit that performs control to display a plurality of identifiers, an imaging unit that captures the identifiers via an imaging unit, and the plurality of imaging units that use the captured identifiers. Analysis means for analyzing the position relative to the display means for displaying the identifier, and control means for controlling the program by converting the position information analyzed by the analysis means into control information.
[0200]
Therefore, according to the entertainment apparatus as described above, the real world can be detected in the virtual world by detecting the actual movement similar to the movement of the game player (user) and the virtual world such as the game world in a non-contact manner. It is possible to reflect the motion, and it is possible to perform motion detection with higher accuracy and improved real-time control regardless of the type of display device. Furthermore, it is possible to control the program by converting the detected position information into control information.
[0201]
In addition, the entertainment device as described above can be applied regardless of the type of display device. Therefore, it can be applied to projectors, liquid crystal televisions, VGA monitors, and the like that have begun to be introduced in ordinary homes, and is not affected by the specifications of scanning lines such as NTSC and PAL. Therefore, the cost at the time of introduction is reduced, and convenience for the user is improved.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an outline of a configuration of a position detection system shown as a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a position detection system shown as the first embodiment of the present invention.
FIG. 3 is a schematic diagram showing an outline when the position detection system shown as the first embodiment of the present invention performs calibration.
FIG. 4 is a schematic diagram showing an outline when the position detection system shown as the first embodiment of the present invention performs calibration.
FIG. 5 is a flowchart showing a process in which an image is captured by the control type imaging apparatus in the position detection system shown as the first embodiment of the present invention.
FIG. 6 is a flowchart showing processing in which the game control unit in the position detection system shown as the first embodiment of the present invention detects the position of the aiming point.
FIG. 7 is a schematic diagram showing a concept for predicting the position of an identifier.
FIG. 8 is a schematic diagram showing an outline of a configuration of a position detection system shown as a second embodiment of the present invention.
FIG. 9 is a block diagram showing a configuration of a position detection system shown as a second embodiment of the present invention.
FIG. 10 is a flowchart illustrating a process in which an image is captured by a control-type imaging device in the position detection system according to the second embodiment of the present invention.
FIG. 11 is a flowchart showing processing in which the game control unit detects the position of the aiming point in the position detection system shown as the second embodiment of the present invention.
FIG. 12 is a flowchart showing processing performed by an image control unit in the position detection system shown as the second embodiment of the present invention.
FIG. 13 is a block diagram showing a configuration of a position detection system shown as a third embodiment of the present invention.
FIG. 14 is a conceptual diagram showing the concept of a vector field.
FIG. 15 is a characteristic diagram used to explain a procedure for calculating a motion vector from a density change.
FIG. 16 is a flowchart showing processing in which the game control unit in the position detection system shown as the third embodiment of the present invention detects the position of the aiming point.
FIG. 17 is a block diagram illustrating a configuration of an imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 18 is an explanatory diagram illustrating a light receiving / charge transfer unit in a solid-state imaging unit of an imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 19 is a diagram illustrating a part of a light receiving / charge transfer unit in a solid-state imaging unit of an imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 20 is a time chart for explaining the operation of the imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 21 is an enlarged view of the time chart showing a part of the time chart shown in FIG. 20 in an enlarged manner.
FIG. 22 is a time chart for explaining the operation of the imaging apparatus that performs imaging using an asynchronous shutter and multiple exposure imaging.
FIG. 23 is a time chart for explaining the operation of the imaging apparatus that performs shooting using an asynchronous shutter and multiple exposure shooting.
FIG. 24 is a schematic diagram showing an image that has been subjected to multiple exposure shooting of N = 2.
FIG. 25 is a diagram illustrating imaging timing when imaging is performed at an arbitrary timing by an asynchronous shutter.
FIG. 26 is a schematic diagram showing an outline of a configuration of a position detection system shown as a fourth embodiment of the present invention.
FIG. 27 is a schematic diagram showing an outline of a configuration of a position detection system shown as a fifth embodiment of the present invention.
[Explanation of symbols]
1, 2, 3, 4, 5 Position detection system 10, 70, 80 Game housing, 11, 60 Controller-type imaging device, 12, 73, 82 Display unit, 13, 74, 83 Speaker, 14, 75, 85 Identifier, 15 target, 16 aiming point, 17, 78, 79 imaging range, 20 lens unit, 21 CCD imager, 22 S / H unit, 23 AGC unit, 24 A / D unit, 25 signal processing unit, 26 TG unit, 27 imaging drive unit, 28 imaging control unit, 29 SDRAM, 30 main memory, 31 mechanical I / F, 32 game control unit, 33 display control unit, 34 ROM, 35 image display unit, 36 frame memory, 37 bus, 40 Monitor, 50 game device, 51 I / F unit, 52 Monitor I / F unit, 53 Vector operation unit, 61 I / F unit, 71 Gun type imaging device, 72 Shield type imaging device, 76 , 77 Aiming point, 81 Racket type imaging device, 84 Contact sensor, 86 spheres

Claims (15)

表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析手段と、
過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段とを備え
上記解析手段は上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析する位置解析装置。
Analyzing means for analyzing the position of the imaging means relative to the display means using an identifier imaged by an imaging means for imaging the identifier displayed on the display means ;
Storage means for storing the position of a predetermined point within the imaging range imaged in the past ,
The analysis means uses the image taken by multiple exposure by the imaging means, and the temporal relationship between a plurality of identifiers displayed in one image is stored in the storage means in the past. A position analysis device that analyzes the position by analogy with the fact that the position change is continuous .
上記撮像手段は、非同期シャッタを備える請求項1記載の位置解析装置。  The position analysis apparatus according to claim 1, wherein the imaging unit includes an asynchronous shutter. 上記解析手段は、上記撮像手段と無線で接続される請求項1記載の位置解析装置。  The position analysis apparatus according to claim 1, wherein the analysis unit is wirelessly connected to the imaging unit. 動き検出を行うベクトル演算手段をさらに備え、
上記解析手段は、上記ベクトル演算手段により動き検出を行う請求項1記載の位置解析装置。
It further comprises vector calculation means for performing motion detection,
The position analysis apparatus according to claim 1, wherein the analysis unit performs motion detection by the vector calculation unit.
識別子を表示する表示手段を備える請求項1記載の位置解析装置。  The position analysis apparatus according to claim 1, further comprising display means for displaying the identifier. 表示手段を撮像する撮像手段を備える請求項1記載の位置解析装置。  The position analysis apparatus according to claim 1, further comprising an imaging unit that images the display unit. 上記識別子は、所定の色範囲で識別される識別子である請求項1記載の位置解析装置。  The position analysis device according to claim 1, wherein the identifier is an identifier identified by a predetermined color range. 上記識別子は、所定模様で識別される識別子である請求項1記載の位置解析装置。  The position analysis device according to claim 1, wherein the identifier is an identifier identified by a predetermined pattern. 上記識別子は、所定の輝度範囲で識別される識別子である請求項1記載の位置解析装置。  The position analysis device according to claim 1, wherein the identifier is an identifier identified by a predetermined luminance range. 上記解析手段は、上記識別子を自動的に認識する請求項1記載の位置解析装置。  The position analysis apparatus according to claim 1, wherein the analysis unit automatically recognizes the identifier. 上記解析手段は、予め決められている所定動作により検出される識別子の位置を基準として比較することで、上記撮像された識別子を認識する請求項10記載の位置解析装置。  11. The position analyzing apparatus according to claim 10, wherein the analyzing means recognizes the imaged identifier by comparing with a position of the identifier detected by a predetermined operation determined in advance as a reference. 上記所定動作は、上記解析手段において制御される動作である請求項11記載の位置解析装置。  12. The position analyzing apparatus according to claim 11, wherein the predetermined operation is an operation controlled by the analyzing means. 上記所定動作は、上記解析手段に同期した動作である請求項11記載の位置解析装置。  The position analyzing apparatus according to claim 11, wherein the predetermined operation is an operation synchronized with the analyzing means. 表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析工程と、
過去に撮像された撮像範囲内の所定点の位置を記憶手段に記憶する記憶工程とを備え
上記解析工程では上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析する位置解析方法。
An analysis step of analyzing the position of the imaging means relative to the display means using an identifier imaged by an imaging means for imaging the identifier displayed on the display means ;
A storage step of storing the position of a predetermined point in the imaging range captured in the past in the storage means ,
In the above analysis process, using an image that is multiple exposure shooting by the image pickup means, a temporal context between a plurality of identifiers to be displayed in one image, past the predetermined point stored in the storage means A position analysis method for analyzing the position by analogy with the fact that the position change is continuous .
表示手段に表示される識別子を撮像する撮像手段により撮像される識別子を用いて上記撮像手段の上記表示手段に対する位置を解析する解析手段と、
過去に撮像された撮像範囲内の所定点の位置を記憶する記憶手段と、
上記解析手段で解析された位置情報を制御情報に変換してプログラムを制御する制御手段とを備え、
上記解析手段は上記撮像手段により多重露光撮影される画像を用いて、1つの画像に表示される複数の識別子間の時間的な前後関係を、上記記憶手段に記憶した過去の上記所定点の位置変化が連続になっていることを手掛かりとして類推して、上記位置を解析するエンターテインメント装置。
Analyzing means for analyzing the position of the imaging means relative to the display means using an identifier imaged by an imaging means for imaging the identifier displayed on the display means;
Storage means for storing the position of a predetermined point within the imaging range imaged in the past;
Control means for controlling the program by converting the position information analyzed by the analysis means into control information,
The analysis means uses the image that has been subjected to multiple exposure photography by the imaging means, and the temporal relationship between a plurality of identifiers displayed in one image is stored in the storage means in the past. An entertainment device that analyzes the position by analogy with the fact that the position change is continuous .
JP2000275397A 2000-09-11 2000-09-11 POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE Expired - Fee Related JP4581204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000275397A JP4581204B2 (en) 2000-09-11 2000-09-11 POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000275397A JP4581204B2 (en) 2000-09-11 2000-09-11 POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE

Publications (2)

Publication Number Publication Date
JP2002081909A JP2002081909A (en) 2002-03-22
JP4581204B2 true JP4581204B2 (en) 2010-11-17

Family

ID=18761025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000275397A Expired - Fee Related JP4581204B2 (en) 2000-09-11 2000-09-11 POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE

Country Status (1)

Country Link
JP (1) JP4581204B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8456534B2 (en) 2004-10-25 2013-06-04 I-Interactive Llc Multi-directional remote control system and method
WO2006074290A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
TWI281623B (en) * 2005-05-10 2007-05-21 Pixart Imaging Inc Orientation point orientating method of orientation device and device thereof
JP4715366B2 (en) * 2005-07-27 2011-07-06 パナソニック電工株式会社 Multiple image composition method and multiple image composition device
JP4773170B2 (en) 2005-09-14 2011-09-14 任天堂株式会社 Game program and game system
US7553229B2 (en) * 2006-03-21 2009-06-30 Avago Technologies General Ip (Singapore) Pte. Ltd. Active referencing method with interleaved crosshair navigation frames
US8096880B2 (en) 2006-08-15 2012-01-17 Nintendo Co., Ltd. Systems and methods for reducing jitter associated with a control device
JP5132131B2 (en) * 2006-11-17 2013-01-30 任天堂株式会社 Pointing device adjustment program and pointing device
TWI338241B (en) * 2007-08-23 2011-03-01 Pixart Imaging Inc Interactive image system, interactive device and operative method thereof
JP5384047B2 (en) * 2008-07-24 2014-01-08 株式会社タイトー Game machine input device, game machine
CN102422306B (en) 2009-04-08 2015-09-09 高通股份有限公司 Enhancement mode handheld screen-sensing pointer
JP5735865B2 (en) * 2011-06-17 2015-06-17 任天堂株式会社 Game system and game program
US9569892B2 (en) 2013-09-26 2017-02-14 Qualcomm Incorporated Image capture input and projection output
CN113040084B (en) * 2021-03-23 2022-10-14 武汉大学 Experimental device for analyzing influence of current field in water on fish behaviors

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3422383B2 (en) * 1994-09-05 2003-06-30 株式会社タイトー Method and apparatus for detecting relative position between video screen and gun in shooting game machine
JP2681454B2 (en) * 1995-02-21 1997-11-26 コナミ株式会社 Shooting game device
JPH11305935A (en) * 1998-04-24 1999-11-05 Image Tec Kk Position detection system

Also Published As

Publication number Publication date
JP2002081909A (en) 2002-03-22

Similar Documents

Publication Publication Date Title
JP4581204B2 (en) POSITION ANALYSIS DEVICE, POSITION ANALYSIS METHOD, AND ENTERTAINMENT DEVICE
US8711230B2 (en) Image capture apparatus and program
US10225477B2 (en) Imaging apparatus and display control method thereof
JP4018695B2 (en) Method and apparatus for continuous focusing and exposure adjustment in a digital imaging device
US20070263106A1 (en) Photographing apparatus and method
CN106575027A (en) Image pickup device and tracking method for subject thereof
US10382704B2 (en) Image processing device that generates a composite image
JP2004215283A (en) Apparatus and method for reducing image blur in digital camera
WO2001067748A1 (en) Digital camera
JP2012213041A (en) Imaging apparatus, image synthesizing method and program
JP2001358984A (en) Moving picture processing camera
JP2002027315A (en) Apparatus and method for detecting movement
US9215426B2 (en) Imaging apparatus and imaging method
JP5896102B2 (en) Imaging apparatus, imaging control method, and program
JP2002024833A (en) Entertainment system, entertainment device and information processing method
JP5136326B2 (en) IMAGING DEVICE, PROGRAM THEREOF, AND ELECTRONIC DEVICE
CN111279352B (en) Three-dimensional information acquisition system through pitching exercise and camera parameter calculation method
JP5383361B2 (en) Imaging apparatus, control method therefor, and program
JP2010171491A (en) Imaging device, imaging method, and program
JP4231216B2 (en) Virtual scene shooting method and apparatus
JP2007225550A (en) Speed measuring device, imaging device, imaging method, and control program
KR102346928B1 (en) Image processing apparatus, image processing method, and program
JP2010093451A (en) Imaging apparatus and program for imaging apparatus
JP2001215604A (en) Automatic release device and automatic photographing system for camera
WO2019082832A1 (en) Imaging apparatus, imaging apparatus control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees