JP3627027B2 - Image detection system - Google Patents
Image detection system Download PDFInfo
- Publication number
- JP3627027B2 JP3627027B2 JP27500996A JP27500996A JP3627027B2 JP 3627027 B2 JP3627027 B2 JP 3627027B2 JP 27500996 A JP27500996 A JP 27500996A JP 27500996 A JP27500996 A JP 27500996A JP 3627027 B2 JP3627027 B2 JP 3627027B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- integration
- output
- sensor
- monitor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、像振れ検出に用いられる画像検出システムに関するものである。
【0002】
【従来の技術】
画像検出システムにおいて、イメージセンサ上の一部分の画素領域の画像情報のみを必要とする場合がある。例えば、ビデオカメラを用いた電子ズームでは、従来から、不要な画素領域の蓄積電荷を高速で転送して掃き捨て、必要な画素領域の蓄積電荷を一画面の表示時間が1/60sになるように合わせて転送し、表示画面上全体に表示する事がなされている。
【0003】
【発明が解決しようとする課題】
エリアセンサを利用して像振れ検出を行う場合は、シャッターが開いている数分の1s〜1s程度の時間内にエリアセンサの一部分の画素領域の画像情報を繰り返し検出する必要がある。このため、一回のデータダンプ時間を1ms程度にしなければならない。このことは、外付けの高速A/D変換器を利用すれば可能であるが、コストが高くなるという問題がある。
【0004】
また、従来の技術を本システムに応用する事を考える。従来のビデオカメラの電子ズームのシステムと本システムでは、エリアセンサの一部分の画素領域の画像情報のみが必要であるという点では共通するが、本システムではその一部分の画素領域の画像情報を短時間に繰り返し検出する必要があるという点で異なる。
【0005】
よって、従来技術を本システムに応用した場合には、一画面の表示時間がTVシステム用に決まっている1/60sに固定されてしまい、それに合わせて必要な画素領域の蓄積電荷を転送する事になる。しかし、本システムにおいては一画面の表示時間を1/60sに固定する必要はなく可能な限り短時間で転送を終了させたい。
【0006】
本発明は、従来技術を応用した場合の上記のような問題点を解決し、更に外付けの高速A/D変換器を利用する事なく低コストに、シャッターが開いている間に多数回の積分・データダンプを繰り返し、正確な像振れ検出を行う事ができる画像検出システムを提供する事を目的とする。
【0007】
【課題を解決するための手段】
上記の目的を達成するために、本発明は、エリアセンサと前記エリアセンサを駆動するエリアセンサ駆動部と前記エリアセンサの出力を処理するエリアセンサ出力処理回路部とを有する画像検出システムにおいて、前記エリアセンサの画素領域のうち、像振れ検出に必要な画素領域の蓄積電荷をマイクロコンピュータに内蔵されているA/D変換器でA/D変換できる第1の周波数で読み出して複数の画素の電荷を加算し、像振れ検出に不要な画素領域の蓄積電荷を前記第1の周波数より高い第2の周波数で掃き捨てるようにしている。
【0008】
つまり、読み出される範囲は広くなっても、読み出される画素数を少なくするようにする。また、必要な画素領域の蓄積電荷の読み出し速度よりも、不要な画素領域の蓄積電荷は高速で掃き捨てられる事となる。よって、一回の積分・データダンプにかかる時間が、必要領域と不要領域で転送方法を変えない場合と比べて、短くなる。
【0009】
【発明の実施の形態】
図1に二つのエリアセンサ1、2とこれをコントロールするコントロール回路8を有するカメラの画像検出システムのデバイス構成図を示す。エリアセンサ1、2の出力は後述するようにオートフォーカス(AF)や像振れ検出に用いる。尚、エリアセンサ1、2及び後述のモニター3、4は光電変換素子から成っている。
【0010】
このデバイスは、水平転送レジスタ21a、21bを有するエリアセンサ1、2と、それらのエリアセンサ1、2の各二辺に沿ったL字形状のモニター3、4、AGC回路7、コントロール回路8、ゲイン可変アンプ10、S/H(サンプルホールド)回路22、クランプ回路11、出力選択回路9、温度検出回路12、マイクロコンピュータμCの各メイン要素から構成されるとともに、それらの各出力バッファと、各出力スイッチを備えている。
【0011】
即ち、モニター3、4の出力バッファ26、27と出力スイッチ5、6、水平転送レジスタ21a、21bの出力バッファ24、25と出力スイッチ30、31を具備している。またこのデバイスにおいてはコントロール回路8をエリアセンサ駆動部、ゲイン可変アンプ10、S/H回路22、クランプ回路11、出力選択回路9をエリアセンサ出力処理回路部という事にする。ここでモニター3、4は、それぞれ対応するエリアセンサ1、2の蓄積電荷をモニターする。水平転送レジスタ21a、21bはエリアセンサ1、2の電荷を一時的に保持してシリアルに出力する。
【0012】
クランプ回路11はエリアセンサ1、2より黒基準画素(OB)の電荷が出力されるタイミングで動作し、暗電流分の電圧をある所定電圧にクランプする。出力選択回路9は全ての出力に共通で、コントロール回路8により、エリアセンサ1、2の出力、モニター3、4の出力、温度検出回路12の出力を選択して出力する。
【0013】
このデバイスは、マイクロコンピュータμCを除いた前記各構成部分を一つの基板上に設けたワンチップのIC(集積回路)として形成されている。以下、このチップ上に形成されているデバイスを内部に、このチップ上に形成されていないデバイスを外部に形成されているという事にする。モニター3、4から出力されるモニター信号は、出力バッファ26、27と出力スイッチ5、6を介して択一的にAGC回路7と出力選択回路9に与えられる。
【0014】
スイッチ5、6はそれぞれMOSトランジスタで形成されており、そのゲート電極にコントロール回路8から発生されるスイッチング信号A、Bがローレベルで印加される事によって導通する。どちらのスイッチが導通するかによって、AGC回路7と出力選択回路9に与えられるモニター信号が選択される。つまり、スイッチング信号AまたはBにより、モニター3又は4のモニター信号の一方を選択する事ができる。このモニター信号の選択については後述する。
【0015】
エリアセンサ1、2とモニター3、4では同時に積分が開始する。積分が開始すると、AGC回路7は入力されたモニター信号が所定電圧になるのを監視していて、所定電圧になるとその情報をコントロール回路8に伝達する。コントロール回路8はその情報を受信すると、エリアセンサ1、2の積分を終了させ、外部のマイクロコンピュータμCに積分が終了した事を伝達する(以下、この積分終了を「自然終了」という)。AGC回路7は、例えば前記所定電圧を基準電圧とし、前記モニター信号を比較電圧とするコンパレータで構成する事ができる。
【0016】
モニター信号が所定時間経過後も所定電圧に達しない場合には、つまり、所定時間経過後も外部のマイクロコンピュータμCに、コントロール回路8から所定電圧に達したという情報が伝達されないと、マイクロコンピュータμCはコントロール回路8にエリアセンサ1、2に対する積分の強制終了を指示し、強制終了が行われる。
【0017】
積分の自然終了、強制終了いずれの場合も、積分が終了すると、出力選択回路9からVout端子46を介して外部のマイクロコンピュータμCに与えられているモニター信号を、積分終了のタイミングでマイクロコンピュータμCに内蔵されているA/D変換器32でA/D変換し、そのデジタル値に応じてエリアセンサの出力に施す増幅率が決定される。この増幅率が、コントロール回路8に伝達され、ゲイン可変アンプ10に対し増幅率が設定される。ここで、積分が自然終了した場合には、この増幅率は1となる。尚、自然終了の場合は、モニター信号をA/D変換して増幅率を決定する事なしに、増幅率を1に設定するようにしてもよい。
【0018】
一方、積分終了後、エリアセンサ1、2の出力は、水平転送レジスタ21a、21bに転送され、出力バッファ24、25とスイッチ30、31を介してゲイン可変アンプ10に入力され、ここで先に設定された増幅率で増幅される。スイッチ30、31はスイッチ5、6と同様の構成で、コントロール回路8はスイッチング信号X、Yを発生させて、ゲイン可変アンプ10に与えられるエリアセンサ1又は2の出力を選択する。
【0019】
このとき本実施形態では、コントロール回路8は、二つのエリアセンサ1、2の出力を交互に選択する。その詳細を図2のタイミングチャートを用いて説明する。ここで、エリアセンサ1からの出力をセンサ出力α、エリアセンサ2からの出力をセンサ出力βとする。エリアセンサ1、2からはそれぞれ(イ)、(ロ)に示すように、コントロール回路8から発生される同一の転送クロック(図示せず)に同期して、データが出力される。
【0020】
このセンサ出力α、βを、コントロール回路8は、(ハ)、(ニ)に示すように前記転送クロックの2倍の周波数で切り替わるスイッチング信号X、Yにより導通させるスイッチ30、31を切り替える。スイッチ30、31はスイッチング信号X、Yがハイレベルのとき導通し、ローレベルのときOFFとなる。よって、スイッチング信号X、Yのハイレベル毎につまり交互にエリアセンサ1、2の出力がゲイン可変アンプ10に入力される。
【0021】
そして、ゲイン可変アンプ10で増幅されたセンサ出力α、βは、S/H回路22でサンプルホールドされる。(ホ)は、そのために発生されるサンプリングパルスを示している。サンプルホールドされた信号はクランプ回路11に与えられる。
【0022】
ここでは、黒基準画素の電荷が出力されるタイミングで暗電流分の電圧をある所定電圧にクランプする。そして、センサ出力α、βは出力選択回路9とVout端子46を介してマイクロコンピュータμCに内蔵されているA/D変換器32に入力される。(ヘ)はその際にA/D変換器32に与えられる信号(S/H回路22の出力)の波形を表したものである。(ト)は、A/D変換後の信号を簡単に示している。
【0023】
この過程で、一旦サンプリングパルスを使ってサンプルホールドするのは、スイッチング信号X、Yを交互にローレベルで出力して導通させるスイッチ30、31を切り替える事により発生するスイッチングノイズの影響を除去するためである。このように上記手法を用いる事で、エリアセンサ1、2を同一クロックで駆動しながら、同じタイミングで出力される二つのエリアセンサ1、2からのデータを取り込みA/D変換する事ができる。
【0024】
本実施形態では、図1のエリアセンサ1、2は像振れ検出センサとオートフォーカスセンサの両用センサとして使用するようになっている。そして、オートフォーカスセンサとして用いる場合には、図2の(イ)〜(ト)に示す方法でエリアセンサ1、2の出力を処理するが、像振れ検出センサとして用いる場合には図2とはA/D変換するタイミングを変更する。ここでは、像振れ検出の場合の相違点(変更点)についてのみ説明しておく。
【0025】
即ち、像振れ検出の場合にはエリアセンサ1、2のうち、一方のデータのみが必要であるので、例えばエリアセンサ1の出力を用いて像振れ検出を行う場合には、センサ出力αがA/D変換器32に与えられているタイミングのみでA/D変換器32を動作させ、センサ出力βが与えられているタイミングではA/D変換器32を不作動にする。逆に、エリアセンサ2の出力を用いて像振れ検出を行う場合には、センサ出力βがA/D変換器32に与えられているタイミングのみでA/D変換器32を動作させ、センサ出力αが与えられている場合にはA/D変換器32を不作動にする。
【0026】
この方法の代わりに、サンプリングパルスを図3に示す論理回路によって、オートフォーカス時と像振れ検出時で切り替えて発生させ、それに同期したA/D変換の開始信号でA/D変換を行うようにしても良い。つまり、必要なデータのみをサンプルホールドし、そのサンプルホールドされたデータをA/D変換するというものである。この論理回路は、図3に示すように、入力端子33、34、35、36、NAND回路38、39、AND回路37、40、OR回路41、出力端子42から構成されている。
【0027】
入力端子33からはサンプリングパルスαが、入力端子36からはサンプリングパルスβが入力される。ここでサンプリングパルスαとサンプリングパルスβについて説明する。S/H回路22にはコントロール回路8より発生されるスイッチング信号X、Yによって、図4(チ)に示すようにセンサ出力α、βが交互に与えられる。
【0028】
サンプリングパルスαとは、図4(リ)に示すようにセンサ出力αがS/H回路22に与えられるタイミングで発生されるパルスである。同様にサンプリングパルスβとは、図4(ヌ)に示すようにセンサ出力βが与えられるタイミングで発生されるパルスである。これらのサンプリングパルスはコントロール回路8から与えられる。
【0029】
入力端子35からは、二つのセンサ出力α、βの内、サンプルホールドするセンサ出力を一方にするのか双方にするのかを特定する信号が与えられる。像振れ検出時のように一方のセンサ出力α又はβのみを使う場合、つまりサンプリングパルスα又はサンプリングパルスβを単独で出力端子42より出力させる場合にはハイレベルが入力さる。
【0030】
また、オートフォーカス時のように双方のセンサ出力α、βを使う場合、つまり二つのサンプリングパルスα、βを出力端子42より出力させる場合にはローレベルが入力される。一方、入力端子34からは、像振れ検出において、サンプリングパルスαを単独で出力端子42より出力させる場合にはハイレベルが入力され、サンプリングパルスβを単独で出力端子42より出力させる場合にはローレベルが入力される。
【0031】
例えば、入力端子35にローレベルが入力された場合、入力端子34にどちらの信号が入力されても、出力端子42から出力されるサンプリングパルスは(ル)に示すようにサンプリングパルスαとサンプリングパルスβが合成されたものとなる。その結果、図2の(ホ)に示すサンプリングパルスと同様のものとなり、センサ出力α、β共にS/H回路22でサンプルホールドされる。
【0032】
また、入力端子35にハイレベルが入力され、入力端子34にハイレベルが入力された場合は出力端子42から出力されるサンプリングパルスは(ヲ)に示すようにサンプリングパルスαが単独のものとなり、センサ出力αのみがS/H回路22でサンプルホールドされる。
【0033】
次に、図5、図6に、モニター3、4とエリアセンサ1、2との配置関係の詳細を示す。図5では、モニター3、4がエリアセンサ1、2の周囲のうち、水平転送レジスタ21a、21bと黒基準画素14、15が存する部分を避けて、L字形状に配置されている。
【0034】
水平転送レジスタ21a、21bと黒基準画素14、15が存する部分を避けているのは、これらの部分が存すると、モニター3、4がエリアセンサ1、2の有効画素から離れてしまい、モニター3、4が見ている位置が実際のエリアセンサ1、2が見ている位置と大きくずれてしまうからである。更に、モニター3、4をL字形状ではなくエリアセンサ1、2の全体を囲むように配置すると、チップ面積を増大させてしまい、コストがかかってしまうからである。
【0035】
図6では、モニター3、4がエリアセンサ1、2の周囲のうち、水平転送レジスタ21a、21bのある部分のみを避けて、コの字型の形状に配置されている。黒基準画素14、15の部分を避けていないのは、黒基準画素14、15が占める面積は水平転送レジスタ21a、21bが占める面積と比べると、狭いために、実際のエリアセンサ1、2が見ている部分とのズレは大きくなく許容できる範囲であり、また黒基準画素14、15の近傍に高輝度部がある場合の不具合を回避できると考えられるからである。図6では、コスト的な事よりも、黒基準画素14、15付近に高輝度な画像が結像している場合に、それを確実にモニターする事によりオーバーフローしてしまう事を防ぐ事を目的としている。
【0036】
図7に二つのエリアセンサ1、2を有するカメラの画像検出システムのデバイス構成図の図1とは異なる例を示す。図7のエリアセンサ1、2も図1と同様にオートフォーカスと像振れ検出の両用センサとして使用する。図7では、図1のモニター3、4が3a、3bと4a、4bに分割されていて、それぞれのモニター3a、3b、4a、4bの出力は、出力バッファ26a、26bと27a、27bとスイッチ5a、5bと6a、6bを介してAGC回路7と出力選択回路9に与えられる。このとき、コントロール回路8から出力されるスイッチング信号A1、A2、B1、B2によりAGC回路7と出力選択回路9に与えられるモニター信号が選択される。
【0037】
更に、図7のデバイスでは、AGC回路7は積分を自然終了させるか強制終了させるかの判定基準となる所定電圧を複数持つように構成されており、その所定電圧の切り替えをコントロール回路8より発生される制御信号Cによって行う。例えば、コントロール回路8はスイッチング信号A1、A2をローレベルにしてスイッチ5a、5bを同時に導通させて、モニター3a、3bのモニター信号を同時に使用するモードの時は、AGC回路7の所定電圧を制御信号Cによって高い電圧に切り替える。
【0038】
これに対し、スイッチ5a、5bの一方のみを導通させて、モニター3a、3bの内一方のモニター信号のみを使用するモードの時は、AGC回路7の所定電圧を制御信号Cによって低い電圧に切り替える。スイッチ6a、6bを制御してモニター4a、4bのモニター信号を使用する場合もAGC回路7の所定電圧を切り替えて行う。その他の構成は図1と同様である。
【0039】
図1、図7の画像検出システムを像振れ検出に応用する場合は、先にも述べたように二つのエリアセンサ1、2のうち、いずれか一方のエリアセンサ1又は2のデータのみを必要とするので、その使用するエリアセンサに対応したモニターのモニター信号を使用して積分制御を行う。図1、図7の画像検出システムをオートフォーカスに応用する場合は、二つのエリアセンサ1、2のデータを必要とする。
【0040】
このときの積分制御に使用するモニターの選択について、図8のフローチャートを用いて説明する。まずステップ#5で今回の積分が初回の積分か否かを判定して、その結果、初回の積分であればステップ#10へ進んで第一モニター(図1ではモニター3、図7ではモニター3aとする)のモニター信号を使用して積分制御を行う。
【0041】
今回の積分が初回の積分でなければステップ#15へ進んで、前回の積分結果において、エリアセンサ1、2の有効領域内に飽和している画素領域があるかを調べて、飽和している画素領域があればその近傍のモニターのモニター信号を使用する(ステップ#20)。例えば図7の画像検出システムにおいて、前回はモニター3aのモニター信号を使用して積分制御を行ったとする。
【0042】
そして、前回の積分結果において、エリアセンサ1内のモニター3bの近傍に飽和部位が検出された場合は、今回の積分ではモニター3bのモニター信号を使用して積分制御を行う。あるいは、エリアセンサ1内には飽和部位は検出されず、エリアセンサ2内のモニター4bの近傍に飽和部位が検出された場合は、今回の積分ではモニター4bのモニター信号を使用して積分制御を行う。これに対し、ステップ#15でエリアセンサ1、2の有効領域内に飽和部位が検出されなければ、そのまま前回使用したモニターのモニター信号を使用して積分制御を行う(ステップ#25)。
【0043】
図1、図7に示す画像検出システムを、像振れ検出とオートフォーカスに適用する場合の光学系の模式図を図9、図10に示す。図9はレンズシャッター方式のカメラ等に用いられる外光方式の位相差方式焦点検出のための光学系の模式図である。被写界における検出感度域16の被写体光を一対のセパレータレンズ17で光路分割して、CCDで構成される一対のエリアセンサ1、2上に投影する構成になっている。この分割された二つの像を基に距離を測定して、オートフォーカスを行う。
【0044】
図10は、一眼レフカメラ等に用いられるTTL方式の位相差方式焦点検出のための光学系の模式図である。被写体の撮影光が結像するフィルム等価面19の後方に位置するコンデンサーレンズ20により再結像された光を、一対のセパレーターレンズ17により光路分割して、CCDで構成される一対のエリアセンサ1、2上に投影する構成になっている。この分割された二つの像を基にフィルム面上でのデフォーカスを求め、オートフォーカスを行う。像振れ検出を行うときには、どちらの方式においても、二つのうちの一方のエリアセンサ1又は2上に投影されている像を用いて行う。
【0045】
次に、図1、図7のエリアセンサ1、2を像振れ検出に適用する実施形態について説明する。像振れ検出の場合は、一つのエリアセンサ1又は2の一部分のデータのみが必要となる。そして、シャッターが開いている短時間の間に何回も積分・データダンプを繰り返さなければならない。そこで、本実施形態では、必要部分の蓄積電荷のみをマイクロコンピュータμCに内蔵されているA/D変換器32でA/D変換できるデータレシオで読み出して、その他の不要部分の蓄積電荷を高速で掃き捨てる方法をとっている。
【0046】
その簡単な制御方法の一例を、図11のタイミングチャートと図12のエリアセンサのより詳細な構成図を用いて説明する。このタイミングチャートは一回の積分・データダンプを表すもので、実際にはこのタイミングチャート上の操作が繰り返し行われ像振れ検出が行われる。ここで外部信号CMP、HST、MD1、MD2、MD3、IST、RST、CBGは外部のマイクロコンピュータμCより与えられる。
【0047】
MD1、CBGがローレベルのとき、積分開始可能な状態であるので、ISTがハイレベルで出力される。このISTのハイレベル変遷に同期して、コントロール回路8よりADTがハイレベルで出力されるようになり、画素にたまっている不要電荷が排出される。この間に、マイクロコンピュータμCからコントロール回路へMD3として3つのタイミングパルスP1、P2、P3が順次発生され、MD2をデータ信号として、図1、図7の画像検出システムの各種モードの設定がなされる。尚、ここでは図1のシステムを代表させて説明する事にする。
【0048】
まず、設定される内容は順にエリアセンサ1、2の選択、H/Lゲイン(感度)の選択、後述の画素データの加算・非加算の選択である。これらの選択が行われた後にISTがローレベルで出力される事で、コントロール回路8は二つのエリアセンサ1、2とそれぞれのモニター3、4の積分を開始させる。積分が開始すると、出力選択回路9を介してVout端子46からVout信号として先に選択されたエリアセンサ1又は2に対応するモニター3又は4のモニター信号が出力されるようになる。
【0049】
同時に、そのモニター信号はスイッチ5又は6からAGC回路7へも供給される事になる。AGC回路7はモニター信号が所定時間内に所定電圧に達すると、この情報をコントロール回路8に伝達し、コントロール回路8はエリアセンサ1、2の積分を終了させる(自然終了)。同時に、コントロール回路8はADTをローレベルで出力して、外部のマイクロコンピュータμCに積分が終了した事を伝達する。コントロール回路8は積分を終了させた後、内部でシフトパルスを発生して、エリアセンサ1、2の各画素29に蓄積されている電荷をシフトゲート13を通じて、垂直転送レジスタ18に転送させる。
【0050】
しかし、モニター3又は4のモニター信号が所定時間経過後もAGC回路7の所定電圧に達しないと、つまり所定時間経過後もコントロール回路8から外部のマイクロコンピュータμCにADTがローレベルで出力されないと、外部のマイクロコンピュータμCはCBGをハイレベルで出力する事により、積分を強制終了させる。これに伴いADTはローレベルで出力されるようになる。
【0051】
積分が終了すると同時にVout端子46から出力されているモニター3又は4のモニター信号はA/D変換器32でA/D変換される。そして、そのA/D変換の結果に応じて、センサ出力α、βに対するゲイン可変アンプ10の増幅率が決定される。モニター信号は、出力選択回路9が温度検出回路12からの出力を選択するまではVout端子46より出力され続ける。
【0052】
積分終了後、選択したエリアセンサ1又は2において、最初に不要な水平ラインがあれば、マイクロコンピュータμCはHSTをハイレベルで出力する。そして、コントロール回路8から内部に垂直転送クロックVcpが発生され、電荷の垂直転送が行われる。
【0053】
このとき、HSTのハイレベル変遷に伴い、コントロール回路8から内部の画素転送クロック(垂直転送クロックVcp、水平転送クロックHcp)に同期しているCoutが高速で出力されるようになる。つまり、垂直転送クロックVcpも高速となり、不要な水平ラインの不要電荷が高速で垂直転送され排出される事になる。この場合のCout出力のように、何パルスも連続して出力されている事を、タイミングチャート上ではハイレベル、ローレベルを共に直線で結んで四角形で表す事とする。
【0054】
不要な水平ラインが垂直転送されている間は、コントロール回路8は内部にRCGをハイレベルで出力してレジスタクリアゲート23を開いておく。よって、不要画素の不要電荷はOD28に排出される事によって捨てられる。マイクロコンピュータμCのカウンター43は不要な水平ラインをカウントし、カウントが終了するとマイクロコンピュータμCからCMPがハイレベル出力され、コントロール回路8は垂直転送を停止させ、更にレジスタクリアゲート23を閉じる。
【0055】
次に先に決定した増幅率を、ゲイン可変アンプ10に設定するために、まずマイクロコンピュータμCは、MD3信号によりタイミングパルスP4を発生する。これに伴い、マイクロコンピュータμCはISTとMD2をデータ信号としてコントロール回路8に入力し、コントロール回路8はISTとMD2によって設定されたゲイン情報をゲイン可変アンプ10に設定する。この場合、IST、MD2の内容は設定すべき増幅率である。
【0056】
その後、マイクロコンピュータμCがMD1をハイレベルで出力する事により、エリアセンサ1、2が読み出しモードとなる。そして、マイクロコンピュータμCがRSTパルスを発生する事により、エリアセンサ1、2で読み出しが開始される。
【0057】
RSTパルスの発生に伴い、コントロール回路8は垂直転送クロックVcpを1つ発生して、各水平ラインの電荷を1ライン分垂直転送し、マイクロコンピュータμCは内蔵されているカウンター43をリセットする。更に、コントロール回路8は水平転送クロックHcpを水平転送レジスタ21に与えて、水平転送レジスタ21内の電荷を水平転送する。このとき、図2を用いて説明したように二つのエリアセンサ1、2からの出力が交互にゲイン可変アンプ10に入力される事になる。つまり、エリアセンサ1、2の各対応する画素の電荷が順次交互に入力されていく。
【0058】
そして、センサ出力α、βはS/H回路22を介してクランプ回路11に入力されるが、クランプ回路11では、黒基準画素の電荷が出力されるタイミングでマイクロコンピュータμCよりCBGがローレベルで出力され、これに伴いクランプ回路11は動作し、暗電流分の電圧をある所定電圧にクランプする。
【0059】
黒基準画素の電荷がクランプされた後、センサ出力α、βは出力選択回路9に与えられる。そして出力選択回路9により選択されたら、Vout端子46から出力されるようになるがその際の出力は、各エリアセンサ1、2から1画素のデータが出力される期間の1/2の期間毎にセンサ出力αとセンサ出力βが交互に存する形となっている(図2(ヘ)参照)。
【0060】
像振れ検出の場合には、先に述べたように一方のセンサ出力α又はβのみが必要となるので、A/D変換器32ではセンサ出力α又はβがA/D変換器32に入力されるタイミングでA/D変換が行われる。このA/D変換されたセンサ出力のデータは像振れ検出に用いられる。
【0061】
尚、像振れ検出の方法については、後で図22を参照して説明する。また、上記の形態では二つのエリアセンサ1、2の出力を交互に取り出すようにしたが、サンプルホールドの段階で一方のエリアセンサ1又は2の出力のみを選択するようにしても良く、その場合には一方のセンサ出力α又はβのみがA/D変換器32に入力される事になる。一方の出力のみをサンプルホールドするときは前述した図3の論理回路において、入力端子35にハイレベルを入力すればよい。
【0062】
図11に戻って、前述のクランプ終了後、マイクロコンピュータμCはCBGをハイレベルにする。そして、黒基準画素のすぐ後に不要画素があれば、マイクロコンピュータμCは図1に示すカウンター43に不要画素数をセットし、不要画素の電荷を高速で掃き捨てるために、マイクロコンピュータμCはHSTをハイレベルにする。
【0063】
これに伴い、コントロール回路8は同様に水平転送クロックHcpを高速で発生させ、不要画素の電荷は高速で水平転送して排出される。そして、Cout端子よりCoutクロックを高速で出力する。この不要画素の電荷は最終的には出力選択回路9で選択されない(従ってVout端子46へ導出されない)事によって捨てられる。
【0064】
マイクロコンピュータμCのカウンター43は不要画素分のCoutクロックをカウントして、カウント終了後マイクロコンピュータμCはCMPをローレベルにする。マイクロコンピュータμCはCMPのローレベル変遷後、HSTをローレベルにして、更に、ISTをハイレベルにする。コントロール回路8は、HSTのローレベル変遷に伴い水平転送クロックHcpを低速で発生させ、ISTのハイレベル変遷に伴いVout端子46からは有効画素の信号(有効信号)を出力するようにする。
【0065】
マイクロコンピュータμCのカウンター43が有効画素数のカウントを終了すると、マイクロコンピュータμCはCMPをハイレベルで出力する。ここで、この水平ラインにまだ不要画素が残っている場合には、マイクロコンピュータμCはカウンター43に不要画素数をセットしHSTをハイレベルにする事により、内部で不要画素の電荷が高速で水平転送されて排出され捨てられる。更に、HSTのハイレベル変遷後すぐにマイクロコンピュータμCはISTをローレベルにし、一方コントロール回路8はVout端子46より不要画素出力の代わりに基準電圧(REF)を出力するようにする。
【0066】
上記残存の不要画素数のカウント終了後、マイクロコンピュータμCはCMPをローレベルで出力し、コントロール回路8は水平転送を終了する。そして、次の水平ラインを読み出すために、マイクロコンピュータμCはRSTパルスを発生する。これに伴いコントロール回路8は垂直転送クロックVcpを1つ発生して、各水平ラインの電荷を1ライン分垂直転送して、前述の水平ライン読み出し操作を繰り返し行う。本実施形態のエリアセンサ1、2のCCDはインターライン転送(IT)方式であるが、もちろんフレームインターライン転送(FIT)方式でもフレーム転送(FT)方式でも良い。
【0067】
更に本実施形態では、画像検出システムの各種モードを設定する際に、画素データの加算・非加算の選択がなされる。この画素データの加算・非加算の選択を説明する前に、その加算の意義を述べておく。まず、前述のように像振れ検出の場合、短時間に何回も積分・データダンプを繰り返さなければならないので、読み出される画素領域が広ければ広いほど時間がかかってしまい、像振れ検出における応答性が悪くなる。そのため、読み取れる画素領域をできるだけ広くし、かつできるだけ読み出す画素数を少なくするために、隣接する画素の電荷を読み出し画素の電荷に加算するという手法を導入するのである。
【0068】
具体的には、低周波の被写体に対しては検出されるエリアが小さい場合には、充分なコントラストが得られないために、正しい比較が行えず、正しい像振れ量を検出できない。この問題を解決するためには、さらに広い領域を読み出す必要があるが単に広い領域を読み出すと1回の読み出し時間が長くなるために充分な像振れ検出及び像振れ補正ができなくなる。
【0069】
また、読み出し領域を広くした分だけ、つまり読み出し画素数を増やした分だけ高速で画素を読み出せばよいのだが、A/D変換器でA/D変換できるデータレシオの制約によりあまり高速に読み出す事ができない。従って、本実施形態では、電荷の転送中に複数の画素の電荷を加算をする事により、読み出される範囲は広くなるが、読み出される画素数は変わらないようにするのである。また、複数の画素の電荷を加算するために低輝度下においても短い積分時間で充分な電荷が得られるという利点もある。
【0070】
このときの駆動方法の詳細を、図13、図14のタイミングチャートと図12のエリアセンサの構成図によって説明する。図13(a)は、垂直方向非加算モードのタイミングチャートである。ここでは、垂直転送クロックVcpを1パルス入力して各水平ラインの電荷を1ライン分垂直転送して、1水平ライン分の電荷を水平転送レジスタ21に転送のする毎に、1水平ラインの画素数分の水平転送クロックHcpを連続入力して電荷を水平転送する。
【0071】
これに対し、図13(b)の垂直方向N画素加算モード(本実施形態ではN=2)では、垂直転送クロックVcpをNパルス入力して、水平転送レジスタ21にN水平ライン分の電荷を入力する事によって、水平転送レジスタ21内で上下垂直方向に隣接するN画素分の電荷を加算してから水平転送クロックHcpを入力する。
【0072】
図14(a)は、水平方向非加算モードのタイミングチャートである。ここでは、水平転送クロックHcpを1パルス入力する毎にサンプリングパルスを入力して1画素分の電荷毎にサンプルホールドする。これに対し、図14(b)の水平方向N画素加算モード(本実施形態ではN=2)では、水平転送クロックHcpは図14(a)のN倍の周波数で入力するが、サンプリングパルスの周波数は変えない。
【0073】
よって、S/H回路22内ではN画素分の電荷が入力される毎にサンプルホールドするので水平方向N画素分の電荷の加算がなされる。したがって、A/D変換器32に入力されるデータの転送クロックは変わらないが、水平方向N画素分の電荷が加算されて入力される。加算・非加算の選択について、図15のフローチャートを用いて説明する。まずステップ#35で今回の積分が初回の積分か否かを判定して、その結果、初回の積分であればそのデータに信頼性があるか否かわからないのでステップ#60へ進んで非加算モードで読み出しを行う。
【0074】
今回の積分が初回の積分でなければステップ#40へ進んで、前回の検出結果に信頼性があればステップ#65へ進んで前回の読み出しモードを継続して積分を行う。前回の検出結果に信頼性がない場合には、ステップ#45へ進んで前回の積分が低輝度下で行われたものかを判断し、低輝度下で行われた積分であれば、ステップ#55へ進んで今回の読み出しは加算モードで行う。
【0075】
前回の積分が低輝度下で行われたものでなければ、ステップ#50へ進んで前回の読み出しモードが加算モードであれば今回の読み出しは非加算モードで行い(ステップ#60)、前回の読み出しモードが非加算モードであれば今回の読み出しは加算モードで行う(ステップ#55)。このように制御する事により、前回の検出結果や明るさを基に今回の積分によるデータを最適な読み出しモードで読み出す事が可能となる。更に加算モードの時は、被写体のコントラスト、周波数、制御シーケンス等によって、垂直方向のみの加算、水平方向のみの加算、両方向の加算の各モードを切り替える事にする。
【0076】
次に、本実施形態のエリアセンサ1、2をオートフォーカスに適用する場合について説明する。エリアセンサ1、2をオートフォーカスに適用する場合には、一回の積分で得られたデータの内、二つのエリアセンサ1、2の特定の一部の領域のデータを読み出す。つまり、ラインセンサモードで使用する。
【0077】
通常のエリアセンサの1画素のサイズは、オートフォーカスに使われるラインセンサの画素サイズの数分の1程度しかなく、低輝度な被写体に対して感度不足となる。このため、本実施形態では、エリアセンサ1、2の数画素分の蓄積電荷を図13(b)のタイミングチャートに従って、垂直方向のN画素分の電荷を加算する事によりラインセンサと同程度の感度を確保するようにする。
【0078】
このときの駆動方法を、図12の構成図と図16のタイミングチャートを用いて説明する。まず通常のエリアセンサモードの場合のタイミングチャートを図16(a)に示す。積分開始動作として、シフトパルスを入力してシフトゲート13を開いて、積分前に各画素29に蓄積されていた電荷を垂直転送レジスタ18に排出する。これによって、積分が開始される。
【0079】
次に、RCGをハイレベルにする事により、水平転送レジスタ21に付与されているレジスタクリアゲート23を開く。このようにすると、水平転送レジスタ21に転送されてくる電荷をOD28に排出する事ができる。そして、全水平ライン分の電荷を垂直転送するために、垂直転送クロックVcpを入力して、最初に各画素29に蓄積されていた電荷をOD28に排出する(積分クリア時間)。その後、RCGをローレベルにしてレジスタクリアゲート23を閉じる。
【0080】
モニター3、4を用いて充分な積分が行われた事を検知すると積分が自然終了する(勿論、積分が強制終了する場合もある)。その後、シフトパルスを入力してシフトゲート13を開く事により各画素29の電荷を垂直転送レジスタ18に転送する。そして、1ライン分の水平画素列の電荷を、垂直転送クロックVcpを1パルス入力して水平転送レジスタ21に転送した後、水平転送クロックHcpを連続入力して水平転送レジスタ21を駆動し読み出す。以下、この動作を繰り返す事により、全画素29の電荷が読み出される。
【0081】
前記通常のエリアセンサモードに対して、オートフォーカスのために、エリアセンサ1、2をラインセンサモードに切り替えたときのタイミングチャートを図16(b)に示す。積分終了動作までは通常のエリアセンサモードと同じである。その後、ラインセンサとして利用しない水平画素列の不要電荷を、垂直転送クロックVcpを入力して垂直転送を行うときに、同時にRCGをハイレベルにしてレジスタクリアゲート23を開いておき、水平転送レジスタ21からOD28に排出する。
【0082】
ラインセンサとして利用する水平画素列に対しては、図13(b)に示す垂直加算モードを使って、RCGをローレベルにして、レジスタクリアゲート23を閉じておき、ラインセンサを構成するために必要な画素数分の垂直転送クロックVcpを入力する事により水平転送レジスタ21内で画素の電荷の合成(加算)を行う。そして、水平転送クロックHcpを入力して水平転送レジスタ21を駆動してラインセンサとして読み出す。このように駆動する事によって、エリアセンサ1、2をラインセンサとして使用する事ができる。
【0083】
また、オートフォーカスにおいては、二つのエリアセンサ1、2をラインセンサモードとして使用し、更に一回の積分で二つのエリアセンサ1、2から得られたデータを読み出す必要性がある。その際の駆動方法については、先に図2のタイミングチャートを用いて説明したように、二つのセンサ出力α、βを交互にA/D変換器32に与えてA/D変換を行う。
【0084】
図1、図7のエリアセンサ1、2をオートフォーカスセンサとして、ラインセンサモードで使用する場合には、ラインセンサとして使用する部位がオーバーフローしないように、本実施形態ではできるだけその使用する部位をモニター3、4近傍とする。更に、エリアセンサ1、2は像振れ検出にも使用する。
【0085】
ここで、オートフォーカスに使用する部位と像振れ検出に使用する部位(エリアセンサ全体から選択)は共に、光学系の光軸中心との関係が重要となるので、エリアセンサ1、2における、ラインセンサに使用する部位と光学系の光軸中心を、図17(a)〜(d)に示して説明する。尚、ここでは図7のシステムを代表させて説明する事にする。
【0086】
図17(a)の第1例ではモニター3b、4bに近い部分にオートフォーカスエリア44を設定し、光学系の光軸中心45はオートフォーカスエリア44の中心ではなく、エリアセンサ1、2全体の中心に設定されている。このような配置は、画面の中心にオートフォーカスエリア44の中心がないために不都合があるが、エリアセンサ1、2全体の検出エリアが画面全体に対してあまり大きくなければ、オートフォーカスエリア44の画面からのズレはあまり大きくなく許容できるものとなる。また、像振れ検出のときは主被写体をとらえる確率が高くなる。
【0087】
図17(b)の第2例ではモニター3b、4bに近い部分にオートフォーカスエリア44を設定していて、光学系の光軸中心45はオートフォーカスエリア44の中心に設定されている。このような配置は、画面の中心にオートフォーカスエリア44があり、通常のオートフォーカス用のセンサと同じようになる。一方、像振れ検出エリアは画面中心からはずれ、主被写体をとらえる確率が低くなるが、背景の静止物をとらえる可能性が高く有効である。このとき像振れ検出エリアが空、または地面のみにならないように設定する必要がある。
【0088】
図17(c)の第3例では図17(b)と同じ画素配置であるが、水平転送レジスタ21a、21bの位置をエリアセンサ1、2のICのチップレイアウトの関係で変えている例である。このように水平転送レジスタ21a、21bを配置すると、図16(b)と同じ読み出し方法はとれない。この場合は、1ライン毎に垂直転送を行い、水平読み出し時に画素の電荷の加算を行い、A/D変換時に必要なデータを選択的にメモリーする事によって達成される。
【0089】
図17(d)の第4例では、光学系の光軸中心45をエリアセンサ1、2の中心として、オートフォーカスエリア44と像振れ検出エリアの中心がこの光軸中心45に配置されている。このように配置すると、図17(a)、(b)のオートフォーカスエリア44または像振れ検出エリアが光軸中心45からはずれてしまうという事はなくなるが、オートフォーカスエリア44とモニターが離れてしまうために、モニター信号を使って有効に積分制御を行う事が難しくなる。
【0090】
従って、本実施形態では、最初の積分はあるモニターのモニター電圧(モニター信号)を使って積分制御を行うが、2回目以降の積分では、前回の積分時間と前回使用したモニターの今回のモニター電圧を基に積分を制御する。この時の制御方法の具体例を図18を用いて説明する。まず初回の積分では、前述の方法で、エリアセンサ1、2において、モニター電圧がAGC回路7の所定電圧V1に達する時間まで積分して自然終了する(このときの積分時間をt1とする)。
【0091】
例えばこのとき、モニター出力によって正確な積分制御が行われず、エリアセンサ1、2における積分量が過剰であったと判断されたとする。エリアセンサの積分量の変化率は一定であると考えられるので、時間t1と過剰積分量から最適積分時間t3を求める事ができる。
【0092】
エリアセンサと同様に、モニター電圧の変化率も一定であると考えられるので時間とモニター電圧の関係は図18に示す直線のようになる。この直線より、初回の積分における時間t3のモニター電圧、つまり積分終了の最適モニター電圧V3がわかる。2回目の積分では、モニター電圧がV3に達する時間であると求められる時間tまで積分を行うようにする。時間tは図18より次式(式(1))を用いて求める事ができる事がわかる。
【0093】
t=t3×(2×t2/t1) (1)
【0094】
ここで、t2は2回目の積分においてモニター電圧が所定電圧V1の1/2の電圧V2に達するまでの時間とする。時間t2はAGC回路7を用いて監視する。つまり、AGC回路7には所定電圧V1と所定電圧の1/2の電圧V2を設定しておきモニター電圧がV2に達する時間t2を監視する。そして、マイクロコンピュータμCは式(1)よりtを求め、時間tになると積分の強制終了を行う。3回目以降の積分では前回の積分時間をt1として2回目と同様に積分制御を行う。
【0095】
図19は図18の方法を回路的に行った積分制御方法である。AGC回路7に所定電圧V1を設定して積分を行い、最適なモニター電圧V3を求めるまでは図18の場合と同様である。そしてここでは、このV3を積分終了の際の所定電圧として、次回の積分ではモニター電圧をマイクロコンピュータμCが監視していて、モニター電圧がV3になると強制終了させる事により積分を制御する。
【0096】
また、モニターの自然終了電圧V3を外部のD/A変換器よりAGC回路7に入力する構成にして、上述の最適なモニター電圧V3を外部より積分の自然終了の所定電圧としてAGC回路7に設定すれば、自然終了機能を用いて2回目以降の積分も制御できる。
【0097】
次にオートフォーカスエリアの選択について図20の簡単なフローチャートを用いて説明する。まず、オートフォーカスに使用するエリアが飽和するのを防ぐために、ステップ#70でモニター3、4近傍の領域が使用できるかを調べる。その方法は、オートフォーカスに使用する予定の領域のコントラストを求めて、オートフォーカスを行うのに充分なコントラストがあるかを判定するものである。そして、充分なコントラストがあると判断されればステップ#75へ進みこの領域を用いる。
【0098】
コントラストがないと判断されれば、ステップ#80へ進み次のエリアに検出エリアを移動させて、ステップ#85へ進みコントラストを調べる。そしてこのエリアにコントラストがあると判断されれば、ステップ#90へ進みこのエリアを使用する事にする。まだコントラストが充分にないエリアであると判断されれば、ステップ#80へ戻り、さらにエリアを移動させて、ステップ#85へ進みコントラスト演算を繰り返し、充分なコントラストのある領域を探し、ステップ#90へ進みオートフォーカスエリアを決定する。
【0099】
2回目以降のオートフォーカスでは前回の検出エリアで継続して行い、この領域でローコン(信頼性がない状態をいう)になれば、この近傍に検出エリアを移動させて継続して行うようにしている。次に、像振れ検出エリアを選択して像振れ検出を行う一つの方法を、図21の簡単なフローチャートと図22の像振れ検出シーケンスを示す図を用いて説明する。図22の格子状の部分は、センサの受光部を示している。
【0100】
まず、オートフォーカス終了後、ステップ#100に進みパンニングがあったかを判定し、パンニングがなければ、オートフォーカスを行った領域に主被写体が存在すると考えられるから、ステップ#105へ進みオートフォーカス領域内で充分なコントラストのある領域(数画素分)を探し、コントラストのある領域が見つかれば、ステップ#115へ進みその領域を図22(a)に示すように像振れ量算出の基準部とする。図22(a)にこの場合の基準部100を示す。このとき、基準部100はエリアセンサ1又は2内のどこに位置するのかを特定しておく。
【0101】
像振れ検出を行うためには、シャッターが開いている間に、更にこの後、積分・データダンプを繰り返す。次回の積分で得られたデータを読み出すとき、読み出す領域は、図22(b)に示すように先に決定した基準部100を中心として一回り広い領域を参照部110として読み出す。ここで参照部を設けるのは、基準部が存在し得る領域を限定する事により、移動した基準部を他のコントラストのある領域と間違えて認識する確率を小さくするためと、参照部のみを読み出せばよく、全体を読み出すより早く読み出す事ができるからである。
【0102】
そして、参照部110内で基準部100と最も相関の高い領域120を検出して、エリアセンサ1又は2内での位置を特定して、基準部からの移動量を算出し、これを像振れ量として、これを基にして像振れ補正を行う。更に積分を行い、今度は、図22(c)に示すように、先に基準部と最も相関の高かった領域120を中心に一回り広い領域を参照部111としてこの領域を読み出す。そして、参照部111内で領域120と最も相関の高い領域121を検出して、エリアセンサ1又は2内での位置を特定し、領域120からの移動量を算出して、これを像振れ量として、これを基に像振れ補正を行う。
【0103】
更に積分を行い、図22(d)に示すように領域121を中心として一回り広い領域を参照部112として読み出し、参照部内で領域121と最も相関の高い領域122を検出して、エリアセンサ1又は2内での位置を特定して、領域121からの移動量を算出し、これを像振れ量として、これを基に更に像振れ補正を行う。シャッターが閉じるまで同様の操作を繰り返して行い、像振れ補正をする。
【0104】
図21に戻り、ステップ#100でもしパンニングがあったと判断されれば、オートフォーカスを行った領域には主被写体が存在しないと考えられるために、ステップ#110へ進みオートフォーカス領域以外からコントラストのある領域を探し、コントラストのある領域が見つかればステップ#115へ進みその領域を像振れ検出を行う基準部として、前述のように像振れ検出を行う。
【0105】
ここでは、パンニングがあった場合には、主被写体がこの領域からはずれていると考えられるため、オートフォーカスを行った領域を除いてコントラストのある領域を探している。もちろん、この領域をはずさずに順次コントラストのある領域を探しても良い。
【0106】
パンニング判定の手法は、手振れ検出と同様に、センサ出力を所定時間間隔の光分布パターンの相関関係より求める事ができる。手振れ検出に用いるセンサ出力の所定時間間隔の光分布パターンの時間的なずれ量を求め、この時間的ずれ量が所定量以上であれば、手振れによるものではなくパンニングによるものであると判断し、そのずれ量を基にパンニング量を検知する事ができる。
【0107】
また、別の手法としては、自動焦点検出動作を利用する事もできる。自動焦点検出動作においては、焦点検出動作により検出されるデフォーカス量がある所定値以下であれば静止被写体であると判断され、また、ある所定値以上であればパンニングが行われたものと判断され自動焦点検出動作が停止するAFロックモードに入る。また、検出されたデフォーカス量が、上記2つの所定値の間であれば、動被写体と判断してコンティニュアスAFモードに入る。この動作を基にパンニングを判定する事も可能である。
【0108】
【発明の効果】
本発明によると、エリアセンサを有する画像検出システムにおいて、高速のビデオ用A/D変換器を必要とせずに、一回の積分・データダンプにかかる時間が、より短くなる。よって、余計なコストがかかる事なく、シャッターが開いている間に多数回の積分・データダンプを繰り返す事ができ、正確な像振れ検出を行う事ができる。
【図面の簡単な説明】
【図1】二つのエリアセンサとこれをコントロールするコントロール回路を有する画像検出システムのデバイス構成図。
【図2】図1のエリアセンサからの出力に関係するタイミングチャート。
【図3】サンプリングパルスを調節する論理回路を示した図。
【図4】図3の論理回路から発生されるサンプリングパルスの具体例を示した図。
【図5】モニターとエリアセンサの配置関係の詳細を示した図。
【図6】モニターとエリアセンサの配置関係の詳細の他の例を示した図。
【図7】二つのエリアセンサとこれをコントロールするコントロール回路を有する画像検出システムのデバイス構成図の図1とは異なる例。
【図8】オートフォーカスの場合のモニターの選択のフローチャート。
【図9】図1、図7の画像検出システムを適用した光学系の模式図。
【図10】図1、図7の画像検出システムを適用した他の光学系の模式図。
【図11】像振れ検出の制御方法のタイミングチャート。
【図12】エリアセンサの詳細な構成図。
【図13】(a)垂直方向に非加算の場合と(b)垂直方向に2画素分の電荷の加算を行う場合のタイミングチャート。
【図14】(a)水平方向に非加算の場合と(b)水平方向に2画素分の電荷の加算を行う場合のタイミングチャート。
【図15】加算・非加算の選択のフローチャート。
【図16】(a)通常のエリアセンサモードと(b)オートフォーカスの場合のラインセンサモードのタイミングチャート。
【図17】(a)第1例(b)第2例(c)第3例(d)第4例のエリアセンサにおけるオートフォーカスエリアと光軸中心を示した図。
【図18】エリアセンサの積分を時間で制御する場合の積分時間とモニター電圧の関係を示した図。
【図19】エリアセンサの積分をモニター電圧で制御する場合の積分時間とモニター電圧の関係を示した図。
【図20】オートフォーカスエリアの選択のフローチャート。
【図21】像振れ検出エリアの選択のフローチャート。
【図22】像振れ検出時の(a)1回目(b)2回目(c)3回目(d)4回目の積分により得られたシーケンスの一例を示した図。
【符号の説明】
1、2 エリアセンサ
3、4 モニター
3a、3b モニター
4a、4b モニター
5、6 モニターの出力スイッチ
7 AGC回路
8 コントロール回路
9 出力選択回路
10 ゲイン可変アンプ
11 クランプ回路
μC マイクロコンピュータ
14、15 黒基準画素
18 垂直転送レジスタ
21 水平転送レジスタ
21a、21b 水平転送レジスタ
22 S/H回路
23 レジスタクリアゲート
30、31 エリアセンサの出力スイッチ
32 A/D変換器
46 Vout端子[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image detection system used for image blur detection.
[0002]
[Prior art]
In an image detection system, only image information of a part of a pixel area on an image sensor may be required. For example, in an electronic zoom using a video camera, conventionally, accumulated charges in an unnecessary pixel area are transferred and swept away at a high speed so that a display time for one screen is reduced to 1/60 s. It is transferred in accordance with and displayed on the entire display screen.
[0003]
[Problems to be solved by the invention]
When image blur detection is performed using an area sensor, it is necessary to repeatedly detect image information of a part of the pixel area of the area sensor within a time period of 1 s to 1 s that is a fraction of the time when the shutter is open. For this reason, the data dump time for one time must be about 1 ms. This is possible if an external high-speed A / D converter is used, but there is a problem that the cost increases.
[0004]
Also, consider applying conventional technology to this system. The conventional electronic zoom system of a video camera and this system are common in that only image information of a part of the pixel area of the area sensor is necessary. It is different in that it needs to be detected repeatedly.
[0005]
Therefore, when the prior art is applied to this system, the display time of one screen is fixed to 1/60 s determined for the TV system, and the accumulated charge in the necessary pixel area is transferred accordingly. become. However, in this system, it is not necessary to fix the display time of one screen to 1/60 s, and it is desired to finish the transfer in as short a time as possible.
[0006]
The present invention solves the above-mentioned problems in the case of applying the prior art, and at low cost without using an external high-speed A / D converter, while the shutter is opened many times. An object of the present invention is to provide an image detection system capable of performing accurate image blur detection by repeating integration and data dump.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides an image detection system including an area sensor, an area sensor driving unit that drives the area sensor, and an area sensor output processing circuit unit that processes an output of the area sensor. Of the pixel area of the area sensor, the charge stored in the pixel area necessary for image blur detection is read at a first frequency that can be A / D converted by an A / D converter built in the microcomputer. To add the charge of multiple pixels The accumulated charges in the pixel area unnecessary for image blur detection are swept away at a second frequency higher than the first frequency.
[0008]
That is Even if the range to be read is widened, the number of pixels to be read is reduced. Also Therefore, the accumulated charge in the unnecessary pixel region is swept away at a higher speed than the reading speed of the accumulated charge in the necessary pixel region. Therefore, the time required for one integration / data dump is shorter than the case where the transfer method is not changed between the necessary area and the unnecessary area.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a device configuration diagram of an image detection system of a camera having two
[0010]
This device includes
[0011]
That is,
[0012]
The
[0013]
This device is formed as a one-chip IC (integrated circuit) in which each of the components excluding the microcomputer μC is provided on a single substrate. In the following, it is assumed that devices formed on this chip are formed inside, and devices not formed on this chip are formed outside. Monitor signals output from the
[0014]
Each of the
[0015]
Integration starts simultaneously in the
[0016]
If the monitor signal does not reach the predetermined voltage even after the lapse of the predetermined time, that is, if the information indicating that the predetermined voltage is reached from the
[0017]
In both the natural termination and forced termination of the integration, when the integration is terminated, the monitor signal supplied from the output selection circuit 9 to the external microcomputer μC via the
[0018]
On the other hand, after the integration is completed, the outputs of the
[0019]
At this time, in the present embodiment, the
[0020]
The
[0021]
The sensor outputs α and β amplified by the
[0022]
Here, the voltage for the dark current is clamped to a predetermined voltage at the timing when the charge of the black reference pixel is output. The sensor outputs α and β are input to the A /
[0023]
In this process, the sampling and holding is once performed using the sampling pulse in order to eliminate the influence of switching noise generated by switching the
[0024]
In the present embodiment, the
[0025]
That is, in the case of image blur detection, only one of the data of the
[0026]
Instead of this method, sampling pulses are generated by switching between autofocus and image blur detection by the logic circuit shown in FIG. 3, and A / D conversion is performed with an A / D conversion start signal synchronized therewith. May be. That is, only necessary data is sampled and held, and the sampled and held data is A / D converted. As shown in FIG. 3, the logic circuit includes
[0027]
A sampling pulse α is input from the
[0028]
The sampling pulse α is a pulse generated at the timing when the sensor output α is given to the S /
[0029]
From the
[0030]
Further, when both sensor outputs α and β are used as in autofocus, that is, when two sampling pulses α and β are output from the
[0031]
For example, when a low level is input to the
[0032]
In addition, when a high level is input to the
[0033]
Next, FIG. 5 and FIG. 6 show details of the arrangement relationship between the
[0034]
The portions where the horizontal transfer registers 21a and 21b and the
[0035]
In FIG. 6, the
[0036]
FIG. 7 shows an example different from FIG. 1 of the device configuration diagram of an image detection system for a camera having two
[0037]
Further, in the device shown in FIG. 7, the
[0038]
On the other hand, in a mode in which only one of the
[0039]
When the image detection system of FIGS. 1 and 7 is applied to image blur detection, as described above, only the data of one of the two
[0040]
Selection of a monitor used for integration control at this time will be described with reference to a flowchart of FIG. First, in
[0041]
If the current integration is not the first integration, the process proceeds to step # 15. In the previous integration result, it is determined whether there is a saturated pixel region in the effective region of the
[0042]
If a saturated portion is detected in the vicinity of the
[0043]
FIGS. 9 and 10 are schematic diagrams of optical systems when the image detection system shown in FIGS. 1 and 7 is applied to image blur detection and autofocus. FIG. 9 is a schematic diagram of an optical system for phase difference focus detection using an external light system used in a lens shutter camera or the like. The subject light in the
[0044]
FIG. 10 is a schematic diagram of an optical system for TTL phase difference focus detection used in a single-lens reflex camera or the like. A pair of
[0045]
Next, an embodiment in which the
[0046]
An example of the simple control method will be described with reference to the timing chart of FIG. 11 and a more detailed configuration diagram of the area sensor of FIG. This timing chart represents one integration / data dump. In practice, the operations on this timing chart are repeatedly performed to detect image blur. Here, external signals CMP, HST, MD1, MD2, MD3, IST, RST, and CBG are given from an external microcomputer μC.
[0047]
When MD1 and CBG are at a low level, integration is possible and IST is output at a high level. In synchronization with the transition of the high level of IST, ADT is output from the
[0048]
First, the contents to be set are selection of
[0049]
At the same time, the monitor signal is supplied to the
[0050]
However, if the monitor signal of the
[0051]
At the same time as the integration is completed, the monitor signal of the
[0052]
After the integration is completed, if there is an unnecessary horizontal line in the selected
[0053]
At this time, Cout synchronized with the internal pixel transfer clock (vertical transfer clock Vcp, horizontal transfer clock Hcp) is output at high speed from the
[0054]
While an unnecessary horizontal line is vertically transferred, the
[0055]
Next, in order to set the previously determined gain in the
[0056]
Thereafter, when the microcomputer μC outputs MD1 at a high level, the
[0057]
Along with the generation of the RST pulse, the
[0058]
The sensor outputs α and β are input to the
[0059]
After the charge of the black reference pixel is clamped, the sensor outputs α and β are given to the output selection circuit 9. When selected by the output selection circuit 9, it is output from the
[0060]
In the case of image blur detection, as described above, only one sensor output α or β is necessary, so that the A /
[0061]
The image blur detection method will be described later with reference to FIG. In the above embodiment, the outputs of the two
[0062]
Returning to FIG. 11, after the end of the above-described clamping, the microcomputer μC sets CBG to high level. If there is an unnecessary pixel immediately after the black reference pixel, the microcomputer μC sets the number of unnecessary pixels in the
[0063]
Accordingly, the
[0064]
The
[0065]
When the
[0066]
After the count of the remaining unnecessary pixels is completed, the microcomputer μC outputs CMP at a low level, and the
[0067]
Further, in the present embodiment, when setting various modes of the image detection system, the addition / non-addition of pixel data is selected. Before describing the selection of addition / non-addition of pixel data, the significance of the addition will be described. First, in the case of image blur detection as described above, since integration and data dump must be repeated many times in a short time, the wider the pixel area to be read, the longer it takes, and the response in image blur detection Becomes worse. Therefore, in order to enlarge the readable pixel area as much as possible and reduce the number of pixels to be read as much as possible, a method of adding the charge of the adjacent pixel to the charge of the read pixel is introduced.
[0068]
Specifically, when the detected area is small for a low-frequency subject, a sufficient contrast cannot be obtained, so that a correct comparison cannot be performed and a correct image blur amount cannot be detected. In order to solve this problem, it is necessary to read out a wider area. However, if the wide area is simply read out, the time required for one reading is increased, and sufficient image blur detection and image blur correction cannot be performed.
[0069]
Further, it is sufficient to read out pixels at a high speed by the amount corresponding to a wider read area, that is, by increasing the number of read pixels. I can't do anything. Therefore, in this embodiment, by adding the charges of a plurality of pixels during charge transfer, the range to be read is widened, but the number of pixels to be read is not changed. In addition, since charges of a plurality of pixels are added, there is an advantage that sufficient charges can be obtained in a short integration time even under low luminance.
[0070]
Details of the driving method at this time will be described with reference to the timing charts of FIGS. 13 and 14 and the configuration diagram of the area sensor of FIG. FIG. 13A is a timing chart of the vertical non-addition mode. Here, one pulse of the vertical transfer clock Vcp is input, the charge of each horizontal line is vertically transferred by one line, and each time the charge of one horizontal line is transferred to the
[0071]
On the other hand, in the vertical direction N pixel addition mode (N = 2 in this embodiment) of FIG. 13B, N pulses of the vertical transfer clock Vcp are input, and charges for N horizontal lines are input to the
[0072]
FIG. 14A is a timing chart of the horizontal non-addition mode. Here, every time one pulse of the horizontal transfer clock Hcp is inputted, a sampling pulse is inputted and sampled and held for every charge of one pixel. On the other hand, in the horizontal N pixel addition mode in FIG. 14B (N = 2 in this embodiment), the horizontal transfer clock Hcp is input at a frequency N times that in FIG. The frequency is not changed.
[0073]
Therefore, since the sample / hold is performed every time the charge for N pixels is inputted in the S /
[0074]
If the current integration is not the first integration, the process proceeds to step # 40. If the previous detection result is reliable, the process proceeds to step # 65, and the previous read mode is continued to perform the integration. If the previous detection result is unreliable, the process proceeds to step # 45 to determine whether the previous integration was performed under low luminance. If the integration was performed under low luminance,
[0075]
If the previous integration was not performed under low luminance, the process proceeds to step # 50, and if the previous readout mode is the addition mode, the current readout is performed in the non-addition mode (step # 60), and the previous readout is performed. If the mode is the non-addition mode, the current reading is performed in the addition mode (step # 55). By controlling in this way, it is possible to read out the data by the current integration in the optimum reading mode based on the previous detection result and brightness. Further, in the addition mode, the mode of addition only in the vertical direction, addition only in the horizontal direction, and addition in both directions is switched according to the contrast, frequency, control sequence, and the like of the subject.
[0076]
Next, a case where the
[0077]
The size of one pixel of a normal area sensor is only a fraction of the pixel size of a line sensor used for autofocus, and the sensitivity is insufficient for a low-luminance subject. For this reason, in the present embodiment, the charges accumulated for several pixels of the
[0078]
The driving method at this time will be described with reference to the block diagram of FIG. 12 and the timing chart of FIG. First, a timing chart in the normal area sensor mode is shown in FIG. As an integration start operation, a shift pulse is input, the
[0079]
Next, the register
[0080]
When it is detected using the
[0081]
FIG. 16B shows a timing chart when the
[0082]
For a horizontal pixel column used as a line sensor, the vertical addition mode shown in FIG. 13B is used to set RCG to low level, close the register
[0083]
Further, in autofocus, it is necessary to use the two
[0084]
When the
[0085]
Here, the relationship between the part used for autofocus and the part used for image blur detection (selected from the entire area sensor) is important with respect to the optical axis center of the optical system. The parts used for the sensor and the optical axis center of the optical system will be described with reference to FIGS. Here, the system of FIG. 7 will be described as a representative.
[0086]
In the first example of FIG. 17A, the
[0087]
In the second example of FIG. 17B, the
[0088]
In the third example of FIG. 17C, the pixel arrangement is the same as in FIG. 17B, but the positions of the
[0089]
In the fourth example of FIG. 17D, the
[0090]
Therefore, in this embodiment, the first integration is performed by using a monitor voltage (monitor signal) of a certain monitor, but in the second and subsequent integrations, the previous integration time and the current monitor voltage of the monitor used last time are used. Control integration based on. A specific example of the control method at this time will be described with reference to FIG. First, in the first integration, the
[0091]
For example, at this time, it is assumed that accurate integration control is not performed by the monitor output, and it is determined that the integration amount in the
[0092]
As with the area sensor, the rate of change of the monitor voltage is considered to be constant, so the relationship between time and the monitor voltage is a straight line shown in FIG. From this straight line, the monitor voltage at the time t3 in the first integration, that is, the optimum monitor voltage V3 at the end of integration is known. In the second integration, the integration is performed until the time t required for the monitor voltage to reach V3. It can be seen from FIG. 18 that the time t can be obtained using the following equation (equation (1)).
[0093]
t = t3 × (2 × t2 / t1) (1)
[0094]
Here, t2 is a time until the monitor voltage reaches a voltage V2 that is ½ of the predetermined voltage V1 in the second integration. The time t2 is monitored using the
[0095]
FIG. 19 shows an integration control method in which the method of FIG. The process until the optimum voltage V3 is obtained by setting the predetermined voltage V1 in the
[0096]
Further, the monitor natural end voltage V3 is inputted to the
[0097]
Next, selection of the autofocus area will be described with reference to a simple flowchart of FIG. First, in order to prevent the area used for autofocus from being saturated, it is checked in
[0098]
If it is determined that there is no contrast, the process proceeds to step # 80, the detection area is moved to the next area, and the process proceeds to step # 85 to check the contrast. If it is determined that there is contrast in this area, the process proceeds to step # 90 to use this area. If it is determined that the area is not yet sufficiently contrasted, the process returns to step # 80, the area is further moved, the process proceeds to step # 85, the contrast calculation is repeated, and an area having sufficient contrast is searched for. Go to and determine the autofocus area.
[0099]
In the second and subsequent autofocus operations, the detection area is continuously used in the previous detection area. If a low contrast is detected in this area (which means an unreliable state), the detection area is moved to this vicinity and is continuously executed. Yes. Next, one method for performing image blur detection by selecting an image blur detection area will be described with reference to a simple flowchart of FIG. 21 and a diagram showing an image blur detection sequence of FIG. The lattice-shaped part in FIG. 22 shows the light receiving part of the sensor.
[0100]
First, after the autofocus is completed, the process proceeds to step # 100 to determine whether panning has occurred. If there is no panning, it is considered that the main subject is present in the autofocused area, so the process proceeds to step # 105 and within the autofocus area. A region with sufficient contrast (for several pixels) is searched, and if a region with contrast is found, the process proceeds to step # 115 and the region is shown in FIG. 2 As shown in (a), it is used as a reference part for image blur amount calculation. FIG. 22A shows the
[0101]
In order to perform image blur detection, integration and data dump are further repeated while the shutter is open. When the data obtained by the next integration is read, the area to be read is read as a
[0102]
Then, the
[0103]
Further, integration is performed, and as shown in FIG. 22 (d), a region that is slightly wider around the
[0104]
Returning to FIG. 21, if it is determined in
[0105]
Here, when panning is performed, it is considered that the main subject is deviated from this region. Therefore, a region having contrast is searched for except for the region where autofocus is performed. Of course, an area having contrast may be sequentially searched without removing this area.
[0106]
In the panning determination method, the sensor output can be obtained from the correlation of the light distribution pattern at predetermined time intervals, as in the case of camera shake detection. Obtain the temporal deviation amount of the light distribution pattern at a predetermined time interval of the sensor output used for camera shake detection. The panning amount can be detected based on the deviation amount.
[0107]
As another method, an automatic focus detection operation can be used. In the automatic focus detection operation, if the defocus amount detected by the focus detection operation is equal to or less than a predetermined value, it is determined that the subject is a stationary subject, and if it is equal to or greater than a predetermined value, it is determined that panning has been performed. Then, the AF lock mode in which the automatic focus detection operation is stopped is entered. If the detected defocus amount is between the two predetermined values, it is determined as a moving subject and the continuous AF mode is entered. It is also possible to determine panning based on this operation.
[0108]
【The invention's effect】
According to the present invention, in an image detection system having an area sensor, the time required for one integration / data dump is shortened without requiring a high-speed video A / D converter. Therefore, it is possible to repeat integration and data dump a number of times while the shutter is open without incurring extra cost, and to perform accurate image blur detection.
[Brief description of the drawings]
FIG. 1 is a device configuration diagram of an image detection system having two area sensors and a control circuit for controlling them.
FIG. 2 is a timing chart related to the output from the area sensor of FIG.
FIG. 3 is a diagram showing a logic circuit for adjusting a sampling pulse.
FIG. 4 3 The figure which showed the specific example of the sampling pulse generated from the logic circuit.
FIG. 5 is a diagram showing details of the arrangement relationship between a monitor and an area sensor.
FIG. 6 is a diagram showing another example of details of the positional relationship between the monitor and the area sensor.
FIG. 7 is an example different from FIG. 1 of the device configuration diagram of an image detection system having two area sensors and a control circuit for controlling the two area sensors.
FIG. 8 is a flowchart for selecting a monitor in the case of autofocus.
FIG. 9 is a schematic diagram of an optical system to which the image detection system of FIGS. 1 and 7 is applied.
FIG. 10 is a schematic diagram of another optical system to which the image detection system of FIGS. 1 and 7 is applied.
FIG. 11 is a timing chart of an image blur detection control method.
FIG. 12 is a detailed configuration diagram of an area sensor.
FIGS. 13A and 13B are timing charts in the case of (a) non-addition in the vertical direction and (b) addition of charges for two pixels in the vertical direction.
14A and 14B are timing charts in the case of (a) non-addition in the horizontal direction and (b) addition of charges for two pixels in the horizontal direction.
FIG. 15 is a flowchart of selection between addition and non-addition.
FIG. 16 is a timing chart of (a) normal area sensor mode and (b) line sensor mode in the case of autofocus.
FIGS. 17A and 17B are diagrams showing an autofocus area and an optical axis center in an area sensor of a first example, a second example, a second example, a third example, and a fourth example; FIG.
FIG. 18 is a diagram showing the relationship between the integration time and the monitor voltage when the integration of the area sensor is controlled by time.
FIG. 19 is a diagram showing the relationship between the integration time and the monitor voltage when the integration of the area sensor is controlled by the monitor voltage.
FIG. 20 is a flowchart of selection of an autofocus area.
FIG. 21 is a flowchart of selection of an image blur detection area.
FIG. 22 is a diagram illustrating an example of a sequence obtained by (a) first (b) second (c) third (d) fourth integration during image blur detection.
[Explanation of symbols]
1, 2 Area sensor
3, 4 monitor
3a, 3b monitor
4a, 4b monitor
5, 6 Monitor output switch
7 AGC circuit
8 Control circuit
9 Output selection circuit
10 Gain variable amplifier
11 Clamp circuit
μC microcomputer
14, 15 Black reference pixel
18 Vertical transfer register
21 Horizontal transfer register
21a, 21b Horizontal transfer register
22 S / H circuit
23 Register clear gate
30, 31 Area sensor output switch
32 A / D converter
46 Vout terminal
Claims (1)
前記エリアセンサの画素領域のうち、
像振れ検出に必要な画素領域の蓄積電荷をマイクロコンピュータに内蔵されているA/D変換器でA/D変換できる第1の周波数で読み出して複数の画素の電荷を加算し、
像振れ検出に不要な画素領域の蓄積電荷を前記第1の周波数より高い第2の周波数で掃き捨てる
事を特徴とした画像検出システム。In an image detection system having an area sensor, an area sensor driving unit that drives the area sensor, and an area sensor output processing circuit unit that processes the output of the area sensor,
Of the pixel area of the area sensor,
The accumulated charge in the pixel area necessary for image blur detection is read out at a first frequency that can be A / D converted by an A / D converter built in the microcomputer, and the charges of a plurality of pixels are added .
An image detection system, wherein stored charges in a pixel area unnecessary for image blur detection are swept away at a second frequency higher than the first frequency.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27500996A JP3627027B2 (en) | 1996-10-17 | 1996-10-17 | Image detection system |
US08/953,415 US6219468B1 (en) | 1996-10-17 | 1997-10-17 | Image detection system |
US09/793,563 US20020044700A1 (en) | 1996-10-17 | 2001-02-27 | Image detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27500996A JP3627027B2 (en) | 1996-10-17 | 1996-10-17 | Image detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10126677A JPH10126677A (en) | 1998-05-15 |
JP3627027B2 true JP3627027B2 (en) | 2005-03-09 |
Family
ID=17549619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27500996A Expired - Fee Related JP3627027B2 (en) | 1996-10-17 | 1996-10-17 | Image detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3627027B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5217213B2 (en) * | 2007-03-30 | 2013-06-19 | カシオ計算機株式会社 | Imaging apparatus and program |
-
1996
- 1996-10-17 JP JP27500996A patent/JP3627027B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10126677A (en) | 1998-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8964061B2 (en) | Image capturing apparatus with selection of thinning and readout mode in accordance with moving image recording mode | |
US4963985A (en) | Video camera using interpolating focus control | |
US8525917B2 (en) | Image sensing apparatus with plural focus detection pixel groups | |
US8817165B2 (en) | Image capturing apparatus | |
US8730347B2 (en) | Image pickup apparatus with focus detection | |
JPH10229522A (en) | Monitor method in ccd image pickup device and digital still camera | |
US20040212723A1 (en) | Image pickup apparatus and operating method | |
US6219468B1 (en) | Image detection system | |
JP2002320143A (en) | Imaging device | |
JP3627027B2 (en) | Image detection system | |
JPH10126682A (en) | Image detection system | |
JP3542312B2 (en) | Electronic imaging device | |
JP3463483B2 (en) | Image detection system | |
JP2008187614A (en) | Photographing apparatus | |
JP3500874B2 (en) | Image detection system and area sensor | |
JP4095630B2 (en) | Imaging device | |
JP4086337B2 (en) | Imaging device | |
JPH10123580A (en) | Image detection system | |
JPH10126678A (en) | Image detection system | |
JP3907343B2 (en) | Imaging device | |
JPH11205690A (en) | Digital still camera | |
JPH10126681A (en) | Image detection system | |
JP2007110639A (en) | Solid-state imaging element, drive method thereof, and imaging apparatus | |
JP3540752B2 (en) | Imaging device | |
JP3540753B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20041029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20041029 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071217 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081217 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081217 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091217 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091217 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101217 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111217 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121217 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121217 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131217 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |