JP2008166974A - Image blur detection method, imaging apparatus, and image blur detection program - Google Patents

Image blur detection method, imaging apparatus, and image blur detection program Download PDF

Info

Publication number
JP2008166974A
JP2008166974A JP2006352295A JP2006352295A JP2008166974A JP 2008166974 A JP2008166974 A JP 2008166974A JP 2006352295 A JP2006352295 A JP 2006352295A JP 2006352295 A JP2006352295 A JP 2006352295A JP 2008166974 A JP2008166974 A JP 2008166974A
Authority
JP
Japan
Prior art keywords
pixel group
image
pixel
image data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006352295A
Other languages
Japanese (ja)
Other versions
JP4945235B2 (en
Inventor
Yuuri Miura
祐理 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006352295A priority Critical patent/JP4945235B2/en
Publication of JP2008166974A publication Critical patent/JP2008166974A/en
Application granted granted Critical
Publication of JP4945235B2 publication Critical patent/JP4945235B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform detection of image blur of a photographed image in high precision and high speed. <P>SOLUTION: When the apparatus photographs an object image by solid imaging elements 21 which has a first pixel group (G pixel group) which is arranged and formed, for example, in checkers shape in an imaging area, and second pixel groups (R pixel group and B pixel group) which are arranged and formed in remained checkers positions of the imaging area, it makes exposure time of the first pixel group shorter than an exposure time of the second pixel groups, and detects motion vectors of the object image by performing comparison processing of image data (G image frame) and image data (RB image frame) read out from the second pixel groups. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像ブレの検出精度を向上させることができる画像ブレ検出方法及び撮像装置並びに画像ブレ検出プログラムに関する。   The present invention relates to an image blur detection method, an imaging apparatus, and an image blur detection program that can improve the accuracy of image blur detection.

デジタルスチルカメラやデジタルビデオカメラ等の撮像装置で被写体を撮像する場合、撮像装置を持つ手が固定できずに生じる手振れや、シャッタ速度に対して被写体の動きが速いことで生じる被写体ブレが起きる。これらは画像ブレとして撮像画像に現れてしまう。   When a subject is imaged by an imaging device such as a digital still camera or a digital video camera, camera shake that occurs when the hand holding the imaging device cannot be fixed or subject blur that occurs due to the subject moving faster than the shutter speed occurs. These appear in the captured image as image blur.

図6は、画像ブレの検出原理の説明図である。図6(a)に示すNフレーム目の画像1中の所定アドレスで示されるブロック2内の画像を基準画像とすると、図6(b)に示す(N+1)フレーム目の画像3中の同一所定アドレスで示されるブロック4によって切り出された比較画像が基準画像と同一であれば、基準画像に対して比較画像はブレていないことになる。   FIG. 6 is an explanatory diagram of the principle of image blur detection. If the image in the block 2 indicated by the predetermined address in the image 1 of the Nth frame shown in FIG. 6A is a reference image, the same predetermined in the image 3 of the (N + 1) th frame shown in FIG. 6B. If the comparison image cut out by the block 4 indicated by the address is the same as the reference image, the comparison image is not blurred with respect to the reference image.

しかし、手振れや被写体ブレが発生していれば、ブロック2内の基準画像とブロック4で切り出された比較画像は一致しない。そこで、画像3中のブロック4を、4a,4b,4c,…と、X方向(水平方向),Y方向(垂直方向)に1画素づつ或いは数画素づつずらしながら、各ブロック4a,4b,4c,…内の夫々の比較画像を基準画像と比較し、基準画像と最も相関性が高い比較画像を切り出したブロック位置を求める。   However, if camera shake or subject blurring has occurred, the reference image in block 2 and the comparative image cut out in block 4 do not match. Therefore, the block 4 in the image 3 is shifted by 4a, 4b, 4c,... In the X direction (horizontal direction) and the Y direction (vertical direction) one pixel or several pixels at a time while shifting each block 4a, 4b, 4c. ,... Are compared with the reference image, and the block position where the comparison image having the highest correlation with the reference image is cut out is obtained.

図6(b)に示す例で、ブロック2の基準画像に対し最も相関性の高い比較画像がブロック4cで切り出されたとすると、ブロック2の基準画像に対するブロック4cの比較画像との差はベクトル「k」となる。このベクトルkが基準画像の移動ベクトル即ちブレベクトルである。   In the example shown in FIG. 6B, if the comparison image having the highest correlation with the reference image of block 2 is cut out at block 4c, the difference between the reference image of block 2 and the comparison image of block 4c is the vector “ k ". This vector k is a movement vector of the reference image, that is, a blur vector.

この移動ベクトルkが、画面全体の各所で平均的に検出できれば、この移動ベクトルkは手振れによる移動ベクトルであると判断でき、画像1を表示した次に、画像3を移動ベクトルkと逆方向に移動させて表示すれば、手振れの無い画像を表示することができる。   If this movement vector k can be detected on average throughout the entire screen, it can be determined that this movement vector k is a movement vector due to camera shake, and after image 1 is displayed, image 3 is displayed in the opposite direction to movement vector k. If the image is moved and displayed, an image without camera shake can be displayed.

また、この移動ベクトルkが画面の一部でのみ検出できれば、それは基準画像の被写体ブレによる移動ベクトルであると判断でき、その基準画像部分を適切に補正すれば、被写体ブレを抑えた撮像画像データを得ることができる。   Further, if this movement vector k can be detected only on a part of the screen, it can be determined that it is a movement vector due to subject blur of the reference image, and if the reference image portion is appropriately corrected, the captured image data that suppresses subject blurring. Can be obtained.

尚、移動ベクトルの検出技術に関連する従来技術として、下記特許文献1等がある。   As a conventional technique related to the movement vector detection technique, there is Patent Document 1 below.

特開昭61−201581号公報Japanese Patent Laid-Open No. 61-201581

図6で説明したように、画像ブレを検出する場合、あるフレームの画像から切り出した基準画像と、次フレーム画像から切り出した多数の比較画像とを比較演算するため、例えば1秒間に30フレームの画像を撮像する撮像装置では、画像ブレの検出までに、比較演算処理に要する時間を差し引いても最低で〔1/30〕秒の時間遅れが生じてしまい、検出精度を向上させることができないという問題がある。   As described with reference to FIG. 6, when image blur is detected, a reference image cut out from an image of a certain frame and a number of comparison images cut out from the next frame image are compared and calculated, for example, 30 frames per second. In an image pickup apparatus that picks up an image, even if the time required for the comparison calculation process is subtracted before the detection of the image blur, a time delay of [1/30] seconds occurs at the minimum, and the detection accuracy cannot be improved. There's a problem.

本発明の目的は、画像ブレを検出するまでの時間を短縮し画像ブレの検出精度を向上させることができる画像ブレ検出方法及び撮像装置並びに画像ブレ検出プログラムを提供することにある。   An object of the present invention is to provide an image blur detection method, an imaging apparatus, and an image blur detection program that can shorten the time until image blur is detected and improve the accuracy of image blur detection.

本発明の画像ブレ検出方法は、固体撮像素子の撮像領域に二次元アレイ状に配列形成された画素群を所定パターンの繰り返しで配列される第1画素群と残りの第2画素群とに分け被写体画像を撮像するとき前記第1画素群の露光時間を前記第2画素群の露光時間より短くし、前記第1画素群から読み出された画像データと前記第2画素群から読み出された画像データとを比較処理することで被写体画像の動きベクトルを検出することを特徴とする。   According to the image blur detection method of the present invention, a pixel group arranged in a two-dimensional array in the imaging region of a solid-state imaging device is divided into a first pixel group and a remaining second pixel group arranged by repeating a predetermined pattern. When capturing a subject image, the exposure time of the first pixel group is shorter than the exposure time of the second pixel group, and the image data read from the first pixel group and the second pixel group are read. A motion vector of a subject image is detected by performing a comparison process with image data.

本発明の画像ブレ検出方法は、前記第1画素群が前記撮像領域に市松配列された画素群であり、前記第2画素群が残りの市松位置に配列された画素群であることを特徴とする。   The image blur detection method of the present invention is characterized in that the first pixel group is a pixel group arranged in a checkered pattern in the imaging region, and the second pixel group is a pixel group arranged in the remaining checkered positions. To do.

本発明の撮像装置は、撮像領域に二次元アレイ状に配列形成された画素群を有する固体撮像素子と、前記画素群を所定パターンの繰り返しで配列される第1画素群と残りの第2画素群とに分け被写体画像を撮像するとき前記第1画素群の露光時間を前記第2画素群の露光時間より短くする撮像素子駆動手段と、前記第1画素群から読み出された画像データと前記第2画素群から読み出された画像データとを比較処理することで被写体画像の動きベクトルを検出する演算処理手段とを備えることを特徴とする。   An imaging device according to the present invention includes a solid-state imaging device having a pixel group arranged in a two-dimensional array in an imaging region, a first pixel group in which the pixel group is arranged by repeating a predetermined pattern, and the remaining second pixels. An image sensor driving means for making an exposure time of the first pixel group shorter than an exposure time of the second pixel group when capturing a subject image divided into groups; image data read from the first pixel group; and Computational processing means for detecting a motion vector of the subject image by comparing the image data read from the second pixel group is provided.

本発明の撮像装置は、前記第1画素群が前記撮像領域に市松配列された画素群であり、前記第2画素群が残りの市松位置に配列された画素群であることを特徴とする。   The imaging device of the present invention is characterized in that the first pixel group is a pixel group arranged in a checkered pattern in the imaging region, and the second pixel group is a pixel group arranged in the remaining checkered positions.

本発明の撮像装置の前記演算処理手段は、前記動きベクトルを、1画面内の動きベクトル分布として検出することを特徴とする。   The arithmetic processing means of the imaging apparatus of the present invention is characterized in that the motion vector is detected as a motion vector distribution within one screen.

本発明の撮像装置の前記演算処理手段は、前記第1画素群から読み出された画像データに基づき被写体画像の動き予測を行うことを特徴とする。   The arithmetic processing unit of the imaging apparatus according to the present invention is characterized in that motion estimation of a subject image is performed based on image data read from the first pixel group.

本発明の画像ブレ検出プログラムは、固体撮像素子の撮像領域に二次元アレイ状に配列形成された画素群を所定パターンの繰り返しで配列される第1画素群と残りの第2画素群とに分け被写体画像を撮像するとき前記第1画素群の露光時間を前記第2画素群の露光時間より短くして得られた撮像画像データを処理する画像ブレ検出プログラムであって、前記第1画素群から読み出された画像データと前記第2画素群から読み出された画像データとを比較処理することで被写体画像の動きベクトルを検出することを特徴とする。   The image blur detection program of the present invention divides a pixel group arranged in a two-dimensional array in an imaging region of a solid-state imaging device into a first pixel group and a remaining second pixel group arranged by repeating a predetermined pattern. An image blur detection program for processing captured image data obtained by making an exposure time of the first pixel group shorter than an exposure time of the second pixel group when capturing a subject image, The motion vector of the subject image is detected by comparing the read image data with the image data read from the second pixel group.

本発明の画像ブレ検出プログラムは、前記第1画素群が前記撮像領域に市松配列された画素群であり、前記第2画素群が残りの市松位置に配列された画素群であることを特徴とする。   The image blur detection program of the present invention is characterized in that the first pixel group is a pixel group arranged in a checkered pattern in the imaging region, and the second pixel group is a pixel group arranged in the remaining checkered positions. To do.

本発明によれば、同一フレームの画像データを露光時間の異なる第1画像フレームと第2画像フレームとで構成するため、第1画像フレームと第2画像フレームとを比較演算することで、短い露光時間の差に起因するブレベクトルが算出でき、ブレ補正,ブレ予測,動き予測,動体検出,動体追尾などを高精度,高速に行うことが可能となる。   According to the present invention, since the image data of the same frame is composed of the first image frame and the second image frame having different exposure times, the first image frame and the second image frame are compared and calculated, so that the short exposure is performed. A blur vector resulting from the time difference can be calculated, and blur correction, blur prediction, motion prediction, moving object detection, moving object tracking, and the like can be performed with high accuracy and high speed.

以下、本発明の一実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るデジタルカメラの構成図である。このデジタルカメラは、固体撮像素子21と、固体撮像素子21から出力されるアナログの画像データを自動利得調整(AGC)や相関二重サンプリング処理等のアナログ処理するアナログ信号処理部22と、アナログ信号処理部22から出力されるアナログ画像データをデジタル画像データに変換するアナログデジタル変換部(A/D)23と、後述のシステム制御部(CPU)29からの指示によってA/D23,アナログ信号処理部22,固体撮像素子21の駆動制御を行う駆動制御部(タイミングジェネレータを含む)24と、CPU29からの指示によって発光するフラッシュ25とを備える。   FIG. 1 is a configuration diagram of a digital camera according to an embodiment of the present invention. This digital camera includes a solid-state imaging device 21, an analog signal processing unit 22 that performs analog processing such as automatic gain adjustment (AGC) and correlated double sampling processing on analog image data output from the solid-state imaging device 21, and an analog signal. An analog / digital conversion unit (A / D) 23 that converts analog image data output from the processing unit 22 into digital image data, and an A / D 23, analog signal processing unit according to instructions from a system control unit (CPU) 29 described later 22, a drive control unit (including a timing generator) 24 that controls the drive of the solid-state imaging device 21, and a flash 25 that emits light in response to an instruction from the CPU 29.

本実施形態のデジタルカメラは更に、A/D23から出力されるデジタル画像データを取り込み補間処理やホワイトバランス補正,RGB/YC変換処理等を行うデジタル信号処理部26と、画像データをJPEG形式などの画像データに圧縮したり逆に伸長したりする圧縮/伸長処理部27と、メニューなどを表示したりスルー画像や撮像画像を表示する表示部28と、デジタルカメラ全体を統括制御するシステム制御部(CPU)29と、フレームメモリ等の内部メモリ30と、JPEG画像データ等を格納する記録メディア32との間のインタフェース処理を行うメディアインタフェース(I/F)部31と、これらを相互に接続するバス40とを備え、また、システム制御部29には、ユーザからの指示入力を行う操作部33が接続されている。   The digital camera of the present embodiment further includes a digital signal processing unit 26 that takes in digital image data output from the A / D 23 and performs interpolation processing, white balance correction, RGB / YC conversion processing, and the like. A compression / decompression processing unit 27 that compresses or decompresses the image data, a display unit 28 that displays a menu or the like, displays a through image or a captured image, and a system control unit that performs overall control of the entire digital camera ( CPU) 29, an internal memory 30 such as a frame memory, and a media interface (I / F) unit 31 that performs interface processing between a recording medium 32 that stores JPEG image data and the like, and a bus that interconnects them 40, and an operation unit 33 for inputting an instruction from the user is connected to the system control unit 29. It has been.

図2は、図1に示す固体撮像素子21の表面模式図である。図示する例の固体撮像素子21はCCD(チャージカップルドデバイス)型の固体撮像素子であり、半導体基板上に正方格子状に配列形成された複数のフォトダイオード51と、各フォトダイオード列の右側に設けられた垂直電荷転送路(VCCD)52と、各垂直電荷転送路52の端部に連接して設けられた水平電荷転送路(HCCD)53と、水平電荷転送路53の出力端部に設けられたアンプ54とを備える。   FIG. 2 is a schematic diagram of the surface of the solid-state imaging device 21 shown in FIG. The solid-state image pickup device 21 in the illustrated example is a CCD (charge coupled device) type solid-state image pickup device, and includes a plurality of photodiodes 51 arranged in a square lattice pattern on a semiconductor substrate, and the right side of each photodiode row. Provided at the vertical charge transfer path (VCCD) 52 provided, the horizontal charge transfer path (HCCD) 53 provided connected to the end of each vertical charge transfer path 52, and the output end of the horizontal charge transfer path 53 The amplifier 54 is provided.

各フォトダイオード51上に記載した「R」「G」「B」は当該フォトダイオード上に積層したカラーフィルタの色(R=赤、G=緑、B=青)を示しており、所謂ベイヤー配列のカラーフィルタ配列となっている。Rフィルタを搭載したフォトダイオード51を「R画素」、Gフィルタを搭載したフォトダイオード51を「G画素」、Bフィルタを搭載したフォトダイオードを「B画素」ということにすると、本実施形態の固体撮像素子21は、撮像領域にG画素が市松配列され、R画素およびB画素が残りの市松位置に配列されることになる。   “R”, “G”, and “B” described on each photodiode 51 indicate the colors (R = red, G = green, B = blue) of the color filters stacked on the photodiode, and are so-called Bayer arrays. This is a color filter array. When the photodiode 51 with the R filter is called “R pixel”, the photodiode 51 with the G filter is called “G pixel”, and the photodiode with the B filter is called “B pixel”, the solid state of the present embodiment. In the imaging device 21, G pixels are arranged in a checkered pattern in the imaging region, and R pixels and B pixels are arranged in the remaining checkered positions.

G画素51と右側の垂直電荷転送路52との間には垂直転送電極膜兼用の読出ゲート(読出電極膜)55gが設けられており、R画素51,B画素51と右側の垂直電荷転送路52との間には垂直転送電極膜兼用の読出ゲート(読出電極膜)55rbが設けられている。垂直電荷転送路52の垂直転送電極膜の配列構成は、本実施形態では全画素のプログレッシブ読出が可能な周知の構成になっているが、インターレース読出可能な構成でも良い。   A read gate (read electrode film) 55g also serving as a vertical transfer electrode film is provided between the G pixel 51 and the right vertical charge transfer path 52, and the R pixel 51 and the B pixel 51 and the right vertical charge transfer path. A read gate (read electrode film) 55rb also serving as a vertical transfer electrode film is provided between the gate electrode 52 and the gate electrode 52. The arrangement of the vertical transfer electrode films in the vertical charge transfer path 52 is a well-known configuration capable of progressive readout of all pixels in the present embodiment, but may be a configuration capable of interlace readout.

本実施形態の固体撮像素子21では、同一行のG画素とR画素とは別々の読出パルスによって垂直電荷転送路52に信号電荷が読み出され、同一行のG画素とB画素とは別々の読出パルスによって垂直電荷転送路52に信号電荷が読み出されるが、R画素とB画素とは同じタイミングで垂直電荷転送路52に信号電荷が読み出される構成になっている。   In the solid-state imaging device 21 of the present embodiment, the signal charges are read out to the vertical charge transfer path 52 by the separate readout pulses for the G pixels and R pixels in the same row, and the G pixels and B pixels in the same row are separated. The signal charge is read to the vertical charge transfer path 52 by the read pulse, but the signal charge is read to the vertical charge transfer path 52 in the R pixel and the B pixel at the same timing.

斯かる構成の固体撮像素子21を搭載した図1のデジタルカメラで被写体画像を撮像する場合、図1に示すシステム制御部29は駆動部24に対して命令を発行し、図3に示す様に、先ず、電子シャッタパルスを固体撮像素子21に出力させ、不要電荷を基板側に廃棄させる。これにより、電子シャッタが「開」となり、各画素R,G,Bを露光を開始する。   When the subject image is captured by the digital camera of FIG. 1 equipped with the solid-state image sensor 21 having such a configuration, the system control unit 29 shown in FIG. 1 issues a command to the drive unit 24, as shown in FIG. First, an electronic shutter pulse is output to the solid-state imaging device 21 and unnecessary charges are discarded on the substrate side. As a result, the electronic shutter is “open” and exposure of each pixel R, G, B is started.

そして、各画素から信号電荷を垂直電荷転送路52に読み出す場合、R画素,B画素からの信号電荷の読み出しタイミングと、G画素からの信号電荷の読み出しタイミングとを異ならせる。例えば、露出に応じた決めたシャッタ時間が〔1/60〕秒であったすると、R画素,B画素からの信号電荷の読み出しタイミングを電子シャッタ「開」から〔1/60〕秒後とし、G画素からの信号電荷の読み出しタイミングは、それよりも早い時間、例えば、電子シャッタ「開」から〔1/90〕秒後とする。   When signal charges are read out from each pixel to the vertical charge transfer path 52, the signal charge read timing from the R pixel and the B pixel is different from the signal charge read timing from the G pixel. For example, if the shutter time determined according to the exposure is [1/60] second, the signal charge read timing from the R pixel and B pixel is set to [1/60] second after the electronic shutter is opened, The readout timing of the signal charge from the G pixel is earlier than that, for example, [1/90] seconds after the electronic shutter is opened.

これにより、電子シャッタ「開」となった〔1/90〕秒後にG画素の信号電荷が垂直電荷転送路52に読み出されて保持され、その後の電子シャッタ「開」から〔1/60〕秒後にR画素,B画素の信号電荷が垂直電荷転送路52に読み出される。そして、全画素の信号電荷が垂直電荷転送路上に読み出された後、各信号電荷を水平電荷転送路53の方向に転送し、次に、水平電荷転送路53に沿って出力アンプ54まで転送し、出力アンプ54は、転送されてきた信号電荷の電荷量に応じた電圧値信号を撮像画像データとして図1のアナログ信号処理部22に出力する。動画像の撮影時やスルー画像の表示時には、上記動作を垂直同期信号毎に行うことになる。   As a result, the signal charge of the G pixel is read out and held in the vertical charge transfer path 52 [1/90] seconds after the electronic shutter is opened, and after the electronic shutter is opened [1/60]. After two seconds, the signal charges of the R pixel and B pixel are read out to the vertical charge transfer path 52. Then, after the signal charges of all the pixels are read onto the vertical charge transfer path, each signal charge is transferred in the direction of the horizontal charge transfer path 53, and then transferred to the output amplifier 54 along the horizontal charge transfer path 53. Then, the output amplifier 54 outputs a voltage value signal corresponding to the amount of transferred signal charges to the analog signal processing unit 22 in FIG. 1 as captured image data. The above operation is performed for each vertical synchronization signal when capturing a moving image or displaying a through image.

アナログ信号処理部22に取り込まれた撮像画像データは、周知のデジタルカメラの画像処理技術により、例えばJPEG画像データとして記録メディア32に記録され、また、スルー画像データが表示部28に表示される。   The captured image data captured by the analog signal processing unit 22 is recorded on the recording medium 32 as, for example, JPEG image data by a known digital camera image processing technique, and the through image data is displayed on the display unit 28.

このとき、G画素の信号電荷量は、R画素およびB画素のシャッタ時間より足らない信号電荷量となっているため、補正した信号電荷量を用いて画像処理を行う。例えば上記例では、G画素のシャッタ時間〔1/90〕秒はR画素およびB画素のシャッタ時間〔1/60〕秒に比べて〔2/3〕となっているので、実際にG画素から読み出された信号電荷量を〔3/2〕倍することで補正し、被写体画像の絵作りを行う。   At this time, since the signal charge amount of the G pixel is a signal charge amount that is less than the shutter time of the R pixel and the B pixel, image processing is performed using the corrected signal charge amount. For example, in the above example, the shutter time [1/90] seconds for the G pixel is [2/3] compared to the shutter time [1/60] seconds for the R pixel and the B pixel. Correction is performed by multiplying the read signal charge amount by [3/2] to make a picture of the subject image.

この絵作りを行うとき、本実施形態のデジタルカメラでは、以下に述べる様に、R画素およびB画素と、G画素との間の露光時間の差を利用して、画像ブレを検知する。   When making this picture, the digital camera according to the present embodiment detects image blur using the difference in exposure time between the R pixel, the B pixel, and the G pixel as described below.

図4は、図1に示したデジタルカメラで画像ブレを検出する画像ブレ検出処理装置60の機能構成図である。この画像ブレ検出処理装置60は、ユーザが図1に示す操作部33から画像ブレの補正処理を行う旨の指示入力があったとき、システム制御部29が移動ベクトル(ブレベクトル)検出プログラムを起動することで、システム制御部29が配下のデジタル信号処理部26,内部メモリ30等を用いて構成する。   FIG. 4 is a functional configuration diagram of the image blur detection processing device 60 that detects image blur with the digital camera shown in FIG. 1. In this image blur detection processing device 60, when the user inputs an instruction to perform image blur correction processing from the operation unit 33 shown in FIG. 1, the system control unit 29 activates a movement vector (blur vector) detection program. Thus, the system control unit 29 is configured using the subordinate digital signal processing unit 26, the internal memory 30, and the like.

この画像ブレ検出処理装置60は、固体撮像素子21から出力される画像データを間引き処理して縮小画像を生成する間引き処理部61と、間引き処理された縮小画像データのうちR画素およびB画素の画像データ(以下、RB画像フレームという。)とG画素の画像データ(以下、G画像フレームという。)を分離する分離処理部62と、分離処理部62で分離されたRB画像を格納する第1メモリ63及びG画像を格納する第2メモリ64とを備える。   The image blur detection processing device 60 includes a thinning processing unit 61 that thins out image data output from the solid-state imaging device 21 to generate a reduced image, and R pixels and B pixels of the thinned-out reduced image data. A separation processing unit 62 that separates image data (hereinafter referred to as an RB image frame) and image data of G pixels (hereinafter referred to as a G image frame), and a first that stores the RB image separated by the separation processing unit 62 A memory 63 and a second memory 64 for storing the G image.

本実施形態の画像ブレ検出処理装置60は、更に、RB画像フレームを取り込み動き分布推定処理を行う第1推定処理部65と、G画像フレームを取り込み動き分布推定処理および動き予測を行う第2推定処理部66と、G画像フレームの後段への出力を第2推定処理部66の処理結果とにより制御する制御部67と、第1推定処理部65の推定結果およびRB画像フレームと第2推定処理部66の処理結果およびG画像フレームとから撮像画像の統合的なブレ分布を推定する画像ブレ分布推定処理部68と、ブレ分布推定処理部68の処理結果に基づき出力制御を行う出力制御部69とを備える。   The image blur detection processing device 60 of the present embodiment further includes a first estimation processing unit 65 that captures an RB image frame and performs motion distribution estimation processing, and a second estimation that captures a G image frame and performs motion distribution estimation processing and motion prediction. A processing unit 66, a control unit 67 that controls output to the subsequent stage of the G image frame based on a processing result of the second estimation processing unit 66, an estimation result of the first estimation processing unit 65, an RB image frame, and a second estimation process An image blur distribution estimation processing unit 68 that estimates an integrated blur distribution of a captured image from the processing result of the unit 66 and the G image frame, and an output control unit 69 that performs output control based on the processing result of the blur distribution estimation processing unit 68 With.

出力制御部69は、固体撮像素子21から内部メモリ30に取り込まれた撮像画像データを表示や記録のために出力する際に、手振れ補正処理を行ったり、被写体ブレ補正を行う。   The output control unit 69 performs camera shake correction processing or subject blur correction when outputting captured image data captured from the solid-state imaging device 21 to the internal memory 30 for display or recording.

図5(a)は、移動ベクトル(ブレベクトル)の分布推定処理の説明図である。図示する実施形態では、1画面の撮像画像を4行4列の計16の部分画面データに分割し、各分割画面♯1〜♯16毎に、移動ベクトルの算出処理を行う。この算出処理は、基本的には、図6で説明した算出処理と同様であり、分割画面内から基準画像を切り出し、これと相関性の高い比較画像の当該分割画面内における切り出し位置を求め、当該分割画面における移動ベクトルを求める。   FIG. 5A is an explanatory diagram of a movement vector (blur vector) distribution estimation process. In the illustrated embodiment, a captured image of one screen is divided into a total of 16 partial screen data of 4 rows and 4 columns, and movement vector calculation processing is performed for each of the divided screens # 1 to # 16. This calculation process is basically the same as the calculation process described in FIG. 6, and a reference image is cut out from the divided screen, and a cut-out position in the divided screen of the comparative image having a high correlation with the reference image is obtained. A movement vector in the divided screen is obtained.

これにより、本実施形態では、図5(b)に示す様に、計16個の部分移動ベクトルK1〜K16が算出される。図示する例では、K7だけが他の部分ベクトルK1〜K6,K8〜K16と異なっている。このため、分割画面♯7内に動体が撮影されており、他の部分移動ベクトルK1〜K6,K8〜K16は手振れに起因する移動ベクトルであると推定できる。   Thereby, in this embodiment, as shown in FIG.5 (b), a total of 16 partial movement vectors K1-K16 are calculated. In the illustrated example, only K7 is different from the other partial vectors K1 to K6 and K8 to K16. For this reason, a moving object is photographed in the divided screen # 7, and it can be estimated that the other partial movement vectors K1 to K6 and K8 to K16 are movement vectors due to camera shake.

そこで、ブレ分布推定処理部68は、部分移動ベクトルK1〜K6,K8〜K16の平均ベクトルを手振れベクトルとして出力制御部69に出力する。これにより、出力制御部69は、Nフレーム画像を出力した後、N+1フレーム画像を出力するとき、N+1フレーム画像をこの手振れベクトルと逆方向に移動させて出力させる。これにより、手振れが抑制された出力データを得ることが可能となる。   Therefore, the shake distribution estimation processing unit 68 outputs the average vector of the partial movement vectors K1 to K6 and K8 to K16 to the output control unit 69 as a hand shake vector. Accordingly, when outputting the N + 1 frame image after outputting the N frame image, the output control unit 69 moves the N + 1 frame image in the direction opposite to the camera shake vector and outputs it. This makes it possible to obtain output data in which camera shake is suppressed.

ブレ分布推定処理部68は、手振れベクトルとは別に、図5(b)に示す例では、部分移動ベクトルK7を被写体ブレベクトルとして出力制御部69に出力する。これにより、出力制御部69は、Nフレーム画像を出力した後、N+1フレーム画像を出力するに際し、その分割画面♯7の部分画像に対して、シャープネス補正等を施して被写体ブレを抑制する。   In the example shown in FIG. 5B, the shake distribution estimation processing unit 68 outputs the partial movement vector K7 as the subject shake vector to the output control unit 69, apart from the hand shake vector. Thus, when outputting the N + 1 frame image after outputting the N frame image, the output control unit 69 performs sharpness correction or the like on the partial image of the divided screen # 7 to suppress subject blurring.

この様な手振れベクトル,被写体ブレベクトルを算出する場合、従来は、Nフレーム画像と、N+1フレーム画像との比較演算で求めたが、本実施形態の場合には、Nフレーム画像とN+1フレーム画像の比較演算を行う他に、Nフレーム画像中の上記G画像フレームとRB画像フレームとの比較演算も行うことができ、Nフレーム画像中のG画像フレームとN+1フレーム画像中のG画像フレームとの比較演算も行うことができ、従来に比較してブレベクトルの検出精度が向上する。   In the case of calculating such a camera shake vector and subject blur vector, conventionally, the calculation is performed by comparing the N frame image and the N + 1 frame image. However, in the present embodiment, the N frame image and the N + 1 frame image are calculated. In addition to performing a comparison operation, a comparison operation between the G image frame and the RB image frame in the N frame image can also be performed, and a comparison between the G image frame in the N frame image and the G image frame in the N + 1 frame image can be performed. The calculation can also be performed, and the blur vector detection accuracy is improved as compared with the conventional case.

例えば、上記の例では言えば、N−1フレーム画像とNフレーム画像のG画像フレームとから求めた動き予測の結果と、Nフレーム画像のRB画像フレームとが合えば、動き予測結果が正しいと判断でき、より精度の高い動き予測やブレベクトルの検出が可能となる。   For example, in the above example, if the motion prediction result obtained from the N-1 frame image and the G image frame of the N frame image matches the RB image frame of the N frame image, the motion prediction result is correct. Therefore, it is possible to perform motion prediction and blur vector detection with higher accuracy.

また、Nフレーム画像から切り出した基準画像とN+1フレーム画像から切り出した比較画像とを比較演算する時間を短縮するには、比較画像を切り出す探索範囲を狭くするのが有効であるが、この場合、本実施形態によれば、Nフレーム画像のG画像フレームとRB画像フレームとから求めた動きにより、相関性の高い比較画像の切り出し位置を狭い範囲に制限でき、それだけ高速,高精度に移動ベクトルの算出が可能となる。   In order to shorten the time for performing the comparison operation between the reference image cut out from the N frame image and the comparison image cut out from the N + 1 frame image, it is effective to narrow the search range for cutting out the comparison image. According to this embodiment, the cut-out position of a highly correlated comparative image can be limited to a narrow range by the movement obtained from the G image frame and the RB image frame of the N frame image, and the movement vector of the movement vector can be limited with high speed and high accuracy. Calculation is possible.

また、本実施形態によれば、静止画像を撮像した場合に、単一フレーム画像中のG画像フレームとRB画像フレームとの差を動きベクトルとして検出できるため、静止画像における手振れ補正も精度良く行うことが可能となる。   Further, according to the present embodiment, when a still image is captured, the difference between the G image frame and the RB image frame in the single frame image can be detected as a motion vector, so that camera shake correction in the still image is also performed with high accuracy. It becomes possible.

基準画像と比較画像の相関性は、基準画像と比較画像の1画素1画素の画像データの差分の全画素分(図6で説明したブロック2内の総画素分)の合計で求めることができ、この合計が最も小さい比較画像が基準画像に対して最も相関性が高いとされる。   The correlation between the reference image and the comparison image can be obtained by the sum of all the pixels of the difference between the image data of each pixel of the reference image and the comparison image (the total pixels in the block 2 described in FIG. 6). The comparative image with the smallest sum is considered to have the highest correlation with the reference image.

本実施形態の場合、G画像フレームとRB画像フレームとを比較するため、そのままの画像データ量で比較すると、差分が大きくなってしまう。そこで、G画像フレームの画像データから輝度成分を求め、RB画像フレームの画像データから輝度成分を求める。R画像フレームやB画像フレームの輝度成分は、G画像フレームの輝度成分より小さいため、G画像フレームの輝度成分に合うように正規化する。そして、G画像フレームの輝度成分と、正規化したRB画像フレームの輝度成分との差分を求め、この差分の全画素数の合計から、相関性を求めることで、G画像フレームとRB画像フレームとの間の相関性を演算することができる。   In the case of the present embodiment, since the G image frame and the RB image frame are compared, if the comparison is performed with the same amount of image data, the difference becomes large. Therefore, the luminance component is obtained from the image data of the G image frame, and the luminance component is obtained from the image data of the RB image frame. Since the luminance component of the R image frame and the B image frame is smaller than the luminance component of the G image frame, normalization is performed so as to match the luminance component of the G image frame. Then, the difference between the luminance component of the G image frame and the normalized luminance component of the RB image frame is obtained, and the correlation is obtained from the sum of the total number of pixels of the difference, whereby the G image frame and the RB image frame are obtained. The correlation between can be calculated.

尚、上述した実施形態では、ブレベクトルの算出処理の高速化を図るために、間引き処理部61で縮小画像を生成し、縮小画像中のG画像フレームとRB画像フレームとの比較演算を行っているが、演算処理装置として高性能なものが使用できメモリ容量に余裕があれば、間引き処理せずに、元画像データ中のG画像フレームとRB画像フレームを用いてブレベクトルを算出することも可能である。   In the above-described embodiment, in order to speed up the blur vector calculation process, a reduced image is generated by the thinning-out processing unit 61, and a comparison operation between the G image frame and the RB image frame in the reduced image is performed. However, if a high-performance arithmetic processing unit can be used and there is sufficient memory capacity, the blur vector can be calculated using the G image frame and the RB image frame in the original image data without performing the thinning process. Is possible.

また、上述した実施形態は、撮像領域に形成されている画素群を、市松配列されたG画素群と、残りの市松位置のR画素,B画素群とに分けた最適実施形態を説明しているが、撮像領域に二次元アレイ状に配列形成された画素群を、任意の所定パターンの繰り返しで配列される第1画素群と、残りの第2画素群とに分けるだけ、例えばカラーフィルタをストライプ状に形成し、G画素群とRB画素群とに分けても同様に被写体画像の動きベクトルを算出することができる。   Further, the above-described embodiment describes an optimal embodiment in which the pixel group formed in the imaging region is divided into the G pixel group arranged in a checkered pattern and the R pixel and B pixel group in the remaining checkered positions. However, the pixel group arranged in a two-dimensional array in the imaging region is divided into a first pixel group and a remaining second pixel group that are arranged by repeating an arbitrary predetermined pattern. It is possible to calculate the motion vector of the subject image in the same manner even if it is formed in a stripe shape and divided into the G pixel group and the RB pixel group.

更にまた、上述した実施形態では、デジタルカメラ内部での処理として説明したが、固体撮像素子21から出力される画像データを全て記録しておき、これを外部のパーソナルコンピュータ等に取り込み、パーソナルコンピュータがブレベクトル検出プログラムや電子的手振れ補正プログラムを実行することでも同様に処理が可能である。   Furthermore, in the above-described embodiment, the processing has been described as processing inside the digital camera. However, all the image data output from the solid-state imaging device 21 is recorded, and this is taken into an external personal computer or the like. The same processing can be performed by executing a blur vector detection program or an electronic camera shake correction program.

本発明に係る画像ブレ検出方法等は、高精度,高速に画像ブレを検出できるため、デジタルカメラ等に適用すると、高品質の画像を撮像でき、有用である。   The image blur detection method and the like according to the present invention can detect an image blur with high accuracy and high speed, and therefore, when applied to a digital camera or the like, a high-quality image can be taken and is useful.

本発明の一実施形態に係るデジタルカメラのブロック構成図である。It is a block block diagram of the digital camera which concerns on one Embodiment of this invention. 図1に示す固体撮像素子の表面模式図である。It is a surface schematic diagram of the solid-state image sensor shown in FIG. 図2に示すCCD型の固体撮像素子のR画素,G画素,B画素の駆動タイミングを示す図である。FIG. 3 is a diagram illustrating drive timings of an R pixel, a G pixel, and a B pixel of the CCD solid-state imaging device illustrated in FIG. 図1に示すデジタルカメラ内にプログラムによって構成される画像ブレ検出処理装置の機能構成図である。It is a functional block diagram of the image blur detection processing apparatus comprised by a program in the digital camera shown in FIG. 画像ブレベクトルの分布説明図である。It is distribution explanatory drawing of an image blur vector. 画像ブレベクトルの算出処理説明図である。It is image blurring process calculation explanatory drawing.

符号の説明Explanation of symbols

21 固体撮像素子
24 駆動部
26 デジタル信号処理部
29 システム制御部
51 フォトダイオード(画素)
52 垂直電荷転送路
53 水平電荷転送路
60 画像ブレ検出処理装置
62 分離処理部
63 RB画像フレーム格納メモリ
64 G画像フレーム格納メモリ
65 RB画像フレーム動き分布推定処理部
66 G画像フレーム動き分布推定処理部
67 動き予測部
68 画像ブレ分布推定処理部
69 出力制御部
21 Solid-state imaging device 24 Drive unit 26 Digital signal processing unit 29 System control unit 51 Photodiode (pixel)
52 vertical charge transfer path 53 horizontal charge transfer path 60 image blur detection processing device 62 separation processing unit 63 RB image frame storage memory 64 G image frame storage memory 65 RB image frame motion distribution estimation processing unit 66 G image frame motion distribution estimation processing unit 67 motion prediction unit 68 image blur distribution estimation processing unit 69 output control unit

Claims (8)

固体撮像素子の撮像領域に二次元アレイ状に配列形成された画素群を所定パターンの繰り返しで配列される第1画素群と残りの第2画素群とに分け被写体画像を撮像するとき前記第1画素群の露光時間を前記第2画素群の露光時間より短くし、前記第1画素群から読み出された画像データと前記第2画素群から読み出された画像データとを比較処理することで被写体画像の動きベクトルを検出することを特徴とする画像ブレ検出方法。   When imaging a subject image by dividing a pixel group arranged in a two-dimensional array in an imaging region of a solid-state imaging device into a first pixel group and a remaining second pixel group that are arranged by repeating a predetermined pattern. By making the exposure time of the pixel group shorter than the exposure time of the second pixel group, the image data read from the first pixel group and the image data read from the second pixel group are compared. An image blur detection method comprising detecting a motion vector of a subject image. 前記第1画素群が前記撮像領域に市松配列された画素群であり、前記第2画素群が残りの市松位置に配列された画素群であることを特徴とする請求項1に記載の画像ブレ検出方法。   2. The image blur according to claim 1, wherein the first pixel group is a pixel group arranged in a checkered pattern in the imaging region, and the second pixel group is a pixel group arranged in the remaining checkered positions. Detection method. 撮像領域に二次元アレイ状に配列形成された画素群を有する固体撮像素子と、前記画素群を所定パターンの繰り返しで配列される第1画素群と残りの第2画素群とに分け被写体画像を撮像するとき前記第1画素群の露光時間を前記第2画素群の露光時間より短くする撮像素子駆動手段と、前記第1画素群から読み出された画像データと前記第2画素群から読み出された画像データとを比較処理することで被写体画像の動きベクトルを検出する演算処理手段とを備えることを特徴とする撮像装置。   A solid-state imaging device having a pixel group arranged in a two-dimensional array in the imaging region, and dividing the pixel group into a first pixel group and a remaining second pixel group arranged by repeating a predetermined pattern, and subject images Image pickup device driving means for making the exposure time of the first pixel group shorter than the exposure time of the second pixel group when imaging, image data read from the first pixel group, and reading from the second pixel group An image processing apparatus comprising: an arithmetic processing unit that detects a motion vector of a subject image by performing a comparison process on the image data. 前記第1画素群が前記撮像領域に市松配列された画素群であり、前記第2画素群が残りの市松位置に配列された画素群であることを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the first pixel group is a pixel group arranged in a checkered pattern in the imaging region, and the second pixel group is a pixel group arranged in the remaining checkered positions. . 前記演算処理手段は、前記動きベクトルを、1画面内の動きベクトル分布として検出することを特徴とする請求項3または請求項4に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the arithmetic processing unit detects the motion vector as a motion vector distribution in one screen. 前記演算処理手段は、前記第1画素群から読み出された画像データに基づき被写体画像の動き予測を行うことを特徴とする請求項3乃至請求項5のいずれかに記載の撮像装置。   The imaging apparatus according to claim 3, wherein the arithmetic processing unit performs motion estimation of a subject image based on image data read from the first pixel group. 固体撮像素子の撮像領域に二次元アレイ状に配列形成された画素群を所定パターンの繰り返しで配列される第1画素群と残りの第2画素群とに分け被写体画像を撮像するとき前記第1画素群の露光時間を前記第2画素群の露光時間より短くして得られた撮像画像データを処理する画像ブレ検出プログラムであって、前記第1画素群から読み出された画像データと前記第2画素群から読み出された画像データとを比較処理することで被写体画像の動きベクトルを検出することを特徴とする画像ブレ検出プログラム。   When imaging a subject image by dividing a pixel group arranged in a two-dimensional array in an imaging region of a solid-state imaging device into a first pixel group and a remaining second pixel group that are arranged by repeating a predetermined pattern. An image blur detection program for processing captured image data obtained by making an exposure time of a pixel group shorter than an exposure time of the second pixel group, wherein the image data read from the first pixel group and the first An image blur detection program for detecting a motion vector of a subject image by performing comparison processing with image data read from a group of two pixels. 前記第1画素群が前記撮像領域に市松配列された画素群であり、前記第2画素群が残りの市松位置に配列された画素群であることを特徴とする請求項7に記載の画像ブレ検出方法。   The image blur according to claim 7, wherein the first pixel group is a pixel group arranged in a checkered pattern in the imaging region, and the second pixel group is a pixel group arranged in the remaining checkered positions. Detection method.
JP2006352295A 2006-12-27 2006-12-27 Image blur detection method, imaging apparatus, and image blur detection program Expired - Fee Related JP4945235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006352295A JP4945235B2 (en) 2006-12-27 2006-12-27 Image blur detection method, imaging apparatus, and image blur detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006352295A JP4945235B2 (en) 2006-12-27 2006-12-27 Image blur detection method, imaging apparatus, and image blur detection program

Publications (2)

Publication Number Publication Date
JP2008166974A true JP2008166974A (en) 2008-07-17
JP4945235B2 JP4945235B2 (en) 2012-06-06

Family

ID=39695850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006352295A Expired - Fee Related JP4945235B2 (en) 2006-12-27 2006-12-27 Image blur detection method, imaging apparatus, and image blur detection program

Country Status (1)

Country Link
JP (1) JP4945235B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011024035A (en) * 2009-07-16 2011-02-03 Sharp Corp Motion detection device, image capturing apparatus, method of detecting motion, program, and design method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171445A (en) * 2000-12-04 2002-06-14 Sanyo Electric Co Ltd Solid-state imaging device and imaging apparatus
WO2006014641A2 (en) * 2004-07-21 2006-02-09 Micron Technology, Inc. Rod and cone response sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171445A (en) * 2000-12-04 2002-06-14 Sanyo Electric Co Ltd Solid-state imaging device and imaging apparatus
WO2006014641A2 (en) * 2004-07-21 2006-02-09 Micron Technology, Inc. Rod and cone response sensor
JP2008507908A (en) * 2004-07-21 2008-03-13 マイクロン テクノロジー インコーポレイテッド Rod and cone response sensors

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011024035A (en) * 2009-07-16 2011-02-03 Sharp Corp Motion detection device, image capturing apparatus, method of detecting motion, program, and design method

Also Published As

Publication number Publication date
JP4945235B2 (en) 2012-06-06

Similar Documents

Publication Publication Date Title
JP4987355B2 (en) Imaging apparatus and imaging method
US8199222B2 (en) Low-light video frame enhancement
JP5214476B2 (en) Imaging apparatus, image processing method, and program
JP3974634B2 (en) Imaging apparatus and imaging method
KR20090008139A (en) Image pickup apparatus, image processing method, and computer program
US8310553B2 (en) Image capturing device, image capturing method, and storage medium having stored therein image capturing program
CN108781250A (en) Video camera controller, camera shooting control method and photographic device
US11064143B2 (en) Image processing device and image pickup apparatus for processing divisional pixal signals to generate divisional image data
JP4985124B2 (en) Image processing apparatus, image processing method, and image processing program
KR20160044945A (en) Image photographing appratus
JP5829122B2 (en) Imaging apparatus and evaluation value generation apparatus
JP2007274504A (en) Digital camera
JP5387341B2 (en) Imaging device
JP5996418B2 (en) Imaging apparatus and imaging method
JP2006287814A (en) Imaging apparatus and method of determining motion vector
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
JP2009164859A (en) Imaging apparatus and imaging control method
JP6235788B2 (en) Imaging apparatus and control method thereof
JP2005184777A (en) Smear arithmetic circuit, imaging device, and solid-state imaging element driving method
JP4945235B2 (en) Image blur detection method, imaging apparatus, and image blur detection program
JP2008236739A (en) Imaging apparatus and imaging method
JP6871795B2 (en) Imaging device, its control method, program and recording medium
JP2017038281A (en) Imaging device and control method therefor
JP2008270983A (en) Camera shake correction device and camera shake correction method
JP4852490B2 (en) Imaging apparatus and post-view image generation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20111118

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120305

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees