JP2006319784A - Image processing apparatus and imaging apparatus - Google Patents

Image processing apparatus and imaging apparatus Download PDF

Info

Publication number
JP2006319784A
JP2006319784A JP2005141567A JP2005141567A JP2006319784A JP 2006319784 A JP2006319784 A JP 2006319784A JP 2005141567 A JP2005141567 A JP 2005141567A JP 2005141567 A JP2005141567 A JP 2005141567A JP 2006319784 A JP2006319784 A JP 2006319784A
Authority
JP
Japan
Prior art keywords
image
frame
block
motion vector
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005141567A
Other languages
Japanese (ja)
Inventor
Yuichi Yoshida
祐一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005141567A priority Critical patent/JP2006319784A/en
Publication of JP2006319784A publication Critical patent/JP2006319784A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and imaging apparatus capable of obtaining a good image without increasing jiggling or blurring even in such a condition as an object moves at a high speed without sufficient illuminating light quantity for the object. <P>SOLUTION: A motion vector operator 224 calculates a motion vector for associating an image block of a partial area of an image frame configuring an image signal at a first frame rate with a plurality of image frames based on a motion in the image. A synthesizer 225 synthesizes the plurality of image frames by adding the image block associated by the motion vector with the plurality of image frames to generate one piece of image frame, and outputs the image frame as the image signal at a second frame rate lower than the first frame rate. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、照度の低い条件下において、被写体の移動によって発生する画像のブレやボケの低減を図った画像処理装置および撮像装置に関する。   The present invention relates to an image processing apparatus and an imaging apparatus that reduce blurring and blurring of an image caused by movement of a subject under low illumination conditions.

従来の撮像装置においては、被写体への照明光が低照度になった場合、通常、ゲインを調整する、シャッタースピードを遅くする、または絞りを開放する等の、撮像素子の画像信号出力を高めるような調整が行われて、画像信号出力の強度、すなわち画像の明るさが確保されている。特に、照度が低い条件下においては、画像信号の強度に比較してノイズの比率が高く、感度が十分でない場合が多い。ゲインの調整により信号強度を確保する方法では、このような撮像条件でゲインの調整を図ると、ノイズの影響が大きくなる。   In conventional imaging devices, when the illumination light to the subject becomes low illuminance, the image signal output of the imaging device is usually increased by adjusting the gain, slowing down the shutter speed, or opening the aperture. Thus, the intensity of the image signal output, that is, the brightness of the image is secured. In particular, under low illuminance conditions, the ratio of noise is high compared to the intensity of the image signal, and the sensitivity is often insufficient. In the method of ensuring the signal intensity by adjusting the gain, if the gain is adjusted under such an imaging condition, the influence of noise increases.

したがって、このような照度の低い条件で撮影する場合には、光量調整を図る方法が主にとられることが多い。しかし、シャッタースピードを遅くして撮像素子での電荷蓄積量を増やそうとすると、被写体が移動している場合に、画像にブレやボケが発生し、画質が低下する。また、光量絞りを開放する方法も考えられるが、被写界深度が浅くなることにより、ボケる範囲が広くなる等、別の面で画質が影響を受ける。   Therefore, when photographing under such a low illuminance condition, a method of adjusting the light amount is often mainly used. However, if an attempt is made to increase the amount of charge accumulated in the image sensor by reducing the shutter speed, the image is blurred and blurred when the subject is moving, and the image quality is degraded. Although a method of opening the light amount diaphragm is also conceivable, the image quality is affected in other aspects, such as a wider range of blurring due to the shallow depth of field.

照度の低い条件で被写体を撮像する技術は、例えば特許文献1に開示されている。特許文献1には、間欠動作の期間(電化蓄積時間)とゲインを制御し、所定の出力レベルを獲得する方法が記載されている。この方法では、アンプのゲインが上がりすぎることによる画像劣化を回避するように、間欠動作の期間(電化蓄積時間)が制御される。したがって、照度の低い条件では電荷蓄積時間が長くなるので、被写体に移動体があると、画像にブレやボケが発生する。
特開平7−231403号公報
A technique for imaging a subject under a condition with low illuminance is disclosed in Patent Document 1, for example. Patent Document 1 describes a method of acquiring a predetermined output level by controlling an intermittent operation period (electrical storage time) and a gain. In this method, the period of intermittent operation (electrical storage time) is controlled so as to avoid image degradation due to excessive gain of the amplifier. Therefore, since the charge accumulation time becomes long under low illuminance conditions, if there is a moving object in the subject, blurring or blurring occurs in the image.
Japanese Patent Laid-Open No. 7-231403

上述したように、外光の照度が低下した条件下で十分な信号強度、つまり画像の明るさを確保しようとすると、被写体が移動している場合に、画像にブレやボケが発生するという問題点があった。   As described above, when a sufficient signal intensity, that is, the brightness of an image is secured under a condition where the illuminance of outside light is reduced, the image may be blurred or blurred when the subject is moving. There was a point.

本発明は、上述した問題点に鑑みてなされたものであって、被写体の照明光量が十分でなく、高速に被写体が移動しているような条件においても、ブレやボケを増加させずに良好な画像を得ることができる画像処理装置および撮像装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and is good without increasing blur and blur even under conditions where the amount of illumination light of the subject is insufficient and the subject is moving at high speed. An object of the present invention is to provide an image processing apparatus and an imaging apparatus capable of obtaining a clear image.

本発明は、上記の課題を解決するためになされたもので、請求項1に記載の発明は、第1のフレームレートの画像信号を構成する画像フレームの部分領域である画像ブロックを、画像中の動きに基づいて複数の前記画像フレーム間で関連付ける動きベクトルを算出する動きベクトル算出手段と、複数の前記画像フレーム間で前記動きベクトルによって関連付けられた前記画像ブロックを加算することによって、前記複数の画像フレームを合成して1枚の画像フレームを生成し、前記第1のフレームレートよりも低い第2のフレームレートの画像信号として出力するフレーム合成手段とを有することを特徴とする画像処理装置である。   The present invention has been made to solve the above problems, and the invention according to claim 1 is directed to an image block that is a partial area of an image frame constituting an image signal having a first frame rate. A motion vector calculating means for calculating a motion vector associated between the plurality of image frames based on the motion of the image frame, and adding the image blocks associated with the motion vector between the plurality of image frames. An image processing apparatus comprising: a frame synthesizing unit that synthesizes image frames to generate one image frame and outputs the image frame as an image signal having a second frame rate lower than the first frame rate. is there.

請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記動きベクトル算出手段は、合成の基準とする基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとの画素値の差分を算出し、前記フレーム合成手段は、前記差分の絶対値が所定値以上である場合には、前記基準画像フレームの前記画像ブロックと前記基準画像フレームの同一の前記画像ブロックとを加算し、前記差分の絶対値が所定値未満である場合には、前記動きベクトルによって関連付けられた前記基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとを加算することを特徴とする。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the motion vector calculation means includes the image block of the reference image frame that is a reference for synthesis and the image block of the other image frame. A difference between pixel values of the reference image frame and the frame composition means, when the absolute value of the difference is equal to or greater than a predetermined value, the image block of the reference image frame and the same image block of the reference image frame If the absolute value of the difference is less than a predetermined value, adding the image block of the reference image frame and the image block of another image frame that are related by the motion vector Features.

請求項3に記載の発明は、請求項1または請求項2に記載の画像処理装置において、前記第1のフレームレートの画像信号または前記第2のフレームレートの画像信号の輝度レベルを検出する信号レベル検出手段と、検出された前記輝度レベルに基づいて、前記画像フレームを合成するか否かを判定するフレーム合成判定手段と、前記第1のフレームレートの画像信号を構成する複数の前記画像フレームを蓄積するフレーム蓄積手段と、前記フレーム合成判定手段によって、前記画像フレームを合成すると判定された場合に、前記フレーム蓄積手段に蓄積されている前記画像フレームに前記画像ブロックを設定するブロック設定手段とをさらに有することを特徴とする。   According to a third aspect of the present invention, in the image processing device according to the first or second aspect, a signal for detecting a luminance level of the image signal of the first frame rate or the image signal of the second frame rate. Level detection means, frame synthesis determination means for determining whether or not to synthesize the image frame based on the detected luminance level, and a plurality of the image frames constituting the image signal of the first frame rate A frame storage means for storing the image frame, and a block setting means for setting the image block in the image frame stored in the frame storage means when the frame composition determination means determines that the image frame is to be combined. It further has these.

請求項4に記載の発明は、撮像を行い、第1のフレームレートの画像信号を出力する撮像手段と、前記第1のフレームレートの画像信号を構成する画像フレームの部分領域である画像ブロックを、画像中の動きに基づいて複数の前記画像フレーム間で関連付ける動きベクトルを算出する動きベクトル算出手段と、複数の前記画像フレーム間で前記動きベクトルによって関連付けられた前記画像ブロックを加算することによって、前記複数の画像フレームを合成して1枚の画像フレームを生成し、前記第1のフレームレートよりも低い第2のフレームレートの画像信号として出力するフレーム合成手段とを有することを特徴とする撮像装置である。   According to a fourth aspect of the present invention, there is provided image pickup means for picking up an image and outputting an image signal having a first frame rate, and an image block being a partial region of an image frame constituting the image signal having the first frame rate. Adding a motion vector calculating means for calculating a motion vector associated between the plurality of image frames based on a motion in the image, and adding the image blocks associated by the motion vector between the plurality of image frames. A frame synthesizing unit that synthesizes the plurality of image frames to generate one image frame and outputs the image frame as an image signal having a second frame rate lower than the first frame rate; Device.

請求項5に記載の発明は、請求項4に記載の撮像装置において、前記動きベクトル算出手段は、合成の基準とする基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとの画素値の差分を算出し、前記フレーム合成手段は、前記差分の絶対値が所定値以上である場合には、前記基準画像フレームの前記画像ブロックと前記基準画像フレームの同一の前記画像ブロックとを加算し、前記差分の絶対値が所定値未満である場合には、前記動きベクトルによって関連付けられた前記基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとを加算することを特徴とする。   According to a fifth aspect of the present invention, in the imaging apparatus according to the fourth aspect, the motion vector calculation means calculates the relationship between the image block of the reference image frame used as a reference for synthesis and the image block of the other image frame. A difference between pixel values is calculated, and when the absolute value of the difference is equal to or greater than a predetermined value, the frame composition unit calculates the image block of the reference image frame and the same image block of the reference image frame. When the absolute value of the difference is less than a predetermined value, the image block of the reference image frame associated with the motion vector and the image block of another image frame are added. And

請求項6に記載の発明は、請求項4または請求項5に記載の撮像装置において、前記第1のフレームレートの画像信号または前記第2のフレームレートの画像信号の輝度レベルを検出する信号レベル検出手段と、検出された前記輝度レベルに基づいて、前記画像フレームを合成するか否かを判定するフレーム合成判定手段と、前記第1のフレームレートの画像信号を構成する複数の前記画像フレームを蓄積するフレーム蓄積手段と、前記フレーム合成判定手段によって、前記画像フレームを合成すると判定された場合に、前記フレーム蓄積手段に蓄積されている前記画像フレームに前記画像ブロックを設定するブロック設定手段とをさらに有することを特徴とする。   According to a sixth aspect of the present invention, in the imaging device according to the fourth or fifth aspect, a signal level for detecting a luminance level of the image signal having the first frame rate or the image signal having the second frame rate. Detecting means; frame composition determining means for determining whether or not to synthesize the image frame based on the detected luminance level; and a plurality of the image frames constituting the image signal of the first frame rate. Frame storing means for storing, and block setting means for setting the image block in the image frame stored in the frame storing means when the frame combining determining means determines that the image frames are to be combined. Furthermore, it is characterized by having.

本発明によれば、第2のフレームレートよりも高い第1のフレームレートの画像信号を構成する複数の画像フレームが、動きベクトルによって関連付けられたブロック同士を加算することによって合成されるので、被写体の照明光量が十分でなく、高速に被写体が移動しているような条件においても、ブレやボケを増加させずに良好な画像を得ることができるという効果が得られる。   According to the present invention, the plurality of image frames constituting the image signal having the first frame rate higher than the second frame rate are synthesized by adding the blocks associated by the motion vector. Even under the condition that the amount of illumination light is not sufficient and the subject is moving at high speed, it is possible to obtain an effect that a good image can be obtained without increasing blur and blur.

以下、図面を参照し、本発明を実施するための最良の形態について説明する。図1は、本発明の一実施形態による撮像装置の構成を示している。図において、撮像部1は、撮像を行うための構成を備えており、画像処理部2は、撮像によって生成された画像信号を処理するための構成を備えている。撮像部1と画像処理部2を一体の装置として構成してもよいし、別個の装置として構成してもよい。撮像部1において、撮像レンズ11は被写体からの光を集光する。撮像レンズ11によって集光された光は、固体撮像装置12(撮像手段)において結像される。固体撮像装置12は、撮像を行う撮像素子を備えており、撮像レンズ11によって集光された光を電気信号に変換し、被写体像に基づいた画像信号を出力する。固体撮像装置12は、撮像素子から画素信号を並列に読み出すことによって、高フレームレートの動画像信号の生成を実現している。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 shows the configuration of an imaging apparatus according to an embodiment of the present invention. In the figure, the imaging unit 1 has a configuration for performing imaging, and the image processing unit 2 has a configuration for processing an image signal generated by imaging. The imaging unit 1 and the image processing unit 2 may be configured as an integrated device, or may be configured as separate devices. In the imaging unit 1, the imaging lens 11 condenses light from the subject. The light condensed by the imaging lens 11 is imaged in the solid-state imaging device 12 (imaging means). The solid-state imaging device 12 includes an imaging device that performs imaging, converts light collected by the imaging lens 11 into an electrical signal, and outputs an image signal based on the subject image. The solid-state imaging device 12 realizes generation of a high-frame-rate moving image signal by reading pixel signals from the imaging element in parallel.

固体撮像装置12から出力された画像信号はAGC部13に入力される。AGC部13は画像信号を増幅してA/D変換部14へ出力する。A/D変換部14は画像信号を標本化・量子化し、デジタルデータに変換する。駆動回路15は、固体撮像装置12を駆動するための各種パルスを発生し、固体撮像装置12の動作を制御する。   The image signal output from the solid-state imaging device 12 is input to the AGC unit 13. The AGC unit 13 amplifies the image signal and outputs it to the A / D conversion unit 14. The A / D converter 14 samples and quantizes the image signal and converts it into digital data. The drive circuit 15 generates various pulses for driving the solid-state imaging device 12 and controls the operation of the solid-state imaging device 12.

画像処理部2において、ビデオメモリ21は、A/D変換部14から出力された1フレーム分の画像データ(画像フレーム)を記憶する。フレーム合成部22は、制御部26からの指示に従って、蓄積用のビデオメモリ24から必要な画像フレームを取り出し、複数の画像フレームを合成する。すなわち、照度が低い場合には、フレーム合成部22は、必要に応じて複数の画像フレームを加算して1枚の画像フレームを生成し、第1フレームレートよりも低い第2フレームレートの画像信号を構成する画像フレームとしてカメラ信号処理部23へ出力する。また、それ以外の場合には、フレーム合成部22は、第1フレームレートで生成された画像フレームを間引いて、第2フレームレートの画像信号を構成する画像フレームとしてカメラ信号処理部23へ出力する。   In the image processing unit 2, the video memory 21 stores image data (image frame) for one frame output from the A / D conversion unit 14. The frame composition unit 22 extracts necessary image frames from the storage video memory 24 in accordance with an instruction from the control unit 26 and composes a plurality of image frames. That is, when the illuminance is low, the frame synthesizing unit 22 adds a plurality of image frames as necessary to generate one image frame, and an image signal having a second frame rate lower than the first frame rate. Is output to the camera signal processing unit 23. In other cases, the frame synthesizing unit 22 thins out the image frames generated at the first frame rate, and outputs them to the camera signal processing unit 23 as image frames constituting the image signal at the second frame rate. .

カメラ信号処理部23は、入力された画像信号に対して、色調整やその他の信号処理を行って出力する。ビデオメモリ24(フレーム蓄積手段)は、第1フレームレートの画像信号を構成する複数の画像フレームを蓄積する。レベル検出器25(信号レベル検出手段)は、ビデオメモリ21からフレーム合成部22へ出力された画像フレームの画像信号レベル(全画素の輝度レベルの平均値等)を検出する。レベル検出器25が、カメラ信号処理部23から出力された第2フレームレートの画像信号を構成する画像フレームの画像信号レベル(輝度レベル)を検出すること等によって、画像信号レベルを検出するようにしてもよい。制御部26は上記の各構成を制御する。   The camera signal processing unit 23 performs color adjustment and other signal processing on the input image signal and outputs it. The video memory 24 (frame storage means) stores a plurality of image frames constituting the first frame rate image signal. The level detector 25 (signal level detection means) detects the image signal level (such as the average value of the luminance levels of all pixels) of the image frame output from the video memory 21 to the frame synthesis unit 22. The level detector 25 detects the image signal level by detecting the image signal level (luminance level) of the image frame constituting the image signal of the second frame rate output from the camera signal processing unit 23. May be. The control unit 26 controls each configuration described above.

次に、固体撮像装置12の内部構成を説明する。図2は、固体撮像装置12が備える撮像素子の内部構成を示している。撮像素子の撮像領域は複数のエリア(分割エリア)に分割され、各分割エリアから電荷信号が取り出されて、複数の出力信号として並列に出力される。撮像領域は撮像領域I、II、III、IVに4分割されている。垂直転送CCD125および水平転送CCD121によって撮像領域Iの電荷が読み出され、出力aとして出力される。垂直転送CCD126および水平転送CCD122によって撮像領域IIの電荷が読み出され、出力bとして出力される。垂直転送CCD127および水平転送CCD123によって撮像領域IIIの電荷が読み出され、出力cとして出力される。垂直転送CCD128および水平転送CCD124によって撮像領域IVの電荷が読み出され、出力dとして出力される。このように、撮像領域を分割し、並列的に画素信号を読み出すことにより、高フレームレートが実現されている。なお、CCDセンサを備えた撮像素子に代えて、CMOSセンサを備えた撮像素子を用いてもよい。   Next, the internal configuration of the solid-state imaging device 12 will be described. FIG. 2 shows the internal configuration of the image sensor provided in the solid-state imaging device 12. The imaging area of the imaging device is divided into a plurality of areas (divided areas), and a charge signal is taken out from each divided area and output in parallel as a plurality of output signals. The imaging area is divided into four imaging areas I, II, III, and IV. The charges in the imaging region I are read out by the vertical transfer CCD 125 and the horizontal transfer CCD 121 and output as an output a. The charges in the imaging region II are read out by the vertical transfer CCD 126 and the horizontal transfer CCD 122 and output as an output b. The charges in the imaging region III are read out by the vertical transfer CCD 127 and the horizontal transfer CCD 123 and output as an output c. The charges in the imaging region IV are read out by the vertical transfer CCD 128 and the horizontal transfer CCD 124 and output as an output d. Thus, a high frame rate is realized by dividing the imaging region and reading out pixel signals in parallel. Note that an image pickup device including a CMOS sensor may be used in place of the image pickup device including a CCD sensor.

ここで、出力a〜dが得られるが、全て(4つ)の信号出力により、全画素領域から信号が読み出されることになる。固体撮像装置12は、上記の4つの画素信号を1フレーム単位でバッファリングし、合成して第1フレームレートの画像信号として出力する信号処理回路を備えている。第1フレームレートの画像信号を出力する場合には、第1フレームレートよりも低い第2フレームレートの画像信号を出力する場合と比較して、シャッタースピードが速くなるので、被写体が移動している場合でも、ブレやボケの発生を低減することができる。   Here, outputs a to d are obtained, but signals are read from all the pixel regions by all (four) signal outputs. The solid-state imaging device 12 includes a signal processing circuit that buffers the four pixel signals in units of one frame, combines them, and outputs them as an image signal having a first frame rate. When the image signal of the first frame rate is output, the subject is moving because the shutter speed is faster than when the image signal of the second frame rate lower than the first frame rate is output. Even in this case, occurrence of blurring and blurring can be reduced.

次に、フレーム合成部22の構成および画像フレームの合成の方法を説明する。図3はフレーム合成部22の構成を示している。フレーム合成部22はフレーム合成判定部221(フレーム合成判定手段)、ビデオメモリ操作部222、ブロック化部223(ブロック設定手段)、動きベクトル演算部224(動きベクトル演算手段)、および合成部225(フレーム合成手段)を備えている。これらの各構成の動作は、制御部26によって制御される。また、ビデオメモリ24には、ビデオメモリ操作部222〜合成部225によって処理される画像フレームが蓄積される。ビデオメモリ24には過去複数フレーム分の画像フレームが蓄積フレームとして保存される。ビデオメモリ21から画像フレームが出力されると、レベル検出器25によってその画像フレームの画像信号レベルが検出され、画像フレームはフレーム合成判定部221に入力される。制御部26は、レベル検出器25によって検出された画像信号レベルをフレーム合成判定部221に通知する。   Next, the configuration of the frame synthesizing unit 22 and the method of synthesizing image frames will be described. FIG. 3 shows the configuration of the frame synthesis unit 22. The frame synthesis unit 22 includes a frame synthesis determination unit 221 (frame synthesis determination unit), a video memory operation unit 222, a blocking unit 223 (block setting unit), a motion vector calculation unit 224 (motion vector calculation unit), and a synthesis unit 225 ( Frame synthesis means). Operations of these components are controlled by the control unit 26. The video memory 24 stores image frames to be processed by the video memory operation unit 222 to the synthesis unit 225. The video memory 24 stores image frames for a plurality of past frames as accumulated frames. When an image frame is output from the video memory 21, the level detector 25 detects the image signal level of the image frame, and the image frame is input to the frame composition determination unit 221. The control unit 26 notifies the frame synthesis determination unit 221 of the image signal level detected by the level detector 25.

フレーム合成判定部221は、通知された画像信号レベルを用いて、画像フレームの合成を行うか否かを判定する。判定は、例えば画像フレームの全画素の平均輝度レベルを求めて規定レベルと比較する、あるいは輝度レベルが一定値以下である画素の占める面積と規定値を比較することによって行われる。平均輝度レベルが規定レベル以上、あるいは上記の面積が規定値以上であった場合には、フレーム合成判定部221は、照度が十分であると判断し、画像フレームの合成を行わないと判定する。一方、平均輝度レベルが規定値未満、あるいは上記の面積が規定値未満であった場合には、フレーム合成判定部221は、照度が不十分であると判断し、所望の露光量が確保された場合の画像フレームに相当する画像フレームを得るため、画像フレームの合成を行うと判定する。   The frame synthesis determination unit 221 determines whether or not to perform image frame synthesis using the notified image signal level. The determination is performed, for example, by obtaining an average luminance level of all the pixels of the image frame and comparing it with a prescribed level, or comparing an area occupied by pixels having a luminance level equal to or less than a certain value with a prescribed value. If the average luminance level is equal to or higher than the specified level, or the area is equal to or higher than the specified value, the frame composition determining unit 221 determines that the illuminance is sufficient and determines not to combine the image frames. On the other hand, when the average luminance level is less than the prescribed value or the area is less than the prescribed value, the frame composition determination unit 221 determines that the illuminance is insufficient, and a desired exposure amount is secured. In order to obtain an image frame corresponding to the image frame in this case, it is determined that the image frames are to be combined.

フレーム合成判定部221は、判定結果を制御部26に通知すると共に、ビデオメモリ21から出力された画像フレームをビデオメモリ操作部222へ出力する。制御部26は、通知された判定結果に基づいてビデオメモリ操作部222〜合成部225の動作を制御する。以下、フレーム合成判定部221によって、画像フレームの合成を行うと判定された場合の各構成の動作を説明する。ビデオメモリ操作部222は、フレーム合成判定部221から出力された画像フレームをビデオメモリ24に格納し、合成において基準のフレームとなる基準画像フレームをビデオメモリ24から読み出して、ブロック化部223へ出力する。   The frame composition determination unit 221 notifies the determination result to the control unit 26 and outputs the image frame output from the video memory 21 to the video memory operation unit 222. The control unit 26 controls the operations of the video memory operation unit 222 to the combining unit 225 based on the notified determination result. Hereinafter, the operation of each component when it is determined by the frame composition determination unit 221 that image frames are to be combined will be described. The video memory operation unit 222 stores the image frame output from the frame synthesis determination unit 221 in the video memory 24, reads out the reference image frame serving as a reference frame in the synthesis from the video memory 24, and outputs the reference image frame to the blocking unit 223. To do.

ブロック化部223〜合成部225によって、画像フレームを合成するための処理が行われる。図4に示されるように、所定数の画像フレームを合成することによって、第1フレームレートの画像信号から第2フレームレートの画像信号が生成される。一例として、3枚の画像フレームを合成して1枚の画像フレームを生成する場合について説明する。図4のフレームa3を処理する時点で画像フレームの合成が行われる場合、フレームa1〜a3から1つのフレームが生成される。このとき、フレームa1およびa2はビデオメモリ24に既に格納されており、それらがビデオメモリ24から読み出されてフレームa3と合成される。同様に、フレームa4〜a6、フレームa7〜a9からそれぞれ1つのフレームが生成される。   Blocking section 223 to combining section 225 perform processing for combining image frames. As shown in FIG. 4, by synthesizing a predetermined number of image frames, an image signal having a second frame rate is generated from an image signal having a first frame rate. As an example, a case where one image frame is generated by combining three image frames will be described. When image frames are combined at the time of processing the frame a3 in FIG. 4, one frame is generated from the frames a1 to a3. At this time, the frames a1 and a2 are already stored in the video memory 24, and they are read from the video memory 24 and synthesized with the frame a3. Similarly, one frame is generated from each of the frames a4 to a6 and the frames a7 to a9.

以下、フレームa1〜a3から1つのフレームを生成する手順を説明する。基準フレームがフレームa2であるとすると、ビデオメモリ操作部222によってフレームa2が読み出され、ブロック化部223へ出力される。ブロック化部223はフレームa2を分割し、フレームa2の部分領域であるブロック(画像ブロック)を複数生成する。これによって、フレームa2に複数のブロックが設定される。ブロック化部223はフレームa2を、例えばM×Nのブロックに分割し、分割したブロックを順次、動きベクトル演算部224へ出力する。ブロック分割の様子を図5(a)に示す。   Hereinafter, a procedure for generating one frame from the frames a1 to a3 will be described. Assuming that the reference frame is the frame a2, the video memory operation unit 222 reads out the frame a2 and outputs it to the blocking unit 223. The blocking unit 223 divides the frame a2 and generates a plurality of blocks (image blocks) that are partial areas of the frame a2. Thereby, a plurality of blocks are set in the frame a2. The blocking unit 223 divides the frame a2 into, for example, M × N blocks, and sequentially outputs the divided blocks to the motion vector calculation unit 224. The state of block division is shown in FIG.

動きベクトル演算部224は、画像中の動きに基づいて複数の画像フレーム間で画像ブロックを関連付ける動きベクトルを算出する。動きベクトル演算部224はフレームa1(参照フレーム)をビデオメモリ24から読み出し、ブロック化部223から出力されたブロック(図5(a)のブロックAとする)を、フレームa1の同一座標(図5(b)のエリアB)を中心とし、上下にそれぞれH,Wドット広げた範囲内(図5(b)のエリアC内、図6参照)でずらしながら、フレームa2のブロックとフレームa1のブロックとの画素値の絶対値差分を求める。画素値の絶対値差分は、以下の式で求められる。なお、f(x,y)はフレームa1における座標(x,y)の画素値であり、g(x,y)はフレームa2における座標(x,y)の画素値である。また、エリアBのx座標の範囲はx0〜x0+aであり、y座標の範囲はy0〜y0+bである。   The motion vector calculation unit 224 calculates a motion vector that associates image blocks between a plurality of image frames based on the motion in the image. The motion vector calculation unit 224 reads the frame a1 (reference frame) from the video memory 24, and the block (referred to as block A in FIG. 5A) output from the blocking unit 223 is the same coordinate (see FIG. 5). The block of the frame a2 and the block of the frame a1 are shifted while being shifted in the range where H and W dots are expanded vertically (see the area C in FIG. 5B and FIG. 6) centering on the area B) in FIG. The absolute value difference between the pixel values is obtained. The absolute value difference between pixel values is obtained by the following equation. Note that f (x, y) is a pixel value at coordinates (x, y) in the frame a1, and g (x, y) is a pixel value at coordinates (x, y) in the frame a2. In the area B, the x coordinate range is x0 to x0 + a, and the y coordinate range is y0 to y0 + b.

Figure 2006319784
Figure 2006319784

動きベクトル演算部224は−H≦I≦H、−W≦J≦Wの範囲でI,Jを変化させ、Φ(I,J)の値が最小になる位置を求める。その位置を中心とし、ブロックAと同じ大きさのフレームa1のブロックが、移動先のブロックとしてブロックAと関連付けられる。ブロック内に移動物体がない場合には、ブロックAがエリアBに完全に重なる同一座標(I=0,J=0)でΦ(I,J)の値が最小となり、動きベクトルは0となる。動きの少ないエリアでは高速に処理することができる。物体が移動している場合には、I,Jは非零となるので、I,J方向のずれ量を動きベクトルとして、対応付けが行われる。動きベクトル演算部224は、求めた動きベクトルと、その動きベクトルによって関連付けられたブロックの情報を合成部225へ出力する。なお、基準フレームのブロックと関連付けられる参照フレームのブロックの設定は動きベクトル演算部224によって行われるが、ブロック化部223が行ってもよい。   The motion vector calculation unit 224 changes I and J in a range of −H ≦ I ≦ H and −W ≦ J ≦ W, and obtains a position where the value of Φ (I, J) is minimized. A block of the frame a1 having the same size as the block A around the position is associated with the block A as a movement destination block. When there is no moving object in the block, the same coordinate (I = 0, J = 0) where block A completely overlaps area B has the minimum value of Φ (I, J), and the motion vector is 0. . High-speed processing is possible in areas with little movement. When the object is moving, I and J are non-zero, so that the correspondence is performed using the amount of deviation in the I and J directions as a motion vector. The motion vector calculation unit 224 outputs the obtained motion vector and block information associated with the motion vector to the synthesis unit 225. The setting of the block of the reference frame associated with the block of the base frame is performed by the motion vector calculation unit 224, but may be performed by the blocking unit 223.

続いて、合成部225は、動きベクトルによって対応付けられたブロック同士の画素値を加算することによって、フレームa1とa2を合成する。この合成において、合成部225は、動きベクトル演算部224によって算出された画素値の絶対値差分のブロック内での全画素の合計が規定値未満であった場合には、対応付けられたブロック間で、相対位置の等しい画素毎に画素値を加算する。また、画素値の絶対値差分のブロック内での全画素の合計が規定値以上であった場合には、合成部225は、フレームa1とa2を合成するのではなく、フレームa2の画素値に元のフレームa2の画素値を加算する。これは、移動体が変形したり、回転したり等の場合が想定されるからである。   Subsequently, the synthesizing unit 225 synthesizes the frames a1 and a2 by adding the pixel values of the blocks associated by the motion vector. In this synthesis, if the sum of all the pixels in the block of the absolute value difference of the pixel values calculated by the motion vector calculation unit 224 is less than the specified value, the synthesis unit 225 Then, the pixel value is added for each pixel having the same relative position. If the sum of all pixels in the block of absolute value differences of pixel values is equal to or greater than the specified value, the combining unit 225 does not combine the frames a1 and a2 but uses the pixel values of the frame a2. The pixel value of the original frame a2 is added. This is because the moving body is assumed to be deformed or rotated.

同様に、フレームa2とa3の合成が行われる。合成部225は、フレームa1とa2の合成処理における画素値の加算結果と、フレームa2とa3の合成処理における画素値の加算結果とを保持し、両者の結果を画素毎にさらに加算することによって、1枚の画像フレームを生成して出力する。この結果、フレームa1〜a3から1枚の画像フレームが生成され、同様にフレームa4〜a6、フレームa7〜a9からそれぞれ1枚ずつ画像フレームが生成されるので、第1のフレームレートの3分の1のフレームレートで画像フレームが出力される。   Similarly, the frames a2 and a3 are combined. The synthesizing unit 225 holds the addition result of the pixel values in the synthesis processing of the frames a1 and a2 and the addition result of the pixel values in the synthesis processing of the frames a2 and a3, and further adds the results of both for each pixel. One image frame is generated and output. As a result, one image frame is generated from the frames a1 to a3. Similarly, one image frame is generated from each of the frames a4 to a6 and the frames a7 to a9, so that one third of the first frame rate is obtained. An image frame is output at a frame rate of 1.

次に、フレーム合成判定部221によって、画像フレームの合成を行わないと判定された場合の動作を説明する。ビデオメモリ操作部222は、フレーム合成判定部221から出力された画像フレームをビデオメモリ24に格納する。制御部26は、ビデオメモリ24に順次格納される画像フレームを監視し、第2フレームレートに対応した画像フレームの出力タイミングとなったときに、ビデオメモリ操作部222に画像フレームの出力を指示する。指示を受けたビデオメモリ操作部222は、最後にビデオメモリ24に格納した画像フレームをカメラ信号処理部23へ出力する。上記の動作によって、画像フレームの合成が行われない場合、すなわち照度が十分である場合には、第1のフレームレートで生成された画像フレームが間引かれて、第2のフレームレートで画像フレームが出力される。   Next, an operation when the frame composition determination unit 221 determines not to perform image frame composition will be described. The video memory operation unit 222 stores the image frame output from the frame composition determination unit 221 in the video memory 24. The control unit 26 monitors the image frames sequentially stored in the video memory 24, and instructs the video memory operation unit 222 to output an image frame when the output timing of the image frame corresponding to the second frame rate comes. . Receiving the instruction, the video memory operation unit 222 outputs the image frame finally stored in the video memory 24 to the camera signal processing unit 23. When image frames are not combined by the above operation, that is, when the illuminance is sufficient, the image frames generated at the first frame rate are thinned out, and the image frames are generated at the second frame rate. Is output.

次に、図7および図8を参照して、本実施形態における画像フレームの合成の詳細な手順の一例を説明する。レベル検出器25は、ビデオメモリ21からフレーム合成部22へ出力された画像フレームの全画素の画像信号レベルの平均値を算出し、制御部26に通知する(図7のステップS701)。制御部26は画像信号レベルの平均値をフレーム合成判定部221に通知する。フレーム合成判定部221は、通知された画像信号レベルの平均値が規定値以上であるか否かを判定する(ステップS702)。   Next, an example of a detailed procedure for synthesizing image frames in the present embodiment will be described with reference to FIGS. The level detector 25 calculates the average value of the image signal levels of all the pixels of the image frame output from the video memory 21 to the frame synthesis unit 22, and notifies the control unit 26 (step S701 in FIG. 7). The control unit 26 notifies the frame synthesis determination unit 221 of the average value of the image signal level. The frame composition determination unit 221 determines whether or not the notified average value of the image signal level is greater than or equal to a specified value (step S702).

画像信号レベルの平均値が規定値以上であった場合には、フレーム合成判定部221は、画像フレームの合成を行うか否かの判定に用いる合成FLAGをOFFとする(ステップS703)。この合成FLAGは内部のレジスタに設定される。また、画像信号レベルの平均値が規定値未満であった場合には、フレーム合成判定部221は合成FLAGをONとし、ビデオメモリ24に蓄積された画像フレームを取り出す際に用いる取り出しCNTを0とする(ステップS704)。この取り出しCNTも内部のレジスタに設定される。   If the average value of the image signal levels is equal to or greater than the specified value, the frame synthesis determination unit 221 turns off the synthesis FLAG used to determine whether or not to perform image frame synthesis (step S703). This composite FLAG is set in an internal register. If the average value of the image signal level is less than the specified value, the frame synthesis determination unit 221 turns on the synthesis FLAG and sets the take-out CNT used when taking out the image frame stored in the video memory 24 to 0. (Step S704). This take-out CNT is also set in the internal register.

続いて、フレーム合成判定部221は、合成FLAGに基づいて、画像フレームの合成を行うか否かを判定する(ステップS705)。フレーム合成判定部221によって画像フレームの合成を行うと判定された場合には、制御部26は、合成に必要な分の画像フレームがビデオメモリ24に格納されているか否かを判定する(ステップS706)。合成に必要な分の画像フレームがビデオメモリ24に格納されていなかった場合には、制御部26は、ビデオメモリ操作部222に対して画像フレームの蓄積を指示する。指示を受けたビデオメモリ操作部222は、フレーム合成判定部221から出力された画像フレームをビデオメモリ24に格納する(ステップS713)。   Subsequently, the frame composition determination unit 221 determines whether to perform image frame composition based on the composition FLAG (step S705). When it is determined by the frame composition determination unit 221 that image frames are to be combined, the control unit 26 determines whether or not image frames necessary for composition are stored in the video memory 24 (step S706). ). When the image frames necessary for the composition are not stored in the video memory 24, the control unit 26 instructs the video memory operation unit 222 to store the image frames. Receiving the instruction, the video memory operation unit 222 stores the image frame output from the frame composition determination unit 221 in the video memory 24 (step S713).

一方、合成に必要な分の画像フレームがビデオメモリ24に格納されていた場合には、制御部26は、ビデオメモリ操作部222〜合成部225と協働して画像フレームの合成を行う(ステップS707)。ステップS707において、基準画像フレームとその他の1フレーム分の画像フレームとの合成が行われる。画像フレームの合成を行った後、制御部26は、取り出しCNTの値が所定値N未満であるか否かを判定する(ステップS708)。取り出しCNTの値が所定値N未満であった場合には、制御部26は取り出しCNTの値を1だけ増加する(ステップS709)。続いて、処理はステップS707に戻る。また、ステップS708において、取り出しCNTの値がN以上であった場合には、合成部225は、合成した画像フレームをカメラ信号処理部23へ出力する(ステップS712)。   On the other hand, when the image frames required for the synthesis are stored in the video memory 24, the control unit 26 performs the synthesis of the image frames in cooperation with the video memory operation unit 222 to the synthesis unit 225 (step). S707). In step S707, the reference image frame and another one image frame are combined. After synthesizing the image frames, the control unit 26 determines whether or not the value of the extracted CNT is less than the predetermined value N (step S708). If the value of the extracted CNT is less than the predetermined value N, the control unit 26 increases the value of the extracted CNT by 1 (step S709). Subsequently, the process returns to step S707. In step S708, if the value of the extracted CNT is greater than or equal to N, the synthesis unit 225 outputs the synthesized image frame to the camera signal processing unit 23 (step S712).

ステップS705において、合成を行わないと判定された場合、ビデオメモリ操作部222は、フレーム合成判定部221から出力された画像フレームをビデオメモリ24に格納する(ステップS710)。続いて、制御部26は、現在の処理対象の画像フレームのフレーム番号が、第2フレームレートに基づいた所定の番号であるか否かを判定する(ステップS711)。画像フレームのフレーム番号が所定の番号であった場合には、ビデオメモリ操作部222は、制御部26からの指示に従って、現在の処理対象の画像フレームをカメラ信号処理部23へ出力する(ステップS712)。これによって、照度が十分であり、画像フレームの合成を行わない場合には、第2フレームレートに基づいたタイミングで画像フレームが後段の処理回路へ出力される。ステップS711において、画像フレームのフレーム番号が所定の番号でなかったと判定された場合には、一連の処理が終了し、次の画像フレームの処理となる。   If it is determined in step S705 that the composition is not performed, the video memory operation unit 222 stores the image frame output from the frame composition determination unit 221 in the video memory 24 (step S710). Subsequently, the control unit 26 determines whether or not the frame number of the current image frame to be processed is a predetermined number based on the second frame rate (step S711). When the frame number of the image frame is a predetermined number, the video memory operation unit 222 outputs the current image frame to be processed to the camera signal processing unit 23 in accordance with an instruction from the control unit 26 (step S712). ). Thus, when the illuminance is sufficient and the image frame is not synthesized, the image frame is output to the subsequent processing circuit at a timing based on the second frame rate. If it is determined in step S711 that the frame number of the image frame is not a predetermined number, the series of processing ends, and processing for the next image frame is started.

ステップS707における画像フレームの合成処理の手順は以下の通りである(図8参照)。一例として、P枚の画像フレームを合成する場合を説明する。このPは、ステップS708において、取り出しCNTと比較される所定値Nと同一である。合成の基準となる基準画像フレームのフレーム番号をLとすると、フレーム番号が1,2,・・・,L−1,L+1,・・・,Pの順序となるように、画像フレームがビデオメモリ24から取り出され、フレーム番号がLの画像フレームと順次合成される。図8は、基準画像フレームと他の1フレーム分の画像フレームとの合成処理の手順を示している。図8に示される処理がP−1回繰り返され、最終的に1枚の画像フレームが合成される。   The procedure of the image frame synthesis process in step S707 is as follows (see FIG. 8). As an example, a case where P image frames are synthesized will be described. This P is the same as the predetermined value N to be compared with the extracted CNT in step S708. If the frame number of a reference image frame that is a reference for composition is L, the image frames are video memory so that the frame numbers are in the order of 1, 2,..., L−1, L + 1,. 24 and is sequentially synthesized with the image frame having the frame number L. FIG. 8 shows the procedure of the composition process of the reference image frame and another one image frame. The process shown in FIG. 8 is repeated P−1 times, and finally one image frame is synthesized.

まず、制御部26は基準画像フレームのフレーム番号LをL=P/2(切り捨て)によって算出し、算出したフレーム番号の画像フレームの読み出しをビデオメモリ操作部222に指示する。指示を受けたビデオメモリ操作部222は基準画像フレームをビデオメモリ24から読み出し、ブロック化部223へ出力する(ステップS801)。ブロック化部223は基準画像フレームをM×Nのブロック(画像ブロック)に分割する(ステップS802)。   First, the control unit 26 calculates the frame number L of the reference image frame by L = P / 2 (truncated), and instructs the video memory operation unit 222 to read the image frame having the calculated frame number. Receiving the instruction, the video memory operation unit 222 reads the reference image frame from the video memory 24 and outputs it to the blocking unit 223 (step S801). The blocking unit 223 divides the reference image frame into M × N blocks (image blocks) (step S802).

続いて、ブロック化部223は、基準画像フレームの全てのブロックの処理を終了したか否かを判定する(ステップS803)。全てのブロックの処理が終了した場合、処理は図7のステップS708に戻る。また、未処理のブロックが残っている場合には、ブロック化部223は、分割したブロックのうちの1つのブロックを動きベクトル演算部224へ出力する(ステップS804)。   Subsequently, the blocking unit 223 determines whether or not the processing of all the blocks of the reference image frame has been completed (step S803). If all blocks have been processed, the process returns to step S708 in FIG. If an unprocessed block remains, the blocking unit 223 outputs one of the divided blocks to the motion vector calculation unit 224 (step S804).

続いて、動きベクトル演算部224は、フレーム番号が1,2,・・・,L−1,L+1,・・・,Pの画像フレームの中から処理対象の画像フレーム(参照フレームとする)をビデオメモリ24から読み出し、参照フレーム上に処理対象のブロックを設定すると共に、そのブロックと、ブロック化部223によって分割された基準画像フレームのブロックとの2つのブロック間の画素値の絶対値差分を、参照フレーム上のブロックを順次変えながら算出する(ステップS805)。動きベクトル演算部224は、算出した絶対値差分が最小となるブロックの位置を参照フレーム上で求め、動きベクトルを算出し、動きベクトルの情報および2つのブロックの情報を合成部225へ出力する(ステップS806)。   Subsequently, the motion vector calculation unit 224 selects an image frame to be processed (referred to as a reference frame) from among image frames having frame numbers 1, 2,..., L−1, L + 1,. Read from the video memory 24, set a block to be processed on the reference frame, and calculate an absolute value difference of pixel values between the two blocks of the block and the block of the standard image frame divided by the blocking unit 223. The calculation is performed while sequentially changing the blocks on the reference frame (step S805). The motion vector calculation unit 224 obtains the position of the block where the calculated absolute value difference is minimum on the reference frame, calculates the motion vector, and outputs the motion vector information and the information of the two blocks to the synthesis unit 225 ( Step S806).

合成部225は、動きベクトルによって関連付けられた2つのブロック同士の画素値の絶対値差分が所定値未満であるか否かを判定する(ステップS807)。絶対値差分が所定値未満であった場合には、合成部225は、動きベクトルによって対応付けられたブロック間で、相対位置の等しい画素毎に画素値を加算し、加算結果を保持する(ステップS808)。また、絶対値差分が所定値以上であった場合には、合成部225は、基準画像フレームのブロックおよびそれと同一のブロック間で、相対位置の等しい画素毎に画素値を加算し、加算結果を保持する。ステップS807およびS808において加算された結果は、基準画像フレームと他の参照フレームとの加算結果となる。ステップS807およびS808以後、処理はステップS803に戻る。   The synthesizer 225 determines whether or not the absolute value difference between the pixel values of the two blocks associated by the motion vector is less than a predetermined value (step S807). If the absolute value difference is less than the predetermined value, the synthesizer 225 adds the pixel values for each pixel having the same relative position between the blocks associated by the motion vector, and holds the addition result (step) S808). If the absolute value difference is greater than or equal to the predetermined value, the synthesis unit 225 adds the pixel value for each pixel having the same relative position between the block of the reference image frame and the same block, and the addition result is obtained. Hold. The result of addition in steps S807 and S808 is the addition result of the base image frame and other reference frames. After steps S807 and S808, the process returns to step S803.

上述したように、本実施形態によれば、より高速なシャッタースピードで撮像が行われるので、画像のブレやボケの発生を低減することができる。また、高速なシャッタースピードで取り込まれた複数の画像フレームから1つの画像フレームが生成されるので、照明光が暗い場合でも、必要な露光量を確保することができる。さらに、複数の画像フレームを合成する際に、動きベクトルによって関連付けられたブロック同士が加算されるので、被写体が高速に動いている場合でも、画像のブレやボケは少ない。したがって、被写体の照明光量が十分でなく、高速に被写体が移動しているような条件においても、ブレやボケを増加させずに良好な画像を得ることができる。   As described above, according to the present embodiment, since imaging is performed at a higher shutter speed, occurrence of image blurring and blurring can be reduced. In addition, since one image frame is generated from a plurality of image frames captured at a high shutter speed, a necessary exposure amount can be ensured even when the illumination light is dark. Furthermore, when a plurality of image frames are combined, blocks associated by motion vectors are added together, so that even when the subject is moving at high speed, there is little blurring or blurring of the image. Therefore, a good image can be obtained without increasing blur and blur even under conditions where the amount of illumination of the subject is not sufficient and the subject is moving at high speed.

また、各画像フレームに発生するノイズの発生位置は、所定の確率分布に従って分散するので、複数の画像フレームを合成することによって、画像中のノイズの影響を低減することができる。さらに、動きベクトルによって関連付けられた2つのブロックの画素毎の画素値の絶対値差分の合計が所定値以上であった場合に、基準画像フレームのブロックおよびそれと同一のブロック間で、相対位置の等しい画素毎に画素値を加算することによって、被写体の変形や回転の影響を低減することができる。   In addition, since the occurrence positions of noise generated in each image frame are dispersed according to a predetermined probability distribution, the influence of noise in the image can be reduced by combining a plurality of image frames. Further, when the sum of the absolute value differences of the pixel values of the two blocks associated by the motion vector is equal to or greater than a predetermined value, the relative position is equal between the block of the reference image frame and the same block. By adding pixel values for each pixel, it is possible to reduce the influence of subject deformation and rotation.

以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to these embodiments, and includes design changes and the like without departing from the gist of the present invention. .

本発明の一実施形態による撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device by one Embodiment of this invention. 本発明の一実施形態による撮像装置が備える撮像素子の構成を示すブロック図である。It is a block diagram which shows the structure of the image pick-up element with which the imaging device by one Embodiment of this invention is provided. 本発明の一実施形態による撮像装置が備えるフレーム合成部の構成を示すブロック図である。It is a block diagram which shows the structure of the flame | frame synthetic | combination part with which the imaging device by one Embodiment of this invention is provided. 本発明の一実施形態における画像フレームの合成の様子を示す概念図である。It is a conceptual diagram which shows the mode of the synthesis | combination of the image frame in one Embodiment of this invention. 本発明の一実施形態における動きベクトルの算出方法を説明するための参考図である。FIG. 5 is a reference diagram for explaining a motion vector calculation method according to an embodiment of the present invention. 本発明の一実施形態における動きベクトルの算出方法を説明するための参考図である。FIG. 5 is a reference diagram for explaining a motion vector calculation method according to an embodiment of the present invention. 本発明の一実施形態における画像フレームの合成の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the synthetic | combination procedure of the image frame in one Embodiment of this invention. 本発明の一実施形態における画像フレームの合成の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the synthetic | combination procedure of the image frame in one Embodiment of this invention.

符号の説明Explanation of symbols

1・・・撮像部、2・・・画像処理部、11・・・撮像レンズ、12・・・固体撮像装置、13・・・AGC部、14・・・A/D変換部、15・・・駆動回路、21・・・ビデオメモリ、22・・・フレーム合成部、23・・・カメラ信号処理部、24・・・ビデオメモリ、25・・・レベル検出器、26・・・制御部、121,122,123,124・・・水平転送CCD、125,126,127,128・・・垂直転送CCD、221・・・フレーム合成判定部、222・・・ビデオメモリ操作部、223・・・ブロック化部、224・・・動きベクトル演算部、225・・・合成部

DESCRIPTION OF SYMBOLS 1 ... Imaging part, 2 ... Image processing part, 11 ... Imaging lens, 12 ... Solid-state imaging device, 13 ... AGC part, 14 ... A / D conversion part, 15 ... Drive circuit, 21 ... video memory, 22 ... frame synthesis unit, 23 ... camera signal processing unit, 24 ... video memory, 25 ... level detector, 26 ... control unit, 121, 122, 123, 124 ... Horizontal transfer CCD, 125, 126, 127, 128 ... Vertical transfer CCD, 221 ... Frame composition determination unit, 222 ... Video memory operation unit, 223 ... Blocking unit, 224 ... motion vector calculation unit, 225 ... synthesis unit

Claims (6)

第1のフレームレートの画像信号を構成する画像フレームの部分領域である画像ブロックを、画像中の動きに基づいて複数の前記画像フレーム間で関連付ける動きベクトルを算出する動きベクトル算出手段と、
複数の前記画像フレーム間で前記動きベクトルによって関連付けられた前記画像ブロックを加算することによって、前記複数の画像フレームを合成して1枚の画像フレームを生成し、前記第1のフレームレートよりも低い第2のフレームレートの画像信号として出力するフレーム合成手段と、
を有することを特徴とする画像処理装置。
Motion vector calculating means for calculating a motion vector for associating an image block, which is a partial region of an image frame constituting the image signal of the first frame rate, between the plurality of image frames based on the motion in the image;
By adding the image blocks associated by the motion vector between the plurality of image frames, the plurality of image frames are combined to generate one image frame, which is lower than the first frame rate Frame synthesizing means for outputting as an image signal of the second frame rate;
An image processing apparatus comprising:
前記動きベクトル算出手段は、合成の基準とする基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとの画素値の差分を算出し、
前記フレーム合成手段は、前記差分の絶対値が所定値以上である場合には、前記基準画像フレームの前記画像ブロックと前記基準画像フレームの同一の前記画像ブロックとを加算し、前記差分の絶対値が所定値未満である場合には、前記動きベクトルによって関連付けられた前記基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとを加算する
ことを特徴とする請求項1に記載の画像処理装置。
The motion vector calculation means calculates a difference between pixel values of the image block of the reference image frame as a reference for synthesis and the image block of the other image frame,
When the absolute value of the difference is greater than or equal to a predetermined value, the frame composition unit adds the image block of the reference image frame and the same image block of the reference image frame, and calculates the absolute value of the difference The image block of the reference image frame associated with the motion vector is added to the image block of another image frame when the value is less than a predetermined value. Image processing device.
前記第1のフレームレートの画像信号または前記第2のフレームレートの画像信号の輝度レベルを検出する信号レベル検出手段と、
検出された前記輝度レベルに基づいて、前記画像フレームを合成するか否かを判定するフレーム合成判定手段と、
前記第1のフレームレートの画像信号を構成する複数の前記画像フレームを蓄積するフレーム蓄積手段と、
前記フレーム合成判定手段によって、前記画像フレームを合成すると判定された場合に、前記フレーム蓄積手段に蓄積されている前記画像フレームに前記画像ブロックを設定するブロック設定手段と、
をさらに有することを特徴とする請求項1または請求項2に記載の画像処理装置。
Signal level detecting means for detecting a luminance level of the image signal of the first frame rate or the image signal of the second frame rate;
Frame composition determination means for determining whether to synthesize the image frame based on the detected luminance level;
Frame storage means for storing a plurality of the image frames constituting the image signal of the first frame rate;
A block setting unit that sets the image block in the image frame stored in the frame storage unit when the frame synthesis determination unit determines to combine the image frame;
The image processing apparatus according to claim 1, further comprising:
撮像を行い、第1のフレームレートの画像信号を出力する撮像手段と、
前記第1のフレームレートの画像信号を構成する画像フレームの部分領域である画像ブロックを、画像中の動きに基づいて複数の前記画像フレーム間で関連付ける動きベクトルを算出する動きベクトル算出手段と、
複数の前記画像フレーム間で前記動きベクトルによって関連付けられた前記画像ブロックを加算することによって、前記複数の画像フレームを合成して1枚の画像フレームを生成し、前記第1のフレームレートよりも低い第2のフレームレートの画像信号として出力するフレーム合成手段と、
を有することを特徴とする撮像装置。
Imaging means for performing imaging and outputting an image signal of a first frame rate;
Motion vector calculating means for calculating a motion vector for associating an image block, which is a partial region of an image frame constituting the image signal of the first frame rate, between the plurality of image frames based on a motion in the image;
By adding the image blocks associated by the motion vector between the plurality of image frames, the plurality of image frames are combined to generate one image frame, which is lower than the first frame rate Frame synthesizing means for outputting as an image signal of the second frame rate;
An imaging device comprising:
前記動きベクトル算出手段は、合成の基準とする基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとの画素値の差分を算出し、
前記フレーム合成手段は、前記差分の絶対値が所定値以上である場合には、前記基準画像フレームの前記画像ブロックと前記基準画像フレームの同一の前記画像ブロックとを加算し、前記差分の絶対値が所定値未満である場合には、前記動きベクトルによって関連付けられた前記基準画像フレームの前記画像ブロックと他の前記画像フレームの前記画像ブロックとを加算する
ことを特徴とする請求項4に記載の撮像装置。
The motion vector calculation means calculates a difference between pixel values of the image block of the reference image frame as a reference for synthesis and the image block of the other image frame,
When the absolute value of the difference is greater than or equal to a predetermined value, the frame composition unit adds the image block of the reference image frame and the same image block of the reference image frame, and calculates the absolute value of the difference 5. The method according to claim 4, wherein when the value is less than a predetermined value, the image block of the reference image frame associated with the motion vector is added to the image block of another image frame. Imaging device.
前記第1のフレームレートの画像信号または前記第2のフレームレートの画像信号の輝度レベルを検出する信号レベル検出手段と、
検出された前記輝度レベルに基づいて、前記画像フレームを合成するか否かを判定するフレーム合成判定手段と、
前記第1のフレームレートの画像信号を構成する複数の前記画像フレームを蓄積するフレーム蓄積手段と、
前記フレーム合成判定手段によって、前記画像フレームを合成すると判定された場合に、前記フレーム蓄積手段に蓄積されている前記画像フレームに前記画像ブロックを設定するブロック設定手段と、
をさらに有することを特徴とする請求項4または請求項5に記載の撮像装置。

Signal level detecting means for detecting a luminance level of the image signal of the first frame rate or the image signal of the second frame rate;
Frame composition determination means for determining whether to synthesize the image frame based on the detected luminance level;
Frame storage means for storing a plurality of the image frames constituting the image signal of the first frame rate;
A block setting unit that sets the image block in the image frame stored in the frame storage unit when the frame synthesis determination unit determines to combine the image frame;
The imaging device according to claim 4, further comprising:

JP2005141567A 2005-05-13 2005-05-13 Image processing apparatus and imaging apparatus Withdrawn JP2006319784A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005141567A JP2006319784A (en) 2005-05-13 2005-05-13 Image processing apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005141567A JP2006319784A (en) 2005-05-13 2005-05-13 Image processing apparatus and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2006319784A true JP2006319784A (en) 2006-11-24

Family

ID=37540024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005141567A Withdrawn JP2006319784A (en) 2005-05-13 2005-05-13 Image processing apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2006319784A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044361A (en) * 2007-08-08 2009-02-26 Sony Corp Image processor, and image processing method
CN102415088A (en) * 2009-04-22 2012-04-11 高通股份有限公司 System and method to selectively combine video frame image data
US8787466B2 (en) 2009-09-16 2014-07-22 Fujitsu Limited Video playback device, computer readable medium and video playback method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044361A (en) * 2007-08-08 2009-02-26 Sony Corp Image processor, and image processing method
CN102415088A (en) * 2009-04-22 2012-04-11 高通股份有限公司 System and method to selectively combine video frame image data
JP2012525073A (en) * 2009-04-22 2012-10-18 クゥアルコム・インコーポレイテッド System and method for selectively combining video frame image data
KR101352730B1 (en) 2009-04-22 2014-01-16 퀄컴 인코포레이티드 System and method to selectively combine video frame image data
US8787466B2 (en) 2009-09-16 2014-07-22 Fujitsu Limited Video playback device, computer readable medium and video playback method

Similar Documents

Publication Publication Date Title
JP4497001B2 (en) Image processing apparatus, electronic camera, and image processing program
JP5643563B2 (en) Image processing apparatus and control method thereof
US20070146538A1 (en) Image pickup apparatus
JP5167094B2 (en) Imaging apparatus and imaging method
KR101566081B1 (en) Image processing apparatus, image processing method, and storage medium
JP2004343483A (en) Device and method for correcting camera-shake and device for detecting camera shake
JP6672081B2 (en) Imaging device
JP2011135152A (en) Image pickup apparatus and method of picking up image
JP2006186592A (en) Imaging apparatus and control method thereof
JP2007281555A (en) Imaging apparatus
US7872671B2 (en) Image pickup apparatus and image pickup method
JP4125331B2 (en) Imaging apparatus and control method thereof
JP2006186593A (en) Imaging apparatus and control method thereof
JP2007267184A (en) Imaging apparatus
JP2006054518A (en) Imaging apparatus
JP6261397B2 (en) Imaging apparatus and control method thereof
JP2013165488A (en) Image processing apparatus, image capturing apparatus, and program
JP2005236662A (en) Imaging method, imaging device, and imaging system
JP2006325274A (en) Imaging device
JP2006319784A (en) Image processing apparatus and imaging apparatus
JP2006074693A (en) Imaging apparatus
WO2019124289A1 (en) Device, control method, and storage medium
JP2022125149A (en) Imaging apparatus
JP2010200178A (en) Image processing device, image processing method, image processing program, and program storage medium storing image processing program
JP2011135409A (en) Image processing apparatus and method, as well as program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805