JP2007068209A - Moving image generating apparatus and moving image generating method - Google Patents

Moving image generating apparatus and moving image generating method Download PDF

Info

Publication number
JP2007068209A
JP2007068209A JP2006289319A JP2006289319A JP2007068209A JP 2007068209 A JP2007068209 A JP 2007068209A JP 2006289319 A JP2006289319 A JP 2006289319A JP 2006289319 A JP2006289319 A JP 2006289319A JP 2007068209 A JP2007068209 A JP 2007068209A
Authority
JP
Japan
Prior art keywords
image
moving image
signal
pixel
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006289319A
Other languages
Japanese (ja)
Inventor
Hajime Numata
肇 沼田
Yoshihiro Mishima
吉弘 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006289319A priority Critical patent/JP2007068209A/en
Publication of JP2007068209A publication Critical patent/JP2007068209A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform photographing in darkness without losing smoothness of a moving image. <P>SOLUTION: A plurality of image signals (BI<SB>1</SB>-BI<SB>3</SB>) periodically outputted by an image output means are acquired and the plurality of acquired image signals are combined to produce one image signal (BO<SB>j</SB>). A value of luminance information or color difference information of a synthetic image signal (BO<SB>j</SB>) can be increased and photographing in darkness can be performed without changing a frame term. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、動画像生成装置及び動画像生成方法に関し、詳しくは、テレビカメラ、ビデオカメラ、動画カメラなどに適用できる動画像生成装置及び動画像生成方法に関する。   The present invention relates to a moving image generation apparatus and a moving image generation method, and more particularly to a moving image generation apparatus and a moving image generation method applicable to a television camera, a video camera, a moving image camera, and the like.

テレビカメラ、ビデオカメラ、動画カメラなどの適正露出は、被写体の輝度をB、感光材料の感度をS、レンズの明るさを1/F2、露光時間をTとすれば、
BS・T/F2=K 又は F2/T=BS/K
の関係式の解で与えられため、例えば、Bが小さい場合(以下「暗所撮影時」という)の対策は、
(1)感度Sの高い感光材料を使用する
(2)絞りを開いて1/F2を大きくする
(3)露出時間Tを長くする
のいずれかになる。
Appropriate exposure for a TV camera, video camera, video camera, etc. can be obtained by assuming that the brightness of the subject is B, the sensitivity of the photosensitive material is S, the brightness of the lens is 1 / F 2 , and the exposure time is T.
BS · T / F 2 = K or F 2 / T = BS / K
For example, when B is small (hereinafter referred to as “when shooting in a dark place”), the countermeasure is as follows:
(1) Use a photosensitive material having a high sensitivity S. (2) Open the aperture to increase 1 / F 2. (3) Increase the exposure time T.

ここに、対策(2)は写真レンズのFナンバー(レンズ有効口径Dの焦点距離fに対する比D/fの逆数f/Dである。焦点距離fと区別してFナンバーと呼ばれている。)で制限されるため、一般にこの対策だけでの暗所撮影は無理があり、他の対策と併用されることが多い。
一方、対策(1)は銀塩フィルムを用いるカメラに適用される対策であり、固体撮像素子や撮像管を用いるカメラにあっては、その感度Sが特定の値に決まっているため、かかる撮像デバイスを備えるテレビカメラ、ビデオカメラ、動画カメラなどの対策とはなり得ない。
なお、撮像デバイスの出力信号を高ゲインで増幅することにより、感度Sを向上できるが、かかる高ゲイン増幅はノイズ分も一緒に大きくすることとなるため、理想的対策とは言えない。
Here, countermeasure (2) is the F number of the photographic lens (the reciprocal number f / D of the ratio D / f of the effective lens diameter D to the focal length f. This is called the F number in distinction from the focal length f.) In general, it is impossible to take a dark place with this measure alone, and it is often used in combination with other measures.
On the other hand, the measure (1) is a measure applied to a camera using a silver salt film. In a camera using a solid-state image pickup device or an image pickup tube, the sensitivity S is determined to be a specific value. It cannot be a countermeasure for TV cameras, video cameras, and video cameras equipped with devices.
It should be noted that the sensitivity S can be improved by amplifying the output signal of the imaging device with a high gain, but such high gain amplification increases the noise as well, so it is not an ideal measure.

したがって、固体撮像素子や撮像管を備えるテレビカメラ、ビデオカメラ、動画カメラなど(以下「撮像システム」という)を用いて暗所撮影を行う場合、すなわち、絞りを最大に開いても適正露出が得られない場合は上記の対策(3)より、固体撮像素子や撮像管の露出時間Tを長くするしか術がないことになる。   Therefore, when shooting in a dark place using a TV camera, video camera, video camera, etc. (hereinafter referred to as “imaging system”) equipped with a solid-state imaging device or imaging tube, that is, proper exposure is obtained even when the aperture is fully opened. If this is not possible, the only solution is to increase the exposure time T of the solid-state imaging device or imaging tube from the above measure (3).

しかしながら、上記の撮像システムにおいては、CCD(Charge Coupled Device)やMOS(Metal Oxide Semiconductor)などの固体撮像素子若しくはサチコンやハーピコンなどの撮像管を用いて被写体からの光を画像信号に変換し、フレーム(Frame)と呼ばれる単位で周期的に出力しており、例えば、NTSC(National Television System Committee)規格の画像信号を出力する固体撮像素子または撮像管にあっては、その出力周期(フレーム周期)が1/30秒であるため、このフレーム周期を越えて露出時間Tを設定できず、したがって、上記対策(3)によっても、暗所撮影を行えないという問題点があった。   However, in the imaging system described above, light from an object is converted into an image signal using a solid-state imaging device such as a CCD (Charge Coupled Device) or MOS (Metal Oxide Semiconductor) or an imaging tube such as a Sachicon or a Harpicon, and a frame. For example, in the case of a solid-state imaging device or an imaging tube that outputs an image signal of the NTSC (National Television System Committee) standard, the output cycle (frame cycle) is Since the time is 1/30 second, the exposure time T cannot be set beyond this frame period. Therefore, there is a problem in that dark place photography cannot be performed even by the measure (3).

なお、フレーム周期を長くすれば、かかる問題点を解決できるが、反面、画像信号のコマ数が少なくなって滑らかな動画像を得られないという新たな問題点を招来する。   If the frame period is lengthened, such a problem can be solved, but on the other hand, the number of frames of the image signal is reduced and a new problem that a smooth moving image cannot be obtained is brought about.

以上のことから、本発明が解決しようとする課題は、動画像の滑らかさを失わずに暗所撮影を可能にすることにある。   From the above, the problem to be solved by the present invention is to enable dark place photography without losing the smoothness of a moving image.

請求項1記載の発明は、被写体からの光を電気的な画像信号に変換して周期的に出力する画像出力手段と、前記画像出力手段より周期的に出力される画像信号から複数枚の画像信号を順次取得する画像取得手段と、前記画像取得手段によって取得された複数枚の画像信号を合成処理して一枚の画像信号を生成する処理を周期的に実行する動画像生成手段と、を備えたことを特徴とする。
請求項2記載の発明は、請求項1記載の発明において、前記動画像生成手段は、前記複数枚の画像信号を加算合成して一枚の画像信号を生成することを特徴とする。
請求項3記載の発明は、請求項2記載の発明において、前記動画像生成手段は、前記複数枚の画像信号の各々に重み付けを行ってから加算を行うことを特徴とする。
請求項4記載の発明は、請求項1記載の発明において、前記動画像生成手段は、前記複数枚の画像信号間の動き補償予測演算を行い、該演算によって得られた予測画像信号を、前記複数の画像信号の一つに加算処理して一枚の画像信号を生成することを特徴とする。
請求項5記載の発明は、被写体からの光を電気的な画像信号に変換して周期的に出力する画像出力手段と、前記画像出力手段から周期的に出力される前記画像信号を順次保持する保持手段と、前記保持手段に順次保持される前記画像信号に対して、該画像信号内の注目画素情報を該注目画素近傍の隣接画素情報を用いて補正する処理を実行することにより動画像を生成する動画像生成手段と、を備えたことを特徴とする。
請求項6記載の発明は、請求項5記載の発明において、前記動画像生成手段は、前記注目画素情報と前記隣接画素情報の一方または双方に重み付けを行ってから両者を加算して前記注目画素情報を補正することを特徴とする。
請求項7記載の発明は、請求項6記載の発明において、前記重み付けの値を前記注目画素と前記隣接画素との間の位置関係に対応して設定することを特徴とする。
請求項8記載の発明は、請求項5又は請求項6記載の発明において、前記動画像生成手段は、前記注目画素に対する前記隣接画素各々の相関性を調べて相関性の高い隣接画素の情報を、前記注目画素情報の補正情報として用いることを特徴とする。
請求項9記載の発明は、画像出力手段によって周期的に出力された画像信号から複数枚の画像信号を順次取得する画像取得ステップと、前記画像取得ステップで取得された複数枚の画像信号を合成処理して一枚の画像信号を生成する処理を周期的に実行する動画像生成ステップと、を含むことを特徴とする。
請求項10記載の発明は、画像出力手段によって周期的に出力された画像信号を順次保持する保持ステップと、前記保持ステップで保持された画像信号に対して該画像信号内の注目画素情報を隣接画素情報を用いて補正する処理を周期的に実行することにより動画像を生成する補正ステップと、を含むことを特徴とする。
According to a first aspect of the present invention, there is provided an image output means for periodically converting light from a subject into an electrical image signal, and a plurality of images from the image signal periodically output by the image output means. Image acquisition means for sequentially acquiring signals; and moving image generation means for periodically executing a process of generating a single image signal by synthesizing a plurality of image signals acquired by the image acquisition means. It is characterized by having.
According to a second aspect of the present invention, in the first aspect of the present invention, the moving image generation means generates one image signal by adding and synthesizing the plurality of image signals.
According to a third aspect of the present invention, in the second aspect of the present invention, the moving image generating means performs addition after weighting each of the plurality of image signals.
According to a fourth aspect of the present invention, in the first aspect of the invention, the moving image generating means performs a motion compensation prediction calculation between the plurality of image signals, and obtains a predicted image signal obtained by the calculation. One image signal is generated by performing addition processing on one of a plurality of image signals.
The invention according to claim 5 sequentially holds the image output means for periodically converting the light from the subject into an electrical image signal and outputting it periodically, and the image signal periodically outputted from the image output means. A moving image is obtained by executing a process of correcting the target pixel information in the image signal using adjacent pixel information in the vicinity of the target pixel for the image signal sequentially stored in the holding unit and the holding unit. And moving image generation means for generating.
According to a sixth aspect of the present invention, in the fifth aspect of the invention, the moving image generation unit weights one or both of the target pixel information and the adjacent pixel information and then adds the weights to the target pixel. It is characterized by correcting information.
A seventh aspect of the invention is characterized in that, in the sixth aspect of the invention, the weighting value is set corresponding to a positional relationship between the target pixel and the adjacent pixel.
According to an eighth aspect of the invention, in the fifth or sixth aspect of the invention, the moving image generating means examines the correlation of each of the neighboring pixels with respect to the target pixel and obtains information on neighboring pixels having high correlation. , And used as correction information for the target pixel information.
The invention according to claim 9 is an image acquisition step for sequentially acquiring a plurality of image signals from the image signals periodically output by the image output means, and the plurality of image signals acquired in the image acquisition step are synthesized. And a moving image generation step of periodically executing a process of generating one image signal by processing.
According to a tenth aspect of the present invention, a holding step for sequentially holding the image signals periodically output by the image output means, and the target pixel information in the image signal are adjacent to the image signals held in the holding step. And a correction step of generating a moving image by periodically executing a correction process using pixel information.

請求項1記載の発明によれば、被写体からの光を電気的な画像信号に変換して周期的に出力する画像出力手段と、前記画像出力手段より周期的に出力される画像信号から複数枚の画像信号を順次取得する画像取得手段と、前記画像取得手段によって取得された複数枚の画像信号を合成処理して一枚の画像信号を生成する処理を周期的に実行する動画像生成手段と、を備えたので、合成画像信号の輝度情報や色差情報の値を大きくすることができ、フレーム周期を変更することなく、暗所撮影を行うことができる。
請求項2記載の発明によれば、請求項1記載の発明において、前記動画像生成手段は、前記複数枚の画像信号を加算合成して一枚の画像信号を生成するので、合成画像信号の輝度情報や色差情報の値を加算数に応じて大きくすることができ、フレーム周期を変更することなく、暗所撮影を行うことができる。
請求項3記載の発明によれば、請求項2記載の発明において、前記動画像生成手段は、前記複数枚の画像信号の各々に重み付けを行ってから加算を行うので、画像の動きを考慮した合成画像信号を得ることができる。
請求項4記載の発明によれば、請求項1記載の発明において、前記動画像生成手段は、前記複数枚の画像信号間の動き補償予測演算を行い、該演算によって得られた予測画像信号を、前記複数の画像信号の一つに加算処理して一枚の画像信号を生成するので、動きのある被写体の暗所撮影に好適なものとすることができる。
請求項5記載の発明によれば、被写体からの光を電気的な画像信号に変換して周期的に出力する画像出力手段と、前記画像出力手段から周期的に出力される前記画像信号を順次保持する保持手段と、前記保持手段に順次保持される前記画像信号に対して、該画像信号内の注目画素情報を該注目画素近傍の隣接画素情報を用いて補正する処理を実行することにより動画像を生成する動画像生成手段と、を備えたので、画素単位に補正処理を行うことができ、画質の良好な合成画像信号を得ることができる。
請求項6記載の発明によれば、請求項5記載の発明において、前記動画像生成手段は、前記注目画素情報と前記隣接画素情報の一方または双方に重み付けを行ってから両者を加算して前記注目画素情報を補正するので、適切な重み値を与えることによって良好な画質の合成画像信号を得ることができる。
請求項7記載の発明によれば、請求項6記載の発明において、前記重み付けの値を前記注目画素と前記隣接画素との間の位置関係に対応して設定するので、位置が近く密接な関係にある隣接画素を用いて補正を行うことができ、良好な画質の合成画像信号を得ることができる。
請求項8記載の発明によれば、請求項5又は請求項6記載の発明において、前記動画像生成手段は、前記注目画素に対する前記隣接画素各々の相関性を調べて相関性の高い隣接画素の情報を、前記注目画素情報の補正情報として用いるので、相関性の高い隣接画素を用いて補正を行うことができ、良好な画質の合成画像信号を得ることができる。
請求項9記載の発明によれば、画像出力手段によって周期的に出力された画像信号から複数枚の画像信号を順次取得する画像取得ステップと、前記画像取得ステップで取得された複数枚の画像信号を合成処理して一枚の画像信号を生成する処理を周期的に実行する動画像生成ステップと、を含むので、フレーム周期を変更することなく、暗所撮影を行うことができる。
請求項10記載の発明によれば、画像出力手段によって周期的に出力された画像信号を順次保持する保持ステップと、前記保持ステップで保持された画像信号に対して該画像信号内の注目画素情報を隣接画素情報を用いて補正する処理を周期的に実行することにより動画像を生成する補正ステップと、を含むので、画素単位に補正処理を行うことができ、画質の良好な合成画像信号を得ることができる。
According to the first aspect of the present invention, the image output means for periodically converting the light from the subject into an electrical image signal and outputting it periodically, and a plurality of images from the image signal periodically output by the image output means Image acquisition means for sequentially acquiring the image signals, and moving image generation means for periodically executing a process of generating a single image signal by synthesizing a plurality of image signals acquired by the image acquisition means, Since the brightness information and the color difference information of the composite image signal can be increased, dark place photography can be performed without changing the frame period.
According to a second aspect of the present invention, in the first aspect of the invention, the moving image generating means adds and synthesizes the plurality of image signals to generate one image signal. Brightness information and color difference information values can be increased according to the number of additions, and dark place photography can be performed without changing the frame period.
According to a third aspect of the present invention, in the second aspect of the invention, the moving image generating means performs addition after weighting each of the plurality of image signals. A composite image signal can be obtained.
According to a fourth aspect of the present invention, in the first aspect of the present invention, the moving image generating means performs a motion compensation prediction calculation between the plurality of image signals, and obtains a predicted image signal obtained by the calculation. Since one image signal is generated by performing addition processing on one of the plurality of image signals, it can be suitable for photographing a moving subject in a dark place.
According to the fifth aspect of the present invention, the image output means for periodically converting the light from the subject into an electrical image signal and periodically outputting the image signal and the image signal periodically output from the image output means are sequentially provided. A moving image by executing a process for correcting the pixel information of interest in the image signal using the neighboring pixel information in the vicinity of the pixel of interest for the image signal sequentially held by the holding unit And a moving image generating means for generating an image. Therefore, correction processing can be performed on a pixel-by-pixel basis, and a composite image signal with good image quality can be obtained.
According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the moving image generating means weights one or both of the target pixel information and the adjacent pixel information and then adds the two together. Since the pixel-of-interest information is corrected, a composite image signal with good image quality can be obtained by giving an appropriate weight value.
According to a seventh aspect of the invention, in the sixth aspect of the invention, the weighting value is set corresponding to the positional relationship between the target pixel and the adjacent pixel, so that the position is close and closely related. Thus, it is possible to perform correction using the adjacent pixels, and it is possible to obtain a composite image signal with good image quality.
According to an eighth aspect of the present invention, in the fifth or sixth aspect of the present invention, the moving image generation means examines the correlation of each of the adjacent pixels with respect to the pixel of interest, and determines an adjacent pixel having a high correlation. Since information is used as correction information for the pixel-of-interest information, correction can be performed using adjacent pixels with high correlation, and a composite image signal with good image quality can be obtained.
According to the invention of claim 9, an image acquisition step of sequentially acquiring a plurality of image signals from the image signals periodically output by the image output means, and the plurality of image signals acquired in the image acquisition step And a moving image generation step of periodically executing a process of generating one image signal by synthesizing the images, so that dark place shooting can be performed without changing the frame period.
According to the tenth aspect of the present invention, the holding step for sequentially holding the image signals periodically output by the image output means, and the target pixel information in the image signal with respect to the image signals held in the holding step A correction step of generating a moving image by periodically executing a process of correcting the image using adjacent pixel information, so that the correction process can be performed on a pixel-by-pixel basis, and a composite image signal with good image quality can be obtained. Obtainable.

以下、本発明の実施の形態を、動画撮影可能な電子スチルカメラを例にして、図面を参照しながら説明する。
図1において、10は写真レンズ、11は写真レンズ10の光軸上に設けられた絞り機構、12は絞り機構11の駆動部、13は絞り機構11を通過した光を受けて被写体の撮像信号を出力する固体撮像素子(以下CCD)、14はCCD13のドライバ、15はCCD13の露光時間(電子的なシャッタ時間:以下、単にシャッタ時間ということもある)を制御する信号などの各種タイミング信号を発生するタイミング発生器、16はCCD13からの画像信号をサンプリングしてノイズを除去するサンプルホールド回路、17はノイズ除去後の画像信号をディジタル信号に変換するアナログディジタル変換器、18はアナログディジタル変換器17の出力から輝度・色差合成信号(以下YUV信号と言う)を生成するカラープロセス回路であり、CCD13、サンプルホールド回路16、アナログディジタル変換器17及びカラープロセス回路18は発明の要旨の画像出力手段に相当する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings, taking as an example an electronic still camera capable of capturing moving images.
In FIG. 1, 10 is a photographic lens, 11 is an aperture mechanism provided on the optical axis of the photographic lens 10, 12 is a drive unit of the aperture mechanism 11, and 13 is an imaging signal of a subject that receives light passing through the aperture mechanism 11. 14 is a driver of the CCD 13, 14 is a timing signal such as a signal for controlling an exposure time of the CCD 13 (electronic shutter time: hereinafter, sometimes simply referred to as shutter time). A timing generator 16 generates a sample and hold circuit that samples the image signal from the CCD 13 and removes noise, 17 an analog-digital converter that converts the image signal after noise removal into a digital signal, and 18 an analog-digital converter. A color process circuit that generates a luminance / color difference composite signal (hereinafter referred to as a YUV signal) from 17 outputs There, CCD 13, sample hold circuit 16, analog-to-digital converter 17 and color process circuit 18 corresponds to the image output means of the subject matter of the invention.

また、19はビデオトランスファー回路、20は順次生成されるYUV信号を保持するバッファメモリ、21はYUV信号の記録時と再生時に所定の符号化方式(一般にJPEG方式)で圧縮/伸長処理する圧縮・伸張回路、22は被写体の明るさを測定する測光センサ、23は圧縮処理されたYUV信号を記録する固定又は取り外し可能なフラッシュメモリであり、バッファメモリ20は発明の要旨に記載の画像取得手段及び保持手段に相当する。
また、24はプログラムROM24aに格納された制御プログラムをワークRAM24bにロードして実行し、画像の記録制御や再生制御並びにこれらの制御に付帯する各種制御を行うCPUであり、CPU24は発明の要旨に記載の動画像生成手段に相当する。
また、25はシャッターボタンや各種ボタンの操作に応答してキー入力信号を発生するキー入力部、26はバッファメモリ20に保持されているYUV信号を表示に適した信号形式に変換するディジタルビデオエンコーダ、27はディジタルビデオエンコーダ26からの信号を表示する画像モニター用の液晶ディスプレイ、28は各部を接続するバスである。
Reference numeral 19 is a video transfer circuit, 20 is a buffer memory for holding sequentially generated YUV signals, and 21 is a compression / decompression process that compresses / decompresses with a predetermined encoding method (generally JPEG method) during recording and reproduction of YUV signals. The decompression circuit, 22 is a photometric sensor that measures the brightness of the subject, 23 is a fixed or removable flash memory that records the compressed YUV signal, and the buffer memory 20 includes the image acquisition means described in the gist of the invention and It corresponds to the holding means.
Reference numeral 24 denotes a CPU that loads a control program stored in the program ROM 24a into the work RAM 24b and executes it, and performs image recording control and reproduction control, and various control incidental to these controls. This corresponds to the described moving image generating means.
A key input unit 25 generates a key input signal in response to an operation of a shutter button or various buttons. A digital video encoder 26 converts a YUV signal held in the buffer memory 20 into a signal format suitable for display. , 27 is a liquid crystal display for an image monitor for displaying a signal from the digital video encoder 26, and 28 is a bus for connecting each part.

このような構成を有する電子スチルカメラは、キー入力部25の所定のキー操作により、画像の記録モードと再生モードに切替えることができ、さらに記録モードは、CCD13から周期的(便宜的にNTSC規格のフレーム周期〔1/30秒〕とする)に取り出される撮像信号を表示に適した信号に変換して液晶ディスプレイ27に順次表示するスルーモードと、シャッタキーを操作して所望の1枚の画像信号(静止画)又は所定期間に撮像された複数枚の画像信号(動画)をフラッシュメモリ23に記録するキャプチャモードと、フラッシュメモリ23から所望の静止画又は動画を読み出して液晶ディスプレイ27に表示する再生モードとに分けられる。   The electronic still camera having such a configuration can be switched between an image recording mode and a reproduction mode by a predetermined key operation of the key input unit 25, and the recording mode is changed periodically from the CCD 13 (for convenience, the NTSC standard). A through mode in which an image pickup signal taken out in a frame period [1/30 second] is converted into a signal suitable for display and sequentially displayed on the liquid crystal display 27, and a desired image is operated by operating a shutter key. A capture mode in which a signal (still image) or a plurality of image signals (moving images) captured in a predetermined period is recorded in the flash memory 23, and a desired still image or moving image is read from the flash memory 23 and displayed on the liquid crystal display 27. Divided into playback mode.

スルーモードでは、写真レンズ10の後方に配置されたCCD13がドライバ14からの信号で駆動され、写真レンズ10で集められた被写体像が一定周期毎に光電変換されて1画像分の撮像信号が出力される。そして、この撮像信号がサンプルホールド回路16でサンプリングされ、アナログディジタル変換器17でディジタル信号に変換された後、カラープロセス回路18でYUV信号が生成される。このYUV信号は、ビデオトランスファー回路19を介してバッファメモリ20の画像バッファに転送され、同バッファへの転送完了後に、ビデオトランスファー回路19によって読み出され、ディジタルビデオエンコーダ26を介して液晶ディスプレイ27に送られ、スルー画像として表示される。   In the through mode, the CCD 13 disposed behind the photographic lens 10 is driven by a signal from the driver 14, and the subject images collected by the photographic lens 10 are photoelectrically converted at fixed intervals to output an imaging signal for one image. Is done. The imaging signal is sampled by the sample and hold circuit 16 and converted into a digital signal by the analog / digital converter 17, and then a YUV signal is generated by the color process circuit 18. This YUV signal is transferred to the image buffer of the buffer memory 20 via the video transfer circuit 19, and after the transfer to the buffer is completed, it is read out by the video transfer circuit 19 and sent to the liquid crystal display 27 via the digital video encoder 26. Sent and displayed as a through image.

この状態でカメラの向きを変えると、液晶ディスプレイ27に表示されているスルー画像の構図が変化し、適宜の時点(所望の構図が得られた時点)でシャッターキーを“半押し”して露出とフォーカスをセットした後、“全押し”すると、キャプチャーモードに切り替わり、静止画の記録モードであれば、バッファメモリ20の画像バッファに保存されているYUV信号がその時点のYUV信号で固定され、かつ液晶ディスプレイ27に表示されているスルー画像も同時点の画像で固定される。そして、その時点でバッファメモリ20の画像バッファに保存されているYUV信号は、ビデオトランスファー回路19を介して圧縮・伸長回路21に送られ、輝度情報と色差情報の各コンポーネント毎に8×8画素の基本ブロックと呼ばれる単位でJPEG符号化された後、フラッシュメモリ23に記録される。
但し、動画の記録モードの場合は、シャッターキーの全押し操作から所定期間の間に1/30秒のフレーム周期で生成されたすべてのYUV信号がバッファメモリ20の画像バッファに保存され、同期間の経過直後にバッファメモリ20から読み出されて圧縮・伸長回路21でJPEG符号化(動画像の符号化標準であるMPEG符号化を用いてもよい)された後、フラッシュメモリ23に記録される。
If the orientation of the camera is changed in this state, the composition of the through image displayed on the liquid crystal display 27 changes, and exposure is performed by “half-pressing” the shutter key at an appropriate time (when the desired composition is obtained). After the focus is set and “full-pressed”, the mode switches to the capture mode. In the still image recording mode, the YUV signal stored in the image buffer of the buffer memory 20 is fixed at the YUV signal at that time, In addition, the through image displayed on the liquid crystal display 27 is also fixed at the same point image. The YUV signal stored in the image buffer of the buffer memory 20 at that time is sent to the compression / decompression circuit 21 via the video transfer circuit 19, and 8 × 8 pixels for each component of luminance information and color difference information. After being JPEG-encoded in units called basic blocks, they are recorded in the flash memory 23.
However, in the moving image recording mode, all YUV signals generated at a frame period of 1/30 seconds during a predetermined period after the shutter key is fully pressed are stored in the image buffer of the buffer memory 20 and Is read from the buffer memory 20 immediately after elapse of time, JPEG-encoded by the compression / decompression circuit 21 (MPEG encoding which is a moving image encoding standard may be used), and then recorded in the flash memory 23 .

一方、再生モードでは、CCD13からバッファメモリ20までの経路が停止されるとともに、最新のキャプチャー画像(静止画又は動画)がフラッシュメモリ23から読み出され、圧縮・伸長回路21で伸張処理された後、ビデオトランスファー回路19を介してバッファメモリ20の画像バッファに送られる。そして、この画像バッファのデータがビデオトランスファー回路19とディジタルビデオエンコーダ26を介して液晶ディスプレイ27に送られ、再生画像として表示される。   On the other hand, in the playback mode, the path from the CCD 13 to the buffer memory 20 is stopped and the latest captured image (still image or moving image) is read from the flash memory 23 and decompressed by the compression / decompression circuit 21. Then, it is sent to the image buffer of the buffer memory 20 via the video transfer circuit 19. The data in the image buffer is sent to the liquid crystal display 27 via the video transfer circuit 19 and the digital video encoder 26, and displayed as a reproduced image.

図2は、バッファメモリ20の構造図であり、特に動画の撮影モードで使用される二種類の画像バッファ(便宜的に入力画像バッファ30と出力画像バッファ31)を模式化して示している。
図2において、入力画像バッファ30は複数個(図では便宜的に3個)のバッファ領域BI1〜BI3からなり、また、出力画像バッファ31はm個のバッファ領域BO1〜BOmからなる。入力画像バッファ30の各バッファ領域BI1〜BI3のサイズは、カラープロセス回路18から出力される1画像分のYUV信号を保存できる充分な大きさであり、出力画像バッファ31の各バッファ領域BO1〜BOmのサイズも同程度の大きさである。
FIG. 2 is a structural diagram of the buffer memory 20, and schematically shows two types of image buffers (an input image buffer 30 and an output image buffer 31 for convenience) used particularly in a moving image shooting mode.
In FIG. 2, the input image buffer 30 is composed of a plurality (for convenience in the figure, three) buffer areas BI 1 to BI 3 , and the output image buffer 31 is composed of m buffer areas BO 1 to BO m. . The sizes of the buffer areas BI 1 to BI 3 of the input image buffer 30 are large enough to store one image of YUV signals output from the color process circuit 18, and each buffer area BO of the output image buffer 31. The size of 1 to BO m is about the same.

図3は、図2の入力画像バッファ30と出力画像バッファ31を利用する動画撮影モードのプログラムを示すフローチャートである。このプログラムはCPU24のプログラムROM24aに予め格納されており、キー入力部25の所定のキー操作によってCPU24のワークRAM24bにロードされ、実行される。
プログラムを実行すると、まず、ループ変数jに初期値の1をセットし(S1)、j>mであるか否か、すなわち、ループ変数jの値が出力画像バッファ31の領域数mを越えたか否かを判定する(S2)。ここに、出力画像バッファ31の領域数mは、動画の記録時間を決定する要素である。例えば、フレーム周期を1/30秒とし、m=30とすると、動画の記録時間は1秒となる。
FIG. 3 is a flowchart showing a moving image shooting mode program using the input image buffer 30 and the output image buffer 31 of FIG. This program is stored in advance in the program ROM 24a of the CPU 24, and is loaded into the work RAM 24b of the CPU 24 and executed by a predetermined key operation of the key input unit 25.
When the program is executed, first, an initial value 1 is set to the loop variable j (S1), and whether j> m is satisfied, that is, whether the value of the loop variable j exceeds the number of areas m of the output image buffer 31. It is determined whether or not (S2). Here, the number m of areas of the output image buffer 31 is an element that determines the recording time of the moving image. For example, if the frame period is 1/30 seconds and m = 30, the moving image recording time is 1 second.

次いで、入力画像バッファ30のバッファ領域BI1に画像信号を格納する(S3)。この画像信号はカラープロセス回路18から出力されたYUV信号である。
次いで、合成処理を実行(S4)する。合成処理は、図4に示すように、入力画像バッファ30の各バッファ領域BI1〜BI3の保存情報を加算合成し、その合成結果を出力画像バッファ31のj番目のバッファ領域BOjに格納するというものである(S4_1)。
Next, the image signal is stored in the buffer area BI 1 of the input image buffer 30 (S3). This image signal is a YUV signal output from the color process circuit 18.
Next, a synthesis process is executed (S4). As shown in FIG. 4, the combining process adds and saves information stored in the buffer areas BI 1 to BI 3 of the input image buffer 30 and stores the combined result in the jth buffer area BO j of the output image buffer 31. (S4_1).

合成処理を完了すると、次に、入力画像バッファ30の各バッファ領域BI1〜BI3の内容を移し替える(S5)。移し替えは、まず、BI2の内容をBI3に移し、次いで、BI1の内容をBI2に移すという順番である。すなわち、BI1→BI2→BI3の方向に格納情報を移し替える。
そして、最後にループ変数jを+1し(S6)、以上の処理をj>mになるまで繰り返してj>mになったときにプログラムを終了する。
When the composition processing is completed, the contents of the buffer areas BI 1 to BI 3 of the input image buffer 30 are then transferred (S5). The replacement was transferred, first, transferred the contents of BI 2 to BI 3, then an order of transferring the contents of the BI 1 to BI 2. That is, the stored information is transferred in the direction of BI 1 → BI 2 → BI 3 .
Finally, the loop variable j is incremented by 1 (S6), and the above processing is repeated until j> m, and the program ends when j> m is satisfied.

図5は、上記加算合成の概念図であり、符号32は図4の加算処理(S4_1)を模式的に表している。なお、この図は便宜的にj=5のときの様子を示している。図5において、入力画像バッファ30の1番目のバッファ領域BI1には動画記録モードの期間中にカラープロセス回路18から出力された5枚目のYUV信号PI5が格納されており、2番目のバッファ領域BI2には同期間中にカラープロセス回路18から出力された4枚目のYUV信号PI4が格納されており、さらに、3番目のバッファ領域BI3には同期間中にカラープロセス回路18から出力された3枚目のYUV信号PI3が格納されている。 FIG. 5 is a conceptual diagram of the above-described addition synthesis. Reference numeral 32 schematically represents the addition process (S4_1) of FIG. This figure shows the situation when j = 5 for convenience. In FIG. 5, the first buffer area BI 1 of the input image buffer 30 stores the fifth YUV signal PI 5 output from the color process circuit 18 during the moving image recording mode period. The buffer area BI 2 stores the fourth YUV signal PI 4 output from the color process circuit 18 during the synchronization, and the third buffer area BI 3 stores the color process circuit during the synchronization. The third YUV signal PI 3 output from 18 is stored.

そして、出力画像バッファ31のj番目(j=5であるから5番目)のバッファ領域BO5には、BI1、BI2及びBI3の内容を加算した画像信号PO5が格納されている。なお、PO4は4番目のバッファ領域BO4に格納された加算画像信号、PO3は3番目のバッファ領域BO3に格納された加算画像信号、PO2は2番目のバッファ領域BO2に格納された加算画像信号、PO1は1番目のバッファ領域BO1に格納された加算画像信号である。なお、PO2=PI1+PI2、PO1=PI1である。m個のバッファ領域BO1〜BOmのすべてに加算画像信号が格納されると、j>mの判定結果が真(YES)になる。 In addition, the image signal PO 5 obtained by adding the contents of BI 1 , BI 2, and BI 3 is stored in the jth buffer area BO 5 of the output image buffer 31 (j = 5 because it is 5). PO 4 is the added image signal stored in the fourth buffer area BO 4 , PO 3 is the added image signal stored in the third buffer area BO 3 , and PO 2 is stored in the second buffer area BO 2 . The added image signal PO 1 is an added image signal stored in the first buffer area BO 1 . Note that PO 2 = PI 1 + PI 2 and PO 1 = PI 1 . When the added image signal is stored in all of the m buffer areas BO 1 to BO m, the determination result of j> m becomes true (YES).

今、例えば、PO5に注目すると、このPO5は上述のとおり、BI1〜BI3の格納内容、すなわち、三つの画像信号(PI5、PI4及びPI3)を加算した画像信号である。これらの画像信号は被写体の二次元像であり、被写体各部の輝度情報(Y)や色差情報(UV)を二次元平面に並べたものである。したがって、一連の動画記録モード中にカラープロセス回路18から出力された画像信号のうち時間的に近いもの同士の相関性が高く、二次元平面内の輝度情報(Y)や色差情報(UV)の値にも類似性がある。
このため、時間的に連続する三つの画像信号(PIj-2、PIj-1及びPIj)を加算した画像信号POjは、これら三つの画像信号の輝度情報(Y)や色差情報(UV)の加算情報を持つこととなり、被写体の動きをゼロとすれば、単純計算でほぼ3倍の輝度情報(Y)や色差情報(UV)を持つことになる。その結果、実質的に感光材料の感度Sを大きくするのと同等の効果を得ることができ、CCD13のフレーム周期を変更することなく、暗所撮影を行うことができるという格別の効果が得られる。
Now, for example, focusing on the PO 5, the PO 5 are as described above, the contents stored in the BI 1 ~BI 3, i.e., is an image signal obtained by adding the three image signals (PI 5, PI 4 and PI 3) . These image signals are two-dimensional images of the subject, and luminance information (Y) and color difference information (UV) of each part of the subject are arranged on a two-dimensional plane. Accordingly, among the image signals output from the color process circuit 18 during a series of moving image recording modes, those that are close in time are highly correlated, and the luminance information (Y) and color difference information (UV) in the two-dimensional plane are high. There are similarities in values.
For this reason, the image signal PO j obtained by adding three temporally continuous image signals (PI j−2 , PI j−1 and PI j ) is the luminance information (Y) and color difference information ( If the movement of the subject is zero, the luminance information (Y) and the color difference information (UV) are almost tripled by simple calculation. As a result, an effect equivalent to substantially increasing the sensitivity S of the photosensitive material can be obtained, and a special effect can be obtained in which dark place photography can be performed without changing the frame period of the CCD 13. .

因みに、上述の加算処理は、画像信号中のランダムノイズも同時に加算することとなるが、例えば、二つの画像信号を加算した場合、周期性のある信号成分が2倍になるのに対して、周期性のないランダムノイズは√2倍にしかならないことが知られているから、S/Nの悪化を招く心配はない。   Incidentally, the above-described addition processing also adds random noise in the image signal at the same time. For example, when two image signals are added, the periodic signal component is doubled, Since it is known that random noise with no periodicity is only √2 times, there is no worry of deteriorating S / N.

なお、図4の加算処理では、三つの画像信号(PIj-2、PIj-1及びPIj)を単純に加算しているが、三つの画像信号(PIj-2、PIj-1及びPIj)の各々に適当な重み値を与えてから加算するようにしてもよい。すなわち、図6に示すように、入力画像バッファ30の各バッファ領域BI1〜BI3の内容にそれぞれ適当な重み値A、B、Cを与えた後、それらを加算して出力画像バッファ31のj番目のバッファ領域BOjに格納してもよい(S4_2)。図7はその概念図であり、図中の符号33〜35は重み付け要素を模式化したものである。
重み値の与え方は、三つの画像信号(PIj-2、PIj-1及びPIj)のうちj番目の画像信号PIjに最大の値を持つCを、j−1番目の画像信号PIj-1に次位の値を持つBを、j−2番目の画像信号PIj-2に最小の値を持つAを与えることが望ましい。j番目の画像信号との間の時間的な距離に応じた重み付けを行うことができ、画像の動きを考慮した合成画像信号を得ることができるからである。
In the addition process of FIG. 4, three image signals (PI j-2 , PI j-1 and PI j ) are simply added, but the three image signals (PI j-2 , PI j-1 ) are added. And PI j ) may be added after giving an appropriate weight value to each of them. That is, as shown in FIG. 6, after giving appropriate weight values A, B, and C to the contents of the buffer areas BI 1 to BI 3 of the input image buffer 30, they are added and the output image buffer 31 The data may be stored in the jth buffer area BO j (S4_2). FIG. 7 is a conceptual diagram thereof, and reference numerals 33 to 35 in the figure schematically show weighting elements.
The weight value is given by replacing C having the maximum value in the j-th image signal PI j among the three image signals (PI j-2 , PI j-1 and PI j ) with the j-1th image signal. It is desirable to give B having the next value in PI j-1 and A having the smallest value in the j- 2th image signal PI j-2 . This is because weighting according to the temporal distance from the j-th image signal can be performed, and a composite image signal in consideration of image motion can be obtained.

または、図4の合成処理を、図8のように変形させてもよい。すなわち、BI1とBI2の間の動き補償予測演算を行い、その演算結果を変数Maに格納(S4_3)するとともに、BI2とBI3の間の動き補償予測演算を行い、その演算結果を変数Mbに格納(S4_4)した後、BI1とMa及びMbを加算して、その加算結果をBOjに格納(S4_5)してもよい。図9はその概念図であり、図中の符号36は動き補償予測演算要素を模式化したものである。なお、MaとMbの加算対象はBI1に限らない。BI1〜BI3のいずれかであればよい。 Alternatively, the combining process of FIG. 4 may be modified as shown in FIG. That is, the motion compensation prediction calculation between BI 1 and BI 2 is performed, the calculation result is stored in the variable Ma (S4_3), the motion compensation prediction calculation between BI 2 and BI 3 is performed, and the calculation result is calculated. After storing in the variable Mb (S4_4), BI 1 and Ma and Mb may be added, and the addition result may be stored in BO j (S4_5). FIG. 9 is a conceptual diagram thereof, and reference numeral 36 in the figure schematically shows a motion compensation prediction calculation element. The addition target of Ma and Mb is not limited to BI 1 . Any of BI 1 to BI 3 may be used.

動き補償予測演算(動き補償フレーム間予測演算ともいう)とは、例えば、あるフレームの被写体が時間的に隣接する他のフレームのどの部分に一番にているかを探索し、その探索方向と探索距離を隣接フレーム間の動き情報として算出するものであり、動画像における時間領域の冗長度除去技術の一手法である。したがって、これによれば、動きのある被写体を暗所撮影することができる。また、この手法はMPEG符号化の骨格技術であるから、例えば、圧縮・伸長回路21でMPEG符号化を行う場合は、その圧縮アルゴリズムの流用が可能である。   Motion compensation prediction calculation (also referred to as motion compensation inter-frame prediction calculation) is, for example, searching for which part of another frame that is temporally adjacent to the subject of a certain frame is searched, and its search direction and search The distance is calculated as motion information between adjacent frames, and is a technique for removing redundancy in the time domain of moving images. Therefore, according to this, a moving subject can be photographed in a dark place. Further, since this technique is a skeleton technique of MPEG coding, for example, when MPEG coding is performed by the compression / decompression circuit 21, the compression algorithm can be used.

以上のとおり、本実施の形態によれば、カラープロセス回路18から所定のフレーム周期(例えば1/30秒周期)で順次に出力される画像信号PIj、画像信号PIj-1、画像信号PIj-2を三つのバッファ領域BI1〜BI3に格納するとともに、三つのバッファ領域BI1〜BI3の内容を加算処理して1枚の画像信号POjを生成し、これを出力画像バッファ31のバッファ領域BOjに格納して動画のコマ画像としたので、動画のコマ画像各部の輝度値や色差値を元画像(PIj、PIj-1及びPIj-2)の加算数に応じて倍増することができる。 As described above, according to the present embodiment, the image signal PI j , the image signal PI j−1 , and the image signal PI that are sequentially output from the color process circuit 18 at a predetermined frame period (for example, 1/30 second period). stores the j-2 in three buffer area BI 1 ~BI 3, by adding the process the contents of the three buffer area BI 1 ~BI 3 generates one image signal PO j, the output image buffer this Since it is stored in the buffer area BO j of 31 and used as a frame image of the moving image, the luminance value and the color difference value of each part of the moving image frame image are added to the addition number of the original image (PI j , PI j-1 and PI j-2 ). Can be doubled accordingly.

したがって、例えば、元画像の輝度値をnとすると、動画のコマ画像各部の輝度値を単純計算で「加算数×n」とすることができ、一般に輝度値nは値が大きくなるほど白レベルに近くなるから、露出を大きくしたことと同等の効果(対策(1)〜(3)の効果)を得ることができる。その結果、CCD13のフレーム周期を変更することなく、暗所撮影を行うことができ、テレビカメラ、ビデオカメラ又は動画カメラにとって格別有益な効果を奏することができる。   Therefore, for example, if the luminance value of the original image is n, the luminance value of each part of the frame image of the moving image can be simply calculated as “addition number × n”. Generally, the luminance value n becomes a white level as the value increases. Since they are close to each other, it is possible to obtain the same effects (effects of the countermeasures (1) to (3)) as when the exposure is increased. As a result, it is possible to perform dark place photography without changing the frame period of the CCD 13, and it is possible to obtain a particularly beneficial effect for a television camera, a video camera, or a moving image camera.

また、元画像(PIj、PIj-1及びPIj-2)の各々に、元画像の時間的な距離に対応した重み値を与えた後に加算すると、画像の動きを考慮した合成画像信号が得られるので好ましい。
また、元画像(PIj、PIj-1及びPIj-2)間の動き補償予測演算を行い、その演算結果を元画像の一つ(例えば、PIj)に加算してもよい。上記演算結果は、被写体の動き部分を表すので、特に動きのある被写体の暗所撮影に好適なものとすることができる。
Further, when a weight value corresponding to the temporal distance of the original image is given to each of the original images (PI j , PI j-1 and PI j-2 ) and then added, a composite image signal considering the motion of the image Is preferable.
Alternatively, a motion compensation prediction calculation between the original images (PI j , PI j-1 and PI j-2 ) may be performed, and the calculation result may be added to one of the original images (for example, PI j ). Since the calculation result represents the moving part of the subject, the calculation result can be particularly suitable for shooting in a dark place of a moving subject.

なお、以上の各実施の形態は、画像信号単位(フレーム単位)に加算処理を行っているが、これに限らない。特にCCD等の固体撮像素子から出力された画像信号は、画素単位の取り扱いが容易であるため、フレーム単位でなく画素単位の加算処理を行ってもよい。
図10は、画素単位で加算処理を行う場合のバッファメモリ20の構造図であり、図示の例では、各々一つのバッファ領域BI、BOを含む入力画像バッファ30と出力画像バッファ31が示されている。
In each of the above embodiments, addition processing is performed in units of image signals (frame units), but the present invention is not limited to this. In particular, since an image signal output from a solid-state imaging device such as a CCD is easy to handle in units of pixels, addition processing may be performed in units of pixels instead of in units of frames.
FIG. 10 is a structural diagram of the buffer memory 20 when the addition processing is performed in units of pixels. In the illustrated example, an input image buffer 30 and an output image buffer 31 each including one buffer area BI and BO are shown. Yes.

入力画像バッファ30のバッファ領域BIのサイズは、カラープロセス回路18から出力される1画像分のYUV信号を保存できる充分な大きさであり、出力画像バッファ31のバッファ領域BOのサイズも同程度の大きさである。   The size of the buffer area BI of the input image buffer 30 is large enough to store the YUV signal for one image output from the color process circuit 18, and the size of the buffer area BO of the output image buffer 31 is about the same. It is a size.

図11は、バッファ領域BI、BOに保存される画像信号の画素配置図であり、桝目の一つ一つが画素である。横方向はCCD13の水平走査方向に対応し、縦方向は同垂直走査方向に対応する。以下、画素位置を(i,j)の座標で表すことにする。ここに、iは横方向座標値、jは縦方向座標値である。今、注目画素の座標を(i,j)とすると、その上下左右に隣接する8個の隣接画素の座標は、図12に示すように、(i−1,j−1)、(i,j−1)、(i+1,j−1)、(i+1,j)、(i+1,j+1)、(i,j+1)、(i−1,j+1)、(i−1,j)で表すことができる。   FIG. 11 is a pixel arrangement diagram of image signals stored in the buffer areas BI and BO, and each cell is a pixel. The horizontal direction corresponds to the horizontal scanning direction of the CCD 13, and the vertical direction corresponds to the vertical scanning direction. Hereinafter, the pixel position is expressed by coordinates (i, j). Here, i is a horizontal coordinate value, and j is a vertical coordinate value. Now, assuming that the coordinates of the pixel of interest are (i, j), the coordinates of eight adjacent pixels vertically and horizontally are (i−1, j−1), (i, j) as shown in FIG. j-1), (i + 1, j-1), (i + 1, j), (i + 1, j + 1), (i, j + 1), (i-1, j + 1), (i-1, j). it can.

図13は、図10の入力画像バッファ30と出力画像バッファ31を利用する動画撮影モードのプログラムを示すフローチャートである。このプログラムはCPU24のプログラムROM24aに予め格納されており、キー入力部25の所定のキー操作によってCPU24のワークRAM24bにロードされ、実行される。   FIG. 13 is a flowchart showing a moving image shooting mode program using the input image buffer 30 and the output image buffer 31 of FIG. This program is stored in advance in the program ROM 24a of the CPU 24, and is loaded into the work RAM 24b of the CPU 24 and executed by a predetermined key operation of the key input unit 25.

このプログラムは、入力画像バッファ30のバッファ領域BIに格納された画像信号のi×j個の画素を注目画素として巡回しつつ、その周囲の8個の隣接画素の画素値を注目画素の画素値に加算し、その加算結果を出力画像バッファ31のバッファ領域BOに逐次に格納するというものである。
すなわち、プログラムを開始すると、まず、ループ変数i、jに初期値の1をセットし(S20)、次いで、後述の加算処理(S21)を実行した後、入力画像バッファ30のバッファ領域BIに格納された画像信号のi×j個の画素のすべてに対して同加算処理を実行する(S22〜S26)。なお、S22、S23は水平走査方向の画素選択ステップ、S24〜S26は垂直方向の画素選択ステップである。また、水平方向と垂直方向の画素数は便宜的に12としている(S22、S24参照)。
This program circulates the i × j pixels of the image signal stored in the buffer area BI of the input image buffer 30 as the target pixel, and the pixel values of the eight neighboring pixels around the pixel value of the target pixel. And the result of the addition is sequentially stored in the buffer area BO of the output image buffer 31.
That is, when the program is started, first, the initial value 1 is set to the loop variables i and j (S20), and then an addition process (S21) described later is executed, and then stored in the buffer area BI of the input image buffer 30. The same addition processing is executed for all of the i × j pixels of the image signal thus obtained (S22 to S26). S22 and S23 are pixel selection steps in the horizontal scanning direction, and S24 to S26 are pixel selection steps in the vertical direction. Further, the number of pixels in the horizontal direction and the vertical direction is set to 12 for convenience (see S22 and S24).

図14は、S21の加算処理の詳細である。この図において、右上にダッシュ(′)を付した注目画素(i,j)′は、出力画像バッファ31のバッファ領域BOに格納される画素であり、この注目画素(i,j)′には、入力画像バッファ30のバッファ領域BIに格納された画像信号の注目画素(i,j)の画素値と、その周囲の8個の隣接画素(i−1,j−1)、(i,j−1)、(i+1,j−1)、(i+1,j)、(i+1,j+1)、(i,j+1)、(i−1,j+1)、(i−1,j)の画素値との加算値、すなわち、図12の9個の画素値を加算した値がセットされる(S21_1)。   FIG. 14 shows details of the addition processing in S21. In this figure, a target pixel (i, j) ′ with a dash (′) on the upper right is a pixel stored in the buffer area BO of the output image buffer 31, and this target pixel (i, j) ′ includes , The pixel value of the target pixel (i, j) of the image signal stored in the buffer area BI of the input image buffer 30, and the eight neighboring pixels (i-1, j-1), (i, j) -1), (i + 1, j-1), (i + 1, j), (i + 1, j + 1), (i, j + 1), (i-1, j + 1), and (i-1, j) pixel values An added value, that is, a value obtained by adding the nine pixel values in FIG. 12 is set (S21_1).

今、図12の9個の画素値を便宜的にaとすると、(i,j)′の値は「a×9」となる。このことは、(i,j)の画素値を9倍にして(i,j)′にセットすることに相当する。したがって、画素値の増加は白レベルへの接近を意味するから、本実施の形態においてもCCD12のフレーム周期を変えることなく、暗所撮影を行うことができる。   If the nine pixel values in FIG. 12 are a for convenience, the value of (i, j) ′ is “a × 9”. This corresponds to multiplying the pixel value of (i, j) by 9 times and setting it to (i, j) ′. Therefore, since an increase in the pixel value means an approach to the white level, it is possible to take a dark place without changing the frame period of the CCD 12 in this embodiment.

なお、図14の加算処理では、注目画素の画素値とその周囲の8個の隣接画素の画素値を加算している。この様子は、図15のように示すことができる。
図15において、クロスハッチングは注目画素、左下がりハッチングは隣接画素である。このような画素配列は、注目画素の座標がi>imin、i<imax、j>jmin且つj<jmaxの条件をすべて満たしているときである。但し、iminは座標iの最小値、imaxは座標iの最大値、jminは座標jの最小値、jmaxは座標jの最大値である。
In the addition process of FIG. 14, the pixel value of the pixel of interest and the pixel values of eight neighboring pixels around it are added. This can be shown as shown in FIG.
In FIG. 15, cross hatching is a pixel of interest, and left-down hatching is an adjacent pixel. Such a pixel arrangement is when the coordinates of the target pixel satisfy all the conditions of i> i min , i <i max , j> j min and j <j max . Here, i min is the minimum value of coordinate i, i max is the maximum value of coordinate i, j min is the minimum value of coordinate j, and j max is the maximum value of coordinate j.

図16は、かかる条件を満たしていない各ケースを示す図である。すなわち、(a)はi>iminとj>jminを満たしておらず、(b)はi<imaxとj>jminを満たしておらず、(c)はi<imaxとj<jmaxを満たしておらず、(d)はi>iminとj<jmaxを満たしておらず、(e)はj>jminを満たしておらず、(f)はj<jmaxを満たしておらず、(g)はi>iminを満たしておらず、(h)はi<imaxを満たしていない。これらの各ケースにおいては、隣接画素の一部が存在しない(図中の破線で示す桝目)ため、その非存在画素の画素値を0とみなして加算する必要がある。 FIG. 16 is a diagram showing each case that does not satisfy such a condition. That is, (a) does not satisfy i> i min and j> j min , (b) does not satisfy i <i max and j> j min , and (c) does i <i max and j <J max is not satisfied, (d) does not satisfy i> i min and j <j max , (e) does not satisfy j> j min , and (f) is j <j max (G) does not satisfy i> i min and (h) does not satisfy i <i max . In each of these cases, some of the adjacent pixels do not exist (the cells shown by the broken lines in the figure), so it is necessary to add the pixel values of the non-existing pixels as 0.

図14の加算処理では、注目画素の画素値とその周囲の8個の隣接画素の画素値を単純に加算しているが、これに限らない。例えば、図17に示すような重み値WNW、WN、WNE、WE、WSE、WS、WSW、WW、WCを適用してもよい。
ここに、WNWは注目画素(i,j)の左上に位置する隣接画素(i−1,j−1)の重み値、WNは注目画素(i,j)の上に位置する隣接画素(i,j−1)の重み値、WNEは注目画素(i,j)の右上に位置する隣接画素(i+1,j−1)の重み値、WEは注目画素(i,j)の右に位置する隣接画素(i+1,j)の重み値、WSEは注目画素(i,j)の右下に位置する隣接画素(i+1,j+1)の重み値、WSは注目画素(i,j)の下に位置する隣接画素(i,j+1)の重み値、WSWは注目画素(i,j)の左下に位置する隣接画素(i−1,j+1)の重み値、WWは注目画素(i,j)の左に位置する隣接画素(i−1,j)の重み値、WCは注目画素(i,j)の重み値である。
In the addition process of FIG. 14, the pixel value of the target pixel and the pixel values of eight neighboring pixels around it are simply added, but the present invention is not limited to this. For example, weight values W NW , W N , W NE , W E , W SE , W S , W SW , W W , and W C as shown in FIG. 17 may be applied.
Here, W NW is the weight value of the adjacent pixel (i−1, j−1) positioned at the upper left of the target pixel (i, j), and W N is the adjacent pixel positioned above the target pixel (i, j). The weight value of (i, j−1), W NE is the weight value of the adjacent pixel (i + 1, j−1) located at the upper right of the target pixel (i, j), and W E is the target pixel (i, j). The weight value of the adjacent pixel (i + 1, j) located on the right, W SE is the weight value of the adjacent pixel (i + 1, j + 1) located on the lower right of the target pixel (i, j), and W S is the target pixel (i, j). j) is the weight value of the adjacent pixel (i, j + 1) located below, W SW is the weight value of the adjacent pixel (i−1, j + 1) located at the lower left of the target pixel (i, j), and W W is the target The weight value of the adjacent pixel (i−1, j) located to the left of the pixel (i, j) and W C is the weight value of the target pixel (i, j).

各重み値は、注目画素からの距離が遠いほど小さい値にする。例えば、WNW=WNE=WSE=WSW=1、WN=WE=WS=WW=3、WC=5にしてもよい。注目画素からの距離が遠くなるほど、画素値の相関性が低くなるから、加算に伴う画質の劣化を回避できる。 Each weight value is set to a smaller value as the distance from the target pixel increases. For example, W NW = W NE = W SE = W SW = 1, W N = W E = W S = W W = 3, and W C = 5 may be used. As the distance from the pixel of interest increases, the correlation between the pixel values decreases, so that it is possible to avoid deterioration in image quality due to addition.

また、図14の加算処理を、図18のように改良してもよい。この改良例は、注目画素とその周囲の隣接画素との間の相関性を調べ、相関性の高い隣接画素の画素値を注目画素の画素値に加算するというものである。加算に伴う画質の劣化をより積極的に回避できる。
図18の加算処理を開始すると、まず、注目画素(i,j)の画素値と左隣の隣接画素(i−1,j)の画素値との差を演算し、その演算結果の絶対値を変数VLにセットする(S22_2)とともに、注目画素(i,j)の画素値と右隣の隣接画素(i+1,j)の画素値との差を演算し、その演算結果の絶対値を変数VRにセットする(S22_3)。次に、VLとVRとを比較してVL>VRであるか否かを判定する(S22_4)。
14 may be improved as shown in FIG. In this improved example, the correlation between the target pixel and the neighboring pixels around the target pixel is examined, and the pixel value of the adjacent pixel having a high correlation is added to the pixel value of the target pixel. Degradation of image quality due to addition can be more actively avoided.
When the addition processing of FIG. 18 is started, first, the difference between the pixel value of the target pixel (i, j) and the pixel value of the adjacent pixel (i−1, j) on the left is calculated, and the absolute value of the calculation result is calculated. Is set to the variable V L (S22_2), the difference between the pixel value of the target pixel (i, j) and the pixel value of the adjacent pixel (i + 1, j) on the right is calculated, and the absolute value of the calculation result is calculated. to set the variable V R (S22_3). Next, V L and V R are compared to determine whether or not V L > V R (S22_4).

判定結果がYESの場合は(VL>VRである場合は)、注目画素(i,j)の画素値と左隣の隣接画素(i−1,j)の画素値との差の絶対値が、注目画素(i,j)の画素値と右隣の隣接画素(i+1,j)の画素値との差の絶対値よりも大きく、この場合は注目画素(i,j)に対して右隣の隣接画素(i+1,j)の相関性が高いから、図19(a)に示すように、右隣の隣接画素(i+1,j)を含む5つの隣接画素(i,j−1)、(i+1,j−1)、(i+1,j)、(i+1,j+1)、(i,j+1)の画素値を注目画素(i,j)の画素値に加算する(S22_5)。 When the determination result is YES (when V L > V R ), the absolute difference between the pixel value of the target pixel (i, j) and the pixel value of the adjacent pixel (i−1, j) adjacent to the left The value is larger than the absolute value of the difference between the pixel value of the target pixel (i, j) and the pixel value of the adjacent pixel (i + 1, j) adjacent to the right side. In this case, for the target pixel (i, j) Since the right neighboring pixel (i + 1, j) has high correlation, as shown in FIG. 19A, five neighboring pixels (i, j−1) including the right neighboring pixel (i + 1, j). , (I + 1, j−1), (i + 1, j), (i + 1, j + 1), (i, j + 1) are added to the pixel value of the target pixel (i, j) (S22_5).

一方、判定結果がNOの場合は(VL>VRでない場合は)、注目画素(i,j)の画素値と左隣の隣接画素(i−1,j)の画素値との差の絶対値が、注目画素(i,j)の画素値と右隣の隣接画素(i+1,j)の画素値との差の絶対値よりも小さく、この場合は注目画素(i,j)に対して左隣の隣接画素(i−1,j)の相関性が高いから、図19(b)に示すように、左隣の隣接画素(i−1,j)を含む5つの隣接画素(i,j−1)、(i−1,j−1)、(i−1,j)、(i−1,j+1)、(i,j+1)の画素値を注目画素(i,j)の画素値に加算する(S22_6)。 On the other hand, when the determination result is NO (when V L > V R is not satisfied), the difference between the pixel value of the target pixel (i, j) and the pixel value of the adjacent pixel (i−1, j) adjacent to the left is calculated. The absolute value is smaller than the absolute value of the difference between the pixel value of the target pixel (i, j) and the pixel value of the adjacent pixel (i + 1, j) adjacent to the right side. In this case, for the target pixel (i, j) Since the left neighboring pixel (i−1, j) is highly correlated, as shown in FIG. 19B, five neighboring pixels (i−1, j) including the left neighboring pixel (i−1, j) , J−1), (i−1, j−1), (i−1, j), (i−1, j + 1), (i, j + 1) pixel values of the pixel of interest (i, j). Add to the value (S22_6).

このようにすると、注目画素(i,j)に対して相関性の低い隣接画素の画素値を加算対象から省くことができるので、被写体の輪郭等のボケを回避して画質の向上を図ることができる。
なお、図18の加算処理では、注目画素に対する右隣と左隣の隣接画素の相関性を調べているが、上下の隣接画素であってもよいことはもちろんである。
In this way, the pixel values of adjacent pixels having low correlation with the pixel of interest (i, j) can be omitted from the addition target, so that the image quality is improved by avoiding blurring of the contour of the subject. Can do.
In the addition process of FIG. 18, the correlation between the adjacent pixels on the right side and the left side with respect to the pixel of interest is examined, but it goes without saying that the upper and lower adjacent pixels may be used.

電子スチルカメラのブロック図である。It is a block diagram of an electronic still camera. 一の実施の形態に係るバッファメモリの構造図である。1 is a structural diagram of a buffer memory according to an embodiment. FIG. 一の実施の形態に係る動画記録プログラムのフローチャートである。It is a flowchart of the moving image recording program which concerns on one embodiment. 合成処理のフローチャート(単純加算の例)である。It is a flowchart (example of simple addition) of a composition process. 合成処理の概念図(単純加算の例)である。It is a conceptual diagram (example of simple addition) of composition processing. 合成処理のフローチャート(重み付け加算の例)である。It is a flowchart (example of weighting addition) of a synthetic | combination process. 合成処理の概念図(重み付け加算の例)である。It is a conceptual diagram (example of weighted addition) of composition processing. 合成処理のフローチャート(動き補償予測演算の併用例)である。It is a flowchart (combined example of motion compensation prediction calculation) of a synthesis process. 合成処理の概念図(動き補償予測演算の併用例)である。It is a conceptual diagram (combined example of motion compensation prediction calculation) of a synthesis process. 他の実施の形態に係るバッファメモリの構造図である。It is a structure diagram of a buffer memory according to another embodiment. 他の実施の形態に係る画像信号の画素構造図である。It is a pixel structure diagram of an image signal according to another embodiment. 注目画素とその周囲の隣接画素を示す図である。It is a figure which shows an attention pixel and the adjacent pixel of the circumference | surroundings. 他の実施の形態に係る動画記録プログラムのフローチャートである。It is a flowchart of the moving image recording program which concerns on other embodiment. 合成処理のフローチャート(画素値の単純加算の例)である。It is a flowchart (example of simple addition of pixel values) of composition processing. 加算対象画素を示す図である。It is a figure which shows an addition object pixel. 一部の隣接画素を欠く画素配列図である。It is a pixel array figure which lacks some adjacent pixels. 注目画素とその周囲の隣接画素に付与する重み値を示す図である。It is a figure which shows the weight value provided to an attention pixel and the adjacent pixel of the circumference | surroundings. 合成処理のフローチャート(相関性の評価を併用する例)である。It is a flowchart (example which uses correlation evaluation together) of a synthetic | combination process. 合成処理の概念図(相関性の評価を併用する例)である。It is a conceptual diagram (example which uses together evaluation of correlation) of a synthetic | combination process.

符号の説明Explanation of symbols

13 CCD(画像出力手段)
16 サンプルホールド回路(画像出力手段)
17 アナログディジタル変換器(画像出力手段)
18 カラープロセス回路(画像出力手段)
20 バッファメモリ(画像取得手段、保持手段)
24 CPU(動画像生成手段)
13 CCD (image output means)
16 Sample hold circuit (image output means)
17 Analog-digital converter (image output means)
18 color process circuit (image output means)
20 Buffer memory (image acquisition means, holding means)
24 CPU (moving image generating means)

Claims (10)

被写体からの光を電気的な画像信号に変換して周期的に出力する画像出力手段と、
前記画像出力手段より周期的に出力される画像信号から複数枚の画像信号を順次取得する画像取得手段と、
前記画像取得手段によって取得された複数枚の画像信号を合成処理して一枚の画像信号を生成する処理を周期的に実行する動画像生成手段と、
を備えたことを特徴とする動画像生成装置。
Image output means for periodically converting the light from the subject into an electrical image signal and outputting it,
Image acquisition means for sequentially acquiring a plurality of image signals from image signals periodically output from the image output means;
A moving image generating means for periodically executing a process of generating a single image signal by synthesizing a plurality of image signals acquired by the image acquiring means;
A moving image generating apparatus comprising:
前記動画像生成手段は、前記複数枚の画像信号を加算合成して一枚の画像信号を生成することを特徴とする請求項1記載の動画像生成装置。   The moving image generating apparatus according to claim 1, wherein the moving image generating unit generates one image signal by adding and synthesizing the plurality of image signals. 前記動画像生成手段は、前記複数枚の画像信号の各々に重み付けを行ってから加算を行うことを特徴とする請求項2記載の動画像生成装置。   3. The moving image generating apparatus according to claim 2, wherein the moving image generating means performs addition after weighting each of the plurality of image signals. 前記動画像生成手段は、前記複数枚の画像信号間の動き補償予測演算を行い、該演算によって得られた予測画像信号を、前記複数の画像信号の一つに加算処理して一枚の画像信号を生成することを特徴とする請求項1記載の動画像生成装置。   The moving image generating means performs a motion compensation prediction calculation between the plurality of image signals, and adds a predicted image signal obtained by the calculation to one of the plurality of image signals to generate one image. 2. The moving image generating apparatus according to claim 1, wherein the moving image generating apparatus generates a signal. 被写体からの光を電気的な画像信号に変換して周期的に出力する画像出力手段と、
前記画像出力手段から周期的に出力される前記画像信号を順次保持する保持手段と、
前記保持手段に順次保持される前記画像信号に対して、該画像信号内の注目画素情報を該注目画素近傍の隣接画素情報を用いて補正する処理を実行することにより動画像を生成する動画像生成手段と、
を備えたことを特徴とする動画像生成装置。
Image output means for periodically converting the light from the subject into an electrical image signal and outputting it,
Holding means for sequentially holding the image signals periodically output from the image output means;
A moving image that generates a moving image by executing processing for correcting the target pixel information in the image signal using adjacent pixel information in the vicinity of the target pixel with respect to the image signals sequentially held in the holding unit Generating means;
A moving image generating apparatus comprising:
前記動画像生成手段は、前記注目画素情報と前記隣接画素情報の一方または双方に重み付けを行ってから両者を加算して前記注目画素情報を補正することを特徴とする請求項5記載の動画像生成装置。   6. The moving image according to claim 5, wherein the moving image generating means corrects the attention pixel information by weighting one or both of the attention pixel information and the adjacent pixel information and then adding the both. Generator. 前記重み付けの値を前記注目画素と前記隣接画素との間の位置関係に対応して設定することを特徴とする請求項6記載の動画像生成装置。   The moving image generating apparatus according to claim 6, wherein the weighting value is set corresponding to a positional relationship between the target pixel and the adjacent pixel. 前記動画像生成手段は、前記注目画素に対する前記隣接画素各々の相関性を調べて相関性の高い隣接画素の情報を、前記注目画素情報の補正情報として用いることを特徴とする請求項5又は請求項6記載の動画像生成装置。   6. The moving image generation means checks the correlation of each of the adjacent pixels with respect to the target pixel and uses information on the adjacent pixel having a high correlation as correction information for the target pixel information. Item 7. The moving image generating device according to Item 6. 画像出力手段によって周期的に出力された画像信号から複数枚の画像信号を順次取得する画像取得ステップと、
前記画像取得ステップで取得された複数枚の画像信号を合成処理して一枚の画像信号を生成する処理を周期的に実行する動画像生成ステップと、
を含むことを特徴とする動画像生成方法。
An image acquisition step of sequentially acquiring a plurality of image signals from the image signals periodically output by the image output means;
A moving image generation step of periodically executing a process of generating a single image signal by synthesizing a plurality of image signals acquired in the image acquisition step;
A moving image generating method comprising:
画像出力手段によって周期的に出力された画像信号を順次保持する保持ステップと、
前記保持ステップで保持された画像信号に対して該画像信号内の注目画素情報を隣接画素情報を用いて補正する処理を周期的に実行することにより動画像を生成する補正ステップと、
を含むことを特徴とする動画像生成方法。
A holding step for sequentially holding image signals periodically output by the image output means;
A correction step for generating a moving image by periodically executing processing for correcting the target pixel information in the image signal using the neighboring pixel information with respect to the image signal held in the holding step;
A moving image generating method comprising:
JP2006289319A 2006-10-25 2006-10-25 Moving image generating apparatus and moving image generating method Pending JP2007068209A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006289319A JP2007068209A (en) 2006-10-25 2006-10-25 Moving image generating apparatus and moving image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006289319A JP2007068209A (en) 2006-10-25 2006-10-25 Moving image generating apparatus and moving image generating method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11734199A Division JP4544661B2 (en) 1999-04-23 1999-04-23 Moving image generating apparatus and moving image generating method

Publications (1)

Publication Number Publication Date
JP2007068209A true JP2007068209A (en) 2007-03-15

Family

ID=37929768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006289319A Pending JP2007068209A (en) 2006-10-25 2006-10-25 Moving image generating apparatus and moving image generating method

Country Status (1)

Country Link
JP (1) JP2007068209A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071452A (en) * 2007-09-11 2009-04-02 Canon Inc Imaging apparatus, its control method, program, and storage medium
JP2013012998A (en) * 2011-06-30 2013-01-17 Canon Inc Image synthesizing apparatus, control method therefor, and control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071452A (en) * 2007-09-11 2009-04-02 Canon Inc Imaging apparatus, its control method, program, and storage medium
JP2013012998A (en) * 2011-06-30 2013-01-17 Canon Inc Image synthesizing apparatus, control method therefor, and control program

Similar Documents

Publication Publication Date Title
JP5764740B2 (en) Imaging device
JP4742242B2 (en) Imaging apparatus and program thereof
US8411172B2 (en) Imaging device and image processing apparatus
JP2006148861A (en) Image signal processing device and method
JP2003319240A (en) Image pickup device
JP2011109281A (en) Image pickup device and control method thereof
JP2007135135A (en) Moving image imaging apparatus
JP4985124B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006245999A (en) Imaging apparatus and program
JP2006074180A (en) Imaging device
JP2009296434A (en) Imaging device
US9007479B2 (en) Imaging apparatus and evaluation value generation apparatus
JP2005236662A (en) Imaging method, imaging device, and imaging system
JP2006148550A (en) Image processor and imaging device
JP4544661B2 (en) Moving image generating apparatus and moving image generating method
JP2018148512A (en) Imaging device, control method of imaging device, and program
JP2007068209A (en) Moving image generating apparatus and moving image generating method
JP2007202050A (en) Image generating apparatus and program
US20090225186A1 (en) Electronic camera
JP2007282134A (en) Imaging apparatus
JP2004235901A (en) Image pickup device
JP5482427B2 (en) Imaging apparatus, camera shake correction method, and program
JP5482428B2 (en) Imaging apparatus, camera shake correction method, and program
JP5106056B2 (en) Imaging apparatus and flicker detection method thereof
JP2009038627A (en) Imaging apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407