JP2006180382A - Image generating apparatus and image generating method - Google Patents

Image generating apparatus and image generating method Download PDF

Info

Publication number
JP2006180382A
JP2006180382A JP2004373644A JP2004373644A JP2006180382A JP 2006180382 A JP2006180382 A JP 2006180382A JP 2004373644 A JP2004373644 A JP 2004373644A JP 2004373644 A JP2004373644 A JP 2004373644A JP 2006180382 A JP2006180382 A JP 2006180382A
Authority
JP
Japan
Prior art keywords
pixel
image
unit
value
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004373644A
Other languages
Japanese (ja)
Inventor
Taro Imagawa
太郎 今川
Kazuo Nobori
一生 登
Takeo Azuma
健夫 吾妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004373644A priority Critical patent/JP2006180382A/en
Publication of JP2006180382A publication Critical patent/JP2006180382A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generating apparatus generating an image sequences without motion blurring even if a plurality of objects under different motions are present within one image. <P>SOLUTION: The image generating apparatus comprises: an image input unit 101; a generation pixel designation unit 102; a motion domain analysis unit 103; an integrated space-time domain determination unit 104; a pixel judgement unit 105; a pixel value integration unit 106; an integration condition judgement unit 107; an integration condition designation unit 108; and an image output unit 109. The image input unit 101 inputs an image stream, a motion domain analysis unit 103 extracts motions of objects in the image stream, and the integration space-time domain determination unit 104 determines a space-time domain to be integrated on the basis of integration conditions determined by the integration condition designation unit 108. The pixel value integration unit 106 integrates pixel value of the space-time domain for each pixel, and the image output unit 109 outputs a result of the integration as a new image sequences. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は入力された画像列に基づいて、新たな画像列を生成する画像生成装置に関し、特に、動きブレのない画像列を生成する生成する画像生成装置に関する。   The present invention relates to an image generation device that generates a new image sequence based on an input image sequence, and more particularly to an image generation device that generates an image sequence without motion blur.

従来、入力された画像列から新たな画像列を生成する画像生成装置として、画面全体の動きを用いるものが提案されている(例えば、特許文献1参照)。図14は、特許文献1に開示されている画像生成装置による画像生成処理の概略処理を示すフローチャートである。   2. Description of the Related Art Conventionally, as an image generation apparatus that generates a new image sequence from an input image sequence, an apparatus that uses movement of the entire screen has been proposed (for example, see Patent Document 1). FIG. 14 is a flowchart illustrating a schematic process of the image generation process performed by the image generation apparatus disclosed in Patent Document 1.

図14に示されるように、画像生成装置は、異なる露出時間で得た2つの画像の相対的な位置ずれを示す情報(動きベクトル情報)を求める(ステップA1)。その後、求められた2つの画像の相対的な動きベクトルに基づいて、一方の画像の撮影枠をシフトさせて2枚の画像の画素値の加算平均を行い最終的な撮影画像を生成する(ステップA2)。
特開2003−319240号公報(図5)
As shown in FIG. 14, the image generation apparatus obtains information (motion vector information) indicating a relative positional shift between two images obtained at different exposure times (step A1). Thereafter, based on the obtained relative motion vector of the two images, the shooting frame of one image is shifted and the pixel value of the two images is added and averaged to generate a final captured image (step). A2).
Japanese Patent Laying-Open No. 2003-319240 (FIG. 5)

しかしながら、従来の画像生成装置では、画像内の被写体の動きは同じであるとみなし、画像枠をシフトさせ、画素値の加算平均処理を行なっている。このため、画像内で個々の被写体が異なる動きをしている場合には、画像枠を移動させて加算平均を行ったとしても、個々の被写体については動きブレが生じるという課題がある。   However, the conventional image generation apparatus considers that the motion of the subject in the image is the same, shifts the image frame, and performs an averaging process of pixel values. For this reason, when individual subjects move differently in the image, there is a problem that even if the image frame is moved and addition averaging is performed, motion blur occurs for each subject.

また、被写体が暗い場合には、画像のS/N比が悪いため、これを解決するために加算する2つの画像の露出時間を長くする必要がある。しかし、露出時間を長くしてしまうと被写体の動きが速い場合には、1枚の画像内で動きブレが生じてしまう。このため、画像全体で位置合せをして加算平均したとしても動きブレを除くことはできないという課題を有している。   In addition, when the subject is dark, the S / N ratio of the image is bad, and it is necessary to lengthen the exposure time of the two images to be added in order to solve this. However, if the exposure time is increased, if the subject moves quickly, motion blur occurs in one image. For this reason, there is a problem that motion blur cannot be removed even if the entire image is aligned and averaged.

本発明は、上述の課題を解決するためになされたものであり、1枚の画像中に動きの異なる複数の被写体が存在する場合であっても、動きブレのない画像列を生成することができる画像生成装置を提供することを第1の目的とする。   The present invention has been made to solve the above-described problems, and can generate an image sequence free from motion blur even when a plurality of subjects having different motions exist in one image. It is a first object of the present invention to provide an image generating apparatus that can be used.

また、被写体が暗い場合であっても、S/N比が高く、かつ、動きブレのない画像列を生成することができる画像生成装置を提供することを第2の目的とする。   A second object of the present invention is to provide an image generation apparatus capable of generating an image sequence having a high S / N ratio and no motion blur even when the subject is dark.

本発明のある局面に係る画像生成装置は、時間的に連続する複数の画像に基づいて、前記複数の画像のうちの着目画像に含まれる複数の画素の各々の動きを算出する動き算出手段と、前記着目画像に含まれる各画素について、前記各画素の動きに基づいて、当該各画素に対応する画素位置を前記複数の画像の各々について特定する画素位置特定手段と、前記着目画像に含まれる各画素について、前記複数の画像における前記各画素に対応する画素位置における画素値を加算することにより、前記着目画像の各画素の画素値を補正する画素値補正手段とを備えることを特徴とする。   An image generation apparatus according to an aspect of the present invention includes a motion calculation unit that calculates the motion of each of a plurality of pixels included in an image of interest among the plurality of images based on a plurality of temporally continuous images. The pixel position specifying means for specifying the pixel position corresponding to each pixel for each of the plurality of images based on the movement of each pixel for each pixel included in the target image, and included in the target image A pixel value correction unit that corrects the pixel value of each pixel of the image of interest by adding pixel values at pixel positions corresponding to the pixels in the plurality of images for each pixel. .

このように、動きに基づいて対応する複数の画像の画素値をの和を求め、画素値を補正している。このため、1枚の画像中に動きの異なる複数の被写体が存在する場合であっても、動きブレのない画像列を生成することができる。また、画素値を積算することにより、露出時間を長くしたのと同じ効果が得られるため、被写体が暗い場合であってもS/Nを改善することができ、かつ動きブレを抑えることができる。   In this way, the sum of the pixel values of a plurality of corresponding images is obtained based on the motion, and the pixel values are corrected. For this reason, even when a plurality of subjects having different motions exist in one image, an image sequence free from motion blur can be generated. Further, by integrating the pixel values, the same effect as that obtained by extending the exposure time can be obtained. Therefore, even when the subject is dark, S / N can be improved and motion blur can be suppressed. .

好ましくは、前記画素値補正手段は、前記着目画像に含まれる各画素について、前記各画素の画素値と当該各画素に対応する画素位置における画素値とを比較し、前記画素位置における画素値を加算対象とするか否かを判定する画素判定部と、前記画素判定部において加算対象とされた画素位置における画素値を加算する加算部とを有することを特徴とする。   Preferably, the pixel value correcting unit compares the pixel value of each pixel with the pixel value at the pixel position corresponding to each pixel for each pixel included in the image of interest, and determines the pixel value at the pixel position. It has a pixel determination part which determines whether it makes addition object, and an addition part which adds the pixel value in the pixel position made into the addition object in the said pixel determination part, It is characterized by the above-mentioned.

たとえば、自動車のヘッドライト等を撮像した等の影響により、画像全体で照明強度が大きくなり真白となっている場合があっても、その時刻の画像は加算対象画素から除くことができる。また、着目している被写体の画素が他の被写体の画素により隠蔽される場合があっても、その時刻の画像は加算対象画素から除くことができる。   For example, even if there is a case where the illumination intensity is increased and the image is completely white due to the effect of imaging a headlight of an automobile, the image at that time can be excluded from the addition target pixels. Even if the pixel of the subject of interest is hidden by the pixel of another subject, the image at that time can be excluded from the addition target pixels.

さらに好ましくは、前記画素値補正手段は、さらに、所定の条件を満たすか否かを判定する条件判定部を備え、前記加算部は、前記所定の条件を満たすまで加算処理を行なうことを特徴とする。また、前記条件判定部は、前記着目画像に含まれる各画素について、前記加算部において加算することにより求められる値と所定のノイズ値との比が、所定のしきい値よりも大きいか否かを判定し、前記加算部は、前記加算することにより求められる値と前記所定のノイズ値との比が、前記所定のしきい値よりも大きくなるまで加算処理を行なうことを特徴とする。   More preferably, the pixel value correction means further includes a condition determination unit that determines whether or not a predetermined condition is satisfied, and the addition unit performs an addition process until the predetermined condition is satisfied. To do. In addition, the condition determination unit determines whether a ratio between a value obtained by adding in the addition unit and a predetermined noise value for each pixel included in the target image is larger than a predetermined threshold value. And the addition unit performs an addition process until a ratio between the value obtained by the addition and the predetermined noise value becomes larger than the predetermined threshold value.

S/N比を条件とする場合、結果として得られる動画像の画質をより直感的に指定できるという利点がある
また、前記条件判定部は、前記着目画像に含まれる各画素について、前記加算部における加算処理時間が所定のしきい値よりも大きいか否かを判定し、前記加算部は、前記加算処理時間が所定のしきい値を超えるまで加算処理を行なうようにしてもよい。
When the S / N ratio is used as a condition, there is an advantage that the image quality of the resulting moving image can be more intuitively specified. Further, the condition determining unit is configured to add the adding unit for each pixel included in the target image. It may be determined whether or not the addition processing time is greater than a predetermined threshold, and the addition unit may perform the addition processing until the addition processing time exceeds a predetermined threshold.

加算処理時間を制限することにより、一定の時間遅れを持った順リアルタイム処理が可能となる。   By limiting the addition processing time, forward real-time processing with a certain time delay becomes possible.

本発明の画像生成装置によれば、異なる動きの被写体を含む対象を撮影する際に、動きブレを抑えながら、S/N比を高めた画像を得ることができる。   According to the image generating apparatus of the present invention, when shooting an object including a subject with different motion, an image with an increased S / N ratio can be obtained while suppressing motion blur.

以下、図面を参照しながら本発明の実施の形態に係る画像生成システムについて説明する。   Hereinafter, an image generation system according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係る画像生成システムの構成を示すブロック図である。
画像生成システム200は、複数の画像列から動きブレがなく、かつS/N比を高めた画像列を生成するシステムであり、撮像装置210と、画像記憶装置220と、画像生成装置230と、表示装置240とを備えている。
FIG. 1 is a block diagram showing a configuration of an image generation system according to an embodiment of the present invention.
The image generation system 200 is a system that generates an image sequence free from motion blur and having an increased S / N ratio from a plurality of image sequences, and includes an imaging device 210, an image storage device 220, an image generation device 230, And a display device 240.

撮像装置210は、被写体を撮影し、複数の画像からなる画像列を得るための装置である。   The imaging device 210 is a device for capturing a subject and obtaining an image sequence composed of a plurality of images.

画像記憶装置220は、撮像装置210で撮像された画像列を記憶する記憶装置である。   The image storage device 220 is a storage device that stores an image sequence captured by the imaging device 210.

画像生成装置230は、画像記憶装置220より画像列を受け、入力された画像列から、動きブレがなく、かつS/N比を高めた画像列を生成する装置である。   The image generation device 230 is a device that receives an image sequence from the image storage device 220 and generates an image sequence with no motion blur and an increased S / N ratio from the input image sequence.

表示装置240は、画像生成装置230で生成された画像列を表示する表示装置である。なお、画像生成装置230は、専用回路として実現してもよいし、汎用の計算機における画像処理プログラムとして実現してもよい。   The display device 240 is a display device that displays the image sequence generated by the image generation device 230. Note that the image generation device 230 may be realized as a dedicated circuit or as an image processing program in a general-purpose computer.

図2は、図1に示した画像生成システム200における画像生成装置230の内部構成を示すブロック図である。   FIG. 2 is a block diagram showing an internal configuration of the image generation apparatus 230 in the image generation system 200 shown in FIG.

画像生成装置230は、上述したように入力された画像列から、動きブレがなく、かつS/N比を高めた画像列を生成する装置であり、画像入力部101と、生成画素指定部102と、動き領域解析部103と、積算時空間領域決定部104と、画素判定部105と、画素値積算部106と、積算条件判定部107と、積算条件指定部108と、画像出力部109とを備えている。   The image generation device 230 is a device that generates an image sequence with no motion blur and an increased S / N ratio from the input image sequence as described above, and includes the image input unit 101 and the generated pixel designation unit 102. A motion region analysis unit 103, an integration spatio-temporal region determination unit 104, a pixel determination unit 105, a pixel value integration unit 106, an integration condition determination unit 107, an integration condition designation unit 108, and an image output unit 109. It has.

画像入力部101は、撮像装置210で得られた画像列を入力するための処理部である。   The image input unit 101 is a processing unit for inputting an image sequence obtained by the imaging device 210.

生成画素指定部102は、動きブレを抑え、S/N比を高める処理を行う対象となる画素位置を指定する処理部である。画素位置は画像列中のフレーム番号とフレーム内での位置とにより指定される。すなわち、着目している画像内の画素位置が順次自動的に指定される。   The generated pixel designation unit 102 is a processing unit that designates a pixel position to be subjected to processing for suppressing motion blur and increasing the S / N ratio. The pixel position is specified by the frame number in the image sequence and the position in the frame. That is, the pixel position in the image of interest is automatically designated sequentially.

動き領域解析部103は、画像入力部101で入力された画像列において、画像中の各フレーム中の画像の動きを所定位置ごとに求める処理部である。所定位置は、画像中の全画素であってもよいし、所定のサイズのブロックであってもよい。   The motion region analysis unit 103 is a processing unit that obtains, for each predetermined position, the motion of the image in each frame in the image in the image sequence input by the image input unit 101. The predetermined position may be all the pixels in the image or a block of a predetermined size.

積算条件指定部108は、生成画素指定部102が指定した画素に対応して積算すべき他の画素の範囲を既定する条件を指定する処理部である。条件の指定方法としては積算すべき画素数(フレーム数)を指定することや、積算した結果として得られる結果のS/N比を指定してもよい。   The integration condition designating unit 108 is a processing unit that designates a condition that defines a range of other pixels to be integrated in correspondence with the pixel designated by the generated pixel designation unit 102. As a condition designation method, the number of pixels to be integrated (the number of frames) may be specified, or the S / N ratio of the result obtained as an integration result may be specified.

積算時空間領域決定部104は、生成画素指定部102が指定した画素に対して、積算条件指定部108が指定した条件を満たすために積算すべき画素の時空間領域を決定する処理部である。   The integrated spatio-temporal region determination unit 104 is a processing unit that determines a spatio-temporal region of pixels to be integrated in order to satisfy the conditions specified by the integration condition specifying unit 108 for the pixels specified by the generated pixel specifying unit 102. .

画素判定部105は、積算時空間領域決定部104が決定した画素に対して、積算対象として有効か否かの判定を行う処理部である。   The pixel determination unit 105 is a processing unit that determines whether the pixel determined by the integration spatiotemporal region determination unit 104 is valid as an integration target.

画素値積算部106は、画素判定部105が有効であると判定した画素について画素値を積算する処理部である。   The pixel value integration unit 106 is a processing unit that integrates pixel values for the pixels that the pixel determination unit 105 determines to be valid.

積算条件判定部107は、画素値積算部106での積算結果が積算条件指定部108で指定した積算条件を満たすか否かを判定し、条件を満たす場合には画像出力部109に生成した画像を出力する処理部である。   The integration condition determination unit 107 determines whether or not the integration result of the pixel value integration unit 106 satisfies the integration condition specified by the integration condition specifying unit 108, and if the condition is satisfied, the image generated in the image output unit 109 is determined. Is a processing unit for outputting.

画像出力部109は、積算条件判定部107より入力された画像を生成画像として出力する処理部である。   The image output unit 109 is a processing unit that outputs the image input from the integration condition determination unit 107 as a generated image.

ここで、動き領域解析部103は「動き算出手段」に対応する。
また、積算時空間領域決定部104は「画素位置特定手段」に対応する。
Here, the motion region analysis unit 103 corresponds to “motion calculation means”.
The integrated spatio-temporal region determination unit 104 corresponds to “pixel position specifying means”.

画素判定部105、画素値積算部106、積算条件判定部107、積算条件指定部108および画像出力部109は、「画素値補正手段」に対応する。   The pixel determination unit 105, the pixel value integration unit 106, the integration condition determination unit 107, the integration condition designation unit 108, and the image output unit 109 correspond to “pixel value correction means”.

画素値積算部106は、「加算部」に対応する。
積算条件判定部107は、「条件判定部」に対応する。
The pixel value integrating unit 106 corresponds to an “adding unit”.
The integration condition determination unit 107 corresponds to a “condition determination unit”.

次に、画像生成装置230の実行する処理について説明する。図3は、画像生成装置230の実行する処理のフローチャートである。   Next, processing executed by the image generation device 230 will be described. FIG. 3 is a flowchart of processing executed by the image generation device 230.

画像入力部101は、画像記憶装置220より時間的に連続する画像列を読み込む。連続する画像列の一例を図4(a)〜図4(e)に示す。図4(a)〜図4(e)の画像列では円形の物体(領域B)が左から右へ移動している場面を撮影している。この場面には移動する円形の物体の奥に横長の矩形(格子模様)の物体(領域C)が存在し、静止している。更にその背後には静止している白色の背景領域Aが存在する。   The image input unit 101 reads image sequences that are temporally continuous from the image storage device 220. An example of a continuous image sequence is shown in FIGS. 4 (a) to 4 (e). In the image sequence of FIGS. 4A to 4E, a scene in which a circular object (region B) is moving from left to right is photographed. In this scene, a horizontally long rectangular (lattice pattern) object (region C) exists behind the moving circular object and is stationary. Furthermore, there is a white background area A that is stationary behind it.

従来、暗い被写体に対して十分な露出時間(例えば30ms)で撮影を行うと、動画の各フレームでは図4(f)の領域Dのように円形の移動物体の周辺に動きブレが生じていた。   Conventionally, when a dark subject is photographed with a sufficient exposure time (for example, 30 ms), motion blur has occurred around a circular moving object in each frame of a moving image, as in a region D in FIG. .

ここでは、図4(a)〜図4(e)のように、各フレームの露出時間を十分に短くし、物体の移動による動きブレを小さくした画像列を考える。このとき、露出時間が短いことから画像ブレは生じにくいものの、光量不足によりS/N比が小さい画像が得られる。   Here, as shown in FIGS. 4A to 4E, consider an image sequence in which the exposure time of each frame is sufficiently shortened to reduce motion blur due to movement of an object. At this time, an image having a small S / N ratio can be obtained due to a shortage of light amount although an image blur is hardly caused due to a short exposure time.

画像列が入力された後、生成画素指定部102は、生成対象とするフレームを順次指定する(S501)。ここでは、生成画素指定部102が図4(a)に示すフレームを指定したものとする。   After the image sequence is input, the generated pixel specifying unit 102 sequentially specifies the frames to be generated (S501). Here, it is assumed that the generated pixel designation unit 102 designates the frame shown in FIG.

次に、積算条件指定部108が積算条件を指定する(S502)。ここでは、積算条件として積算時間を30msと指定する。また、撮像装置210は、フレーム間隔を6ms、露出時間を2msとして被写体を撮像しているものとする。   Next, the integration condition designating unit 108 designates the integration condition (S502). Here, the integration time is specified as 30 ms as the integration condition. In addition, it is assumed that the imaging device 210 images a subject with a frame interval of 6 ms and an exposure time of 2 ms.

積算時空間領域決定部104は、積算条件を満たす積算フレーム数Fを決定する(S503)。すなわち、上述の条件に従うと、積算フレーム数Fが30ms/2ms=15フレームとして算出される。   The integrated spatio-temporal region determination unit 104 determines the number of integrated frames F that satisfies the integration condition (S503). That is, according to the above conditions, the integrated frame number F is calculated as 30 ms / 2 ms = 15 frames.

次に、動き領域解析部103が注目フレーム(図4(a))を中心として前後Fフレームの各フレーム内で、注目フレームの画像内の位置毎に画像の動きを求める(S504)。動きを求める位置は、画素単位であってもよいし、領域単位であってもよい。   Next, the motion region analysis unit 103 obtains an image motion for each position in the image of the frame of interest within each frame of the front and rear F frames centering on the frame of interest (FIG. 4A) (S504). The position for obtaining the motion may be a pixel unit or a region unit.

ここで、動きを求めるフレームの範囲を注目フレーム(図4(a))を中心とした前後Fフレームとしたが、これは、後述するS509の処理において、Fフレームのみの動きを求めただけでは、加算に有効な画素が含まれない場合があることを考慮したためである。このように、フレーム数F以上のフレームにおいて、各フレームでの動きを求めておくことにより、できるだけ加算に有効な画素を利用できるようにしておくためである。   Here, the range of the frame for which the motion is obtained is the front and rear F frame centered on the frame of interest (FIG. 4A). This is because the motion of only the F frame is obtained in the processing of S509 described later. This is because an effective pixel may not be included in the addition. As described above, in the frame having the number of frames F or more, the movement in each frame is obtained so that the pixels effective for addition can be used as much as possible.

なお、画像上の各位置での動きは、例えば、P.ANANDAN,“A Computational Framework and an Algorithm for the Measurement of Visual Motion”, IJCV, 2, 283-310(1989)で提案されている方法や動画像符号化で一般的に用いられる動き検出手法などを用いることができる。このため、動きの検出方法の詳細な説明についてはここでは繰り返さない。   The movement at each position on the image is, for example, the method proposed in P.ANANDAN, “A Computational Framework and an Algorithm for the Measurement of Visual Motion”, IJCV, 2, 283-310 (1989) A motion detection method or the like generally used in moving image coding can be used. For this reason, detailed description of the motion detection method will not be repeated here.

図5は、図4(a)の画像において、破線701で示した水平線上の画素値の時間変化を示した図である。すなわち、図5は、図4(b)〜図4(e)からも破線701と同一の水平線上である破線702〜705の画素値を抽出し、時間軸t方向に並べた画像である。図5中の横向きの破線701の位置は図4(a)のフレームの時刻に対応している。図5において横軸は図4(a)の破線701で示した水平線上の位置を示し、縦軸は時間の推移を下向きに示している。なお、図5には、破線701〜705上以外の画素値も表示されているが、実際には、図4(a)〜図4(e)に示した画像よりも密なフレームレートで画像が撮像されており、図5に示すような画像が得られるものとする。   FIG. 5 is a diagram showing temporal changes in pixel values on the horizontal line indicated by the broken line 701 in the image of FIG. That is, FIG. 5 is an image in which pixel values of broken lines 702 to 705 on the same horizontal line as the broken line 701 are extracted from FIGS. 4B to 4E and arranged in the time axis t direction. The position of the horizontal broken line 701 in FIG. 5 corresponds to the time of the frame in FIG. In FIG. 5, the horizontal axis indicates the position on the horizontal line indicated by the broken line 701 in FIG. 4A, and the vertical axis indicates the time transition downward. In FIG. 5, pixel values other than those on the broken lines 701 to 705 are also displayed. However, in actuality, the image is displayed at a frame rate denser than the images shown in FIGS. 4 (a) to 4 (e). , And an image as shown in FIG. 5 is obtained.

以後、画像の時間変化を平易に説明するために、図4(a)の画像の一部である図5が示す時空間に着目して本発明の動作を説明する。図4(a)の他の領域についても同等の処理が行なわれる。ここで、動き領域解析部103が求めた動き結果を図5中の矢印で示す。領域Aは静止しているため矢印は真下を向いている。同様に領域Cでも矢印は真下を向いている。一方、領域Bは、左から右に移動しているため、矢印は右下向きとなっている。   Hereinafter, the operation of the present invention will be described with a focus on the space-time shown in FIG. 5 which is a part of the image in FIG. The same processing is performed for the other regions in FIG. Here, the motion results obtained by the motion region analysis unit 103 are indicated by arrows in FIG. Since the area A is stationary, the arrow points directly below. Similarly, in the region C, the arrow points directly below. On the other hand, since the region B moves from left to right, the arrow points downward to the right.

次に、生成画素指定部102は、注目フレーム(ここでは図4(a)のフレーム)において、画素値の生成に用いられる画素位置を指定する(S505)。図6は、図5と同じ画像における各画素位置における動きの変化を示している。例えば、生成画素指定部102は、画素値の生成を行う位置を図中のPa0と指定する。   Next, the generated pixel specifying unit 102 specifies a pixel position used for generating a pixel value in the frame of interest (here, the frame in FIG. 4A) (S505). FIG. 6 shows a change in motion at each pixel position in the same image as FIG. For example, the generation pixel specifying unit 102 specifies the position where the pixel value is generated as Pa0 in the drawing.

積算時空間領域決定部104は、動き領域解析処理(S504)の結果(図5の矢印)と、積算フレーム数Fとに基づいて、Pa0に対応する他のフレーム位置を決定する(Pa1〜Pa14)(S506)。ここで動き領域解析の結果は主にPa0に対応する点の存在する向きを決定する為に用い、積算フレーム数Fは対応する点をどの時間範囲まで求めるかを決定する為に用いる。同様の手続でPb0についてはPb1〜Pb14をPc0についてはPc1〜Pc14を求める。   The integrated spatiotemporal region determination unit 104 determines another frame position corresponding to Pa0 based on the result of the motion region analysis process (S504) (arrow in FIG. 5) and the integrated frame number F (Pa1 to Pa14). (S506). Here, the result of the motion region analysis is mainly used to determine the direction in which the point corresponding to Pa0 exists, and the integrated frame number F is used to determine to what time range the corresponding point is to be obtained. In the same procedure, Pb1 to Pb14 are obtained for Pb0, and Pc1 to Pc14 are obtained for Pc0.

次に、前ステップで求めた各画素(Pa0〜Pa14、Pb0〜Pb14,Pc0〜Pc14など)に対して、画素判定部105が積算に用いるのに有効か否かの判定を行う(S507)。有効性の判定は撮影した画像の範囲から逸脱しないか、他の物体に隠蔽されていないか、画素値が大きく変化していないかなどを基準として行なわれる。ここで領域C上の点Pc0の場合、領域Bの移動によって途中から隠蔽が発生する。このため、隠蔽された部分の画素Pc9〜Pc14は無効と判定され、積算の対象から外される。   Next, for each pixel (Pa0 to Pa14, Pb0 to Pb14, Pc0 to Pc14, etc.) obtained in the previous step, it is determined whether or not the pixel determination unit 105 is effective for use in integration (S507). The determination of the effectiveness is performed based on whether it does not deviate from the range of the photographed image, is not concealed by another object, or has a large change in pixel value. Here, in the case of the point Pc0 on the region C, concealment occurs halfway through the movement of the region B. For this reason, the pixels Pc9 to Pc14 in the concealed portion are determined to be invalid and are excluded from integration targets.

Pa1〜Pa14と、Pb1〜Pb14とは、画像からの逸脱や隠蔽は発生していないが、画素値が大きく変化している点が存在する場合には、その点を無効画素と判定する。画素値が大きく変化しているか否かの判定方法としては、例えば、Pa0〜Pa14の画素値の平均mと分散σとを計算し、個々の画素の値をiとして、次式(1)を満たす場合に有効と判断する。   Although Pa1 to Pa14 and Pb1 to Pb14 do not deviate from or conceal from the image, if there is a point where the pixel value changes greatly, the point is determined as an invalid pixel. As a method for determining whether or not the pixel value has changed greatly, for example, an average m and a variance σ of pixel values Pa0 to Pa14 are calculated, and the value of each pixel is set to i, and the following equation (1) is obtained: Judgment is effective when it satisfies.

|i−m|<α・σ …(1)
(αは0より大きい実定数)
画素の値が変化する原因としては、映像中の照明強度や照明色の時間的変化、撮像時のカメラ内のノイズの影響、被写体の表面反射特性の変化、被写体の表面の向きの変化による反射光の変化、動き領域解析処理(S504)の誤り、および解析精度の限界などが考えられる。図7は、一時的に照明強度が変化した場合の画素値の時間変化を示す画像の一例である。図7では矢印Eで示した時刻において、自動車のヘッドライト等を撮像した等の影響により、画像全体で照明強度が大きくなり真白となっている。このような場合、この時刻の画像は積算対象画素から除く。
| I−m | <α · σ (1)
(Α is a real constant greater than 0)
Possible causes of pixel value changes include temporal changes in illumination intensity and color in the image, the effects of camera noise during imaging, changes in the surface reflection characteristics of the subject, and reflections due to changes in the orientation of the subject surface A change in light, an error in the motion region analysis process (S504), a limit of analysis accuracy, and the like are conceivable. FIG. 7 is an example of an image showing temporal changes in pixel values when the illumination intensity temporarily changes. In FIG. 7, at the time indicated by the arrow E, the illumination intensity increases in the entire image and becomes pure white due to the influence of imaging a headlight of an automobile or the like. In such a case, the image at this time is excluded from the integration target pixels.

画素が有効性を満たすと判断された場合には(S508でy)、後述するS509の処理が行なわれ、有効性を満たさないと判断された場合には(S508でn)、S506に移行する。このときS506では、新たな対応画素位置が決定される。例えば、Pc0に対する画素としてPc5が無効と判定された場合には、まだ有効性が評価されていないPc6が指定される。   If it is determined that the pixel satisfies the validity (y in S508), the process of S509 described later is performed. If it is determined that the pixel does not satisfy the validity (n in S508), the process proceeds to S506. . At this time, in S506, a new corresponding pixel position is determined. For example, when it is determined that Pc5 is invalid as a pixel for Pc0, Pc6 that has not yet been evaluated for effectiveness is designated.

画素値積算部106は、有効と判定された画素について積算を行う(S509)。例えば、着目している画素がPa0の場合には、Pa0〜Pa14の画素値を積算する。このとき、必要に応じて所定のゲインを乗じて積算しても良い。例えば、画素の無効判定によって、有効画素数が所定の15に達せず10となった場合には、他の周辺の画素の加算数に足りなくなる為、15/10=1.5を積算値に乗じることを行う。   The pixel value integration unit 106 performs integration for pixels determined to be valid (S509). For example, when the pixel of interest is Pa0, the pixel values Pa0 to Pa14 are integrated. At this time, a predetermined gain may be multiplied and integrated as necessary. For example, if the number of effective pixels does not reach the predetermined 15 and becomes 10 due to the pixel invalidity determination, the added number of other peripheral pixels is insufficient, so 15/10 = 1.5 is set as the integrated value. Do the multiplication.

次に、積算条件判定部107は、積算条件が満たされているかを判定する(S510)。この場合、積算数が15に達しているか否かを判定する。条件を満たす場合には(S510でy)、S511に移行し、条件を満たさない場合には(S510でn)、S506に戻り、不足する画素を補う為に新たな対応画素位置を決定する。例えば、Pc0に対応する新たな画素としては図6のPc−1,Pc−2,Pc−3などを選択する。このように注目フレームに対して必ずしも時間的に1方向の画素だけを選択する必要はなく、時間的に前後に位置する画素を選択してよい。   Next, the integration condition determination unit 107 determines whether the integration condition is satisfied (S510). In this case, it is determined whether or not the integrated number has reached 15. If the condition is satisfied (y in S510), the process proceeds to S511. If the condition is not satisfied (n in S510), the process returns to S506, and a new corresponding pixel position is determined to compensate for the insufficient pixel. For example, Pc-1, Pc-2, Pc-3, etc. in FIG. 6 are selected as new pixels corresponding to Pc0. As described above, it is not always necessary to select only pixels in one direction in terms of time with respect to the frame of interest, and pixels located in front of and behind in time may be selected.

積算条件が満たされている場合には(S510でy)、積算して得られた画素値を注目フレームの注目画素の画素値として出力する(S511)。   If the integration condition is satisfied (y in S510), the pixel value obtained by the integration is output as the pixel value of the target pixel of the target frame (S511).

積算条件判定部107は、注目フレームの全ての画素について積算値を得たか否かの判定を行い(S512)、積算値を得ていない画素がある場合にはS505に移行し、全ての画素値を得ている場合にはS513に移行する。   The integration condition determination unit 107 determines whether or not an integration value has been obtained for all pixels of the frame of interest (S512). If there is a pixel that has not obtained an integration value, the process proceeds to S505, where all pixel values are obtained. If it is obtained, the process proceeds to S513.

積算条件判定部107は、連続する全てのフレームについて処理したか否かの判定を行い(S513)、全てのフレームの処理が終わっていない場合には、未処理の新たなフレームを処理する為にS501に移行し、全てのフレームの処理が終わった場合に、全体の処理を終了する。   The integration condition determination unit 107 determines whether or not all consecutive frames have been processed (S513). If processing of all frames has not been completed, the unprocessed new frame is processed. The process proceeds to S501, and when all the frames have been processed, the entire process ends.

図4(a)に示したフレームに対しては、最終的に図8に示すようなS/N比が改善された画像が得られる。   For the frame shown in FIG. 4A, an image with an improved S / N ratio as shown in FIG. 8 is finally obtained.

ここで、連続するフレームについて上記の処理を行う場合には、対応する画素同士については時間的な加算範囲が一部重複する場合がある。このため積算時間範囲がフレーム間の時間間隔よりも長い場合には、重複する積算結果を一時保存しておくことで、積算に要する計算時間を削減することが可能となる。図9を用いて、この点について説明する。図9でPb0の積算画素値を求める為には、破線で示された矢印801の範囲に存在する画素を積算することになる。ここで、破線の矢印領域のうちPb1より下に位置する部分の積算値S0を一時的に保存しておくことにより、次にPb1の積算画素値を求める為には、新たに実線の矢印の部分の積算値を計算して積算値S0に加算することにより、Pb1の積算画素値を求めることが可能となる。このため、積算値S0の計算に係る処理時間が短縮される。   Here, in the case where the above-described processing is performed for successive frames, there is a case where the temporal addition ranges partially overlap for corresponding pixels. For this reason, when the integration time range is longer than the time interval between frames, it is possible to reduce the calculation time required for integration by temporarily storing overlapping integration results. This point will be described with reference to FIG. In order to obtain the integrated pixel value of Pb0 in FIG. 9, pixels existing in the range of the arrow 801 indicated by the broken line are integrated. Here, in order to obtain the integrated pixel value of Pb1 next by temporarily storing the integrated value S0 of the portion below Pb1 in the broken-line arrow area, a new solid-line arrow By calculating the partial integrated value and adding it to the integrated value S0, the integrated pixel value of Pb1 can be obtained. For this reason, the processing time concerning calculation of integrated value S0 is shortened.

以上説明したように、本実施の形態によると、複数フレームから動き領域解析に基づいて対応する画素値を選択し、更に有効な画素を選択的に加算することにより、各画素の輝度信号に含まれるノイズ成分を相殺させることが可能となり、かつ有効な画素が有する真の輝度値とノイズとの比(S/N比)を大きくさせることが可能となる。   As described above, according to the present embodiment, a corresponding pixel value is selected from a plurality of frames based on motion region analysis, and further, effective pixels are selectively added to be included in the luminance signal of each pixel. It is possible to cancel the noise component that is generated, and it is possible to increase the ratio (S / N ratio) between the true luminance value and the noise of an effective pixel.

しかも、暗い場所で被写体が様々な動きをしている場合にでも、積算数を増すことで、動きブレがなく明るい映像を得ることが可能となる。従来、異なる動きを含む被写体の動きブレを抑える為には、短い露出時間で被写体を撮影する必要があった。しかし、露出時間が短くなると暗い場所では図10(a)のように対象物の輝度(信号成分)に対してカメラ等で発生するノイズ成分が相対的に大きくなる。このため、S/N比が低下することにより、画質が低下していた。一方、本願発明を用いると図10(b)のような画像を連続する各フレームについてそれぞれ得ることが可能となり、暗い場所でも被写体の動きブレを抑えてS/N比の高い映像を得ることが可能となる。   In addition, even when the subject moves in a dark place, it is possible to obtain a bright image without motion blur by increasing the integration number. Conventionally, in order to suppress motion blur of a subject including different motions, it has been necessary to photograph the subject with a short exposure time. However, when the exposure time is shortened, in a dark place, as shown in FIG. 10A, the noise component generated by the camera or the like becomes relatively large with respect to the luminance (signal component) of the object. For this reason, the image quality has been lowered due to a decrease in the S / N ratio. On the other hand, when the present invention is used, it is possible to obtain an image as shown in FIG. 10B for each successive frame, and it is possible to obtain a video with a high S / N ratio by suppressing motion blur of a subject even in a dark place. It becomes possible.

なお、本実施の形態では移動物体が1つの場合を想定して説明を行なったが、動きの異なる複数の被写体が存在する場合であっても、被写体ごとに動きを求めて画素値の累算を行なっている。このため、このような場合であっても、動きブレのがなく、かつS/N比が高い映像を得ることができる。   In this embodiment, the description has been made on the assumption that there is one moving object. However, even when there are a plurality of subjects having different motions, the motion is obtained for each subject and the pixel values are accumulated. Is doing. For this reason, even in such a case, an image having no motion blur and a high S / N ratio can be obtained.

以上、本実施の形態に係る画像生成システムについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。   The image generation system according to the present embodiment has been described based on the embodiment, but the present invention is not limited to this embodiment.

例えば、上述の実施の形態では、積算条件指定部108は、積算条件として露出時間を指定していたが、結果として得たいS/N比を指定することも可能である。S/N比を指定する場合、結果として得られる動画像の画質をより直感的に指定できるという利点がある。この場合、撮像装置210から発生するノイズ成分は、例えば、光を遮断した状態での撮像装置210の画素値をあらかじめ計測しておき、これをノイズ成分Nとする。一方、積算処理(S509)により得られる画素値の最大値や平均値を信号成分Sとして、積算条件判断処理(S510)において、S/N比を都度計算し、S/N比が所望の値に達した時点で、積算条件を満たしたと判断し、積算を終了するようにする。   For example, in the above-described embodiment, the integration condition specifying unit 108 specifies the exposure time as the integration condition, but it is also possible to specify the S / N ratio to be obtained as a result. When the S / N ratio is designated, there is an advantage that the image quality of the resulting moving image can be designated more intuitively. In this case, for the noise component generated from the imaging device 210, for example, the pixel value of the imaging device 210 in a state where light is blocked is measured in advance, and this is set as the noise component N. On the other hand, the maximum value or the average value of the pixel values obtained by the integration process (S509) is used as the signal component S, and in the integration condition determination process (S510), the S / N ratio is calculated each time, and the S / N ratio is a desired value. Is reached, it is determined that the integration condition is satisfied, and the integration is terminated.

また、他の積算条件としては、積算処理にかかる時間の最大値Tを用いてもよい。この場合、図3に示した処理が開始してから(S501の処理から)の処理時間が、時間Tに達するか否かを積算条件判定処理(S510)において判定し、時間Tを超えた時点で、強制的に積算条件を満たしたとの判定を行ない、画素値の加算を終了するようにしても良い。このような条件を用いることで一定の時間遅れを持った準リアルタイム処理が可能となり、画像生成装置230を既存の画像伝送・記録・表示装置と容易に接続して使用することが可能となる。   Further, as another integration condition, the maximum time T required for the integration process may be used. In this case, when the processing time from the start of the processing shown in FIG. 3 (from the processing of S501) reaches the time T, it is determined in the integration condition determination processing (S510), and the time when the time T is exceeded. Thus, it may be determined that the integration condition is forcibly satisfied, and the addition of the pixel values may be terminated. By using such conditions, near real-time processing with a certain time delay is possible, and the image generation device 230 can be easily connected to an existing image transmission / recording / display device.

さらに、積算条件としては、加算処理に必要な一時的な画像記憶装置(図示せず)の容量を指定しても良い。これは、注目フレームに対して積算処理を行う為には、前後のフレーム画像を保持しておく必要があるが、積算数が多くなればなるほど大量の記憶容量を必要とするため、一定の限界を設ける必要があるためである。ここで、画像記憶装置は「一時記憶手段」に対応する。   Furthermore, as the integration condition, a temporary capacity of an image storage device (not shown) necessary for the addition process may be designated. This is because it is necessary to hold the previous and next frame images in order to perform the integration process on the frame of interest, but the larger the integration number, the greater the storage capacity required. This is because it is necessary to provide. Here, the image storage device corresponds to “temporary storage means”.

さらにまた、上述した複数の積算条件を組み合わせて、当該複数の条件のうち少なくとも1つ以上が成り立った場合に、画素値の加算を終了するようにしても良い。   Furthermore, combining the plurality of integration conditions described above may end the addition of pixel values when at least one of the plurality of conditions is satisfied.

なお、撮像装置210としてはフレームレートおよびシャッタースピードが高速なカメラを用いることが望ましい。このようなカメラを用いることにより、個々のフレームでの動きブレが発生しにくくなる。このため、フレーム間での動きの解析が行いやすくなる。   Note that it is desirable to use a camera with a high frame rate and shutter speed as the imaging device 210. By using such a camera, motion blur in individual frames is less likely to occur. This makes it easier to analyze the motion between frames.

一般に、高速カメラの映像は単位時間あたりの情報量が多くなり、画像の伝送や記録が困難であるが、本発明の処理を行った後、通常のビデオやテレビと同等のフレームレートの画像を出力することにより、画像伝送や画像記録に既存の機器やシステムを流用でき、しかもS/N比の高い映像をえることが可能となる。   In general, high-speed camera images have a large amount of information per unit time, and it is difficult to transmit and record images. By outputting, existing devices and systems can be used for image transmission and image recording, and an image with a high S / N ratio can be obtained.

また、カメラのノイズ低減の効果、すなわちS/N比の改善は、ノイズが時間的または空間的にランダムな性質を有している場合に、より期待できる。これは、ノイズがランダムな性質を有することにより、数フレームにわたり画素値を累積することにより、ノイズの影響を低減させることができるからである。   Further, the effect of reducing the noise of the camera, that is, the improvement of the S / N ratio can be expected more when the noise has a temporally or spatially random property. This is because the influence of noise can be reduced by accumulating pixel values over several frames due to the random nature of noise.

なお、本発明の画像生成装置が行なう画像生成処理の一部または全部は、専用の機器で行わせるようにしてもよいし、コンピュータ端末装置や、基地局等に配置される通信機器や、スタンドアロンのコンピュータに内蔵されるCPUが画像生成処理プログラムを実行することによって、画像生成処理を行うようにしてもよい。   Note that part or all of the image generation processing performed by the image generation apparatus of the present invention may be performed by a dedicated device, a computer terminal device, a communication device arranged in a base station, or a stand-alone device. The CPU built in the computer may execute the image generation processing program to execute the image generation processing.

また、図1に示した画像生成システム200の構成のうち、表示装置240を除いた構成を用いて、図11に示すようなカメラ300として、単体の装置として本発明を実現してもよい。   Further, the present invention may be realized as a single device as the camera 300 as shown in FIG. 11 using the configuration excluding the display device 240 in the configuration of the image generation system 200 shown in FIG.

さらに、図11に示したカメラ300に表示装置240を付加することにより、動画像録画・再生機能付きのカメラとして実現しても良い。これらの場合、最終的に出力・表示される動画像のフレームレートは通常の30fps(フレーム/秒)程度でよいが、内部の画像処理に用いられる画像列のフレームレートを必要に応じて高いフレームレートとすることにより、動き領域の解析等を行いやすくすることができる。   Furthermore, a display device 240 may be added to the camera 300 shown in FIG. 11 to realize a camera with a moving image recording / playback function. In these cases, the frame rate of the finally output / displayed moving image may be about 30 fps (frame / second), but the frame rate of the image sequence used for the internal image processing is set to a high frame if necessary. By setting the rate, it is possible to facilitate analysis of the motion region and the like.

また、図1に示した画像生成システム200の構成のうち、撮像装置210を除いた構成を用いて、図12に示すようにテレビなどのディスプレイ機器400として本発明を実現しても良い。この場合、あらかじめ録画してある画像のS/N比を向上させて表示することが可能になる。   Further, the present invention may be realized as a display device 400 such as a television as shown in FIG. 12 using a configuration excluding the imaging device 210 in the configuration of the image generation system 200 shown in FIG. In this case, the S / N ratio of an image recorded in advance can be improved and displayed.

なお、上述の実施の形態では、画像中の移動物体(図4中の領域B)が水平方向に動くことを前提として、画像生成処理の説明を行なったが、実際には、移動物体は水平方向の動きのみならず、上下方向やそれ以外の自由な方向の動きを行なう。このため、図5に示したような移動物体の時間変化は、図13に示すような3次元画像により表現される。すなわち、図13では、領域Bが右上方向に移動し、さらに、右下方向に移動する場合の移動物体の時間変化を3次元画像として示している。このような場合に、領域B上の点P0は、数フレーム後にP1に移動し、さらに数フレーム後にP2に移動する。したがって、P0の画素値を求めるためには、3次元画像中でP0に対応する位置であるP1およびP2の画素値を用いて積算を行なう。   In the above-described embodiment, the image generation process has been described on the assumption that the moving object (region B in FIG. 4) in the image moves in the horizontal direction. It moves not only in the direction but also in the vertical direction and other free directions. Therefore, the time change of the moving object as shown in FIG. 5 is expressed by a three-dimensional image as shown in FIG. That is, in FIG. 13, the time change of the moving object when the area B moves in the upper right direction and further in the lower right direction is shown as a three-dimensional image. In such a case, the point P0 on the region B moves to P1 after several frames, and further moves to P2 after several frames. Therefore, in order to obtain the pixel value of P0, integration is performed using the pixel values of P1 and P2, which are positions corresponding to P0 in the three-dimensional image.

本発明は、異なる動きをする複数の被写体を撮影する際に、被写体の動きブレを抑えながら、S/N比を高めた画像を得ることができる画像生成装置に適用でき、特に、ビデオカメラやデジタルカメラなどの映像撮影機器や、映像を録画しかつ再生する機器や、蓄積された映像を表示するモニタ装置等に適用できる。   INDUSTRIAL APPLICABILITY The present invention can be applied to an image generation apparatus that can obtain an image with an increased S / N ratio while suppressing motion blur of a subject when shooting a plurality of subjects that move differently. The present invention can be applied to a video photographing device such as a digital camera, a device that records and reproduces video, a monitor device that displays accumulated video, and the like.

本発明の実施の形態に係る画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image generation system which concerns on embodiment of this invention. 図1に示した画像生成システムにおける画像生成装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the image generation apparatus in the image generation system shown in FIG. 画像生成装置の実行する処理のフローチャートである。It is a flowchart of the process which an image generation apparatus performs. (a)〜(e)は、本実施の形態に係る撮像装置により撮像された移動物体を含む画像の一例を示す図であり、(f)は、従来の撮像装置により撮像された移動物体を含む画像の一例を示す図である。(A)-(e) is a figure which shows an example of the image containing the moving object imaged with the imaging device which concerns on this Embodiment, (f) shows the moving object imaged with the conventional imaging device. It is a figure which shows an example of the image containing. 移動物体を含む動画像の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the moving image containing a moving object. 移動物体を含む動画像の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the moving image containing a moving object. 移動物体を含む動画像の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the moving image containing a moving object. 画像生成装置による処理結果を示す図である。It is a figure which shows the processing result by an image generation apparatus. 移動物体を含む動画像の時間変化の一例を示す図である。It is a figure which shows an example of the time change of the moving image containing a moving object. (a)は、短時間の露出で得られるあるフレームの画像の一例を示す図であり、(b)は、本発明の実施の形態で得られるフレーム画像の一例を示す図である。(A) is a figure which shows an example of the image of a certain frame obtained by exposure for a short time, (b) is a figure which shows an example of the frame image obtained by embodiment of this invention. 本発明の実施の形態に係るカメラの構成を示す図である。It is a figure which shows the structure of the camera which concerns on embodiment of this invention. 本発明の実施の形態に係るディスプレイ機器の構成を示す図である。It is a figure which shows the structure of the display apparatus which concerns on embodiment of this invention. 移動物体を含む動画像の時間変化を3次元的に示した図である。It is the figure which showed the time change of the moving image containing a moving object three-dimensionally. 従来の画像加算方法を示すフローチャートである。It is a flowchart which shows the conventional image addition method.

符号の説明Explanation of symbols

101 画像入力部
102 生成画素指定部
103 動き領域解析部
104 積算時空間領域決定部
105 画素判定部
106 画素値積算部
107 積算条件判定部
108 積算条件指定部
109 画像出力部
200 画像生成システム
210 撮像装置
220 画像記憶装置
230 画像生成装置
240 表示装置
300 カメラ
400 ディスプレイ機器
701〜705 破線
DESCRIPTION OF SYMBOLS 101 Image input part 102 Generation | occurrence | production pixel designation | designated part 103 Motion region analysis part 104 Integration space-time area | region determination part 105 Pixel determination part 106 Pixel value integration part 107 Integration condition determination part 108 Integration condition designation part 109 Image output part 200 Image generation system 210 Imaging Device 220 Image storage device 230 Image generation device 240 Display device 300 Camera 400 Display device 701 to 705 Broken line

Claims (16)

時間的に連続する複数の画像に基づいて、前記複数の画像のうちの着目画像に含まれる複数の画素の各々の動きを算出する動き算出手段と、
前記着目画像に含まれる各画素について、前記各画素の動きに基づいて、当該各画素に対応する画素位置を前記複数の画像の各々について特定する画素位置特定手段と、
前記着目画像に含まれる各画素について、前記複数の画像における前記各画素に対応する画素位置における画素値を加算することにより、前記着目画像の各画素の画素値を補正する画素値補正手段と
を備えることを特徴とする画像生成装置。
Based on a plurality of temporally continuous images, motion calculating means for calculating the motion of each of the plurality of pixels included in the image of interest among the plurality of images;
For each pixel included in the image of interest, pixel position specifying means for specifying a pixel position corresponding to each pixel for each of the plurality of images based on the movement of each pixel;
Pixel value correction means for correcting the pixel value of each pixel of the image of interest by adding pixel values at pixel positions corresponding to the pixels of the plurality of images for each pixel included in the image of interest; An image generation apparatus comprising:
前記画素値補正手段は、
前記着目画像に含まれる各画素について、前記各画素の画素値と当該各画素に対応する画素位置における画素値とを比較し、前記画素位置における画素値を加算対象とするか否かを判定する画素判定部と、
前記画素判定部において加算対象とされた画素位置における画素値を加算する加算部とを有する
ことを特徴とする請求項1に記載の画像生成装置。
The pixel value correcting means includes
For each pixel included in the image of interest, the pixel value of each pixel is compared with the pixel value at the pixel position corresponding to each pixel to determine whether the pixel value at the pixel position is to be added. A pixel determination unit;
The image generation apparatus according to claim 1, further comprising: an addition unit that adds pixel values at pixel positions that are added by the pixel determination unit.
前記画素値補正手段は、さらに、所定の条件を満たすか否かを判定する条件判定部を備え、
前記加算部は、前記所定の条件を満たすまで加算処理を行なう
ことを特徴とする請求項2に記載の画像生成装置。
The pixel value correcting unit further includes a condition determining unit that determines whether or not a predetermined condition is satisfied,
The image generation apparatus according to claim 2, wherein the addition unit performs addition processing until the predetermined condition is satisfied.
前記条件判定部は、前記着目画像に含まれる各画素について、前記加算部において加算される前記画素値の個数が所定フレーム数に達したか否かを判定し、
前記加算部は、前記画素値の個数が所定フレーム数に達するまで加算処理を行なう
ことを特徴とする請求項3に記載の画像生成装置。
The condition determining unit determines whether or not the number of the pixel values added in the adding unit has reached a predetermined number of frames for each pixel included in the image of interest,
The image generation apparatus according to claim 3, wherein the addition unit performs addition processing until the number of pixel values reaches a predetermined number of frames.
前記加算部は、前記着目画像の時間的に前に位置する画像より対応する画素位置の画素値を選択して、加算する
ことを特徴とする請求項4に記載の画像生成装置。
The image generation apparatus according to claim 4, wherein the adding unit selects and adds a pixel value at a corresponding pixel position from an image positioned temporally before the target image.
前記条件判定部は、前記着目画像に含まれる各画素について、前記加算部において加算することにより求められる値と所定のノイズ値との比が、所定のしきい値よりも大きいか否かを判定し、
前記加算部は、前記加算することにより求められる値と前記所定のノイズ値との比が、前記所定のしきい値よりも大きくなるまで加算処理を行なう
ことを特徴とする請求項3に記載の画像生成装置。
The condition determining unit determines whether a ratio between a value obtained by adding in the adding unit and a predetermined noise value is greater than a predetermined threshold for each pixel included in the target image. And
The said addition part performs an addition process until the ratio of the value calculated | required by the said addition and the said predetermined noise value becomes larger than the said predetermined threshold value. Image generation device.
前記条件判定部は、前記着目画像に含まれる各画素について、前記加算部において加算された画素値の平均値と前記所定のノイズ値との比が、前記所定のしきい値よりも大きいか否かを判定する
ことを特徴とする請求項6に記載の画像生成装置。
The condition determination unit determines whether a ratio between an average value of pixel values added by the addition unit and the predetermined noise value is greater than the predetermined threshold value for each pixel included in the target image. The image generation apparatus according to claim 6, wherein the image generation apparatus determines whether or not the image is generated.
前記条件判定部は、前記着目画像に含まれる各画素について、前記加算部において加算された画素値のうちの最大値と前記所定のノイズ値との比が、前記所定のしきい値よりも大きいか否かを判定する
ことを特徴とする請求項6に記載の画像生成装置。
The condition determining unit has a ratio between a maximum value of pixel values added by the adding unit and the predetermined noise value for each pixel included in the image of interest greater than the predetermined threshold value. It is determined whether it is. The image generation apparatus of Claim 6 characterized by the above-mentioned.
さらに、前記所定のノイズ値を予め記憶するノイズ値記憶手段を備える
ことを特徴とする請求項6〜8のいずれか1項に記載の画像生成装置。
The image generation apparatus according to claim 6, further comprising a noise value storage unit that stores the predetermined noise value in advance.
前記条件判定部は、前記着目画像に含まれる各画素について、前記加算部における加算処理時間が所定のしきい値よりも大きいか否かを判定し、
前記加算部は、前記加算処理時間が所定のしきい値を超えるまで加算処理を行なう
ことを特徴とする請求項3に記載の画像生成装置。
The condition determination unit determines whether or not the addition processing time in the addition unit is greater than a predetermined threshold for each pixel included in the image of interest,
The image generation apparatus according to claim 3, wherein the addition unit performs addition processing until the addition processing time exceeds a predetermined threshold value.
さらに、前記加算部における加算処理に用いられる前記複数の画像を記憶する一時記憶手段を備え、
前記条件判定部は、前記一時記憶手段に記憶された前記複数の画像の容量が所定のしきい値よりも大きいか否かを判定し、
前記加算部は、前記一時記憶手段に記憶された前記複数の画像の容量が前記所定のしきい値を超えるまで加算処理を行なう
ことを特徴とする請求項3に記載の画像生成装置。
Furthermore, it comprises temporary storage means for storing the plurality of images used for the addition processing in the addition unit,
The condition determination unit determines whether or not the capacity of the plurality of images stored in the temporary storage unit is larger than a predetermined threshold value,
The image generation apparatus according to claim 3, wherein the addition unit performs an addition process until a capacity of the plurality of images stored in the temporary storage unit exceeds the predetermined threshold value.
前記画素値補正手段は、さらに、前記着目画像に含まれる各画素について、前記加算部において加算される前記画素値の個数が所定フレーム数に達したか否かを判定する条件判定部を備え、
前記加算部は、加算される前記画素値の個数が前記所定フレーム数に達しなかった場合には、前記所定フレーム数と前記画素値の個数との比に基づいて、前記加算結果を補正する
ことを特徴とする請求項2に記載の画像生成装置。
The pixel value correcting unit further includes a condition determining unit that determines whether or not the number of the pixel values added in the adding unit reaches a predetermined number of frames for each pixel included in the image of interest,
The adding unit corrects the addition result based on a ratio between the predetermined number of frames and the number of pixel values when the number of added pixel values does not reach the predetermined number of frames. The image generating apparatus according to claim 2.
前記画素判定部は、
前記各画素の画素値と当該各画素に対応する画素位置における画素値との平均値を算出する平均値算出部と、
前記各画素の画素値と当該各画素に対応する画素位置における画素値との分散を算出する分散算出部と、
前記対応する画素位置における画素値と前記平均値との差の絶対値が、前記分散と所定の定数との乗算値未満の場合に、前記画素位置における画素値を加算対象と判定する加算対象判定部とを有する
ことを特徴とする請求項2〜12のいずれか1項に記載の画像生成装置。
The pixel determination unit
An average value calculating unit that calculates an average value of the pixel value of each pixel and the pixel value at the pixel position corresponding to each pixel;
A variance calculating unit that calculates a variance between a pixel value of each pixel and a pixel value at a pixel position corresponding to each pixel;
Addition target determination that determines a pixel value at the pixel position as an addition target when an absolute value of a difference between the pixel value at the corresponding pixel position and the average value is less than a multiplication value of the variance and a predetermined constant The image generating apparatus according to claim 2, wherein the image generating apparatus includes:
前記加算部は、前記着目画像よりも時間的に前方の画像および後方の画像の双方の画像を用いて、加算処理を行なう
ことを特徴とする請求項2〜13のいずれか1項に記載の画像生成装置。
The said addition part performs an addition process using the image of both the image ahead and the back image temporally rather than the said attention image. Image generation device.
時間的に連続する複数の画像に基づいて、前記複数の画像のうちの着目画像に含まれる複数の画素の各々の動きを算出する動き算出ステップと、
前記着目画像に含まれる各画素について、前記各画素の動きに基づいて、当該各画素に対応する画素位置を前記複数の画像の各々について特定する画素位置特定ステップと、
前記着目画像に含まれる各画素について、前記複数の画像における前記各画素に対応する画素位置における画素値を加算することにより、前記着目画像の各画素の画素値を補正する画素値補正ステップと
を含むことを特徴とする画像生成方法。
Based on a plurality of temporally continuous images, a motion calculation step of calculating the motion of each of the plurality of pixels included in the image of interest among the plurality of images;
For each pixel included in the image of interest, based on the movement of each pixel, a pixel position specifying step for specifying a pixel position corresponding to each pixel for each of the plurality of images;
For each pixel included in the image of interest, a pixel value correction step of correcting the pixel value of each pixel of the image of interest by adding pixel values at pixel positions corresponding to the pixels of the plurality of images. An image generation method comprising:
時間的に連続する複数の画像に基づいて、前記複数の画像のうちの着目画像に含まれる複数の画素の各々の動きを算出する動き算出ステップと、
前記着目画像に含まれる各画素について、前記各画素の動きに基づいて、当該各画素に対応する画素位置を前記複数の画像の各々について特定する画素位置特定ステップと、
前記着目画像に含まれる各画素について、前記複数の画像における前記各画素に対応する画素位置における画素値を加算することにより、前記着目画像の各画素の画素値を補正する画素値補正ステップとをコンピュータに実行させる
ことを特徴とするプログラム。
Based on a plurality of temporally continuous images, a motion calculation step of calculating the motion of each of the plurality of pixels included in the image of interest among the plurality of images;
For each pixel included in the image of interest, based on the movement of each pixel, a pixel position specifying step for specifying a pixel position corresponding to each pixel for each of the plurality of images;
For each pixel included in the image of interest, a pixel value correction step of correcting the pixel value of each pixel of the image of interest by adding pixel values at pixel positions corresponding to the pixels of the plurality of images. A program characterized by being executed by a computer.
JP2004373644A 2004-12-24 2004-12-24 Image generating apparatus and image generating method Pending JP2006180382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004373644A JP2006180382A (en) 2004-12-24 2004-12-24 Image generating apparatus and image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004373644A JP2006180382A (en) 2004-12-24 2004-12-24 Image generating apparatus and image generating method

Publications (1)

Publication Number Publication Date
JP2006180382A true JP2006180382A (en) 2006-07-06

Family

ID=36734034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004373644A Pending JP2006180382A (en) 2004-12-24 2004-12-24 Image generating apparatus and image generating method

Country Status (1)

Country Link
JP (1) JP2006180382A (en)

Similar Documents

Publication Publication Date Title
US9544505B2 (en) Image processing apparatus for synthesizing images based on a plurality of exposure time periods and image processing method thereof
JP4215267B2 (en) Image generating apparatus and image generating method
Ben-Ezra et al. Motion deblurring using hybrid imaging
JP5226600B2 (en) Image deformation apparatus and operation control method thereof
KR101426095B1 (en) Image processing device, image picking-up device, and image processing method
US20080112644A1 (en) Imaging device
US20080291300A1 (en) Image processing method and image processing apparatus
JP2012234393A (en) Image processing device, image processing method, and program
JP2010166558A (en) Image forming apparatus
JP2010063088A (en) Imaging apparatus
US8194141B2 (en) Method and apparatus for producing sharp frames with less blur
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP5177284B2 (en) Subject motion detection apparatus and method
WO2019146226A1 (en) Image processing device, output information control method, and program
JP2010200178A (en) Image processing device, image processing method, image processing program, and program storage medium storing image processing program
JP2006180382A (en) Image generating apparatus and image generating method
JPH06133298A (en) Motion vector detector
KR102182696B1 (en) Image processing apparatus and image processing method
US8125527B2 (en) Motion detection apparatus
JP5230362B2 (en) Wide dynamic range imaging device
JP4354073B2 (en) Method and apparatus for improving image quality of moving object image
JP2009047735A (en) Imaging apparatus and image processing program
JP2012186718A (en) Image processing device, image processing method, program and recording medium
JP2015186198A (en) imaging device
JP2009253808A (en) Image processor, imaging device, method for processing image and program