JPWO2010150681A1 - Image input device - Google Patents

Image input device Download PDF

Info

Publication number
JPWO2010150681A1
JPWO2010150681A1 JP2011519789A JP2011519789A JPWO2010150681A1 JP WO2010150681 A1 JPWO2010150681 A1 JP WO2010150681A1 JP 2011519789 A JP2011519789 A JP 2011519789A JP 2011519789 A JP2011519789 A JP 2011519789A JP WO2010150681 A1 JPWO2010150681 A1 JP WO2010150681A1
Authority
JP
Japan
Prior art keywords
signal
frame
image input
processing
luminance signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011519789A
Other languages
Japanese (ja)
Other versions
JP5704069B2 (en
Inventor
清 高
清 高
洪 博哲
博哲 洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Advanced Layers Inc
Original Assignee
Konica Minolta Advanced Layers Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Advanced Layers Inc filed Critical Konica Minolta Advanced Layers Inc
Priority to JP2011519789A priority Critical patent/JP5704069B2/en
Publication of JPWO2010150681A1 publication Critical patent/JPWO2010150681A1/en
Application granted granted Critical
Publication of JP5704069B2 publication Critical patent/JP5704069B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations

Abstract

簡素な構成でありながら、エッジのボケを防ぎつつ動画のノイズ除去を行える画像入力装置を提供することを目的とし、検出手段が、時間的に連続する複数のフレームにおける処理対象フレームと前記処理対象フレームに対し時間的に先行するフレーム間の被写体の変化を所定の領域毎に検出し、被写体の変化に応じて複数の状態に分類し、処理手段が、前記処理対象フレームにおける前記輝度信号及び前記色度信号の少なくとも一方を、所定数の前記先行するフレームの対応する前記輝度信号及び前記色度信号の少なくとも一方を用いて、前記所定の領域毎にそれぞれ平均化処理すると共に、画像データ形成手段が処理手段によって処理された前記輝度信号と前記色度信号とを合成して、処理対象フレームに対応する画像データを形成する。An object of the present invention is to provide an image input device that can remove noise from a moving image while preventing edge blur while having a simple configuration. A change in the subject between frames that temporally precedes the frame is detected for each predetermined region, and is classified into a plurality of states according to the change in the subject. At least one of the chromaticity signals is averaged for each of the predetermined areas using at least one of the luminance signal and the chromaticity signal corresponding to a predetermined number of the preceding frames, and image data forming means Is combined with the luminance signal and the chromaticity signal processed by the processing means to form image data corresponding to the processing target frame

Description

本発明は、撮像素子等の撮像手段を備えた画像入力装置に関し、特に動画の撮像に適した画像入力装置に関するものである。   The present invention relates to an image input apparatus provided with an imaging means such as an image sensor, and more particularly to an image input apparatus suitable for capturing a moving image.

複数枚の静止画を連続して撮影して複数枚のフレームを作成し、これを所定の時間間隔で切り換えて表示することにより被写体の動きを示す動画が得られる。ところで、撮像時における撮像条件は常に一定とは限らず、又それに加えて撮像素子の暗電流や画像処理などの影響により、フレームを形成する過程でしばしばノイズが発生する。フレームよりノイズを除去する方策としては、複数のフレーム間の平均を求める方法が用いられているが、時間方向に動きの早いエッジ部分がボケてしまうという問題がある。   A plurality of still images are continuously photographed to create a plurality of frames, which are switched at predetermined time intervals and displayed, thereby obtaining a moving image showing the movement of the subject. By the way, the imaging conditions at the time of imaging are not always constant, and in addition, noise is often generated in the process of forming a frame due to the influence of the dark current of the imaging device, image processing, and the like. As a measure for removing noise from the frame, a method of obtaining an average between a plurality of frames is used, but there is a problem that an edge portion that moves quickly in the time direction is blurred.

これに対し特許文献1には、各フレームをそれぞれ異なる解像度スケールを持つ複数のフィルタで分析し、各解像度スケールごとの各分析画像について、それぞれ当該解像度にしたがって設定された数のフレーム間の移動平均を移動平均手段において求め、その移動平均を求めるフレーム数を、低い解像度スケールで分析された画像ほど多数のフレーム間で移動平均を求めるようにし、その移動平均手段により求められた前記各解像度スケールごとの画像を合成し、元の動画像系列に基づいた動画像を得ることで、エッジのボケを防ぎながらノイズを除去する技術が開示されている。   On the other hand, in Patent Document 1, each frame is analyzed by a plurality of filters having different resolution scales, and a moving average between a number of frames set according to the resolution of each analysis image for each resolution scale. In the moving average means, the number of frames for which the moving average is obtained is determined so that the moving average is obtained among a larger number of frames as the image is analyzed on the lower resolution scale, and each resolution scale obtained by the moving average means is obtained. A technique is disclosed in which noise is removed while blurring of edges is prevented by synthesizing these images and obtaining a moving image based on the original moving image sequence.

特開平08−154188号公報Japanese Patent Laid-Open No. 08-154188

ところが、特許文献1の従来技術によれば、各フレームをそれぞれ異なる解像度スケールを持つ複数のフィルタで分析しなくてはならず、処理に時間がかかると共に、高価なフィルタを用いることによりコストの増大を招くという問題がある。また、特許文献1の技術では、被写体が大きく変化した場合には、対応できないという問題もある。   However, according to the prior art of Patent Document 1, each frame must be analyzed by a plurality of filters having different resolution scales, which takes time to process and increases costs by using expensive filters. There is a problem of inviting. In addition, the technique disclosed in Patent Document 1 has a problem that it cannot cope with a large change in the subject.

本発明は、上述の問題に鑑みてなされたものであり、簡素な構成でありながら、エッジのボケを防ぎつつ動画のノイズ除去を行える画像入力装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an image input apparatus that can remove noise from a moving image while preventing edge blurring with a simple configuration.

請求項1に記載の画像入力装置は、
被写体光を入射して画像信号に変換する撮像手段と、
前記撮像手段から順次出力された画像信号を、フレーム毎に輝度信号と色度信号に分離する分離手段と、
時間的に連続する複数のフレームにおける処理対象フレームと前記処理対象フレームに対し時間的に先行するフレーム間の被写体の変化を所定の領域毎に検出し、被写体の変化に応じて複数の状態に分類する検出手段と、
前記分離手段によって分離された、前記処理対象フレームにおける輝度信号及び色度信号の少なくとも一方に対して、所定数の前記先行するフレームの対応する輝度信号及び色度信号の少なくとも一方を用いて、前記所定の領域毎にそれぞれ、前記検出手段による分類に応じて異なる平均化処理を行う処理手段と、
前記処理手段によって処理された輝度信号と色度信号とを合成して、前記処理対象フレームに対応する画像データを形成する画像データ形成手段と、を有することを特徴とする。
An image input device according to claim 1 is provided.
Imaging means for entering subject light and converting it into an image signal;
Separating means for separating the image signal sequentially output from the imaging means into a luminance signal and a chromaticity signal for each frame;
Changes in the subject between a processing target frame in a plurality of temporally continuous frames and a frame temporally preceding the processing target frame are detected for each predetermined region, and classified into a plurality of states according to the subject change Detecting means for
For at least one of the luminance signal and chromaticity signal in the processing target frame separated by the separation means, using at least one of the luminance signal and chromaticity signal corresponding to a predetermined number of the preceding frames, Processing means for performing different averaging processes according to the classification by the detection means for each predetermined region;
Image data forming means for combining the luminance signal and chromaticity signal processed by the processing means to form image data corresponding to the processing target frame.

例えば、殆ど静止している被写体を動画撮像した場合には、複数のフレーム相互における被写体の変化は小さいので、比較的長時間間隔のフレームにわたって輝度信号と色度信号とを平均化することで、ノイズを除去できる。ところが、高速で移動する被写体を動画撮像した場合(カメラが高速で移動する場合を含む)、複数のフレーム相互における被写体の変化は大きくなるから、長時間間隔のフレームにわたって前記輝度信号と前記色度信号とを平均化すると、エッジのボケが大きくなる可能性が高い。   For example, when a moving image is captured of a subject that is almost stationary, the change in the subject between a plurality of frames is small, so by averaging the luminance signal and the chromaticity signal over relatively long frames, Noise can be removed. However, when a moving subject is imaged at high speed (including when the camera moves at high speed), the change in the subject between a plurality of frames becomes large. Therefore, the luminance signal and the chromaticity over a long-interval frame. When the signal is averaged, there is a high possibility that the blur of the edge becomes large.

これに対し本発明によれば、前記検出手段が、時間的に連続する複数のフレームにおける処理対象フレームと前記処理対象フレームに対し時間的に先行するフレーム間の被写体の変化を所定の領域毎に検出し、複数の状態として例えば第1の状態と前記第1の状態よりも被写体の変化が大きい第2の状態とに分類する際には、その被写体の変化に応じて第1の状態と第2の状態とに分類し、前記処理手段が、前記分離手段によって分離された、前記処理対象フレームにおける輝度信号及び色度信号の少なくとも一方に対して、所定数の前記先行するフレームの対応する輝度信号及び色度信号の少なくとも一方を用いて、前記所定の領域毎にそれぞれ、前記検出手段による分類に応じた平均化処理を行うので、前記検出手段が、第1の状態と分類すれば被写体の変化は比較的小さいと判断できるから、例えば平均化するフレーム数を増大させてノイズを低減でき、一方、第2の状態と分類すれば被写体の変化は比較的大きいと判断できるから、例えば平均化するフレーム数を減少もしくはゼロとするように、前記処理手段の処理内容を変更することで、エッジのボケを有効に抑えることができる。そのため、簡単な構成でエッジのボケを防ぎつつノイズを低減できる。   On the other hand, according to the present invention, the detection means detects a change in a subject between a processing target frame in a plurality of temporally continuous frames and a frame temporally preceding the processing target frame for each predetermined region. When detecting and classifying the plurality of states into, for example, a first state and a second state in which the subject change is larger than the first state, the first state and the first state are changed according to the subject change. 2 corresponding to at least one of the luminance signal and the chromaticity signal in the processing target frame separated by the separation unit and corresponding to the predetermined number of the preceding frames. Since the averaging process according to the classification by the detection unit is performed for each of the predetermined regions using at least one of the signal and the chromaticity signal, the detection unit is separated from the first state. Since it can be determined that the change in the subject is relatively small, for example, the noise can be reduced by increasing the number of frames to be averaged, while the change in the subject can be determined to be relatively large if classified as the second state. For example, the blurring of the edge can be effectively suppressed by changing the processing content of the processing means so that the number of frames to be averaged is reduced or zero. Therefore, it is possible to reduce noise while preventing edge blur with a simple configuration.

尚、処理対象フレームにおける輝度信号に対して平均化処理を行う際には、時間的に先行するフレームにおける輝度信号を用い、処理対象フレームにおける色度信号に対して平均化処理を行う際には、時間的に先行するフレームにおける色度信号を用いることは勿論である。   When the averaging process is performed on the luminance signal in the processing target frame, the luminance signal in the temporally preceding frame is used, and when the averaging process is performed on the chromaticity signal in the processing target frame. Of course, the chromaticity signal in the temporally preceding frame is used.

請求項2に記載の画像入力装置は、請求項1に記載の画像入力装置において、前記先行するフレームの輝度信号と、前記処理対象フレームの輝度信号との差が、第1の閾値以下であるときは、前記検出手段は、前記被写体の変化が第1の状態であると分類し、前記処理手段は、前記輝度信号を用いて平均化処理を行い、前記先行するフレームの輝度信号と、前記処理対象フレームの輝度信号との差が、前記第1の閾値を超えたときは、前記検出手段は、前記被写体の変化が前記第1の状態よりも大きい第2の状態であると分類し、前記処理手段は、前記色度信号を用いて平均化処理を行うことを特徴とする。人間の視覚は、輝度信号に基づく画像のエッジのボケは比較的感知しやすいが、色度信号に基づく画像のエッジのボケは比較的感知しにくいという特性を有する。かかる特性を利用し、被写体の変化が比較的小さい第1の状態では、被写体の輪郭が変位しにくくエッジのボケが目立たないことから、前記輝度信号を用いて平均化処理を行ってノイズを低減できる。一方、被写体の変化が比較的大きい第2の状態では、被写体の輪郭が変位し易いことから、前記色度信号を用いて平均化処理を行うことでエッジのボケを防ぎつつノイズを低減できる。   The image input device according to claim 2 is the image input device according to claim 1, wherein a difference between the luminance signal of the preceding frame and the luminance signal of the processing target frame is equal to or less than a first threshold value. When the detection unit classifies the change of the subject as the first state, the processing unit performs an averaging process using the luminance signal, and the luminance signal of the preceding frame, When the difference from the luminance signal of the processing target frame exceeds the first threshold, the detection unit classifies the change of the subject as the second state larger than the first state, The processing means performs an averaging process using the chromaticity signal. Human vision has a characteristic that image edge blur based on the luminance signal is relatively easy to detect, but image edge blur based on the chromaticity signal is relatively difficult to detect. Using this characteristic, in the first state where the change of the subject is relatively small, the contour of the subject is difficult to displace and the blurring of the edge is not noticeable. Therefore, averaging processing is performed using the luminance signal to reduce noise. it can. On the other hand, in the second state where the change of the subject is relatively large, the contour of the subject is likely to be displaced. Therefore, by performing the averaging process using the chromaticity signal, noise can be reduced while preventing edge blurring.

請求項3に記載の画像入力装置は、請求項2に記載の画像入力装置において、前記処理手段によって輝度信号を用いて平均化処理を行う際に用いられる前記先行するフレームの前記所定数は可変であり、前記処理手段によって色度信号を用いて平均化処理を行う際に用いられる前記先行するフレームの前記所定数は固定であることを特徴とする。人間の視覚は、輝度信号に基づく画像のボケは比較的感知しやすいが、色度信号に基づく画像のボケは比較的感知しにくいという特性を有するので、色度信号を用いて平均化する処理に用いられるフレーム数は固定としてもエッジのボケが認識される恐れは低い。一方、輝度信号を用いて平均化する処理に用いられるフレーム数は、第1の閾値を超える領域が大きな割合を占めるフレームが存在した場合、それより過去のフレームは平均化処理の対象外とする(即ち平均化するフレーム数を可変とする)ことで、エッジのボケを抑えることができる。   The image input device according to claim 3 is the image input device according to claim 2, wherein the predetermined number of the preceding frames used when the processing means performs an averaging process using a luminance signal is variable. The predetermined number of the preceding frames used when the processing means performs an averaging process using a chromaticity signal is fixed. Human vision has the characteristic that image blur based on luminance signals is relatively easy to detect, but image blur based on chromaticity signals is relatively difficult to detect. Even if the number of frames used is fixed, there is little risk of edge blurring being recognized. On the other hand, the number of frames used for the averaging process using the luminance signal is excluded from the averaging process if there are frames in which the area exceeding the first threshold occupies a large proportion. By making the number of frames to be averaged variable, blurring of edges can be suppressed.

請求項4に記載の画像入力装置は、請求項2又は3に記載の画像入力装置において、色度信号は、前記処理手段による平均化処理前、あるいは平均化処理後にローパスフィルタを通して平均化されることを特徴とする。人間の視覚は、輝度信号に基づく画像のボケは比較的感知しやすいが、色度信号に基づく画像のボケは比較的感知しにくいという特性を有するので、色度信号をローパスフィルタを通過させて、空間的な平均化を導入することで、更なるノイズ低減ができる。   According to a fourth aspect of the present invention, in the image input device according to the second or third aspect, the chromaticity signal is averaged through a low-pass filter before the averaging process by the processing means or after the averaging process. It is characterized by that. Human vision has the characteristic that image blur based on the luminance signal is relatively easy to detect, but image blur based on the chromaticity signal is relatively difficult to detect, so the chromaticity signal is passed through a low-pass filter. Further noise reduction can be achieved by introducing spatial averaging.

請求項5に記載の画像入力装置は、請求項2〜4のいずれかに記載の画像入力装置において、前記処理手段により平均化処理される際に用いられる輝度信号又は色度信号は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差に応じて重み付けされることを特徴とする。現時点から過去に遡るに連れて、フレーム内における被写体の変化が大きくなる可能性が高まる。そこで、前記処理対象フレームを基準とし、それに先行するフレームまでの時間差に応じて、例えば徐々に小さくなるように重み付けを行うことで、現時点より遠いフレームの影響を抑制して、エッジのボケを抑えることができる。   The image input device according to claim 5 is the image input device according to any one of claims 2 to 4, wherein the luminance signal or the chromaticity signal used when the averaging processing is performed by the processing unit is the processing. The target frame is used as a reference, and weighting is performed according to a time difference from a temporally preceding frame. As the time goes back from the present time to the past, the possibility that the change of the subject in the frame will increase increases. Therefore, by using the processing target frame as a reference, weighting is performed so as to gradually decrease, for example, in accordance with the time difference up to the preceding frame, thereby suppressing the influence of the frame farther than the present time and suppressing blurring of the edge. be able to.

請求項6に記載の画像入力装置は、請求項2〜5のいずれかに記載の画像入力装置において、前記先行するフレームの輝度信号と、前記処理対象フレームの輝度信号との差が、前記第1の閾値よりも大きい第2の閾値を超えたときは、前記検出手段は、被写体の変化が前記第2の状態よりも大きい第3の状態であると分類し、前記処理手段は、平均化処理を行わないことを特徴とする。例えば大きなシーンチェンジが生じた場合など、それに先行するフレームの輝度信号及び色度信号を用いて平均化ができないからである。   An image input device according to a sixth aspect is the image input device according to any one of the second to fifth aspects, wherein a difference between the luminance signal of the preceding frame and the luminance signal of the processing target frame is the first. When the second threshold value greater than the first threshold value is exceeded, the detection means classifies the subject change as a third state larger than the second state, and the processing means performs averaging. The processing is not performed. This is because, for example, when a large scene change occurs, averaging cannot be performed using the luminance signal and chromaticity signal of the preceding frame.

請求項7に記載の画像入力装置は、請求項1〜6のいずれかに記載の画像入力装置において、前記所定の領域とは、1画素であることを特徴とする。これにより画素毎に精度良くノイズの低減を行える。   The image input device according to a seventh aspect is the image input device according to any one of the first to sixth aspects, wherein the predetermined region is one pixel. As a result, noise can be accurately reduced for each pixel.

請求項8に記載の画像入力装置は、請求項1〜6のいずれかに記載の画像入力装置において、前記所定の領域とは、複数の画素からなる画素ブロックであることを特徴とする。画素毎に画像処理を行う場合に比べ、処理時間の短縮を図ることができる。   An image input apparatus according to an eighth aspect is the image input apparatus according to any one of the first to sixth aspects, wherein the predetermined area is a pixel block including a plurality of pixels. Compared with the case where image processing is performed for each pixel, the processing time can be shortened.

請求項9に記載の画像入力装置は、
被写体光を入射して画像信号に変換する撮像手段と、
前記撮像手段から順次出力された画像信号を、フレーム毎に輝度信号と色度信号に分離する分離手段と、
時間的に連続する複数のフレームにおける処理対象フレームの前記輝度信号について、前記処理対象フレームに対し時間的に先行する所定数の先行フレームにおける対応する前記輝度信号に第1の重み付け量による重み付けを行って所定の領域毎に加算処理を行うと共に、前記処理対象フレームにおける前記色度信号について、前記処理対象フレームに対し時間的に先行する所定数の先行フレームにおける対応する前記色度信号に、前記第1の重み付け量以上である第2の重み付け量による重み付けを行って所定の領域毎に加算処理を行う処理手段と、
前記処理手段によって加算処理された輝度信号と色度信号とを合成して、前記処理対象フレームに対応する画像データを形成する画像データ形成手段と、を有することを特徴とする。
An image input device according to claim 9 is provided.
Imaging means for entering subject light and converting it into an image signal;
Separating means for separating the image signal sequentially output from the imaging means into a luminance signal and a chromaticity signal for each frame;
For the luminance signal of the processing target frame in a plurality of temporally continuous frames, the luminance signal corresponding to a predetermined number of preceding frames temporally preceding the processing target frame is weighted with a first weighting amount. The chromaticity signal in the processing target frame is added to the corresponding chromaticity signal in a predetermined number of preceding frames temporally preceding the processing target frame. Processing means for performing addition processing for each predetermined region by performing weighting by a second weighting amount that is equal to or greater than one weighting amount;
Image data forming means for synthesizing the luminance signal and the chromaticity signal added by the processing means and forming image data corresponding to the processing target frame.

人間の視覚は、輝度信号に基づく画像のエッジのボケは比較的感知しやすいが、色度信号に基づく画像のエッジのボケは比較的感知しにくいという特性を有する。そこで、前記処理手段が、時間的に連続する複数のフレームにおける処理対象フレームの前記輝度信号について、前記処理対象フレームに対し時間的に先行する所定数の先行フレームにおける対応する前記輝度信号に第1の重み付け量による重み付けを行って所定の領域毎に加算処理を行うと共に、前記処理対象フレームにおける前記色度信号について、前記処理対象フレームに対し時間的に先行する所定数の先行フレームにおける対応する前記色度信号に、前記第1の重み付け量以上である第2の重み付け量による重み付けを行って所定の領域毎に加算処理を行うようにすれば、エッジのボケを抑制しつつ、有効にノイズを低減できる。尚、「第1の重み付け量以上である第2の重み付け量」とは、処理対象フレームに対し時間的に先行する所定数の先行フレームにおいて、第1の重み付け量と第2の重み付け量とがそれぞれ複数個或る場合、そのうちのいずれかの重み付け量が等しい場合を含むが、全ての重み付け量が等しい場合を除くものとする。   Human vision has a characteristic that image edge blur based on the luminance signal is relatively easy to detect, but image edge blur based on the chromaticity signal is relatively difficult to detect. Therefore, the processing means takes the first luminance signal corresponding to a predetermined number of preceding frames temporally preceding the processing target frame for the luminance signal of the processing target frame in a plurality of temporally continuous frames. In addition to performing addition processing for each predetermined region by weighting according to the weighting amount, the chromaticity signal in the processing target frame corresponds to the predetermined number of preceding frames temporally preceding the processing target frame. If the chromaticity signal is weighted by the second weighting amount that is equal to or greater than the first weighting amount and the addition processing is performed for each predetermined region, noise is effectively suppressed while suppressing blurring of the edge. Can be reduced. The “second weight amount equal to or greater than the first weight amount” means that the first weight amount and the second weight amount in a predetermined number of preceding frames temporally preceding the processing target frame. When there are a plurality of weights, the case where any one of the weighting amounts is equal is included, but the case where all the weighting amounts are equal is excluded.

請求項10に記載の画像入力装置は、請求項9に記載の画像入力装置において、前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差に応じて前記第1の重み付け量を変更することを特徴とする。現時点から過去に遡るに連れて、フレーム内における被写体の変化が大きくなる可能性が高まる。そこで、前記処理対象フレームを基準とし、それに先行するフレームまでの時間差に応じて、例えば時間差が大きくなるに従って徐々に小さくなるように重み付けを行うことで、現時点より遠いフレームの影響を抑制して、エッジのボケを抑えることができる。   The image input device according to claim 10 is the image input device according to claim 9, wherein the processing unit uses the processing target frame as a reference, and determines the first according to a time difference to a temporally preceding frame. The weighting amount of 1 is changed. As the time goes back from the present time to the past, the possibility that the change of the subject in the frame will increase increases. Therefore, based on the processing target frame, according to the time difference up to the preceding frame, for example, by weighting so as to gradually decrease as the time difference increases, the influence of the frame far from the current time is suppressed, Edge blur can be suppressed.

請求項11に記載の画像入力装置は、請求項9又は10に記載の画像入力装置において、前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差に応じて前記第2の重み付け量を変更することを特徴とする。本発明の効果は請求項10と同様である。   The image input device according to claim 11 is the image input device according to claim 9 or 10, wherein the processing unit uses the processing target frame as a reference, and according to a time difference up to a temporally preceding frame. The second weighting amount is changed. The effect of the present invention is the same as that of the tenth aspect.

請求項12に記載の画像入力装置は、請求項9〜11のいずれかに記載の画像入力装置において、前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差が第1の時間を超えたときは、前記第1の重み付け量をゼロとすることを特徴とする。これにより、エッジのボケを有効に回避できる。   The image input device according to claim 12 is the image input device according to any one of claims 9 to 11, wherein the processing unit uses the processing target frame as a reference, and a time difference to a temporally preceding frame. Is over the first time, the first weighting amount is set to zero. Thereby, blurring of the edge can be effectively avoided.

請求項13に記載の画像入力装置は、請求項12に記載の画像入力装置において、前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差が前記第1の時間より長い前記第2の時間を超えたときは、前記第2の重み付け量をゼロとすることを特徴とする。これにより、エッジのボケを有効に回避しつつ、有効にノイズ低減を行える。   The image input device according to claim 13 is the image input device according to claim 12, wherein the processing unit uses the processing target frame as a reference, and a time difference from a temporally preceding frame to the first frame is the first time. When the second time longer than the time is exceeded, the second weighting amount is set to zero. Thereby, it is possible to effectively reduce noise while effectively avoiding edge blur.

請求項14に記載の画像入力装置は、請求項9〜13のいずれかに記載の画像入力装置において、前記所定の領域とは、1画素であることを特徴とする。これにより画素毎に精度良くノイズの低減を行える。   The image input device according to a fourteenth aspect is the image input device according to any one of the ninth to thirteenth aspects, wherein the predetermined region is one pixel. As a result, noise can be accurately reduced for each pixel.

請求項15に記載の画像入力装置は、請求項9〜13のいずれかに記載の画像入力装置において、前記所定の領域とは、複数の画素からなる画素ブロックであることを特徴とする。画素毎に画像処理を行う場合に比べ、処理時間の短縮を図ることができる。   An image input apparatus according to a fifteenth aspect is the image input apparatus according to any one of the ninth to thirteenth aspects, wherein the predetermined area is a pixel block including a plurality of pixels. Compared with the case where image processing is performed for each pixel, the processing time can be shortened.

本発明によれば、簡素な構成でありながら、エッジのボケを防ぎつつ動画のノイズ除去を行える画像入力装置を提供することができる。   According to the present invention, it is possible to provide an image input device that can remove noise from moving images while preventing edge blurring with a simple configuration.

第1の実施の形態に係る画像入力装置MG1の概略図である。It is the schematic of image input device MG1 which concerns on 1st Embodiment. 画素毎に輝度値と閾値とを比較する状態を示す図である。It is a figure which shows the state which compares a luminance value and a threshold value for every pixel. 画素ブロック毎に輝度値と閾値とを比較する状態を示す図である。It is a figure which shows the state which compares a luminance value and a threshold value for every pixel block. 第2の実施の形態に係る画像入力装置MG2の概略図である。It is the schematic of image input device MG2 which concerns on 2nd Embodiment. 本実施の形態に用いる第1の重み付け量と第2の重み付け量とを示すグラフであるが、横軸右側に向かうに連れて過去に遡っている。Although it is a graph which shows the 1st weighting amount and 2nd weighting amount which are used for this Embodiment, it goes back in the past as it goes to the horizontal axis right side. 本実施の形態の変形例に用いる第1の重み付け量と第2の重み付け量とを示すグラフであるが、横軸右側に向かうに連れて過去に遡っている。Although it is a graph which shows the 1st weighting amount and 2nd weighting amount which are used for the modification of this Embodiment, it goes back in the past as it goes to the horizontal axis right side.

(第1の実施の形態)
図1は、第1の実施の形態に係る画像入力装置MG1の概略図である。かかる画像入力装置MG1は、車載カメラに用いることができるが、用途はそれに限られず、例えば監視カメラであっても良い。画像入力装置MG1は、撮像手段である撮像素子(例えばCCD)101、A/D変換部102,分離手段である輝度・色度分離部103、検出手段である輝度差計算部111,輝度平均部112,色度平均部113、画像データ形成手段である輝度・色度合成部106A,表示部107を備えている。輝度平均部112及び色度平均部113が処理手段を構成する。以下、1フレームにおける各画素の座標を(x、y)で表すものとする。
(First embodiment)
FIG. 1 is a schematic diagram of an image input device MG1 according to the first embodiment. Such an image input device MG1 can be used for an in-vehicle camera, but the application is not limited thereto, and may be a surveillance camera, for example. The image input device MG1 includes an imaging device (for example, a CCD) 101 that is an imaging unit, an A / D conversion unit 102, a luminance / chromaticity separation unit 103 that is a separation unit, a luminance difference calculation unit 111 that is a detection unit, and a luminance average unit. 112, a chromaticity averaging unit 113, a luminance / chromaticity synthesis unit 106A, which is an image data forming unit, and a display unit 107. The luminance average unit 112 and the chromaticity average unit 113 constitute processing means. Hereinafter, the coordinates of each pixel in one frame are represented by (x, y).

被写体光は、不図示のRGBカラーフィルタを介して撮像素子101の複数の画素に結像する。これにより撮像素子101は、所定のタイミングで繰り返しアナログのカラー画像信号を発生させるので、A/D変換部102は、1フレーム毎にデジタルのカラー画像信号(色信号dR,dG,dB)に変換して出力する。かかるカラー画像信号を入力した輝度・色度分離部103は、以下の式(1)に示すように、撮像素子101及びA/D変換部102を介して入力された色信号dR,dG,dBを、輝度信号Yと色度信号Cb、Crとを含む色空間に変換する。ここで、色度信号Cbは青の色度信号を示し、色度信号Crは赤の色度信号を示す。
Y=0.3dR+0.59dG+0.11dB
Cb=−0.17dR−0.33dG+0.5dB (1)
Cr=0.5dR−0.42dG−0.08dB
輝度差計算部111は、時間軸でt時点の撮像である現在のフレームF(t)に対して、それからN枚過去に遡った所定数のフレームF(t−N)までの輝度信号を、画素(x、y)毎に記憶することができる。又、輝度差計算部111は、現在のフレームF(t)の輝度信号と、それより過去のフレームF(t−1)、F(t−2)、・・・・F(t−N)の輝度信号との差の絶対値を画素毎に求めると、その輝度差はΔY(t−1)(x、y)、ΔY(t−2)(x、y)、・・・・・・ΔY(t−N)(x、y)となる。
Subject light forms an image on a plurality of pixels of the image sensor 101 via an RGB color filter (not shown). As a result, the image sensor 101 repeatedly generates an analog color image signal at a predetermined timing, so that the A / D conversion unit 102 converts it into a digital color image signal (color signals dR, dG, dB) for each frame. And output. The luminance / chromaticity separation unit 103 that receives the color image signal receives the color signals dR, dG, and dB input via the image sensor 101 and the A / D conversion unit 102 as shown in the following equation (1). Is converted into a color space including the luminance signal Y and the chromaticity signals Cb and Cr. Here, the chromaticity signal Cb indicates a blue chromaticity signal, and the chromaticity signal Cr indicates a red chromaticity signal.
Y = 0.3dR + 0.59dG + 0.11dB
Cb = −0.17 dR−0.33 dG + 0.5 dB (1)
Cr = 0.5dR-0.42dG-0.08dB
The luminance difference calculation unit 111 calculates luminance signals from a current number of frames F (t−N) retroactive to N frames in the past to the current frame F (t) that is imaged at time t on the time axis. Each pixel (x, y) can be stored. Further, the luminance difference calculation unit 111 calculates the luminance signal of the current frame F (t) and the past frames F (t−1), F (t−2),... F (t−N). When the absolute value of the difference from the luminance signal is obtained for each pixel, the luminance difference is ΔY (t−1) (x, y), ΔY (t−2) (x, y),. ΔY (t−N) (x, y).

次に、輝度差計算部111は、図2に示すように、各フレームの画素毎に、輝度差ΔY(t−1)(x、y)、ΔY(t−2)(x、y)、・・・・・・ΔY(t−N)(x、y)を、第1の閾値th1と比較する。ここで、輝度差が第1の閾値th1以下である場合、輝度平均部112は、被写体の変化が比較的小さい第1の状態であると分類して、以下の(2)式に基づき、輝度信号において平均化処理を行う。ここで、フレーム毎に適用される重み付け係数a1は、後述する第2の実施の形態で用いる値を使用する。   Next, as shown in FIG. 2, the luminance difference calculation unit 111 performs luminance difference ΔY (t−1) (x, y), ΔY (t−2) (x, y), for each pixel of each frame. ... ΔY (t−N) (x, y) is compared with the first threshold th1. Here, when the luminance difference is equal to or smaller than the first threshold th1, the luminance average unit 112 classifies the subject as a first state in which the change in the subject is relatively small, and based on the following equation (2), the luminance Averaging is performed on the signal. Here, the weighting coefficient a1 applied for each frame uses a value used in a second embodiment described later.

一方、輝度差が第1の閾値th1を超えているフレーム及び画素については、重み付け係数a1をゼロとする。これにより被写体の変化が比較的大きくなった場合に、輝度信号を平均化する処理を行わないことでエッジがぼけることを抑制できる。尚、或るフレーム及び画素の重み付け係数をゼロとした場合、それ以外の重み付け係数の和を1とすることはいうまでもない。   On the other hand, the weighting coefficient a1 is set to zero for frames and pixels whose luminance difference exceeds the first threshold th1. As a result, when the change of the subject becomes relatively large, it is possible to suppress the blurring of the edge by not performing the process of averaging the luminance signal. Needless to say, when the weighting coefficient of a certain frame and pixel is set to zero, the sum of the other weighting coefficients is set to 1.

更に輝度差計算部111は、フレーム及び画素毎に、輝度差ΔY(t−1)(x、y)、ΔY(t−2)(x、y)、・・・・・・ΔY(t−N)(x、y)を、第1の閾値th1より大きい第2の閾値th2(th1<th2)と比較する。ここで、輝度差が第1の閾値th1を超え第2の閾値th2以下である場合、色度平均部113は、被写体の変化が第1の状態より大きくなったことで第2の状態であると分類して、以下の(3)式に基づき、色度信号において平均化処理を行う。ここで、フレーム毎に適用される重み付け係数a2は、後述する第2の実施の形態で用いる値を使用する。本例では、輝度差が第1の閾値th1以下の場合も色度信号の平均化処理を行うので更なるノイズの低減ができる。   Further, the luminance difference calculation unit 111 performs luminance differences ΔY (t−1) (x, y), ΔY (t−2) (x, y),... ΔY (t−) for each frame and pixel. N) (x, y) is compared with a second threshold th2 that is greater than the first threshold th1 (th1 <th2). Here, when the luminance difference exceeds the first threshold th1 and is equal to or less than the second threshold th2, the chromaticity average unit 113 is in the second state because the change in the subject is larger than the first state. Based on the following equation (3), the chromaticity signal is averaged. Here, the weighting coefficient a2 applied for each frame uses a value used in a second embodiment described later. In this example, since the chromaticity signal is averaged even when the luminance difference is equal to or smaller than the first threshold th1, noise can be further reduced.

一方、輝度差が第2の閾値th2を超えているフレーム及び画素については、被写体の変化が第2の状態より大きくなったので第3の状態であると分類して、重み付け係数a2をゼロとする。これによりシーンチェンジが生じた場合など、異なるシーンのフレームについて誤って平均化する処理を行うことで画像が不適切になることを回避できる。その後、輝度・色度合成部106Aは、輝度平均部112で平均化処理された信号SY(t)と、色度平均部113で平均化処理された信号SCr(t)、SCb(t)とに基づいて、以下の式(1’)に従い、色信号dR、dG、dBを合成し、これを表示部107に入力することで、時間軸t時点のフレームとして表示することができる。同様にして処理された、複数枚のフレームを切り換えることで動画の再生を行うことができる。
dR = SY(t)+1.402・SCr(t)
dG = SY(t)−0.714・SCr(t)−0.344・SCb(t) (1’)
dB = SY(t)+1.772・SCb(t)
図3は、本実施の形態の変形例を説明するための図である。上述した実施の形態では、画素毎に平均化処理を行っているが、本変形例では、例えば1フレーム中の16×16画素を1画素ブロック(座標(X、Y)で表す)として、フレーム及び画素ブロック単位で平均化した輝度差ΔY(t−1)(X、Y)、ΔY(t−2)(X、Y)、・・・・・・ΔY(t−N)(X、Y)を、第1の閾値th1及び第2の閾値th2と比較するものである。本変形例によれば、比較の回数が減少するので、処理速度を大幅に高めることができる。
On the other hand, the frames and pixels whose luminance difference exceeds the second threshold th2 are classified as the third state because the change in the subject is larger than the second state, and the weighting coefficient a2 is set to zero. To do. Thus, when a scene change occurs, it is possible to avoid an image from becoming inappropriate by performing an erroneous averaging process on frames of different scenes. Thereafter, the luminance / chromaticity combining unit 106A receives the signal SY (t) averaged by the luminance averaging unit 112 and the signals SCr (t) and SCb (t) averaged by the chromaticity averaging unit 113. Based on the above, the color signals dR, dG, and dB are synthesized according to the following equation (1 ′) and input to the display unit 107, so that they can be displayed as a frame at the time point t. A moving image can be reproduced by switching a plurality of frames processed in the same manner.
dR = SY (t) + 1.402 · SCr (t)
dG = SY (t) −0.714 · SCr (t) −0.344 · SCb (t) (1 ′)
dB = SY (t) + 1.772 · SCb (t)
FIG. 3 is a diagram for explaining a modification of the present embodiment. In the above-described embodiment, averaging processing is performed for each pixel. In this modification, for example, 16 × 16 pixels in one frame are defined as one pixel block (represented by coordinates (X, Y)), and the frame And luminance differences ΔY (t−1) (X, Y), ΔY (t−2) (X, Y),... ΔY (t−N) (X, Y) averaged in pixel block units ) Is compared with the first threshold th1 and the second threshold th2. According to this modification, the number of comparisons is reduced, so that the processing speed can be significantly increased.

以上述べた実施の形態において、色度信号については固定したフレーム数、輝度信号については閾値を用いてフレーム数を決定して(即ち可変として)平均化することもできる。例えば、処理対象となるフレームの輝度信号に対し、過去に遡って輝度信号差が最初に閾値を超えたフレームが11番目であったときはN=10、15番目であったときはN=14として上述の処理を行う。輝度の変動がエッジボケへの影響が大きいので、輝度についての平均化を精度よく行うことができる。色度の変動はエッジボケへの影響が小さいので、固定したフレーム数で計算量を削減できる。   In the embodiment described above, the chromaticity signal can be averaged by determining the number of frames using a fixed number of frames and the luminance signal using a threshold value (that is, variable). For example, with respect to the luminance signal of a frame to be processed, N = 10 when the luminance signal difference first exceeds the threshold retroactively is 11th, and N = 14 when it is the 15th. The above processing is performed. Since fluctuations in luminance have a great influence on edge blurring, averaging of luminance can be performed with high accuracy. Since variation in chromaticity has little effect on edge blurring, the amount of calculation can be reduced with a fixed number of frames.

又、以上述べた実施の形態において、色度信号については、処理手段による平均化処理前、あるいは平均化処理後にローパスフィルタを通過させることで、空間的な平均と組み合わせることも出来る。色度の変動は、エッジボケへの影響が小さいので、空間的な平均を導入することで、更なるノイズ低減ができる。   In the embodiment described above, the chromaticity signal can be combined with a spatial average by passing it through a low-pass filter before or after the averaging processing by the processing means. Since the variation in chromaticity has little influence on the edge blur, the noise can be further reduced by introducing a spatial average.

更に、画素もしくは画素ブロックごとに、閾値で決めた輝度信号の平均化フレーム数と、固定値である色度信号の平均化フレーム数(最大でこのフレーム数まで平均とる)を比較して、小さい数を平均化にするフレーム数とすることもできる。閾値で決めたフレーム数と固定にしたフレーム数が混在している場合は、小さい方を選ぶことで、エッジボケの影響をより低減することができる。   In addition, for each pixel or pixel block, the number of luminance signal average frames determined by the threshold is compared with the average number of frames of chromaticity signals that are fixed values (the maximum is averaged up to this number of frames). It is also possible to set the number of frames to average the number. When the number of frames determined by the threshold and the number of frames fixed are mixed, the smaller one can be selected to reduce the influence of edge blurring.

更に、輝度差が第1の閾値th1以下である場合は色度信号の平均化処理を行わないようにすることもできる。これにより処理速度を高めることができる。
(第2の実施の形態)
以下、図面を参照して本発明の実施の形態を詳細に説明する。図4は、第2の実施の形態に係る画像入力装置MG2の概略図である。かかる画像入力装置MG2は、車載カメラに用いることができるが、用途はそれに限られず、例えば監視カメラであっても良い。画像入力装置MG2は、撮像手段である撮像素子(例えばCCD)101、A/D変換部102,分離手段である輝度・色度分離部103、輝度加重加算部104,色度加重加算部105、画像データ形成手段である輝度・色度合成部106B,表示部107を備えている。輝度加重加算部104及び色度加重加算部105が処理手段を構成する。以下、1フレームにおける各画素の座標を(x、y)で表すものとする。
Further, when the luminance difference is equal to or smaller than the first threshold th1, the chromaticity signal averaging process may be not performed. As a result, the processing speed can be increased.
(Second Embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 4 is a schematic diagram of an image input device MG2 according to the second embodiment. Such an image input device MG2 can be used for an in-vehicle camera, but the application is not limited thereto, and may be a surveillance camera, for example. The image input device MG2 includes an imaging device (for example, a CCD) 101 that is an imaging unit, an A / D conversion unit 102, a luminance / chromaticity separation unit 103 that is a separation unit, a luminance weighted addition unit 104, a chromaticity weighted addition unit 105, A luminance / chromaticity synthesis unit 106B and a display unit 107, which are image data forming means, are provided. The luminance weighted addition unit 104 and the chromaticity weighted addition unit 105 constitute processing means. Hereinafter, the coordinates of each pixel in one frame are represented by (x, y).

被写体光は、不図示のRGBカラーフィルタを介して撮像素子101の複数の画素に結像する。これにより撮像素子101は、所定のタイミングで繰り返しアナログのカラー画像信号を発生させるので、A/D変換部102は、1フレーム毎にデジタルのカラー画像信号(色信号dR,dG,dB)に変換して出力する。かかるカラー画像信号を入力した輝度・色度分離部103は、式(1)に示すように、色信号dR,dG,dBを、輝度信号Yと色度信号Cb、Crとを含む色空間に変換する。ここで、色度信号Cbは青の色度信号を示し、色度信号Crは赤の色度信号を示す。
Y=0.3dR+0.59dG+0.11dB
Cb=−0.17dR−0.33dG+0.5dB (1)
Cr=0.5dR−0.42dG−0.08dB
輝度加重加算部104は、時間軸でt時点の撮像である現在のフレームF(t)に対して、それからN枚(例えば30fpsとしてN/30秒)過去に遡った所定数のフレームF(t−N)までの輝度信号を、画素(x、y)毎に記憶することができ、図5に示すようなフレームに応じた重み付け係数a1(t)〜a1(t−N)を有している。一方、色度加重加算部105は、現在のフレームF(t)に対して、N枚過去に遡った所定数のフレームF(t−N)までの色度信号を、画素(x、y)毎に記憶することができ、図5に示すような重み付け係数a2(t)〜a2(t−N)を有している。重み付け係数a1、a2は、現在のフレームF(t)から過去のフレームF(t−1)、F(t−2)、・・・・と遡るに連れて漸次減少し{即ちa1(t−N)<a1(t−N+1)<…<a1(t−1)<a1(t)及びa2(t−N)<a2(t−N+1)<…<a2(t−1)<a2(t)}、所定数のフレームにおいてはゼロとなる。但し、a1(t−N)+a1(t−N+1)+…+a1(t−1)+a1(t)=1であり、且つa2(t−N)+a2(t−N+1)+…+a2(t−1)+a2(t)=1である。又、重み付け係数a1、a2は、現在のフレームF(t)及び過去に遡って所定数のフレームF(t−N)を除き、常に
a1<a2である。
Subject light forms an image on a plurality of pixels of the image sensor 101 via an RGB color filter (not shown). As a result, the image sensor 101 repeatedly generates an analog color image signal at a predetermined timing, so that the A / D conversion unit 102 converts it into a digital color image signal (color signals dR, dG, dB) for each frame. And output. The luminance / chromaticity separation unit 103 to which the color image signal is input, as shown in Expression (1), converts the color signals dR, dG, and dB into a color space including the luminance signal Y and the chromaticity signals Cb and Cr. Convert. Here, the chromaticity signal Cb indicates a blue chromaticity signal, and the chromaticity signal Cr indicates a red chromaticity signal.
Y = 0.3dR + 0.59dG + 0.11dB
Cb = −0.17 dR−0.33 dG + 0.5 dB (1)
Cr = 0.5dR-0.42dG-0.08dB
The luminance weighted addition unit 104 performs a predetermined number of frames F (t) retroactive to the current frame F (t) that is imaged at time t on the time axis (for example, N / 30 seconds as 30 fps). -N) can be stored for each pixel (x, y), and has weighting coefficients a1 (t) to a1 (t-N) corresponding to the frames as shown in FIG. Yes. On the other hand, the chromaticity weighted addition unit 105 outputs chromaticity signals up to a predetermined number of frames F (t−N) retroactive to the current frame F (t) to pixels (x, y). Each of them has a weighting coefficient a2 (t) to a2 (t−N) as shown in FIG. The weighting coefficients a1 and a2 gradually decrease from the current frame F (t) to the past frames F (t-1), F (t-2),... {Ie, a1 (t− N) <a1 (t-N + 1) <... <a1 (t-1) <a1 (t) and a2 (t-N) <a2 (t-N + 1) <... <a2 (t-1) <a2 (t )}, Zero in a predetermined number of frames. However, a1 (t−N) + a1 (t−N + 1) +... + A1 (t−1) + a1 (t) = 1 and a2 (t−N) + a2 (t−N + 1) +. 1) + a2 (t) = 1. The weighting coefficients a1 and a2 are always a1 <a2 except for the current frame F (t) and a predetermined number of frames F (t−N) retroactively.

また、現在のフレームF(t)においては、a1>a2である。   In the current frame F (t), a1> a2.

輝度加重加算部104は、現在のフレームF(t)についての輝度信号Y(t)(x、y)を入力し、以下の(4)式に基づき、画素(x、y)毎に、現在のフレームF(t)からN枚過去に遡った所定数のフレームF(t−N)までの輝度信号を加算処理して、SY(t)(x、y)を得る。   The luminance weighted addition unit 104 receives the luminance signal Y (t) (x, y) for the current frame F (t), and for each pixel (x, y) based on the following equation (4), The luminance signals from a predetermined number of frames F (t−N) retroactive to N frames F (t) are added to obtain SY (t) (x, y).

一方、色度加重加算部105は、現在のフレームF(t)についての色度信号Cr(t)(x、y)、Cb(t)(x、y)を入力し、以下の(5)式に基づき、画素(x、y)毎に、現在のフレームF(t)からN枚過去に遡った所定数のフレームF(t−N)までの色度信号を加算処理して、SCr(t)(x、y)、SCb(t)(x、y)を得る。   On the other hand, the chromaticity weighted addition unit 105 inputs chromaticity signals Cr (t) (x, y) and Cb (t) (x, y) for the current frame F (t), and the following (5) Based on the equation, for each pixel (x, y), the chromaticity signals from the current frame F (t) to a predetermined number of frames F (t−N) retroactive to the past N frames are added, and SCr ( t) (x, y), SCb (t) (x, y) are obtained.

輝度・色度合成部106Bは、輝度加重加算部104から出力されたSY(t)と、色度加重加算部105から出力されたSCr(t)、SCb(t)とを、(1’)式に従い、色信号dR、dG、dBを求め、これらを合成して表示部107に入力することで、時間軸t時点のフレームとして表示することができる。同様にして処理された、複数枚のフレームを切り換えることで動画の再生を行うことができる。
dR = SY(t)+1.402・SCr(t)
dG = SY(t)−0.714・SCr(t)−0.344・SCb(t) (1’)
dB = SY(t)+1.772・SCb(t)
本実施の形態によれば、輝度加重加算部104が、処理対象フレームF(t)(x、y)における輝度信号Y(t)(x、y)について、処理対象フレームに先行する所定数のフレームF(t−1)(x、y)〜F(t−N)(x、y)における対応する輝度信号Y(t−1)(x、y)〜Y(t−N)(x、y)に、第1の重み付け量a1(t−1)(x、y)〜a1(t−N)(x、y)による重み付けを行って加算処理を行う((4)式の処理)と共に、色度加重加算部105が、処理対象フレームF(t)(x、y)における色度信号Cr(t)(x、y)、Cb(t)(x、y)について、処理対象フレームに先行する所定数のフレームF(t−1)(x、y)〜F(t−N)(x、y)における対応する色度信号Cr(t−1)(x、y)〜Cr(t−N)(x、y)、Cb(t−1)(x、y)〜Cb(t−N)(x、y)に、それぞれ第1の重み付け量a1(t−1)(x、y)〜a1(t−N)(x、y)以上である第2の重み付け量a2(t−1)(x、y)〜a2(t−N)(x、y)による重み付けを行って加算処理を行う((5)式の処理)ようにしているので、第1の重み付け量を比較的小さくすることでエッジのボケを抑制しつつ、第2の重み付け量を比較的大きくすることでノイズを低減できる。尚、上記の重み付けは画素単位で行ったが、例えば16×16画素の画素ブロック単位で行っても良い。
The luminance / chromaticity synthesis unit 106B obtains (1 ′) the SY (t) output from the luminance weighted addition unit 104 and the SCr (t) and SCb (t) output from the chromaticity weighted addition unit 105. The color signals dR, dG, and dB are obtained according to the equation, and these are combined and input to the display unit 107, so that they can be displayed as a frame at the time axis t. A moving image can be reproduced by switching a plurality of frames processed in the same manner.
dR = SY (t) + 1.402 · SCr (t)
dG = SY (t) −0.714 · SCr (t) −0.344 · SCb (t) (1 ′)
dB = SY (t) + 1.772 · SCb (t)
According to the present embodiment, the luminance weighted addition unit 104 has a predetermined number of preceding the processing target frame for the luminance signal Y (t) (x, y) in the processing target frame F (t) (x, y). Corresponding luminance signals Y (t−1) (x, y) to Y (t−N) (x, y) in frames F (t−1) (x, y) to F (t−N) (x, y). y) is weighted according to the first weighting amount a1 (t-1) (x, y) to a1 (t-N) (x, y), and addition processing is performed (processing of equation (4)). The chromaticity weighted addition unit 105 adds the chromaticity signals Cr (t) (x, y) and Cb (t) (x, y) in the processing target frame F (t) (x, y) to the processing target frame. Corresponding chromaticity signal Cr (t−1) in a predetermined number of preceding frames F (t−1) (x, y) to F (t−N) (x, y) x, y) to Cr (t−N) (x, y), Cb (t−1) (x, y) to Cb (t−N) (x, y), respectively. t−1) (x, y) to a1 (t−N) (x, y) or more of the second weighting amounts a2 (t−1) (x, y) to a2 (t−N) (x, Since the addition processing is performed by weighting according to y) (the processing of equation (5)), the second weighting amount is suppressed while suppressing blurring of the edge by relatively reducing the first weighting amount. The noise can be reduced by relatively increasing. Although the above weighting is performed in units of pixels, it may be performed in units of 16 × 16 pixels, for example.

図6は、本実施の形態の変形例に用いる第1の重み付け量と第2の重み付け量とを示すグラフであるが、横軸右側に向かうに連れて過去に遡っている。30fpsの仕様では、1フレームが1/30秒で切り換わる。つまり、現在のt秒から過去にN1秒遡る場合、その間のフレーム数はN1・30枚となる。現在のフレームをF(t)としたときに、N1秒過去に遡った時点のフレームをF(t−n1)とし、N2秒過去に遡った時点のフレームをF(t−n2)とする。本変形例においては、第1の重み付け量a1は、時間軸でt時点の撮像である現在のフレームF(t)からリニアに減少し、それから第1の時間であるN1秒過去に遡った所定数番目のフレームF(t−n1)以前においてゼロとなっている。一方、第2の重み付け量a2は一定であるが、時間軸でt時点の撮像である現在のフレームF(t)から第2の時間であるN2秒過去に遡った所定数番目のフレームF(t−n2)以前においてゼロとなる。尚、n1<n2であることが好ましい。人間の視覚は、輝度信号に基づく画像のエッジのボケは比較的感知しやすいが、色度信号に基づく画像のエッジのボケは比較的感知しにくいという特性を利用して、エッジのボケを抑制しつつ、ノイズを低減するのである。   FIG. 6 is a graph showing the first weighting amount and the second weighting amount used in the modification of the present embodiment, which goes back to the past as it goes to the right side of the horizontal axis. In the 30 fps specification, one frame is switched in 1/30 seconds. That is, when N1 seconds go back from the current t seconds in the past, the number of frames during that time is N1 · 30 frames. Assuming that the current frame is F (t), the frame at the time point that goes back in the past for N1 seconds is taken as F (t-n1), and the frame at the time point that goes back in the past N2 seconds is taken as F (t-n2). In the present modification, the first weighting amount a1 decreases linearly from the current frame F (t), which is imaging at the time point t, on the time axis, and then reaches a predetermined time that is N1 seconds past the first time. It is zero before the fewth frame F (t−n1). On the other hand, the second weighting amount a2 is constant, but a predetermined number of frames F () (N2 seconds past the second time) from the current frame F (t) that is imaged at time t on the time axis. t−n2) Before zero. It is preferable that n1 <n2. Human vision suppresses edge blur by using the characteristic that image edge blur based on luminance signal is relatively easy to detect, but image edge blur based on chromaticity signal is relatively hard to detect. However, noise is reduced.

本発明は、車載カメラや監視カメラ等に適用可能であるが、用途はそれに限られない。   The present invention can be applied to in-vehicle cameras, surveillance cameras, and the like, but the application is not limited thereto.

101 撮像素子
102 A/D変換部
103 輝度・色度分離部
104 輝度加重加算部
105 色度加重加算部
106A、106B 輝度・色度合成部
107 表示部
111 輝度差計算部
112 輝度平均部
113 色度平均部
MG1,MG2 画像入力装置
DESCRIPTION OF SYMBOLS 101 Image pick-up element 102 A / D conversion part 103 Luminance / chromaticity separation part 104 Luminance weighted addition part 105 Chromaticity weighted addition part 106A, 106B Luminance / chromaticity synthesis part 107 Display part 111 Luminance difference calculation part 112 Luminance average part 113 Color Degree averaging unit MG1, MG2 Image input device

Claims (15)

被写体光を入射して画像信号に変換する撮像手段と、
前記撮像手段から順次出力された画像信号を、フレーム毎に輝度信号と色度信号に分離する分離手段と、
時間的に連続する複数のフレームにおける処理対象フレームと前記処理対象フレームに対し時間的に先行するフレーム間の被写体の変化を所定の領域毎に検出し、被写体の変化に応じて複数の状態に分類する検出手段と、
前記分離手段によって分離された、前記処理対象フレームにおける輝度信号及び色度信号の少なくとも一方に対して、所定数の前記先行するフレームの対応する輝度信号及び色度信号の少なくとも一方を用いて、前記所定の領域毎にそれぞれ、前記検出手段による分類に応じて異なる平均化処理を行う処理手段と、
前記処理手段によって処理された輝度信号と色度信号とを合成して、前記処理対象フレームに対応する画像データを形成する画像データ形成手段と、を有することを特徴とする画像入力装置。
Imaging means for entering subject light and converting it into an image signal;
Separating means for separating the image signal sequentially output from the imaging means into a luminance signal and a chromaticity signal for each frame;
Changes in the subject between a processing target frame in a plurality of temporally continuous frames and a frame temporally preceding the processing target frame are detected for each predetermined region, and classified into a plurality of states according to the subject change Detecting means for
For at least one of the luminance signal and chromaticity signal in the processing target frame separated by the separation means, using at least one of the luminance signal and chromaticity signal corresponding to a predetermined number of the preceding frames, Processing means for performing different averaging processes according to the classification by the detection means for each predetermined region;
An image input device comprising: image data forming means for combining the luminance signal and chromaticity signal processed by the processing means to form image data corresponding to the processing target frame.
前記先行するフレームの輝度信号と、前記処理対象フレームの輝度信号との差が、第1の閾値以下であるときは、前記検出手段は、前記被写体の変化が第1の状態であると分類し、前記処理手段は、前記輝度信号を用いて平均化処理を行い、
前記先行するフレームの輝度信号と、前記処理対象フレームの輝度信号との差が、前記第1の閾値を超えたときは、前記検出手段は、前記被写体の変化が前記第1の状態よりも大きい第2の状態であると分類し、前記処理手段は、前記色度信号を用いて平均化処理を行うことを特徴とする請求項1に記載の画像入力装置。
When the difference between the luminance signal of the preceding frame and the luminance signal of the processing target frame is equal to or less than a first threshold, the detection unit classifies the change of the subject as being in the first state. The processing means performs an averaging process using the luminance signal,
When the difference between the luminance signal of the preceding frame and the luminance signal of the processing target frame exceeds the first threshold value, the detection unit has a change in the subject larger than that in the first state. The image input apparatus according to claim 1, wherein the image input device is classified as being in a second state, and the processing unit performs an averaging process using the chromaticity signal.
前記処理手段によって輝度信号を用いて平均化処理を行う際に用いられる前記先行するフレームの前記所定数は可変であり、前記処理手段によって色度信号を用いて平均化処理を行う際に用いられる前記先行するフレームの前記所定数は固定であることを特徴とする請求項2に記載の画像入力装置。   The predetermined number of the preceding frames used when the processing unit performs the averaging process using the luminance signal is variable, and is used when the processing unit performs the averaging process using the chromaticity signal. The image input apparatus according to claim 2, wherein the predetermined number of the preceding frames is fixed. 色度信号は、前記処理手段による平均化処理前、あるいは平均化処理後にローパスフィルタを通して平均化されることを特徴とする請求項2又は3に記載の画像入力装置。   The image input apparatus according to claim 2 or 3, wherein the chromaticity signal is averaged through a low-pass filter before or after the averaging process by the processing means. 前記処理手段により平均化処理される際に用いられる輝度信号又は色度信号は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差に応じて重み付けされることを特徴とする請求項2〜4のいずれかに記載の画像入力装置。   The luminance signal or chromaticity signal used when the averaging process is performed by the processing unit is weighted according to a time difference to a frame temporally preceding the processing target frame. The image input device according to claim 2. 前記先行するフレームの輝度信号と、前記処理対象フレームの輝度信号との差が、前記第1の閾値よりも大きい第2の閾値を超えたときは、前記検出手段は、被写体の変化が前記第2の状態よりも大きい第3の状態であると分類し、前記処理手段は、平均化処理を行わないことを特徴とする請求項2〜5のいずれかに記載の画像入力装置。   When the difference between the luminance signal of the preceding frame and the luminance signal of the processing target frame exceeds a second threshold value that is larger than the first threshold value, the detection means detects that the subject has changed. The image input device according to claim 2, wherein the image input device is classified as a third state larger than the state 2 and the processing means does not perform an averaging process. 前記所定の領域とは、1画素であることを特徴とする請求項1〜6のいずれかに記載の画像入力装置。   The image input apparatus according to claim 1, wherein the predetermined area is one pixel. 前記所定の領域とは、複数の画素からなる画素ブロックであることを特徴とする請求項1〜6のいずれかに記載の画像入力装置。   The image input apparatus according to claim 1, wherein the predetermined area is a pixel block including a plurality of pixels. 被写体光を入射して画像信号に変換する撮像手段と、
前記撮像手段から順次出力された画像信号を、フレーム毎に輝度信号と色度信号に分離する分離手段と、
時間的に連続する複数のフレームにおける処理対象フレームの前記輝度信号について、前記処理対象フレームに対し時間的に先行する所定数の先行フレームにおける対応する前記輝度信号に第1の重み付け量による重み付けを行って所定の領域毎に加算処理を行うと共に、前記処理対象フレームにおける前記色度信号について、前記処理対象フレームに対し時間的に先行する所定数の先行フレームにおける対応する前記色度信号に、前記第1の重み付け量以上である第2の重み付け量による重み付けを行って所定の領域毎に加算処理を行う処理手段と、
前記処理手段によって加算処理された輝度信号と色度信号とを合成して、前記処理対象フレームに対応する画像データを形成する画像データ形成手段と、を有することを特徴とする画像入力装置。
Imaging means for entering subject light and converting it into an image signal;
Separating means for separating the image signal sequentially output from the imaging means into a luminance signal and a chromaticity signal for each frame;
For the luminance signal of the processing target frame in a plurality of temporally continuous frames, the luminance signal corresponding to a predetermined number of preceding frames temporally preceding the processing target frame is weighted with a first weighting amount. The chromaticity signal in the processing target frame is added to the corresponding chromaticity signal in a predetermined number of preceding frames temporally preceding the processing target frame. Processing means for performing addition processing for each predetermined region by performing weighting by a second weighting amount that is equal to or greater than one weighting amount;
An image input device comprising: image data forming means for combining the luminance signal and the chromaticity signal added by the processing means to form image data corresponding to the processing target frame.
前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差に応じて前記第1の重み付け量を変更することを特徴とする請求項9に記載の画像入力装置。   The image input apparatus according to claim 9, wherein the processing unit changes the first weighting amount according to a time difference from a temporally preceding frame to the processing target frame as a reference. 前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差に応じて前記第2の重み付け量を変更することを特徴とする請求項9又は10に記載の画像入力装置。   11. The image input according to claim 9, wherein the processing unit changes the second weighting amount according to a time difference from a temporally preceding frame to the processing target frame as a reference. apparatus. 前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差が第1の時間を超えたときは、前記第1の重み付け量をゼロとすることを特徴とする請求項9〜11のいずれかに記載の画像入力装置。   The processing means sets the first weighting amount to zero when a time difference to a frame preceding in time exceeds a first time with the processing target frame as a reference. Item 12. The image input device according to any one of Items 9 to 11. 前記処理手段は、前記処理対象フレームを基準とし、それに時間的に先行するフレームまでの時間差が前記第1の時間より長い前記第2の時間を超えたときは、前記第2の重み付け量をゼロとすることを特徴とする請求項12に記載の画像入力装置。   The processing means sets the second weighting amount to zero when the time difference up to the frame preceding in time exceeds the second time longer than the first time with the processing target frame as a reference. The image input device according to claim 12, wherein: 前記所定の領域とは、1画素であることを特徴とする請求項9〜13のいずれかに記載の画像入力装置。   The image input device according to claim 9, wherein the predetermined area is one pixel. 前記所定の領域とは、複数の画素からなる画素ブロックであることを特徴とする請求項9〜13のいずれかに記載の画像入力装置。   The image input apparatus according to claim 9, wherein the predetermined area is a pixel block including a plurality of pixels.
JP2011519789A 2009-06-25 2010-06-15 Image input device Expired - Fee Related JP5704069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011519789A JP5704069B2 (en) 2009-06-25 2010-06-15 Image input device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009150491 2009-06-25
JP2009150491 2009-06-25
JP2011519789A JP5704069B2 (en) 2009-06-25 2010-06-15 Image input device
PCT/JP2010/060099 WO2010150681A1 (en) 2009-06-25 2010-06-15 Image input device

Publications (2)

Publication Number Publication Date
JPWO2010150681A1 true JPWO2010150681A1 (en) 2012-12-10
JP5704069B2 JP5704069B2 (en) 2015-04-22

Family

ID=43386451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011519789A Expired - Fee Related JP5704069B2 (en) 2009-06-25 2010-06-15 Image input device

Country Status (2)

Country Link
JP (1) JP5704069B2 (en)
WO (1) WO2010150681A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111147695B (en) * 2019-12-31 2022-05-13 Oppo广东移动通信有限公司 Image processing method, image processor, shooting device and electronic equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6471287A (en) * 1987-09-11 1989-03-16 Hitachi Ltd Noise reducer
JP2586687B2 (en) * 1990-04-20 1997-03-05 松下電器産業株式会社 Noise removal circuit
US5208673A (en) * 1991-11-05 1993-05-04 Matsushita Electric Corporation Of America Noise reduction in frame transmitted video signals
JP3226799B2 (en) * 1996-09-06 2001-11-05 日本電気株式会社 Noise reducer circuit
JP2000209507A (en) * 1999-01-12 2000-07-28 Toshiba Corp Low noise processing circuit for solid-state image pickup device
JP2007050110A (en) * 2005-08-18 2007-03-01 Pentax Corp Image processor and electronic endoscope system

Also Published As

Publication number Publication date
WO2010150681A1 (en) 2010-12-29
JP5704069B2 (en) 2015-04-22

Similar Documents

Publication Publication Date Title
KR100786931B1 (en) Image signal processing apparatus and image signal processing method
JP3762725B2 (en) Imaging system and image processing program
JP2003199123A (en) Flicker correction in moving picture
US8520099B2 (en) Imaging apparatus, integrated circuit, and image processing method
JP2014021928A (en) Image processor, image processing method and program
US10755399B2 (en) Image processing device, image processing method, and image processing program
US8830359B2 (en) Image processing apparatus, imaging apparatus, and computer readable medium
JP2017037357A (en) Image processing device, program and recording medium
US10621703B2 (en) Image processing apparatus, image processing method, and program
JPH08251474A (en) Motion vector detector, motion vector detection method, image shake correction device, image tracking device and image pickup device
JP2011171842A (en) Image processor and image processing program
US8599288B2 (en) Noise reduction apparatus, method and computer-readable recording medium
JP2012090146A (en) Image processing device, image processing method, and program
JP5704069B2 (en) Image input device
US7433534B2 (en) Edge emphasizing circuit
JP5446641B2 (en) Image processing apparatus, image processing method, and image processing program
US10249020B2 (en) Image processing unit, imaging device, computer-readable medium, and image processing method
JP2011044846A (en) Image processor and imaging apparatus
TWI388201B (en) Image processing apparatus, image processing method, and digital camera of using the mask to diminish the noise
JP6314281B1 (en) Image processing method and foreground region acquisition method
WO2015156045A1 (en) Image processing device, image-capturing device, and image-capturing method
JP7263018B2 (en) Image processing device, image processing method and program
JP6929185B2 (en) Image processing equipment and image processing methods, programs, storage media
KR100688757B1 (en) An apparatus and method for the edge enhancement of image data
JP2023013549A (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130604

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150209

R150 Certificate of patent or registration of utility model

Ref document number: 5704069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees