JP3408146B2 - Image processing apparatus and medium storing image processing program - Google Patents

Image processing apparatus and medium storing image processing program

Info

Publication number
JP3408146B2
JP3408146B2 JP08723998A JP8723998A JP3408146B2 JP 3408146 B2 JP3408146 B2 JP 3408146B2 JP 08723998 A JP08723998 A JP 08723998A JP 8723998 A JP8723998 A JP 8723998A JP 3408146 B2 JP3408146 B2 JP 3408146B2
Authority
JP
Japan
Prior art keywords
image
pixel
saturation
auxiliary
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP08723998A
Other languages
Japanese (ja)
Other versions
JPH11285019A (en
Inventor
隆英 谷口
圭介 岩崎
尚史 斎鹿
安久 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP08723998A priority Critical patent/JP3408146B2/en
Publication of JPH11285019A publication Critical patent/JPH11285019A/en
Application granted granted Critical
Publication of JP3408146B2 publication Critical patent/JP3408146B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、低照度時の被写体
を撮影して得られる画像の画質を改善するための画像処
理装置および画像処理プログラムを記憶する媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a medium for storing an image processing program for improving the image quality of an image obtained by photographing a subject under low illuminance.

【0002】[0002]

【従来の技術】近年、撮像素子を備えた画像機器とし
て、たとえばいわゆるデジタル電子スチルカメラなど
が、知られている。前記画像機器は、被写体からの光を
前記撮像素子に光電変換して電気的な画像信号を得て、
前記画像信号を画像データに変換して、記憶する。前記
撮像素子は、たとえばいわゆるCCDイメージセンサで
あるる。前記画像信号および画像データは、複数の画素
から構成される画像を表すアナログ信号およびデジタル
データである。前記画像データは、前記画像の各画素の
色をそれぞれ表す複数の画素データを含んでいる。以
後、画像信号および画像データを、該画像信号および該
画像データが表す画像と略称することがある。前記色
は、一般的に、色の三属性、すなわち輝度、彩度、およ
び色相によって規定される。
2. Description of the Related Art In recent years, so-called digital electronic still cameras and the like have been known as image equipment having an image pickup device. The image device obtains an electrical image signal by photoelectrically converting light from a subject into the image sensor,
The image signal is converted into image data and stored. The image pickup device is, for example, a so-called CCD image sensor. The image signal and the image data are analog signals and digital data representing an image composed of a plurality of pixels. The image data includes a plurality of pixel data representing the color of each pixel of the image. Hereinafter, the image signal and the image data may be abbreviated as an image represented by the image signal and the image data. The color is generally defined by three attributes of color: brightness, saturation, and hue.

【0003】前記画像の画質を向上させるために前記画
像データに施される画像処理の1つに、画素の輝度のレ
ベルを改善するための輝度補正処理がある。前記輝度補
正処理が前記画像データに施される場合、前記画像デー
タ内の各画素データの輝度成分が、補正前の輝度成分の
値に応じた予め定める増幅率で、増幅される。一般的
に、補正前の輝度成分の値、すなわち補正前の画素の輝
度のレベルが低いほど、前記増幅率が高い。
One of the image processes performed on the image data to improve the image quality of the image is a brightness correction process for improving the brightness level of a pixel. When the brightness correction process is performed on the image data, the brightness component of each pixel data in the image data is amplified by a predetermined amplification factor according to the value of the brightness component before correction. Generally, the lower the brightness component value before correction, that is, the brightness level of the pixel before correction, the higher the amplification factor.

【0004】前記画像機器を用い被写体を撮影する際
に、前記被写体がある空間の照度が低い場合、得られる
画像の各画素の輝度のレベルがどれも低くなり、かつ、
前記各画素の画素データがいわゆるランダムノイズの影
響を強く受ける。前記ランダムノイズは、たとえば、撮
像素子に起因して発生するCCDノイズを含む。このた
め、低照度時に得られる画像に上述の輝度補正処理をそ
のまま施すと、前記ランダムノイズが強調されるので、
輝度補正処理が施された後の画像が非常にきたなくな
る。このため、前記画像に前記輝度補正処理を施す場
合、さらに前記ランダムノイズを抑制するための処理
を、前記画像データに施す必要がある。
When the subject is photographed using the image device, if the illuminance of the subject is low, the luminance level of each pixel of the obtained image becomes low, and
The pixel data of each pixel is strongly influenced by so-called random noise. The random noise includes, for example, CCD noise generated due to the image sensor. Therefore, if the above-described brightness correction processing is applied to the image obtained at low illuminance as it is, the random noise is emphasized.
The image after being subjected to the brightness correction processing becomes very messy. Therefore, when the brightness correction process is performed on the image, it is necessary to further perform a process for suppressing the random noise on the image data.

【0005】図13は、前記ランダムノイズの抑制のた
めの処理に関する第1の従来技術である雑音除去回路1
の電気的構成を示すブロック図である。雑音除去回路1
は、画像信号の信号レベルに応じて雑音の見え方にバラ
ンスを保ちつつ、ノイズを除去するための処理を行う回
路であり、特開平7−111605号公報に開示され
る。雑音除去回路1は、3つのローパスフィルタ3〜5
と、信号レベル検出回路6と、判定回路7と、選択器8
とを備える。
FIG. 13 is a first prior art noise elimination circuit 1 relating to the processing for suppressing the random noise.
3 is a block diagram showing the electrical configuration of FIG. Noise elimination circuit 1
Is a circuit that performs processing for removing noise while keeping the appearance of noise in balance according to the signal level of the image signal, and is disclosed in Japanese Patent Application Laid-Open No. 7-111605. The noise removing circuit 1 includes three low-pass filters 3-5.
, Signal level detection circuit 6, determination circuit 7, and selector 8
With.

【0006】雑音除去回路1の処理対象となる画像信号
は、3つのローパスフィルタ3〜5と信号レベル検出回
路6とに、それぞれ与えられる。各ローパスフィルタ3
〜5は、前記画像信号からノイズをそれぞれ除去するた
めのものであり、通過帯域特性が相互に異なる。判定回
路7は、信号レベル検出回路6が検出した前記画像信号
の信号レベル、すなわち画素の輝度のレベルと、予め定
める3種類の閾値とを、それぞれ比較する。選択器8
は、判定回路7の比較結果に基づいて、前記画素の輝度
のレベルが低いほど前記映像信号内のノイズの除去効果
を大きくするために、前記画像信号の信号レベルが小さ
くなるほど、帯域がより狭いいずれか1つのローパスフ
ィルタを選ぶ。選ばれたいずれか1つのローパスフィル
タから出力される画像信号が、選択器8から雑音除去回
路1外部に出力される。
The image signal to be processed by the noise removing circuit 1 is given to the three low pass filters 3 to 5 and the signal level detecting circuit 6, respectively. Each low pass filter 3
5 to 5 are for removing noise from the image signal, respectively, and have different pass band characteristics. The determination circuit 7 compares the signal level of the image signal detected by the signal level detection circuit 6, that is, the luminance level of the pixel, with each of three types of predetermined threshold values. Selector 8
On the basis of the comparison result of the determination circuit 7, the lower the luminance level of the pixel is, the greater the effect of removing noise in the video signal is. Therefore, the smaller the signal level of the image signal is, the narrower the band is. Select one of the low-pass filters. The image signal output from any one selected low-pass filter is output from the selector 8 to the outside of the noise removal circuit 1.

【0007】雑音除去回路1では、前記ノイズの除去に
ローパスフィルタを用いているので、雑音除去回路1か
ら出力される画像信号が表す画像が、空間的にぼけてし
まうことがある。このため、前記画像の画質の改善を充
分に行うことは困難である。さらに、前記ランダムノイ
ズは、一般的に、ローパスフィルタだけを用いて前記画
像信号から充分に取除くことは困難なので、雑音除去回
路1から出力される画像信号に、前記ランダムノイズが
残ることがある。
Since the noise removing circuit 1 uses a low-pass filter to remove the noise, the image represented by the image signal output from the noise removing circuit 1 may be spatially blurred. Therefore, it is difficult to sufficiently improve the image quality of the image. Furthermore, since it is generally difficult to sufficiently remove the random noise from the image signal using only a low-pass filter, the random noise may remain in the image signal output from the noise removing circuit 1. .

【0008】本件出願人は、前記ランダムノイズの抑制
のための処理に関する第2の従来技術として、特開平5
−91395号公報に開示される映像信号処理装置11
を提案している。図14は、映像信号処理装置11の電
気的構成を示すブロック図である。映像信号処理装置1
1は、カメラ14と、信号レベル検出回路15と、画像
平均化回路16とを含む。
The applicant of the present invention has disclosed in Japanese Patent Application Laid-Open No. Hei 5 (1999) -58200 as a second prior art relating to the processing for suppressing the random noise.
Video signal processing device 11 disclosed in Japanese Patent Laid-Open No. 91395
Is proposed. FIG. 14 is a block diagram showing an electrical configuration of the video signal processing device 11. Video signal processing device 1
Reference numeral 1 includes a camera 14, a signal level detection circuit 15, and an image averaging circuit 16.

【0009】カメラ14は、広角レンズ13を介して被
写体を連続して複数回撮影し、複数フレームの画像を示
す映像信号AS1を、信号レベル検出回路15に順次与
える。また、前記映像信号は、デジタルデータに変換さ
れてから、画像内の領域の抽出に拘わる回路17を介し
て、画像平均化回路16に与えられる。信号レベル検出
回路15は、前記映像信号の各フレームの画像に基づい
て、被写体のある空間の撮影時の照度が低いかどうかを
検出する。照度が低いことが検出される場合、信号レベ
ル検出回路15は、低照度検出信号S0を出力して、画
像平均化回路16を能動化させる。画像平均化回路16
は、前記映像信号内のランダムノイズを低減させるため
に、最新フレームの画像と1フレーム前の画像とを平均
化する。信号レベル検出回路15と画像平均化回路16
とは、上述の処理をフレーム毎に繰返す。この結果、画
像平均化回路16は、前記ランダムノイズが時間的に平
均化された映像信号AS2を、ランダムノイズ低減の他
の処理に拘わる回路18を介して、映像信号処理回路1
1外部に出力する。
The camera 14 continuously photographs a subject a plurality of times through the wide-angle lens 13 and sequentially supplies a video signal AS1 showing images of a plurality of frames to a signal level detection circuit 15. Further, the video signal is supplied to the image averaging circuit 16 via the circuit 17 involved in the extraction of the region in the image after being converted into digital data. The signal level detection circuit 15 detects, based on the image of each frame of the video signal, whether or not the illuminance at the time of shooting the space in which the subject is present is low. When it is detected that the illuminance is low, the signal level detection circuit 15 outputs the low illuminance detection signal S0 to activate the image averaging circuit 16. Image averaging circuit 16
Averages the image of the latest frame and the image one frame before in order to reduce random noise in the video signal. Signal level detection circuit 15 and image averaging circuit 16
Means that the above process is repeated for each frame. As a result, the image averaging circuit 16 passes the video signal AS2, in which the random noise is temporally averaged, to the video signal processing circuit 1 via the circuit 18 which is involved in another process of random noise reduction.
1 Output to outside.

【0010】[0010]

【発明が解決しようとする課題】上述した第2の従来技
術の映像信号処理装置11は、信号レベル検出回路15
および画像平均化回路16が処理する画像の枚数が多い
ほど、ランダムノイズが抑制される。ゆえに、前記映像
信号のランダムノイズを充分に除去するためには、多数
の画像、たとえば4枚以上の画像が必要になる。このた
め、映像信号処理装置11は、連続して多数の画像を得
ることができる画像機器、たとえばビデオカメラに適用
することはできるが、該画像機器以外の画像機器、たと
えばデジタルスチルカメラに適用することは困難であ
る。
The video signal processing device 11 of the second prior art described above has the signal level detection circuit 15
And the larger the number of images processed by the image averaging circuit 16, the more the random noise is suppressed. Therefore, a large number of images, for example, four or more images are required to sufficiently remove the random noise of the video signal. Therefore, the video signal processing device 11 can be applied to an image device capable of continuously obtaining a large number of images, such as a video camera, but is applied to an image device other than the image device, such as a digital still camera. Is difficult.

【0011】さらに、たとえば、映像信号処理回路11
のカメラ14が、動きのある被写体を連続して撮影する
場合、前記映像信号の各フレームの画像内に写る被写体
の位置や形状が、前記各フレームの画像間で相互にずれ
る。ゆえに、このような映像信号の各フレームの画像
が、信号レベル検出回路15および画像平均化回路16
に与えられると、映像信号処理回路11から出力される
映像信号に、前記ずれに起因する補正の誤りが蓄積され
る。これによって、前記各フレームの画像の画質の改善
が困難になる。
Further, for example, the video signal processing circuit 11
When the camera 14 continuously captures a moving subject, the position and shape of the subject appearing in the image of each frame of the video signal are displaced from each other between the images of each frame. Therefore, the image of each frame of such a video signal is detected by the signal level detection circuit 15 and the image averaging circuit 16.
To the video signal output from the video signal processing circuit 11, a correction error due to the deviation is accumulated. This makes it difficult to improve the image quality of the image of each frame.

【0012】本発明の目的は、できるだけ少ない枚数の
画像を用いて、該画像内のランダムノイズを充分に抑制
し、かつ、前記画像が動きのある被写体を撮影して得ら
れたものである場合もランダムノイズの抑制が可能な画
像処理装置および画像処理プログラムを記憶する媒体を
提供することである。
The object of the present invention is to obtain the image in which the random noise in the images is sufficiently suppressed and the image of a moving subject is photographed by using as few images as possible. Another object is to provide an image processing device capable of suppressing random noise and a medium storing an image processing program.

【0013】[0013]

【課題を解決するための手段】第1の発明は、複数の画
素から構成されるカラーの被処理画像を入力する被処理
画像入力手段と、前記被処理画像の各画素の輝度を、予
め定める関数に基づいて、それぞれ補正する被処理画像
用輝度補正手段と、輝度成分が補正された前記被処理画
像の各画素の彩度を、前記各画素の補正された輝度が低
くかつ前記各画素の前記彩度が高いほど、それぞれ抑制
する被処理画像用彩度抑制手段とを含むことを特徴とす
る画像処理装置である。
According to a first aspect of the present invention, a processed image input means for inputting a color processed image composed of a plurality of pixels and a luminance of each pixel of the processed image are predetermined. A brightness correction unit for a processed image that corrects each pixel based on a function, and a saturation of each pixel of the processed image whose brightness component has been corrected is calculated so that the corrected brightness of each pixel is low and The image processing apparatus is characterized in that it includes processing target image saturation suppression means that suppresses the higher the saturation.

【0014】本発明に従えば、前記画像処理装置は、い
わゆる輝度補正処理が施された前記被処理画像に、さら
に前記被処理画像用彩度抑制手段を用いて彩度抑制処理
を施す。前記彩度抑制処理は、画素の輝度が低くかつ画
素の彩度が高いほど、彩度を強く抑制する。これによっ
て、前記輝度補正処理に起因して、前記被処理画像に重
畳されるいわゆるランダムノイズが増幅された場合、前
記ランダムノイズだけを選択的に抑制することができ
る。したがって、前記被処理画像が、照度が比較的低い
空間内の被写体を撮影して得られている場合、前記被処
理画像の画質を改善することができる。また、前記被処
理画像用彩度抑制手段は、前記各画素の彩度の抑制の度
合を、該各画素自体の前記補正された輝度および彩度に
基づいて、定めている。ゆえに、前記彩度の抑制のため
の処理を、前記被処理画像の画素単位で行うことができ
る。したがって、前記画像処理装置は、前記被理画像全
体を一様に処理する画像処理装置と比較して、前記被処
理画像の画質の改善を効率良く行うことができる。
According to the present invention, the image processing apparatus further applies the saturation suppression processing to the processed image subjected to the so-called brightness correction processing by using the saturation suppression means for the processed image. The saturation suppression processing strongly suppresses the saturation as the brightness of the pixel is low and the saturation of the pixel is high. Accordingly, when so-called random noise superimposed on the image to be processed is amplified due to the brightness correction process, only the random noise can be selectively suppressed. Therefore, when the processed image is obtained by photographing a subject in a space with relatively low illuminance, the image quality of the processed image can be improved. Further, the processing target image saturation suppression means determines the degree of saturation suppression of each pixel based on the corrected luminance and saturation of each pixel itself. Therefore, the processing for suppressing the saturation can be performed for each pixel of the processed image. Therefore, the image processing device can efficiently improve the image quality of the processed image as compared with the image processing device that uniformly processes the entire processed image.

【0015】また第2の発明は、前記被処理画像と同じ
被写体が写り、複数の画素から構成されるカラーの補助
画像を、少なくとも1枚入力する補助画像入力手段と、
彩度が抑制された前記被処理画像と、全ての前記補助画
像とを合成して、合成画像を得る合成手段とをさらに含
み、前記合成画像の各画素の色は、前記彩度が抑制され
た被処理画像の各画素の色と、該被処理画像内の各画素
にそれぞれ対応する前記全ての補助画像の各画素の色と
の平均であることを特徴とする。
A second aspect of the present invention is auxiliary image input means for inputting at least one color auxiliary image including the same subject as the image to be processed and including a plurality of pixels.
It further includes a combining means for combining the processed image in which the saturation is suppressed and all the auxiliary images to obtain a combined image, and the color of each pixel of the combined image has the saturation suppressed. The average of the color of each pixel of the processed image and the color of each pixel of all of the auxiliary images corresponding to each pixel in the processed image.

【0016】本発明に従えば、前記画像処理装置は、第
1の画像処理装置に加えて、補助画像入力手段と合成手
段とを含む。この結果、前記画像処理装置は、輝度が補
正された前記被処理画像内の各画素の彩度をそれぞれ抑
制するだけでなく、前記少なくとも1枚の補助画像と前
記彩度が抑制された被処理画像とを平均合成する。平均
合成によって得られる合成画像は、前記被処理画像と同
じ被写体が写っている画像であり、かつ、該合成画像の
画素の色は、上述のように定められる。これによって、
合成時に、前記彩度が抑制された被処理画像に残るラン
ダムノイズが、前記補助画像に重畳されるランダムノイ
ズによって相殺される。したがって、第2の前記画像処
理装置から出力される画像、すなわち合成画像の画質
が、前記彩度が抑制された被処理画像の画質よりも向上
する。
According to the present invention, the image processing apparatus includes auxiliary image input means and combining means in addition to the first image processing apparatus. As a result, the image processing device not only suppresses the saturation of each pixel in the processed image whose brightness has been corrected, but also the at least one auxiliary image and the processed object in which the saturation is suppressed. The image is averaged and combined. The composite image obtained by the average composition is an image in which the same subject as the image to be processed is captured, and the color of the pixel of the composite image is determined as described above. by this,
At the time of synthesis, the random noise remaining in the processed image in which the saturation is suppressed is canceled by the random noise superimposed on the auxiliary image. Therefore, the image quality of the image output from the second image processing device, that is, the image quality of the combined image is improved as compared with the image quality of the processed image in which the saturation is suppressed.

【0017】また第3の発明は、前記全ての補助画像の
各画素の輝度を、予め定める関数に基づいて、それぞれ
補正する補助画像用輝度補正手段と、輝度が補正された
前記全ての補助画像の各画素の彩度を、前記各画素の補
正された前記輝度が低くかつ前記各画素の前記彩度が高
いほど、それぞれ抑制する補助画像用彩度抑制手段とを
さらに含み、前記合成手段は、彩度が抑制された前記被
処理画像と、彩度が抑制された全ての補助画像とを合成
することを特徴とする。
In a third aspect of the present invention, the auxiliary image brightness correction means for correcting the brightness of each pixel of all the auxiliary images based on a predetermined function, and all the auxiliary images whose brightness has been corrected. Further includes auxiliary image saturation suppressing means for suppressing the saturation of each pixel as the corrected luminance of each pixel is lower and the saturation of each pixel is higher, and the combining means is The image to be processed whose saturation has been suppressed and all the auxiliary images whose saturation has been suppressed are combined.

【0018】本発明に従えば、前記画像処理装置は、第
2の画像処理装置に加えて、補助画像用輝度補正手段と
補助画像用彩度抑制手段とを含み、前記合成手段は、前
記全ての補助画像に代わって、前記輝度が補正されてか
つ彩度が抑制された全ての補助画像と、前記彩度が抑制
された被処理画像とを合成する。これによって、前記合
成手段の合成対象の画像、すなわち被処理画像および複
数の補助画像は、合成手段で合成される前に、前記被処
理画像用および補助画像用彩度抑制手段によって、輝度
補正処理によって増幅されたランダムノイズがそれぞれ
抑制されている。これによって、前記合成手段は、合成
対象の画像を画素の彩度を抑制することなくそのまま合
成する場合よりも少ない枚数の画像を合成するだけで、
前記合成画像にランダムノイズが重畳されることを確実
に防止することができる。したがって、合成手段が行う
合成処理が簡略化される。
According to the present invention, the image processing device includes, in addition to the second image processing device, auxiliary image brightness correction means and auxiliary image saturation suppression means, and the synthesizing means includes all of the above. Instead of the auxiliary image, all the auxiliary images whose luminance has been corrected and whose saturation has been suppressed are combined with the processed image whose saturation has been suppressed. Thus, the image to be combined by the combining unit, that is, the processed image and the plurality of auxiliary images are subjected to the brightness correction processing by the saturation suppression unit for the processed image and the auxiliary image before being combined by the combining unit. The random noises amplified by are suppressed respectively. As a result, the synthesizing means synthesizes a smaller number of images than the case of synthesizing the images to be synthesized without suppressing the saturation of the pixels,
It is possible to reliably prevent random noise from being superimposed on the composite image. Therefore, the synthesizing process performed by the synthesizing unit is simplified.

【0019】また第4の発明は、前記合成画像の各画素
の色は、前記彩度が抑制された被処理画像の各画素の色
と、該被処理画像の各画素にそれぞれ対応する前記全て
の補助画像の各画素の色との単純平均であることを特徴
とする。
According to a fourth aspect of the invention, the color of each pixel of the composite image is the color of each pixel of the processed image in which the saturation is suppressed, and all the colors corresponding to each pixel of the processed image. Is a simple average with the color of each pixel of the auxiliary image.

【0020】本発明に従えば、前記画像処理装置の前記
合成手段は、前記合成画像の各画素の色を定める際に、
いわゆる単純平均を用いる。これによって、簡単な演算
処理によって、前記彩度が抑制された被処理画像に残る
ランダムノイズが、前記補助画像に重畳されるランダム
ノイズによって相殺される。したがって、前記合成手段
は、前記彩度が抑制された被処理画像よりも画質が良い
合成画像を、簡単な処理手順で作成することができる。
According to the invention, the synthesizing means of the image processing apparatus, when determining the color of each pixel of the synthetic image,
The so-called simple average is used. As a result, the random noise remaining in the processed image in which the saturation is suppressed is canceled by the random noise superimposed on the auxiliary image by a simple arithmetic process. Therefore, the synthesizing unit can create a synthesized image having a higher image quality than the processed image in which the saturation is suppressed by a simple processing procedure.

【0021】また第5の発明は、前記各補助画像の各画
素と、該補助画像の画素にそれぞれ対応する前記彩度が
抑制された被処理画像の画素との相関を、該各補助画像
の画素毎に個別に求める相関演算手段をさらに含み、前
記合成画像の各画素の色は、前記彩度が抑制された被処
理画像の各画素の色と、該被処理画像内の各画素にそれ
ぞれ対応し、かつ、前記相関値によってそれぞれ重み付
けされた前記全ての補助画像内の各画素の色との平均で
あることを特徴とする。
In a fifth aspect of the present invention, the correlation between each pixel of each auxiliary image and each pixel of the processed image in which the saturation is suppressed, which corresponds to each pixel of the auxiliary image, is determined by calculating the correlation of each auxiliary image. The color of each pixel of the composite image may be the color of each pixel of the processed image in which the saturation is suppressed and the color of each pixel in the processed image. It is characterized in that it is an average with the color of each pixel in all of the auxiliary images that corresponds and is weighted by the correlation value.

【0022】本発明に従えば、前記画像処理装置の前記
合成手段は、前記合成画像の各画素の色を定める際に、
前記相関を用いた重み付け平均を用いる。たとえば、前
記全ての補助画像それぞれの画素の色は、該画素と対応
する前記彩度が抑制された被処理画像の画素との相関が
小さいほど、重み付けが小さくなる。ゆえに、任意の1
つの補助画像の画素の色の、前記合成画像の画素の色へ
の影響の度合は、該補助画像の画素と前記被処理画像の
画素との相関が低いほど、小さくなる。これによって、
たとえば前記任意の1つの補助画像と前記彩度が抑制さ
れた被処理画像とに、いわゆる手ぶれに起因するずれが
ある場合、前記ランダムノイズの抑制に加えて、合成画
像に前記ずれに起因するぼけや残像が生じることを、防
止することができる。したがって、第5の画像処理装置
は、前記合成画像の画質を、前記彩度が抑制された被処
理画像よりも、向上させることができる。
According to the invention, the synthesizing means of the image processing apparatus, when determining the color of each pixel of the synthetic image,
A weighted average using the correlation is used. For example, the weight of the color of each pixel of all the auxiliary images is smaller as the correlation between the pixel and the pixel of the image to be processed in which the saturation is corresponding is smaller. Therefore, any one
The degree of the influence of the colors of the pixels of the one auxiliary image on the colors of the pixels of the composite image decreases as the correlation between the pixels of the auxiliary image and the pixels of the processed image decreases. by this,
For example, when there is a shift caused by so-called camera shake between the arbitrary one auxiliary image and the processed image in which the saturation is suppressed, in addition to the suppression of the random noise, blurring caused by the shift is caused in the combined image. It is possible to prevent the occurrence of an afterimage. Therefore, the fifth image processing device can improve the image quality of the composite image as compared with the processed image in which the saturation is suppressed.

【0023】また第6の発明は、前記各補助画像と前記
被処理画像とのずれを、各補助画像毎にそれぞれ検出す
るずれ検出手段と、前記各補助画像と前記被処理画像と
のずれの検出の信頼性を、各補助画像毎にそれぞれ求め
る信頼性算出手段とをさらに含み、前記合成手段は、前
記全ての補助画像のうちの前記信頼性が予め定める評価
基準以上である補助画像と、前記彩度が抑制された被処
理画像とを、合成することを特徴とする。
A sixth aspect of the invention is a shift detecting means for detecting a shift between each of the auxiliary images and the image to be processed, and a shift detecting means for detecting the shift between each of the auxiliary images and the image to be processed. The reliability of the detection further includes reliability calculation means for each of the auxiliary images, the synthesizing means, the auxiliary image of the reliability of all the auxiliary images is equal to or more than a predetermined evaluation criteria, It is characterized in that the image to be processed whose saturation is suppressed is combined.

【0024】本発明に従えば、前記画像処理装置は、第
2の画像処理装置に加えて、前記ずれ検出手段と、前記
信頼性算出手段とを備え、前記合成手段は、前記全ての
補助画像に代わって、前記全ての補助画像のうちの前記
信頼性が予め定める評価基準以上である補助画像と前記
彩度が抑制された被処理画像とだけを合成する。これに
よって、検出されたずれの信頼性の低い補助画像が、合
成対象の画像から除かれる。これは、前記合成手段が前
記ずれを考慮して前記補助画像と前記被処理画像とを合
成する場合に、検出された前記ずれが誤っているなら
ば、誤った前記ずれと該ずれが検出された補助画像とを
合成処理に用いると、前記合成画像の画質が劣化する可
能性があるからである。ゆえに、全ての補助画像の中か
ら、前記検出されたずれの信頼性の低い補助画像、すな
わち、前記ずれに誤りがある可能性がある補助画像を除
き、残余の画像だけを前記彩度が抑制された被処理画像
と合成する。これによって、第6の画像処理装置は、前
記ずれの検出誤りに起因して、前記合成画像の画質が劣
化することを、防止することができる。
According to the present invention, the image processing apparatus includes the second image processing apparatus, the shift detecting means and the reliability calculating means, and the synthesizing means includes all the auxiliary images. Instead of the above, only the auxiliary images of which the reliability is equal to or higher than a predetermined evaluation standard of all the auxiliary images and the processed image in which the saturation is suppressed are combined. As a result, the detected auxiliary image of which the deviation is low in reliability is removed from the image to be combined. This is because when the synthesizing unit synthesizes the auxiliary image and the image to be processed in consideration of the shift, if the detected shift is wrong, the wrong shift and the shift are detected. This is because the image quality of the combined image may deteriorate if the supplementary image is used for the combining process. Therefore, from all of the auxiliary images, the saturation is suppressed only for the remaining images except for the auxiliary images with low reliability of the detected deviation, that is, the auxiliary images that may have an error in the deviation. The processed image is combined with the processed image. Accordingly, the sixth image processing apparatus can prevent the image quality of the composite image from being deteriorated due to the error in detecting the shift.

【0025】また第7の発明は、前記各補助画像と前記
被処理画像とのずれをそれぞれ検出するずれ検出手段
と、前記被処理画像と前記各補助画像とのずれを相殺す
るように、前記各補助画像をそれぞれ変形する変形手段
をさらに含み、前記合成手段は、変形された前記全ての
補助画像と、前記彩度が抑制された被処理画像とを、合
成することを特徴とする。
In a seventh aspect of the invention, a shift detecting means for detecting a shift between each of the auxiliary images and the processed image and a shift detecting means for canceling the shift between the processed image and each of the auxiliary images are provided. The image forming apparatus may further include a deforming unit that deforms each auxiliary image, and the combining unit may combine all the deformed auxiliary images with the processing image in which the saturation is suppressed.

【0026】本発明に従えば、前記画像処理装置は、第
2の画像処理装置に加えて、ずれ補正処理のために、前
記ずれ検出手段と前記変形手段とを備える。前記合成手
段は、前記彩度が抑制された被処理画像と前記全ての補
助画像とを合成する代わりに、前記彩度が抑制された被
処理画像と前記変形された全ての補助画像とを合成す
る。前記全ての補助画像を前記ずれを相殺するように変
形することによって、前記補助画像それぞれの前記ずれ
が補正される。したがって、第7の画像処理装置は、た
とえば任意の1つの補助画像と前記被処理画像とにいわ
ゆる手ぶれに起因するずれがある場合でも、前記彩度が
抑制された被処理画像の画質よりも、前記合成画像の画
質を向上させることができる。
According to the present invention, the image processing apparatus includes, in addition to the second image processing apparatus, the deviation detecting means and the deforming means for deviation correction processing. The synthesizing unit synthesizes the processed image in which the saturation is suppressed and all the deformed auxiliary images, instead of synthesizing the processed image in which the saturation is suppressed and all the auxiliary images. To do. By deforming all the auxiliary images so as to cancel the deviation, the deviation of each of the auxiliary images is corrected. Therefore, the seventh image processing apparatus, even if, for example, there is a shift due to so-called camera shake between any one auxiliary image and the processed image, the image quality of the processed image in which the saturation is suppressed is higher than that of the processed image. The quality of the composite image can be improved.

【0027】また第8の発明は、前記被処理画像内に3
つ以上設定される領域内から、特徴点を1つずつ抽出す
る特徴点抽出手段をさらに含み、前記領域のうちの少な
くとも3つの領域は、各領域に予め定められる基準点を
頂点とする図形が正三角形になるように、配置され、前
記ずれ検出手段は、複数の前記特徴点にそれぞれ対応す
る前記各補助画像内の複数の対応点を、前記各補助画像
毎に個別に探索して、前記被処理画像内の全ての前記特
徴点同士の位置関係と、前記各補助画像内の全ての前記
対応点同士の位置関係とに基づいて、前記被処理画像と
前記各補助画像とのずれをそれぞれ求めることを特徴と
する。
An eighth aspect of the invention is that the image to be processed has 3
It further includes a feature point extracting means for extracting feature points one by one from the set regions, and at least three of the regions have a figure whose vertex is a reference point predetermined in each region. Arranged so as to form an equilateral triangle, the deviation detection means individually searches a plurality of corresponding points in each of the auxiliary images respectively corresponding to the plurality of feature points for each of the auxiliary images, Based on the positional relationship between all the feature points in the processed image and the positional relationship between all the corresponding points in each of the auxiliary images, the deviation between the processed image and each of the auxiliary images, respectively. Characterized by seeking.

【0028】本発明に従えば、前記画像処理装置は、第
6または7の画像処理装置に加えて前記特徴点抽出手段
をさらに備え、前記ずれ検出手段は、具体的には、前記
特徴点を用いて、上述の手順でずれを検出する。前記特
徴点は、前記被処理画像内に上述のように配置された前
記複数の領域から1つずつ抽出されるので、全ての特徴
点の位置関係が直線状になること、および前記特徴点が
前記被処理画像の一部分に偏ることが、未然に防止され
る。したがって、第8の画像処理装置は、前記被処理画
像および前記複数の補助画像が比較的照度が低い被写体
を複数回撮影して得られる場合も、前記被処理画像と各
補助画像とのずれを、確実に検出することができる。
According to the present invention, the image processing apparatus further comprises the feature point extracting means in addition to the sixth or seventh image processing apparatus, and the shift detecting means specifically puts the feature points into consideration. Using the above, the deviation is detected by the above procedure. Since the feature points are extracted one by one from the plurality of regions arranged as described above in the image to be processed, the positional relationship of all the feature points is linear, and the feature points are It is possible to prevent a part of the image to be processed from being biased. Therefore, the eighth image processing apparatus, even when the image to be processed and the plurality of auxiliary images are obtained by photographing a subject having relatively low illuminance a plurality of times, shifts the image to be processed and each auxiliary image from each other. , Can be reliably detected.

【0029】また第9の発明は、前記被処理画像用輝度
補正手段は、前記被処理画像の各画素の輝度と予め定め
る基準輝度との和をそれぞれ求め、前記和を前記関数に
基づいてそれぞれ補正することを特徴とする。
In a ninth aspect of the invention, the processed image brightness correction means obtains the sum of the brightness of each pixel of the processed image and a predetermined reference brightness, and the sum is calculated based on the function. It is characterized by correction.

【0030】本発明に従えば、前記画像処理装置の前記
輝度補正手段は、上述の手順で被処理画像の各画素の輝
度を補正する。これによって、前記輝度補正処理によっ
て前記被処理画像に重畳されるランダムノイズが増幅さ
れることを、未然に防止することができる。ゆえに、上
述の輝度補正処理によって輝度が補正された被処理画像
の各画素の彩度を、前記彩度抑制手段を用いて該各画素
の輝度および彩度に応じた度合で抑制することによっ
て、前記ランダムノイズを充分に除去することができ
る。したがって、第9の前記画像処理装置は、彩度が抑
制された被処理画像の画質を、さらに向上させることが
できる。
According to the present invention, the brightness correction means of the image processing apparatus corrects the brightness of each pixel of the image to be processed by the procedure described above. Accordingly, it is possible to prevent the random noise superimposed on the image to be processed from being amplified by the brightness correction process. Therefore, by suppressing the saturation of each pixel of the processing target image whose brightness is corrected by the above-described brightness correction processing by using the saturation suppressing unit to a degree according to the brightness and the saturation of each pixel, The random noise can be sufficiently removed. Therefore, the ninth image processing apparatus can further improve the image quality of the processed image in which the saturation is suppressed.

【0031】また第10の発明は、前記被処理画像の各
画素の抑制された彩度を、前記各画素の補正された輝度
が高いほど、強調する彩度強調手段をさらに含むことを
特徴とする。
A tenth aspect of the invention is characterized by further comprising a saturation enhancing means for enhancing the suppressed saturation of each pixel of the image to be processed as the corrected luminance of each pixel is higher. To do.

【0032】本発明に従えば、前記画像処理装置は、第
1の画像処理装置に加えて、前記輝度補正手段の処理に
よって失われた各画素の彩度成分を補正するために、前
記彩度強調手段をさらに備える。前記彩度強調手段は、
各画素毎に、前記補正された輝度が高いほど、前記抑制
された彩度を強調する。この結果、前記彩度抑制手段で
抑制されたランダムノイズを増加させることなく、前記
失われた各画素の彩度だけを補正することができる。し
たがって、各画素の彩度が強調された前記被処理画像の
画質は、各画素の彩度が抑制された前記被処理画像の画
質よりも良くなる。また、前記彩度強調手段は、前記各
画素の彩度の強調の度合を、該各画素自体の前記補正さ
れた輝度に基づいて定めている。ゆえに、前記彩度の強
調のための処理を、前記被処理画像の画素単位で行うこ
とができる。これによって、第10の前記画像処理装置
は、前記被処理画像全体を一様に処理する画像処理装置
と比較して、前記被処理画像の画質の改善を効率良く行
うことができる。
According to the present invention, in addition to the first image processing device, the image processing device further comprises the saturation device for correcting the saturation component of each pixel lost by the process of the brightness correction means. An emphasis means is further provided. The saturation enhancing means is
For each pixel, the suppressed saturation is emphasized as the corrected luminance is higher. As a result, it is possible to correct only the saturation of each lost pixel without increasing the random noise suppressed by the saturation suppressing unit. Therefore, the image quality of the processed image in which the saturation of each pixel is emphasized is better than the image quality of the processed image in which the saturation of each pixel is suppressed. Further, the saturation enhancing unit determines the degree of saturation enhancement of each pixel based on the corrected luminance of each pixel itself. Therefore, the processing for enhancing the saturation can be performed for each pixel of the processed image. With this, the tenth image processing apparatus can efficiently improve the image quality of the processed image as compared with the image processing apparatus that uniformly processes the entire processed image.

【0033】また第11の発明は、各画素の彩度が抑制
された前記被処理画像に先鋭化を施す先鋭化手段をさら
に含み、前記先鋭化の度合は、前記彩度が抑制された被
処理画像の中の、前記補正された輝度が高い画素がある
部分ほど、強いことを特徴とする。
An eleventh aspect of the present invention further includes sharpening means for sharpening the image to be processed in which the saturation of each pixel is suppressed, and the degree of sharpening is the object whose saturation is suppressed. It is characterized in that the higher the corrected pixel in the processed image is, the stronger the pixel is.

【0034】本発明に従えば、前記画像処理装置は、第
1の画像処理装置に加えて、先鋭化手段をさらに備え
る。前記彩度が補正された被処理画像の中の、前記補正
された輝度が高い画素を含む領域ほど、前記先鋭化手段
の先鋭化の度合が強い。この結果、第11の前記画像処
理装置は、前記彩度抑制手段で抑制されたランダムノイ
ズを増加させることなく、前記彩度が抑制された画像を
先鋭化することができる。したがって、先鋭化が施され
た前記被処理画像の画質は、各画素の彩度が抑制された
前記被処理画像の画質よりも良くなる。
According to the invention, the image processing apparatus further comprises a sharpening means in addition to the first image processing apparatus. The sharpening degree of the sharpening means is stronger in a region including the pixel having the corrected high brightness in the image to be processed whose saturation is corrected. As a result, the eleventh image processing apparatus can sharpen the image in which the saturation is suppressed without increasing the random noise suppressed by the saturation suppression unit. Therefore, the image quality of the sharpened image to be processed is better than that of the processed image in which the saturation of each pixel is suppressed.

【0035】また第12の発明は、複数の画素から構成
されるカラーの被処理画像の画質を改善するための画像
処理プログラムを記憶する媒体であって、前記画像処理
プログラムは、前記被処理画像の各画素の輝度を、予め
定める関数に基づいて、各画素毎にそれぞれ補正し、輝
度が補正された前記被処理画像の各画素の彩度を、前記
各画素の補正された輝度が低くかつ前記各画素の彩度が
高いほど、それぞれ抑制することを特徴とする画像処理
プログラムを記憶する媒体である。
A twelfth invention is a medium for storing an image processing program for improving the image quality of a color processed image composed of a plurality of pixels, wherein the image processing program is the processed image. The luminance of each pixel is corrected for each pixel based on a predetermined function, and the saturation of each pixel of the processed image whose luminance has been corrected is It is a medium for storing an image processing program characterized in that the higher the saturation of each pixel is, the more the saturation is suppressed.

【0036】本発明に従えば、前記媒体は、上述の画像
処理プログラムを記憶する。ゆえに、前記画像処理プロ
グラムを前記コンピュータにインストールし、前記コン
ピュータに前記画像処理プログラムを実行させると、前
記コンピュータの中央演算処理回路が、第1の画像処理
装置の輝度補正手段および彩度抑制手段として働く。こ
の結果、前記コンピュータに与えられた被処理画像の画
質が向上する。ゆえに、前記コンピュータを用いて、請
求項1の画像処理装置を容易に実現することができる。
According to the present invention, the medium stores the above-mentioned image processing program. Therefore, when the image processing program is installed in the computer and the computer is caused to execute the image processing program, the central processing circuit of the computer functions as a brightness correction unit and a saturation suppression unit of the first image processing apparatus. work. As a result, the image quality of the processed image provided to the computer is improved. Therefore, the image processing apparatus according to claim 1 can be easily realized by using the computer.

【0037】[0037]

【発明の実施の形態】図1は、本発明の実施の一形態で
ある画像処理装置22を含む画像作成装置21の電気的
構成を示すブロック図である。画像作成装置21は、画
像処理装置22の他に、撮影装置23を含む。画像処理
装置22は、通信部29と画質改善部31と記憶部30
とを含む。撮影装置23は、光学処理部25と撮像素子
26とアナログ/デジタル変換回路27と記憶部28と
を含む。画像処理装置22と撮像装置23とは、接続ケ
ーブル33を介して電気的に接続され、相互にデータや
信号を送受することができる。接続ケーブル33は、た
とえば画像処理装置22および撮影装置23にそれぞれ
着脱可能であり、画像作成装置21の操作者によって着
脱される。
1 is a block diagram showing an electrical configuration of an image creating apparatus 21 including an image processing apparatus 22 according to an embodiment of the present invention. The image creating device 21 includes a photographing device 23 in addition to the image processing device 22. The image processing device 22 includes a communication unit 29, an image quality improvement unit 31, and a storage unit 30.
Including and The imaging device 23 includes an optical processing unit 25, an image sensor 26, an analog / digital conversion circuit 27, and a storage unit 28. The image processing device 22 and the imaging device 23 are electrically connected via a connection cable 33, and data and signals can be transmitted and received mutually. The connection cable 33 is attachable to and detachable from the image processing device 22 and the image capturing device 23, for example, and is attached and detached by the operator of the image creating device 21.

【0038】画像処理装置22は、概略的には、単一の
被写体がそれぞれ写っている複数の画像を処理対象の画
像として、前記処理対象の複数の画像のうちの少なくと
も1つの画像の画質を改善するための、画質改善処理を
行う。画質が改善された前記少なくとも1つの画像を、
以後、「出力画像」と称する。撮影装置23は、前記処
理対象の複数の画像をそれぞれ表す複数の画像データ3
5を得るために、概略的には、被写体を複数回連続して
撮影する。
The image processing device 22 roughly determines the image quality of at least one of the plurality of images to be processed, with a plurality of images each showing a single subject as the images to be processed. Image quality improvement processing is performed for improvement. The at least one image with improved image quality,
Hereinafter, it will be referred to as an “output image”. The image capturing device 23 uses a plurality of image data 3 representing the plurality of images to be processed.
In order to obtain 5, roughly, the subject is continuously photographed a plurality of times.

【0039】前記単一の画像データは、複数の画素が行
列状に配置されて構成される1枚のカラーの画像を表す
デジタルデータであり、複数の画素に個別に対応する複
数の画素データを含む。任意の1つの前記画素データ
は、対応する前記画素の色、すなわち輝度、彩度、およ
び色相を表すためのものであり、画像の表色系に応じた
1または複数の成分を含む。記憶部28,30は、一般
的に、複数の画像データの集合を、一括して読書きする
ことが多い。以後、複数の画像データの集合を、「画像
ファイル」と称する。
The single image data is digital data representing one color image formed by arranging a plurality of pixels in a matrix, and a plurality of pixel data individually corresponding to a plurality of pixels are obtained. Including. Any one of the pixel data is for representing the color of the corresponding pixel, that is, the luminance, the saturation, and the hue, and includes one or a plurality of components according to the color system of the image. In general, the storage units 28 and 30 often collectively read and write a set of a plurality of image data. Hereinafter, a set of a plurality of image data will be referred to as "image file".

【0040】単一の画像データを得るための1回の撮影
動作における、撮影装置23内部の部品25〜28の概
略的な動作は、以下のとおりである。被写体および該被
写体の存在する空間からの光は、光学処理部25を介し
て、撮像素子の結像面上に結像される。光学処理部25
は、前記光が該光学処理部25を通過する間に、前記光
に予め定める光学的な処理を施す。撮像素子26は、前
記光を光電変換して、画像を表す電気信号である画像信
号を生成する。A/D変換回路27は、前記画像信号を
量子化して、前記画像データを生成する。前記画像デー
タは、撮影装置23の記憶部28に記憶される。以上の
動作が、1回の撮影動作における部品25〜28の動作
である。
The general operation of the parts 25 to 28 inside the image pickup device 23 in one image pickup operation for obtaining a single image data is as follows. Light from the subject and the space in which the subject is present is imaged on the imaging surface of the image sensor via the optical processing unit 25. Optical processing unit 25
Performs a predetermined optical process on the light while the light passes through the optical processing unit 25. The image pickup device 26 photoelectrically converts the light to generate an image signal which is an electric signal representing an image. The A / D conversion circuit 27 quantizes the image signal to generate the image data. The image data is stored in the storage unit 28 of the photographing device 23. The above operation is the operation of the components 25 to 28 in one shooting operation.

【0041】画像作成装置21の操作者は、撮影装置2
3に前記処理対象の複数の画像データ35を生成させる
ために、たとえば、撮影装置23のアングルを固定し
て、撮影装置23に備えられる操作部を複数回操作す
る。前記操作部は、上述の撮影動作の実行を指示するた
めのものであり、たとえばいわゆるシャッタボタンであ
る。前記操作部が操作されるたびに、撮影装置23は上
述の手順で被写体を撮影する。前記撮影動作が複数回行
われる間、撮影装置23のアングル、すなわち撮影装置
23と前記被写体との位置関係は、最初の撮影時の位置
関係にほぼ保たれている必要がある。この結果、前記処
理対象の複数の画像データ35が得られる。複数の画像
データ35は、単一の画像ファイル36を構成する。
The operator of the image forming device 21 is the photographing device 2
In order to generate the plurality of image data 35 to be processed in 3, the angle of the photographing device 23 is fixed and the operation unit provided in the photographing device 23 is operated a plurality of times. The operation section is for instructing the execution of the above-described shooting operation, and is, for example, a so-called shutter button. Each time the operation unit is operated, the image capturing device 23 captures an image of a subject according to the procedure described above. While the photographing operation is performed a plurality of times, the angle of the photographing device 23, that is, the positional relationship between the photographing device 23 and the subject needs to be substantially maintained at the positional relationship at the time of the first photographing. As a result, a plurality of image data 35 to be processed are obtained. The plurality of image data 35 form a single image file 36.

【0042】接続ケーブルによって撮影装置23と画像
処理装置22とが接続された状態で、通信部29が動作
すると、画像ファイル36は、撮影装置23の記憶部2
8から接続ケーブル33および通信部29を介して、画
像処理装置22の記憶部30に与えられて記憶される。
画像ファイル36が画像処理装置22の記憶部30に与
えられた後、該画像ファイル36は、撮影装置23の記
憶部28に残っていても良く、残っていなくても良い。
画像処理装置22の記憶部30は、画像ファイルを、複
数記憶することができる。
When the communication unit 29 operates while the photographing device 23 and the image processing device 22 are connected by the connection cable, the image file 36 is stored in the storage unit 2 of the photographing device 23.
8 is provided to the storage unit 30 of the image processing apparatus 22 via the connection cable 33 and the communication unit 29 and stored therein.
After the image file 36 is provided to the storage unit 30 of the image processing device 22, the image file 36 may or may not remain in the storage unit 28 of the photographing device 23.
The storage unit 30 of the image processing device 22 can store a plurality of image files.

【0043】前記操作者は、画像処理装置22の記憶部
30内の全ての画像ファイルのうちから、いずれか1つ
の画像ファイルを選択して、該いずれか1つの画像ファ
イルを画像処理装置22に指定し、画質改善部31に、
前記いずれか1つの画像ファイル内の複数の画像データ
に基づく前記画質改善処理を行わせる。前記画質改善処
理の処理結果、すなわち、少なくとも1枚の出力画像を
表す画像データは、単一の画像ファイル37を構成す
る。前記処理結果を示す前記画像ファイル37は、記憶
部30に再び記憶される。前記処理結果を示す画像ファ
イル37を再生すると、前記画質改善処理の処理結果、
すなわち、前記出力画像が得られる。
The operator selects any one image file from all the image files in the storage unit 30 of the image processing device 22, and transfers the selected one image file to the image processing device 22. And specify it to the image quality improvement section 31,
The image quality improvement processing is performed based on a plurality of image data in any one of the image files. The processing result of the image quality improvement processing, that is, the image data representing at least one output image constitutes a single image file 37. The image file 37 showing the processing result is stored again in the storage unit 30. When the image file 37 showing the processing result is reproduced, the processing result of the image quality improving processing,
That is, the output image is obtained.

【0044】撮影装置23は、たとえば、いわゆる電子
スチルカメラ、またはいわゆるビデオカメラで実現され
る。撮像素子26は、たとえば、いわゆるCCD素子、
CCDイメージセンサで実現される。画像処理装置22
の記憶部28は、たとえば、ハードディスク装置で実現
される。撮影装置23の記憶部30は、たとえば、記録
媒体として、光磁気ディスク、たとえばいわゆるミニデ
ィスクを用いる記憶装置によって、実現される。光学処
理部70は、たとえば、レンズを含む。
The photographing device 23 is realized by, for example, a so-called electronic still camera or a so-called video camera. The image pickup device 26 is, for example, a so-called CCD device,
It is realized by a CCD image sensor. Image processing device 22
The storage unit 28 of is realized by, for example, a hard disk device. The storage unit 30 of the imaging device 23 is realized by, for example, a storage device that uses a magneto-optical disk, for example, a so-called mini disk as a recording medium. The optical processing unit 70 includes, for example, a lens.

【0045】また、撮影装置23は、アナログ/デジタ
ル変換回路27と記憶部28との間に介在される画像圧
縮部を、さらに含んでいても良い。前記画像圧縮部は、
アナログ/デジタル変換回路27から出力された前記画
像データを、予め定める圧縮方式に基づいて圧縮し、圧
縮された前記画像データを、記憶部28に記憶させる。
前記圧縮方式は、たとえば、JPEG(Joint Photogra
phic coding ExpertGroup)である。これによって、前
記画像データのデータ量が、圧縮されていない画像デー
タよりも低減するので、記憶部28に記憶される画像デ
ータの数を増加させることができる。さらにまた、撮影
装置23は、内部の部品25〜28を制御するための連
続撮影制御部を予め備え、前記操作部が1回操作される
ことに応答して、前記連続撮影制御部が、内部の部品2
5〜28に上述した手順の撮影動作を複数回繰返し実行
させても良い。これによって、操作者が1回操作部を操
作するだけで、前記画質改善処理に必要な複数の画像が
得られる。したがって、撮影装置23の操作が簡単にな
るので、好ましい。
The photographing device 23 may further include an image compression unit interposed between the analog / digital conversion circuit 27 and the storage unit 28. The image compression unit,
The image data output from the analog / digital conversion circuit 27 is compressed based on a predetermined compression method, and the compressed image data is stored in the storage unit 28.
The compression method is, for example, JPEG (Joint Photogra
phic coding ExpertGroup). As a result, the data amount of the image data is reduced as compared with the uncompressed image data, so that the number of image data stored in the storage unit 28 can be increased. Furthermore, the photographing device 23 is provided with a continuous photographing control unit for controlling the internal parts 25 to 28 in advance, and in response to the operation unit being operated once, the continuous photographing control unit is set Parts 2
The photographing operation according to the above-described steps 5 to 28 may be repeatedly executed a plurality of times. As a result, a plurality of images required for the image quality improvement processing can be obtained by the operator only operating the operation unit once. Therefore, the operation of the photographing device 23 is simplified, which is preferable.

【0046】以下に、画質改善部31が行う画質改善処
理を、具体的に説明する。画質改善部31内では、画像
は常に画像データの形態で取扱われる。以後の説明で
は、画像データおよび画素データを、該各データがそれ
ぞれ表す画像および画素に置き換えて説明し、画像デー
タを「画像」と称し、画素データを「画素」と称するこ
とがある。また、以後の説明では、記憶部30内の全て
の画像ファイル36のうちの、操作者に指定されたいず
れか1つの画像ファイル内の全ての画像データが、処理
対象の複数の画像であると仮定する。前記処理対象の複
数の画像は、撮影装置23と被写体との位置関係をほぼ
保ったまま、撮影装置23が被写体を複数回撮影して得
られたものである。
The image quality improving process performed by the image quality improving unit 31 will be specifically described below. In the image quality improving unit 31, images are always handled in the form of image data. In the following description, the image data and the pixel data will be replaced with the images and pixels respectively represented by the respective data, and the image data may be referred to as an “image” and the pixel data may be referred to as a “pixel”. Further, in the following description, it is assumed that all the image data in any one image file designated by the operator among all the image files 36 in the storage unit 30 are a plurality of images to be processed. I assume. The plurality of images to be processed are obtained by the photographing device 23 photographing the subject a plurality of times while substantially maintaining the positional relationship between the photographing device 23 and the subject.

【0047】前記被写体のある空間の照度が比較的低い
場合、前記処理対象の複数の画像それぞれには、いわゆ
るランダムノイズが重畳されている可能性がある。これ
は、一般的に、前記照度が低いほど、該被写体を撮影し
て得られる画像を構成する全ての画素の輝度がそれぞれ
低くなり、画素データに電気的および光学的な雑音が影
響し易くなるからである。前記雑音のうち、出現頻度や
出現箇所を一義的に定めることが困難なランダムノイズ
は、たとえば、前記撮像素子に起因して発生するいわゆ
るCCDノイズを含む。以後、前記空間の照度が比較的
低い場合に、該空間内の被写体を撮影して得られた画像
を、「低照度画像」と称する。前記照度が比較的低い場
合とは、たとえば、真っ暗な室内に、いわゆるルームラ
イトが1つだけ点灯している場合であり、またたとえ
ば、夜間、屋外で蛍光灯が1つまたは2つ点灯している
場合である。
When the illuminance in the space where the subject is present is relatively low, so-called random noise may be superimposed on each of the plurality of images to be processed. This is because generally, the lower the illuminance, the lower the brightness of all the pixels forming the image obtained by shooting the subject, and the electrical and optical noises are more likely to affect the pixel data. Because. Among the noises, the random noises in which it is difficult to uniquely determine the appearance frequency and the appearance place include, for example, so-called CCD noise generated due to the image pickup device. Hereinafter, when the illuminance in the space is relatively low, an image obtained by shooting a subject in the space is referred to as a “low illuminance image”. The case where the illuminance is relatively low is, for example, a case where only one so-called room light is lit in a pitch-dark room, and, for example, one or two fluorescent lights are lit at night or outdoors. If there is.

【0048】また、前記処理対象の複数の画像は、単一
のシーンを撮影装置23によって連続して撮影して得ら
れているので、相互に同じシーンが写っているはずだ
が、前記各画像内の前記被写体が写っている位置および
写っている被写体の形状の少なくとも一方が、前記複数
の画像間で相互にずれていることがある。上述のずれ
は、たとえば、前述した複数回の撮影が行われる間に、
被写体が動いたり、撮影装置23がゆれたりしたため
に、生じる。前記撮影装置23の揺れは、たとえば、撮
影装置23を操作者が手で保持する場合、いわゆる手ぶ
れによって生じる。
Further, since the plurality of images to be processed are obtained by continuously photographing a single scene by the photographing device 23, the same scenes should be reflected in each other. At least one of the position in which the subject is captured and the shape of the captured subject may be displaced from each other between the plurality of images. The above-mentioned shift may occur, for example, during the above-described multiple shootings.
It occurs because the subject moves or the photographing device 23 shakes. The shaking of the photographing device 23 is caused by so-called camera shake when the operator holds the photographing device 23 by hand, for example.

【0049】前記画質改善処理では、前記処理対象の複
数の画像のうちのいずれか1枚を、前記画質改善処理に
よって画質が改善される被処理画像である参照画像Ir
とする。また、前記複数の画像のうちの参照画像Ir以
外の残余の少なくとも1枚の画像、すなわち残余のN枚
の画像を、参照画像Irの画質の改善の参考にするため
の補助画像Iq(1)〜Iq(N)とする。Nは、1以
上の任意の自然数である。また、1以上N以下の任意の
自然数をnと記載する。
In the image quality improving process, any one of the plurality of images to be processed is a reference image Ir which is a processed image whose image quality is improved by the image quality improving process.
And Further, an auxiliary image Iq (1) for using at least one remaining image other than the reference image Ir among the plurality of images, that is, the remaining N images as a reference for improving the image quality of the reference image Ir. ~ Iq (N). N is an arbitrary natural number of 1 or more. In addition, an arbitrary natural number of 1 or more and N or less is described as n.

【0050】また、処理対象の複数の画像Ir,Iq
(1)〜Iq(N)は、記憶部30から画質改善部31
に与えられた時点では、それぞれ、いわゆるRGB表色
系で表されているとする。画像Ir,Iq(1)〜Iq
(N)がRGB表色系で表される場合、任意の1つの前
記画素データは、3色の色成分Rx,Gx,Bx、すな
わちいわゆるR成分とG成分とB成分とを含む。各色成
分は、赤、緑、青の光の輝度を、それぞれ示す。以後の
説明では、各色成分Rx,Gx,Bxは、前記各輝度を
表す数値、すなわち画素値を示すものとする。3色の色
の組合わせは、赤、緑、および青に限らず、混合して白
または黒になる複数の色の組合わせであれば、他の組合
わせでもよい。
Further, a plurality of images Ir, Iq to be processed are provided.
(1) to Iq (N) are stored in the storage unit 30 to the image quality improvement unit 31.
Are given in the so-called RGB color system. Images Ir, Iq (1) to Iq
When (N) is represented by the RGB color system, any one of the pixel data includes color components Rx, Gx, Bx of three colors, that is, so-called R component, G component and B component. Each color component indicates the brightness of red, green, and blue light, respectively. In the following description, each color component Rx, Gx, Bx is assumed to represent a numerical value representing each of the above luminances, that is, a pixel value. The combination of the three colors is not limited to red, green, and blue, and other combinations may be used as long as they are a combination of a plurality of colors that are mixed into white or black.

【0051】図2は、画質改善部31の具体的な機能的
構成を示すブロック図である。画質改善部31は、参照
用前処理部41、特徴点抽出部42、対応点探索部43
(1)〜43(N)、変形部44(1)〜44(N)、
補助用前処理部45(1)〜45(N)、複数枚合成部
46、および後処理部47を含む。参照用前処理部41
は、輝度補正部51と色ノイズ除去部52とを含む。補
助用前処理部43(1)〜43(N)は、それぞれ、輝
度補正部53(1)〜53(N)と、色ノイズ除去部5
4(1)〜54(N)とを含む。後処理部47は、彩度
強調部55と先鋭化部56とを含む。対応点探索部43
(1)〜43(N)と、変形部44(1)〜44(N)
と、補助用前処理部45(1)〜45(N)とは、それ
ぞれ、前記処理対象の全ての画像の数N+1よりも1つ
少ない数Nだけ、すなわち補助画像Iq(1)〜Iq
(N)と同じ数だけある。参照画像Irは、参照用前処
理部41の輝度補正部51と、特徴点抽出部42と、全
ての対応点探索部43(1)〜43(N)とに与えられ
る。各補助画像Iq(1)〜Iq(N)は、各対応点探
索部43(1)〜43(N)と、各変形部44(1)〜
44(N)とに、それぞれ与えられる。
FIG. 2 is a block diagram showing a specific functional configuration of the image quality improving section 31. The image quality improvement unit 31 includes a reference preprocessing unit 41, a feature point extraction unit 42, and a corresponding point search unit 43.
(1) to 43 (N), deforming portions 44 (1) to 44 (N),
It includes auxiliary pre-processing units 45 (1) to 45 (N), a plural-sheet combining unit 46, and a post-processing unit 47. Reference preprocessing unit 41
Includes a brightness correction unit 51 and a color noise removal unit 52. The auxiliary pre-processing units 43 (1) to 43 (N) include the brightness correction units 53 (1) to 53 (N) and the color noise removal unit 5, respectively.
4 (1) to 54 (N). The post-processing unit 47 includes a saturation enhancement unit 55 and a sharpening unit 56. Corresponding point search unit 43
(1) to 43 (N) and deforming portions 44 (1) to 44 (N)
And the auxiliary pre-processing units 45 (1) to 45 (N) are each one less than the number N + 1 of all images to be processed, that is, the auxiliary images Iq (1) to Iq.
There are as many as (N). The reference image Ir is given to the brightness correction unit 51 of the reference preprocessing unit 41, the feature point extraction unit 42, and all the corresponding point search units 43 (1) to 43 (N). Each of the auxiliary images Iq (1) to Iq (N) corresponds to each of the corresponding point searching units 43 (1) to 43 (N) and each of the transforming units 44 (1) to.
44 (N), respectively.

【0052】任意の1つの対応点探索部43(n)と任
意の1つの変形部44(n)と任意の1つの補助用前処
理部45(n)とが、任意の1つの補助画像Iq(n)
に処理を施すために用いられる。以後の説明では、画質
改善部31内の、参照符の沿え字nの値が相互に等しい
いずれか1つの部43(n),44(n),45(n)
を含む部分が、参照符の沿え字(n)の等しいいずれか
1つの補助画像Iq(n)に対する処理に用いられるも
のとする。前記部分を、「補助処理部48(n)」と称
する。各補助処理部48(1)〜48(N)およびその
内部の部の動作は、全ての補助画像Iq(1)〜Iq
(N)のうちのどれが処理対象であるかだけが異なり、
他は相互に等しい。ゆえに、以後の説明では、各対応点
探索部43(1)〜43(N)と、各変形部44(1)
〜44(N)と、各補助用前処理部45(1)〜45
(N)とのそれぞれの動作を、いずれか1つの補助処理
部48(n)内の対応点探索部43(n)と変形部44
(n)と参照用前処理部45(n)とを例として、説明
する。
The arbitrary one corresponding point searching unit 43 (n), the arbitrary one transforming unit 44 (n), and the optional auxiliary preprocessing unit 45 (n) are combined to generate an optional auxiliary image Iq. (N)
It is used to treat the. In the following description, any one of the parts 43 (n), 44 (n), 45 (n) in the image quality improving part 31 having the same value of the reference character n of the reference characters is mutually equal.
It is assumed that the portion including is used for the processing on any one of the auxiliary images Iq (n) having the same reference characters (n). The portion is referred to as "auxiliary processing unit 48 (n)". The operation of each of the auxiliary processing units 48 (1) to 48 (N) and the parts inside thereof is the same for all the auxiliary images Iq (1) to Iq.
Only one of (N) is the processing target,
The others are equal to each other. Therefore, in the following description, the corresponding point searching units 43 (1) to 43 (N) and the deforming units 44 (1) will be described.
~ 44 (N) and each auxiliary pretreatment section 45 (1) -45
The respective operations with (N) are performed by the corresponding point searching unit 43 (n) and the transforming unit 44 in any one auxiliary processing unit 48 (n).
(N) and the reference preprocessing unit 45 (n) will be described as an example.

【0053】参照用前処理部41は、参照画像Irに、
予め定める前処理を施す。前記前処理には、参照画像I
r全体の輝度を向上させるための輝度補正処理と、輝度
が補正された参照画像Ir*から色ノイズを除去するた
めの色ノイズ除去処理とが含まれる。すなわち、まず参
照用前処理部41の輝度補正部51が、輝度補正処理と
して、予め定める関数に基づいて、参照画像Irの各画
素の輝度を、画素毎に補正する。次いで、参照用前処理
部41の色ノイズ除去部52は、色ノイズ除去処理とし
て、輝度補正部41で画素の輝度が補正された参照画像
Ir*内のランダムノイズを抑制するために、該参照画
像Ir*の中の各画素の彩度を、それぞれ抑制する。任
意の1つの画素の彩度の抑制の度合は、該画素自体の輝
度が低いほど、かつ該画素自体の彩度が高いほど、大き
い。前記ランダムノイズは、画像の色ノイズの原因の1
つであり、後述するように、輝度補正部51が輝度補正
処理を参照画像Irに施したことに起因して、増幅され
る。この結果、参照画像Irに前記前処理が施される。
前記前処理が施された参照画像Ir$は、色ノイズ除去
部52から合成部46に与えられる。
The reference preprocessing section 41 adds the reference image Ir to
Pre-determined pre-processing is performed. In the pre-processing, the reference image I
A brightness correction process for improving the brightness of the entire r and a color noise removal process for removing color noise from the brightness-corrected reference image Ir * are included. That is, first, the brightness correction unit 51 of the reference preprocessing unit 41 corrects the brightness of each pixel of the reference image Ir for each pixel as a brightness correction process based on a predetermined function. Next, the color noise removing unit 52 of the reference preprocessing unit 41 performs the reference in order to suppress the random noise in the reference image Ir * in which the brightness of the pixel is corrected by the brightness correcting unit 41 as the color noise removing process. The saturation of each pixel in the image Ir * is suppressed. The degree of suppression of the saturation of any one pixel is greater as the brightness of the pixel itself is lower and the saturation of the pixel itself is higher. The random noise is one of the causes of color noise in an image.
As described later, the luminance correction unit 51 performs the luminance correction processing on the reference image Ir, so that the reference image Ir is amplified. As a result, the reference image Ir is subjected to the preprocessing.
The preprocessed reference image Ir $ is provided from the color noise removing unit 52 to the combining unit 46.

【0054】特徴点抽出部42は、参照画像Ir内か
ら、複数の特徴点pa1〜paMを抽出して、参照画像
Ir内での複数の特徴点pa1〜paMの参照画像Ir
内の座標を、全ての対応点探索部43(1)〜43
(N)にそれぞれ与える。特徴点pa1〜paMは、参
照画像Irと補助画像Iq(n)とのずれを検出するた
めの基準として用いられる。本実施形態では、特徴点の
数Mは3点であると仮定する。特徴点pa1〜paM
は、それぞれ、参照画像Irの中の、輝度が低い画素を
多く含む低輝度領域以外の残余の領域内の点であること
が好ましい。
The feature point extraction unit 42 extracts a plurality of feature points pa1 to paM from the reference image Ir, and the reference image Ir of the plurality of feature points pa1 to paM in the reference image Ir.
The coordinates within are all corresponding point search units 43 (1) to 43
(N) respectively. The feature points pa1 to paM are used as a reference for detecting the deviation between the reference image Ir and the auxiliary image Iq (n). In this embodiment, it is assumed that the number M of feature points is three. Feature points pa1 to paM
Are preferably points in the remaining regions of the reference image Ir other than the low-luminance region including many low-luminance pixels.

【0055】いずれか1つの対応点探索部43(n)
は、まず、単一の補助画像Iq(n)内から、複数の特
徴点pa1〜paMに個別に対応する複数の対応点pb
1〜pbMを、探索する。次いで前記対応点探索部43
(n)は、参照画像Ir内の複数の特徴点pa1〜pa
M同士の位置関係と、前記補助画像Iq(n)内の複数
の対応点pb1〜pbM同士の位置関係とに基づいて、
参照画像Irと前記単一の補助画像Iq(n)とのずれ
を求める。前記ずれを表すずれ情報は、前記対応点探索
部43からいずれか1つの変形部44(n)に、与えら
れる。
Any one corresponding point search unit 43 (n)
First, from within a single auxiliary image Iq (n), a plurality of corresponding points pb individually corresponding to a plurality of feature points pa1 to paM.
1 to pbM are searched. Next, the corresponding point searching unit 43
(N) is a plurality of feature points pa1 to pa in the reference image Ir.
Based on the positional relationship between M and the positional relationship between a plurality of corresponding points pb1 to pbM in the auxiliary image Iq (n),
A shift between the reference image Ir and the single auxiliary image Iq (n) is obtained. The shift information indicating the shift is given from the corresponding point searching unit 43 to any one of the transforming units 44 (n).

【0056】前記変形部44(n)は、前記ずれ情報に
基づいて、参照画像Irと前記補助画像Iq(n)との
前記ずれを相殺するために、前記補助画像Iq(n)を
変形する。変形された前記補助画像Iq(n)は、いず
れか1つの補助用前処理部45(n)の輝度補正部53
(n)に与えられる。前記補助用前処理部45(n)
は、変形された前記補助画像Iq(n)に、参照用前処
理部41で行われたものと同じ前処理を施す。すなわ
ち、まず輝度補正部53(n)は、参照用前処理部41
の輝度補正部51と同じ手法で、変形された前記補助画
像Iq(n)の各画素の輝度を、画素単位で補正する。
前記補助用前処理部45(n)内の色ノイズ除去部54
(n)は、参照用前処理部41の色ノイズ除去部52と
同じ手法で、前記輝度補正部53(n)で画素の輝度が
補正された補助画像Iq(n)から、色ノイズを除去す
る。この結果、前記変形された補助画像Iq(n)に、
前記前処理が施される。前記前処理が施された補助画像
Iq(n)$は、色ノイズ除去部54(n)から合成部
46に与えられる。
The deforming unit 44 (n) deforms the auxiliary image Iq (n) based on the displacement information in order to cancel the displacement between the reference image Ir and the auxiliary image Iq (n). . The transformed auxiliary image Iq (n) has the brightness correction unit 53 of any one of the auxiliary preprocessing units 45 (n).
Given to (n). The auxiliary pretreatment unit 45 (n)
Performs the same pre-processing as that performed by the reference pre-processing unit 41 on the deformed auxiliary image Iq (n). That is, first, the brightness correction unit 53 (n) includes the reference preprocessing unit 41.
The brightness of each pixel of the deformed auxiliary image Iq (n) is corrected in pixel units by the same method as the brightness correction unit 51.
Color noise removing unit 54 in the auxiliary preprocessing unit 45 (n)
(N) removes color noise from the auxiliary image Iq (n) whose pixel brightness has been corrected by the brightness correction section 53 (n) by the same method as the color noise removal section 52 of the reference preprocessing section 41. To do. As a result, in the transformed auxiliary image Iq (n),
The pretreatment is performed. The pre-processed auxiliary image Iq (n) $ is supplied from the color noise removing unit 54 (n) to the combining unit 46.

【0057】合成部46は、前記前処理が施された参照
画像Ir$および前記前処理が施された全ての補助画像
Iq(1)$〜Iq(N)$を合成して、1枚の合成画
像Isを生成する。後処理部47は、合成画像Isの画
質を向上させるための後処理を、合成画像Isに施す。
前記後処理は、前記輝度補正処理や前記色ノイズ除去処
理に起因して失われた彩度を補償するための彩度強調処
理と、合成画像Is内に写る被写体の像の輪郭のぼけを
回復させるための先鋭化処理とを、含む。すなわち、ま
ず彩度強調部55は、彩度強調処理として、参照画像I
rの各画素の輝度および彩度を参照して、合成画像Is
の各画素の彩度を、該各画素の輝度が大きいほど強調す
る。次いで、先鋭化部56は、先鋭化処理として、各画
素の彩度が強調された合成画像Isを先鋭化する。これ
によって、先鋭化部56から、画質改善処理の処理結果
である1枚の出力画像Ioが、出力される。
The combining unit 46 combines the preprocessed reference image Ir $ and all the preprocessed auxiliary images Iq (1) $ to Iq (N) $ into one sheet. The composite image Is is generated. The post-processing unit 47 performs post-processing for improving the image quality of the composite image Is on the composite image Is.
The post-processing restores the blurring of the contour of the image of the subject in the composite image Is and the saturation enhancement processing for compensating the saturation lost due to the brightness correction processing and the color noise removal processing. And a sharpening process for effecting. That is, first, the saturation emphasis unit 55 performs the reference image I as the saturation emphasis process.
With reference to the luminance and saturation of each pixel of r, the synthesized image Is
The saturation of each pixel is emphasized as the brightness of each pixel increases. Next, the sharpening unit 56 sharpens the combined image Is in which the saturation of each pixel is emphasized as a sharpening process. As a result, the sharpening unit 56 outputs one output image Io which is the processing result of the image quality improvement processing.

【0058】図3は、参照用前処理部41の輝度補正部
51の具体的な機能的構成を説明するブロック図であ
る。輝度補正部51は、単一の画素データの色成分の数
と同数の加算部61(1)〜61(3)および輝度変換
部62(1)〜62(3)と、単一のテーブル記憶部6
3とを含む。輝度補正部51は、いわゆるガンマ補正を
行う。このために、前記関数の特性、すなわち、画素デ
ータの輝度変換前の各色成分Rx,Gx,Bxの画素値
と、画素データの輝度変換後の各色成分のRy,Gy,
Byの画素値Xとの対応関係を表す輝度補正ルックアッ
プテーブルが、テーブル記憶部63に記憶される。
FIG. 3 is a block diagram illustrating a specific functional configuration of the brightness correction unit 51 of the reference preprocessing unit 41. The brightness correction unit 51 includes the same number of color components of single pixel data as addition units 61 (1) to 61 (3) and brightness conversion units 62 (1) to 62 (3), and a single table storage. Part 6
Including 3 and. The brightness correction unit 51 performs so-called gamma correction. For this purpose, the characteristic of the function, that is, the pixel value of each color component Rx, Gx, Bx of the pixel data before the luminance conversion, and the Ry, Gy, of each color component of the pixel data after the luminance conversion,
A brightness correction lookup table that represents the correspondence between By and the pixel value X is stored in the table storage unit 63.

【0059】図4は、前記輝度補正ルックアップテーブ
ルの特性曲線64を示すグラフである。図4のグラフの
横軸は、輝度変換前の各色成分Rx,Gx,Bxの画素
値xを示し、縦軸は輝度変換後の各色成分Ry,Gy,
Byの画素値Xを示す。輝度補正部64がガンマ補正を
行うので、特性曲線64はいわゆる一般的なガンマ曲線
になっている。すなわち、輝度変換前の画素値xが小さ
いほど、画素値xの増幅率が大きい。ゆえに、輝度変換
前の画素値xが小さいほど、前記輝度変換前の画素値x
と該画素値xの輝度変換後の画素値X(x)との差が大
きい。
FIG. 4 is a graph showing the characteristic curve 64 of the brightness correction lookup table. The horizontal axis of the graph in FIG. 4 represents the pixel value x of each color component Rx, Gx, Bx before the luminance conversion, and the vertical axis the respective color component Ry, Gy, after the luminance conversion.
The pixel value X of By is shown. Since the brightness correction section 64 performs gamma correction, the characteristic curve 64 is a so-called general gamma curve. That is, the smaller the pixel value x before the luminance conversion, the larger the amplification factor of the pixel value x. Therefore, the smaller the pixel value x before the luminance conversion, the more the pixel value x before the luminance conversion.
And the pixel value X (x) after the luminance conversion of the pixel value x is large.

【0060】再び図3を参照する。参照画像Irの全て
の画素データは、1つずつ、輝度補正部51に与えられ
る。全ての画素データのうちのいずれか1つの画素デー
タが与えられた時点の輝度補正部51の動作は、以下の
とおりである。各加算部61(1)〜61(3)は、前
記画素データの各色成分Rx,Gx,Bxと予め定める
基準補正値αとを加算して、前記各色成分Rx,Gx,
Bxと基準補正値αとの和Rx+α,Gx+α,Bx+
αを、各輝度変換部62(1)〜62(3)にそれぞれ
与える。基準補正値αは、前記色成分と比較して充分に
小さい予め定める定数であり、たとえば、色成分の最大
値が255である場合に、3〜5程度である。各輝度変
換部62(1)〜62(3)は、前記輝度補正ルックア
ップテーブルに基づいて、和Rx+α,Gx+α,Bx
+αをそれぞれ輝度変換して、前記輝度変換後の各色成
分Ry,Gy,Byを得る。前記輝度変換後の3つの色
成分Ry,Gy,Byが、輝度補正後の画素データに含
まれる。以上が、前記時点の輝度補正部51の動作であ
る。
Referring again to FIG. All the pixel data of the reference image Ir are given to the brightness correction unit 51 one by one. The operation of the brightness correction section 51 at the time when any one of all the pixel data is given is as follows. The adders 61 (1) to 61 (3) add the color components Rx, Gx, Bx of the pixel data and a predetermined reference correction value α to obtain the color components Rx, Gx,
Sum of Bx and reference correction value α Rx + α, Gx + α, Bx +
α is given to each of the brightness conversion units 62 (1) to 62 (3). The reference correction value α is a predetermined constant that is sufficiently smaller than the color component, and is about 3 to 5 when the maximum value of the color component is 255, for example. Each of the brightness conversion units 62 (1) to 62 (3) calculates the sum Rx + α, Gx + α, Bx based on the brightness correction lookup table.
+ Α is subjected to luminance conversion to obtain the respective color components Ry, Gy, By after the luminance conversion. The three color components Ry, Gy, By after the brightness conversion are included in the pixel data after the brightness correction. The above is the operation of the brightness correction unit 51 at the time.

【0061】輝度補正部51は、参照画像Irを表す画
像データ内の画素データが1つ与えられるたびに、上述
の動作を繰返す。この結果、参照画像Irの全ての画素
に個別に対応する前記輝度補正後の画素データ内の前記
色成分Ry,Gy,Byが、輝度補正部51から順次出
力される。全ての前記輝度補正後の画素データの集合
が、輝度が補正された参照画像Ir*を表す画像データ
に相当する。
The brightness correction section 51 repeats the above-mentioned operation every time one pixel data in the image data representing the reference image Ir is given. As a result, the color components Ry, Gy, By in the pixel data after the luminance correction individually corresponding to all the pixels of the reference image Ir are sequentially output from the luminance correction unit 51. A set of all the pixel data after the brightness correction corresponds to image data representing the brightness-corrected reference image Ir *.

【0062】輝度補正部51が、基準補正値αを輝度変
換前の色成分Rx,Gx,Bxに加算してから、輝度変
換を行うのは、以下の理由からである。一般的に、撮影
装置23によって得られる画像は、輝度の低い画素の色
成分ほど、ランダムノイズ等の雑音の影響を強く受け
る。ゆえに、前記画像が前記低照度画像である場合、該
画像の画素の色成分のS/N比は、前記低照度画像以外
の他の画像の画素の色成分のS/N比よりも悪い。ま
た、一般的なガンマ補正処理では、処理対象の画像の各
画素の輝度変換前の色成分Rx,Gx,Bxを、そのま
ま、テーブル記憶部63内の前記輝度補正ルックアップ
テーブルを参照して輝度変換しているので、輝度の低い
画素の色成分ほど増幅率が大きい。これらのことから、
前記一般的なガンマ補正処理に基づいて前記輝度の低い
画素の色成分を増幅した場合、前記ランダムノイズも増
幅してしまう。その結果、前記一般的なガンマ補正処理
後の前記画像内の低輝度部分に、目障りなノイズが発生
する。前記低輝度部分とは、前記ランダムノイズの影響
を受け易い画素を多く含む領域、すなわち、予め定める
基準輝度よりも輝度の低い画素を多く含む領域である。
これによって、前記一般的なガンマ補正処理によって、
前記画像全体の画質が大きく損なわれる。
The brightness correction unit 51 performs the brightness conversion after adding the reference correction value α to the color components Rx, Gx, Bx before the brightness conversion for the following reason. In general, an image obtained by the image capturing device 23 is more strongly affected by noise such as random noise as the color components of pixels having lower luminance. Therefore, when the image is the low illuminance image, the S / N ratio of the color components of the pixels of the image is worse than the S / N ratio of the color components of the pixels of the images other than the low illuminance image. Further, in a general gamma correction process, the color components Rx, Gx, and Bx of each pixel of the image to be processed before the brightness conversion are directly referred to the brightness correction lookup table in the table storage unit 63 to perform the brightness conversion. Since the conversion is performed, the amplification factor increases as the color component of the pixel having the lower brightness. from these things,
When the color component of the pixel with low luminance is amplified based on the general gamma correction process, the random noise is also amplified. As a result, annoying noise is generated in the low-luminance portion in the image after the general gamma correction process. The low luminance part is a region including many pixels that are easily affected by the random noise, that is, a region including many pixels whose luminance is lower than a predetermined reference luminance.
As a result, by the general gamma correction process,
The image quality of the entire image is greatly impaired.

【0063】上述した画質の劣化に対する対策として、
画像処理装置22の輝度補正部51は、一般的なガンマ
補正処理を行う前に、各色成分Rx,Gx,Bxに予め
定めるわずかな値、すなわち基準補正値αを加算してか
ら、上記輝度補正処理を行う。一般的に、前記低照度画
像内の前記ランダムノイズは、非常にレベルの低い高彩
度画素値として現れる。すなわち、前記低照度画像内の
画素は、画素の輝度が低いほど前記ランダムノイズの影
響を強く受け、かつ、前記ランダムノイズの影響を受け
た画素は、影響を受ける前の本来の彩度よりも、彩度が
高くなる。前記輝度補正処理を行う前に、基準補正値α
を輝度変換前の各色成分Rx,Gx,Bxに加算する
と、各色成分Rx,Gx,Bxがかさ上げされることに
なる。
As measures against the above-mentioned deterioration of image quality,
The brightness correction unit 51 of the image processing device 22 adds a small value, which is a reference correction value α, to each of the color components Rx, Gx, and Bx before performing general gamma correction processing, and then performs the brightness correction. Perform processing. In general, the random noise in the low-illuminance image appears as very low level, highly saturated pixel values. That is, the pixels in the low-illuminance image are more strongly influenced by the random noise as the brightness of the pixels is lower, and the pixels affected by the random noise are more than the original saturation before being affected. , The saturation becomes higher. Before performing the brightness correction process, the reference correction value α
Is added to each color component Rx, Gx, Bx before the luminance conversion, each color component Rx, Gx, Bx is raised.

【0064】図4に示すように、加算前の画素値xと該
画素値xの輝度変換後の画素値X(x)との比と、加算
後の画素値x+αと該画素値の輝度変換後の画素値X
(x+α)との比とを比較すると、前者の画素値xより
も後者の画素値x+αのほうが増幅率が小さいので、前
者の比よりも後者の比のほうが小さくなる。これによっ
て、輝度変換前の色成分Rx,Gx,Bxの画素値が低
いほど、基準補正値αの加算に起因する彩度抑制の効果
が強く現れる。したがって、前記輝度補正処理を行う前
に基準補正値αを各色成分Rx,Gx,Bxの画素値に
加算することによって、画像内の低輝度領域に発生する
ランダムノイズを、抑制することができるのである。
As shown in FIG. 4, the ratio between the pixel value x before addition and the pixel value X (x) after the luminance conversion of the pixel value x, the pixel value after addition x + α and the luminance conversion of the pixel value. Subsequent pixel value X
Comparing the ratio with (x + α), the latter pixel value x + α has a smaller amplification factor than the former pixel value x, so the latter ratio is smaller than the former ratio. As a result, the lower the pixel value of the color components Rx, Gx, Bx before the luminance conversion, the stronger the effect of suppressing saturation due to the addition of the reference correction value α. Therefore, by adding the reference correction value α to the pixel values of the color components Rx, Gx, and Bx before performing the brightness correction process, it is possible to suppress random noise that occurs in the low brightness area in the image. is there.

【0065】輝度補正部51は、図4の特性曲線64で
示す特性の輝度補正ルックアップテーブルの代わりに、
図5の特性曲線65で示す特性の輝度補正ルックアップ
テーブルを備えてもよい。特性曲線65は、特性曲線6
4を、画素値xが減少する方向、すなわち紙面の左方向
に、基準補正値αだけ平行移動させたものに相当する。
ゆえに、図5の特性曲線65の形状は、いわゆる一般的
なガンマ曲線と等しく、かつ、輝度変換前の画素値x
に、図4の特性曲線64において画素値xと基準補正値
αとの和x+αに対応する輝度変換後の画素値X(x+
α)が対応する。
The brightness correction section 51 uses the brightness correction look-up table of the characteristic shown by the characteristic curve 64 in FIG.
A luminance correction look-up table having the characteristic indicated by the characteristic curve 65 in FIG. 5 may be provided. The characteristic curve 65 is the characteristic curve 6
4 corresponds to the parallel displacement of the reference correction value α in the direction in which the pixel value x decreases, that is, in the left direction on the paper surface.
Therefore, the shape of the characteristic curve 65 in FIG. 5 is equal to a so-called general gamma curve, and the pixel value x before the luminance conversion is set.
In the characteristic curve 64 of FIG. 4, the pixel value X (x + after the luminance conversion corresponding to the sum x + α of the pixel value x and the reference correction value α.
α) corresponds.

【0066】図5の特性曲線65が示す特性の輝度補正
ルックアップテーブルをテーブル記憶部63に記憶する
場合、輝度補正部51は、前記輝度補正ルックアップテ
ーブルを参照して、輝度変換前の各色成分Rx,Gx,
Bxをそのまま輝度変換する。この結果、画素値xと基
準補正値αとの和x+αに対応する輝度変換後の画素値
X(x+α)を得ることができる。したがって、輝度補
正処理に図5の輝度補正ルップアップテーブルを用いる
場合、輝度変換前の各色成分Rx,Gx,Bxに基準補
正値αを加算する手間を省くことができる。またこの場
合、輝度補正部51から全ての加算部61(1)〜61
(3)を除くことができるので、輝度補正部51の構成
が簡略化される。さらに、前記場合、輝度補正部51
は、一般的なガンマ補正を行う輝度補正部と比較して、
輝度補正ルックアップテーブルだけを書換えればよいの
で、実現が容易になる。
When the brightness correction look-up table having the characteristics indicated by the characteristic curve 65 in FIG. 5 is stored in the table storage unit 63, the brightness correction unit 51 refers to the brightness correction look-up table and refers to each color before the brightness conversion. The components Rx, Gx,
The brightness of Bx is directly converted. As a result, the pixel value X (x + α) after luminance conversion corresponding to the sum x + α of the pixel value x and the reference correction value α can be obtained. Therefore, when the brightness correction look-up table of FIG. 5 is used for the brightness correction processing, it is possible to save the labor of adding the reference correction value α to each color component Rx, Gx, Bx before the brightness conversion. Further, in this case, all of the addition units 61 (1) to 61 (1) to 61
Since (3) can be excluded, the configuration of the brightness correction unit 51 is simplified. Further, in the above case, the brightness correction unit 51
Is compared to the brightness correction unit that performs general gamma correction,
Since only the brightness correction look-up table needs to be rewritten, realization becomes easy.

【0067】上述したように、各色成分の画素値Rx,
Gx,Bxに基準補正値αを加算して輝度変換するだけ
では、前記ランダムノイズを完全に抑制することは困難
である。ゆえに、色ノイズ除去部52,54(1)〜5
4(N)、および、合成部46を用いて、さらにランダ
ムノイズを抑制するのである。
As described above, the pixel value Rx of each color component,
It is difficult to completely suppress the random noise only by adding the reference correction value α to Gx and Bx and converting the luminance. Therefore, the color noise removing units 52, 54 (1) to 5
4 (N) and the synthesizing unit 46 are used to further suppress random noise.

【0068】また、前記輝度補正処理は、基準補正値α
を加算してからガンマ補正を行うことに限らず、基準補
正値αを加算してからガンマ補正以外の他の輝度補正処
理を行っても良い。前記他の輝度補正処理とは、たとえ
ば、表示装置の階調特性に応じたいわゆる階調補正処理
である。さらに、前記輝度補正処理は、前記基準補正値
αを加算せずに、一般的な輝度補正処理、たとえばガン
マ補正や階調補正処理だけを行っても良い。
Further, in the brightness correction processing, the reference correction value α
Is not limited to the gamma correction after the addition, and a luminance correction process other than the gamma correction may be performed after the reference correction value α is added. The other brightness correction processing is, for example, so-called gradation correction processing according to the gradation characteristics of the display device. Further, in the brightness correction processing, general brightness correction processing such as gamma correction and gradation correction processing may be performed without adding the reference correction value α.

【0069】以下に、色ノイズ除去部52が行う色ノイ
ズ除去処理を、具体的に説明する。色ノイズ除去部52
は、輝度が補正された参照画像Ir*内のランダムノイ
ズを抑制するために、該参照画像Ir*の中の各画素の
彩度を、該各画素自体の輝度が低いほど、かつ該各画素
自体の彩度が高いほど、抑制させる。これは、以下の理
由からである。
The color noise removing process performed by the color noise removing section 52 will be specifically described below. Color noise removal unit 52
In order to suppress random noise in the luminance-corrected reference image Ir *, the saturation of each pixel in the reference image Ir * is set to be lower as the luminance of each pixel itself is lower, and The higher the saturation of itself, the more suppressed it is. This is for the following reason.

【0070】前記ランダムノイズの主原因である前記C
CDノイズは、画像内の前記低輝度領域に発生する。前
記CCDノイズは、前記低輝度領域内の画素の色成分を
偏らせる傾向を示す。すなわち前記CCDノイズが重畳
された画素は、該画素の画素データに含まれる全ての色
成分のうちのいずれか1つまたはいずれか2つの色成分
の画素値は0よりも充分大きいが、前記全ての色成分の
うちの残余の色成分の画素値は0に近いになる傾向があ
る。さらに、前記CCDノイズが前記全ての色成分のう
ちの一部の色成分にだけ重畳されるため、前記全ての色
成分の構成、すなわち前記全ての色成分の相対的な比率
が偏ることがある。また、CCDノイズが重畳されたこ
とによって、前記全ての色成分から構成される画素デー
タが示す本来の情報が破壊されることがあり、この場合
も前記全ての色成分の構成が偏る。すなわち、前記ラン
ダムノイズは、いわゆる色ノイズになっている。
The C which is the main cause of the random noise
CD noise occurs in the low brightness area in the image. The CCD noise tends to bias the color components of the pixels in the low brightness area. That is, in the pixel on which the CCD noise is superimposed, the pixel value of any one or any two color components included in the pixel data of the pixel is sufficiently larger than 0, The pixel values of the remaining color components of the color components of the above tend to be close to zero. Further, since the CCD noise is superimposed only on a part of the color components of all the color components, the configuration of all the color components, that is, the relative ratio of all the color components may be biased. . Further, due to the superposition of CCD noise, the original information indicated by the pixel data composed of all the color components may be destroyed, and in this case also, the configuration of all the color components is biased. That is, the random noise is so-called color noise.

【0071】前記全ての色成分の構成が偏る場合、該全
ての色成分を含む画素データが示す画素の彩度は、前記
構成が偏っていない画素データと比較して、極端に大き
くなる。このような理由によって彩度が大きくなった画
素が、画像内に局所的に存在することが、前記ランダム
ノイズを目立たせる原因となっている。したがって、前
記ランダムノイズの発生しがちな前記低輝度領域内の画
素のうち、彩度が高い画素の彩度を低減させることによ
って、前記ランダムノイズだけを選択的に抑制すること
ができるのである。
When the configurations of all the color components are biased, the saturation of the pixel indicated by the pixel data including all the color components becomes extremely large as compared with the pixel data in which the configurations are not biased. The fact that the pixels whose saturation has increased due to such reasons are locally present in the image causes the random noise to stand out. Therefore, it is possible to selectively suppress only the random noise by reducing the saturation of the pixel with high saturation among the pixels in the low luminance area where the random noise tends to occur.

【0072】色ノイズ除去処理の具体的な手法として、
画素データの表色系をRGB表色系からHSV表色系に
変換してから該画素データの彩度成分Sだけを抑制する
第1の手法と、画素データの各色成分Ry,Gy,By
を直接抑制する第2の手法とがある。まず、第1の手法
を説明する。
As a concrete method of color noise removal processing,
A first method of converting the color system of pixel data from the RGB color system to the HSV color system and then suppressing only the saturation component S of the pixel data, and the color components Ry, Gy, By of the pixel data
There is a second method of directly suppressing First, the first method will be described.

【0073】図6は、参照用前処理部41の、第1の手
法を用いる色ノイズ除去部52の具体的な電気的構成を
示すブロック図である。色ノイズ除去部52は、第1お
よび第2表色系変換器66,68と彩度抑制部67とを
含む。輝度が補正された参照画像Ir*を示す画素デー
タ内の全ての画素データは、1つずつ、色ノイズ除去部
52に与えられる。全ての画素データのうちのいずれか
1つの画素データが与えられた時点の色ノイズ除去部5
2の動作は、以下のとおりである。
FIG. 6 is a block diagram showing a specific electrical configuration of the color noise removing section 52 of the reference preprocessing section 41 using the first method. The color noise removing unit 52 includes first and second color system converters 66 and 68 and a saturation suppressing unit 67. All the pixel data in the pixel data indicating the reference image Ir * whose brightness has been corrected are provided to the color noise removing unit 52 one by one. Color noise removing unit 5 at the time when any one of all pixel data is given
The operation of No. 2 is as follows.

【0074】まず、第1表色系変換器66は、前記いず
れか1つの画素データの表色系を、RGB表色系から、
いわゆるHSV表色系に変換する。前記画素データがH
SV表色系で表される場合、前記画素データは、色相を
示す色相成分Hと、彩度を示す彩度成分Sと、輝度を示
す輝度成分Vとを含む。以後の説明では、上述の各成分
H,S,Vは、色相、彩度、および輝度の大きさをそれ
ぞれ表す数値、すなわち画素値を示すと仮定する。この
結果、前記画素データ内の3つの色成分Ry,Gy,B
yが、色相成分H、彩度成分S、および輝度成分Vに変
換される。また、この変換の際に、彩度成分Sと輝度成
分Vとは、それぞれ0以上1以下の範囲で正規化されて
いる。正規化された輝度および彩度成分V,Sが示す画
素値は、それぞれ、0以上1以下の範囲内の実数にな
る。色相成分Hと輝度成分Vとは、第2表色系変換器6
8に与えられる。彩度成分Sと輝度成分Vとは、彩度抑
制部67に与えられる。
First, the first color system converter 66 converts the color system of any one of the pixel data from the RGB color system to
Convert to so-called HSV color system. The pixel data is H
When represented by the SV color system, the pixel data includes a hue component H indicating hue, a saturation component S indicating saturation, and a luminance component V indicating luminance. In the following description, it is assumed that each of the above components H, S, and V represents a numerical value that represents the magnitude of hue, saturation, and luminance, that is, a pixel value. As a result, the three color components Ry, Gy, B in the pixel data are
y is converted into a hue component H, a saturation component S, and a luminance component V. Further, at the time of this conversion, the saturation component S and the luminance component V are each normalized within the range of 0 or more and 1 or less. Pixel values indicated by the normalized luminance and saturation components V and S are real numbers within the range of 0 or more and 1 or less. The hue component H and the luminance component V are converted into the second color system converter 6
Given to 8. The saturation component S and the luminance component V are provided to the saturation suppression unit 67.

【0075】彩度抑制部67は、概略的には、第1表色
系変換器66からの彩度成分Sと輝度成分Vとに基づい
て、輝度成分Vが低いほど、かつ彩度成分Sが高いほ
ど、該彩度成分Sを抑制する。この結果、抑制された彩
度成分S*が得られる。
The saturation suppressing section 67 roughly determines, based on the saturation component S and the luminance component V from the first color system converter 66, that the luminance component V is lower and the saturation component S is lower. Is higher, the saturation component S is suppressed. As a result, the suppressed saturation component S * is obtained.

【0076】具体的には、彩度抑制部67は、まず、輝
度および彩度成分V,Sを用い、式1および式2に示す
輝度および彩度の評価関数に基づいて、輝度評価係数k
iおよび彩度評価係数ksをそれぞれ求める。以下の式
において、「I」は正規化された輝度成分Vである。
「S」は正規化された彩度成分Sである。「Pi」およ
び「Ps」は、前記輝度および彩度の評価関数の変化の
度合を決めるための変化係数である。「It」および
「St」は、前記輝度および彩度の評価関数の閾値であ
る。各変化係数Pi,Psは、たとえばそれぞれ0.5
である。輝度の評価関数の閾値Itは、たとえば0.1
であり、彩度の評価関数の閾値Stは、たとえば0.9
である。
Specifically, the saturation suppressing section 67 first uses the brightness and saturation components V and S, and based on the brightness and saturation evaluation functions shown in Expressions 1 and 2, the brightness evaluation coefficient k.
i and the saturation evaluation coefficient ks are obtained. In the following equation, “I” is the normalized luminance component V.
“S” is the normalized saturation component S. “Pi” and “Ps” are change coefficients for determining the degree of change in the luminance and saturation evaluation functions. “It” and “St” are thresholds of the luminance and saturation evaluation functions. The change coefficients Pi and Ps are each 0.5, for example.
Is. The threshold It of the brightness evaluation function is, for example, 0.1.
And the threshold value St of the saturation evaluation function is 0.9, for example.
Is.

【0077】 ki = 1−1÷(1+exp(−Pi×(I−It))) …(1) ks = 1÷(1+exp(−Ps×(S−St))) …(2) 図7は、正規化された輝度成分Vと輝度評価係数kiと
の関係を表す特性曲線69を示すグラフである。図7で
は、輝度の評価関数の閾値Itが、ほぼ0.5であると
仮定する。輝度評価係数kiは0以上1以下の範囲内の
実数であり、0以上1以下の範囲内で輝度成分Vが大き
いほど、輝度評価係数kiは小さい。輝度評価係数ki
の変化率、すなわち輝度評価係数kiの特性曲線69の
傾きは、常に負である。さらに、前記変化率の絶対値
は、輝度成分Vが0以上閾値It未満の第1輝度範囲W
V1内の値である場合、輝度成分Vが大きいほど大き
く、輝度成分Vが閾値It以上1以下の第2輝度範囲W
V2内の値である場合、輝度成分Vが大きいほど小さ
い。
Ki = 1-1 / (1 + exp (-Pi * (I-It))) (1) ks = 1 / (1 + exp (-Ps * (S-St))) (2) 9 is a graph showing a characteristic curve 69 representing the relationship between the normalized luminance component V and the luminance evaluation coefficient ki. In FIG. 7, it is assumed that the threshold It of the luminance evaluation function is approximately 0.5. The luminance evaluation coefficient ki is a real number in the range of 0 or more and 1 or less, and the larger the luminance component V in the range of 0 or more and 1 or less, the smaller the luminance evaluation coefficient ki. Luminance evaluation coefficient ki
Change rate, that is, the slope of the characteristic curve 69 of the luminance evaluation coefficient ki is always negative. Further, the absolute value of the rate of change is the first luminance range W in which the luminance component V is 0 or more and less than the threshold It.
When the value is within V1, the larger the brightness component V is, the larger the brightness component V is, and the second brightness range W in which the brightness component V is equal to or more than the threshold value It is 1 or less.
When the value is within V2, the larger the luminance component V is, the smaller it is.

【0078】図8は、正規化された彩度成分Sと彩度評
価係数ksとの関係を示す特性曲線70を示すグラフで
ある。図8では、彩度の評価関数の閾値Stが、ほぼ
0.5であると仮定する。彩度評価係数ksは0以上1
以下の実数であり、0以上1以下の範囲内で彩度成分S
が大きいほど、彩度評価係数ksは大きい。彩度評価係
数ksの変化率、すなわち彩度評価係数ksの特性曲線
70の傾きは、常に正である。さらに、前記変化率の絶
対値は、彩度成分Sが0以上閾値St未満の第1彩度範
囲WS1内の値である場合、彩度成分Sが大きいほど大
きく、彩度成分Sが閾値St以上1以下の第2彩度範囲
WS2内の値である場合、彩度成分Sが大きいほど小さ
い。
FIG. 8 is a graph showing a characteristic curve 70 showing the relationship between the normalized saturation component S and the saturation evaluation coefficient ks. In FIG. 8, it is assumed that the threshold value St of the saturation evaluation function is approximately 0.5. Saturation evaluation coefficient ks is 0 or more 1
It is the following real number, and within the range of 0 or more and 1 or less, the saturation component S
Is larger, the saturation evaluation coefficient ks is larger. The rate of change of the saturation evaluation coefficient ks, that is, the slope of the characteristic curve 70 of the saturation evaluation coefficient ks is always positive. Further, when the saturation component S is a value within the first saturation range WS1 in which the saturation component S is 0 or more and less than the threshold value St, the absolute value of the change rate is larger as the saturation component S is larger, and the saturation component S is the threshold value St. When the value is within the second saturation range WS2 of 1 or more, the smaller the saturation component S, the smaller the value.

【0079】再び図6を参照する。続いて彩度抑制部6
7は、式3に示すように、輝度評価係数kiと彩度評価
係数ksとの積を、画素の低輝度かつ高彩度の度合を評
価するための画素評価係数kとして、求める。この結
果、画素評価係数kは、輝度成分Vが高いほど、かつ彩
度成分Sが低いほど、大きくなる。最後に、彩度抑制部
67は、画素評価係数kを用い、式4に基づいて、表色
系変換器66から与えられた彩度成分Sを変換する。以
下の式で、「λ」は、画素評価係数kと比較して充分に
小さい予め定める定数であり、式4の分母が特異、すな
わち0になることを防止するために、画素評価係数kに
加算される。定数λは、式5に示すように0以上1以下
の実数であり、かつ、0に極めて近い。前記変換の結果
得られる抑制された彩度S*は、彩度抑制部67から第
2表色系変換器68に与えられる。
Referring back to FIG. Then, the saturation suppression unit 6
7 obtains the product of the luminance evaluation coefficient ki and the saturation evaluation coefficient ks as a pixel evaluation coefficient k for evaluating the degree of low brightness and high saturation of the pixel, as shown in Expression 3. As a result, the pixel evaluation coefficient k increases as the luminance component V increases and the saturation component S decreases. Finally, the saturation suppressing unit 67 uses the pixel evaluation coefficient k to convert the saturation component S given from the color system converter 66 based on Expression 4. In the following equation, “λ” is a predetermined constant that is sufficiently smaller than the pixel evaluation coefficient k, and the pixel evaluation coefficient k is set to Is added. The constant λ is a real number of 0 or more and 1 or less as shown in Expression 5, and is extremely close to 0. The suppressed saturation S * obtained as a result of the conversion is supplied from the saturation suppression unit 67 to the second color system converter 68.

【0080】 k = ki×ks …(3) S* = S÷(k+λ) …(4) 0<λ<<1 …(5) 彩度成分Sの変換に画素評価係数kが用いられているの
で、彩度成分Sの抑制の度合に、輝度成分Vおよび彩度
成分Sとの評価が反映される。すなわち、彩度抑制前の
画素データの輝度成分Vが低いほど、かつ、該画素デー
タの彩度成分Sが大きいほど、画素評価係数kが大きく
なるので、彩度成分Sの増幅率が小さくなるため、彩度
成分Sの抑制の度合が大きくなる。色相成分H、抑制さ
れた彩度成分S*、および輝度成分Vは、彩度抑制後の
画素データがHSV表色系で表される場合の、該画素デ
ータに含まれる。第2表色系変換器69は、彩度抑制後
の画素データの表色系を、HSV表色系からRGB表色
系に変換する。この結果、色相成分H、抑制された彩度
成分S*、および輝度成分Vが、彩度抑制後の画素デー
タの3つの色成分Rz,Gz,Bzに変換される。以上
が、前記時点の色ノイズ除去部52の動作である。
K = ki × ks (3) S * = S ÷ (k + λ) (4) 0 <λ << 1 (5) The pixel evaluation coefficient k is used for conversion of the saturation component S. Therefore, the degree of suppression of the saturation component S reflects the evaluation of the luminance component V and the saturation component S. That is, the lower the luminance component V of the pixel data before saturation suppression and the larger the saturation component S of the pixel data, the larger the pixel evaluation coefficient k, and thus the amplification factor of the saturation component S becomes smaller. Therefore, the degree of suppression of the saturation component S increases. The hue component H, the suppressed saturation component S *, and the luminance component V are included in the pixel data when the saturation suppressed pixel data is represented by the HSV color system. The second color system converter 69 converts the color system of the pixel data after saturation suppression from the HSV color system to the RGB color system. As a result, the hue component H, the suppressed saturation component S *, and the luminance component V are converted into three color components Rz, Gz, and Bz of the pixel data after the saturation suppression. The above is the operation of the color noise removing unit 52 at the time.

【0081】色ノイズ除去部52は、輝度補正後の参照
画像Ir*を表す画像データ内の画素データが1つ与え
られるたびに、上述の動作を繰返す。この結果、前記参
照画像Ir*の全ての画素に個別に対応する彩度抑制後
の画素データの色成分Rz,Gz,Bzが、色ノイズ除
去部52から順次出力される。全ての前記彩度抑制後の
画素データの集合が、前記前処理が施された参照画像I
r$を表す画像データに相当する。以上で第1の手法を
用いた色ノイズ除去処理の説明を終了する。
The color noise removing section 52 repeats the above operation each time one pixel data in the image data representing the reference image Ir * after the luminance correction is given. As a result, the color noise removing unit 52 sequentially outputs the color components Rz, Gz, and Bz of the pixel data after saturation suppression individually corresponding to all the pixels of the reference image Ir *. A set of all the pixel data after the saturation suppression is the reference image I subjected to the pre-processing.
Corresponds to image data representing r $. This is the end of the description of the color noise removal process using the first method.

【0082】次いで、色ノイズ除去処理の前記第2の手
法を、以下に説明する。輝度が補正された参照画像Ir
*を示す画像データ内の全ての画素データは、1つず
つ、色ノイズ除去部52に与えられる。第2の手法を用
いる色ノイズ除去部52は、概略的には、ランダムノイ
ズを抑制するために、前記画素データが1つ与えられる
たびに、該画素データRy,Gy,Byの3つの色成分
の平均値ac1をそれぞれ求め、該画素データの輝度成
分が低くかつ該画素データの彩度成分が高いほど、前記
3つの色成分Ry,Gy,Byを色成分の平均値acに
近い値にそれぞれ置換える。前記全ての画素データのう
ちのいずれ1つの画素データが与えられた時点の色ノイ
ズ除去部52の動作は、以下のとおりである。
Next, the second method of color noise removal processing will be described below. Reference image Ir with corrected brightness
All the pixel data in the image data indicating * are given to the color noise removing unit 52 one by one. In order to suppress random noise, the color noise removing unit 52 that uses the second method roughly includes three color components of pixel data Ry, Gy, and By each time one pixel data is given. Of the three color components Ry, Gy, By are closer to the average value ac of the color components as the luminance component of the pixel data is lower and the saturation component of the pixel data is higher. Replace. The operation of the color noise removing unit 52 at the time when any one pixel data of all the pixel data is given is as follows.

【0083】まず、色ノイズ除去部52は、前記いずれ
か1つの画素データの表色系を、RGB表色系から、い
わゆるHSV表色系に変換し、さらに、HSV表色系の
画素データの彩度および輝度成分S,Vを、0以上1以
下の範囲で正規化する。次いで、式1,2に基づいて、
輝度および彩度評価係数ki,ksを求め、さらに式3
に基づいて、画素評価係数kを求める。次いで、式6に
基づいて、表色系の変換前の前記いずれか1つの画素デ
ータの3つの色成分Ry,Gy,Byの平均値ac1を
求める。最後に、画素評価係数kと色成分の平均値ac
とを用い、式7〜式9に基づいて、彩度抑制後の画素デ
ータの3つの色成分Rz,Gz,Bzをそれぞれ求め
る。この結果、彩度抑制後の画素データの各色成分R
z,Gz,Bzは、画素評価係数kが大きいほど、すな
わち前記彩度抑制前の画素データの輝度成分Vが低くか
つ該画素データの彩度成分Sが高いほど、色成分の平均
値acにそれぞれ近づく。
First, the color noise removing section 52 converts the color system of any one of the pixel data from the RGB color system to a so-called HSV color system, and further converts the pixel data of the HSV color system. The saturation and luminance components S and V are normalized within the range of 0 or more and 1 or less. Then, based on Equations 1 and 2,
The luminance and saturation evaluation coefficients ki and ks are obtained, and further, Equation 3
The pixel evaluation coefficient k is calculated based on Next, based on Equation 6, an average value ac1 of the three color components Ry, Gy, By of the one pixel data before conversion of the color system is obtained. Finally, the pixel evaluation coefficient k and the average value ac of the color components
And three color components Rz, Gz, and Bz of the pixel data after saturation suppression are calculated based on Expressions 7 to 9, respectively. As a result, each color component R of the pixel data after saturation suppression
z, Gz, and Bz become the average value ac of the color components as the pixel evaluation coefficient k is larger, that is, the luminance component V of the pixel data before the saturation suppression is lower and the saturation component S of the pixel data is higher. Approach each.

【0084】 ki = 1−1÷(1+exp(−Pi×(I−It))) …(1) ks = 1÷(1+exp(−Ps×(S−St))) …(2) k = ki×ks …(3) ac = (Ry+Gy+By)÷3 …(6) Rz = k×(ac1−Ry)+Ry …(7) Gz = k×(ac1−Gy)+Gy …(8) Bz = k×(ac1−By)+By …(9) 第2の手法のように、彩度抑制後の3つの色成分Rz,
Gz,Bzを、色成分の平均値acを用いて彩度補正前
の3つの色成分Ry,Gy,Byを直接変換して求める
場合、第1の手法よりも、計算量を減少させることがで
きる。これは、以下の理由からである。一般的に、デジ
タルデータ化された画像、すなわち画像データは、撮像
装置23および画像処理装置22の記憶部28,30に
保存される際に、RGB表色系を用いていることが多
い。ゆえに、色ノイズ処理部52から出力される画像デ
ータの表色系も、RGB表色系にしておく必要がある。
ゆえに、前記第1の手法では、彩度抑制処理後に表色系
の変換を行う必要があるが、第2の手法では表色系の変
換を行う必要がない。ゆえに、第1の手法よりも第2の
手法のほうが、計算量上有利となるのである。以上で第
2の手法を用いる色ノイズ除去処理の説明を終了する。
Ki = 1-1 ÷ (1 + exp (-Pi x (I-It))) (1) ks = 1 ÷ (1 + exp (-Ps x (S-St))) (2) k = ki × ks ... (3) ac = (Ry + Gy + By) / 3 (6) Rz = k × (ac1-Ry) + Ry (7) Gz = k × (ac1-Gy) + Gy (8) Bz = k × ( ac1-By) + By (9) Like the second method, the three color components Rz, Sz after saturation suppression,
When Gz and Bz are obtained by directly converting the three color components Ry, Gy and By before the saturation correction using the average value ac of the color components, the calculation amount can be reduced as compared with the first method. it can. This is for the following reason. In general, an image converted into digital data, that is, image data, often uses the RGB color system when being stored in the storage units 28 and 30 of the image pickup device 23 and the image processing device 22. Therefore, the color system of the image data output from the color noise processing unit 52 also needs to be the RGB color system.
Therefore, in the first method, it is necessary to convert the color system after the saturation suppression processing, but in the second method, it is not necessary to convert the color system. Therefore, the second method is more advantageous in calculation amount than the first method. This is the end of the description of the color noise removal process using the second method.

【0085】第1および第2の手法のどちらにおいて
も、画素評価係数kは、前記ランダムノイズの分布しや
すい画素データほど、すなわち輝度が低くかつ彩度が高
い画素の画素データほど、1に近づくように定義され
る。また、画素評価係数kが1に近づくほど、彩度抑制
後の色成分Rz,Gz,Bzは、色成分の平均値ac1
に近づく。これによって、第1および第2の手法のどち
らも用いても、各色成分Ry,Gy,By内の前記ラン
ダムノイズの成分が白色化され、彩度が抑制されるの
で、ランダムノイズが除去された後の参照画像Ir$
は、前記ランダムノイズが目立ちにくくなっている。
In both the first and second methods, the pixel evaluation coefficient k approaches 1 as the pixel data in which the random noise is more likely to be distributed, that is, the pixel data of the pixel having lower luminance and higher saturation. Is defined as Further, as the pixel evaluation coefficient k approaches 1, the color components Rz, Gz, and Bz after saturation suppression have an average value ac1 of the color components.
Approach. With this, the random noise component in each of the color components Ry, Gy, By is whitened and the saturation is suppressed by using both the first and second methods, so that the random noise is removed. Later reference image Ir $
, The random noise is less noticeable.

【0086】第1および第2手法を用いた色ノイズ除去
部52の説明では、輝度が補正された画像の画素データ
の表色系が、RGB表色系であるとしているが、該表色
系は他の表色系でもよい。たとえば、前記表色系がYU
S表色系である場合、画素データは、輝度成分Yと2種
類の色差成分Uc,Scとを含む。この場合、色ノイズ
除去部52は、最初に、式10に示すように輝度成分V
として上記輝度成分Yをそのまま用い、かつ彩度成分S
を、式11に示すように求めてもよい。また、この場合
に色ノイズ除去部52が第1の手法を用いる場合、第2
表色系変換器68は、抑制された彩度成分S*を式11
の逆関数を用いて2種類の彩度成分に変換し、さらに前
記輝度成分Yを加えて、YUS表色系に変換すればよ
い。
In the description of the color noise removing section 52 using the first and second methods, it is assumed that the color system of the pixel data of the image whose brightness is corrected is the RGB color system. May be another color system. For example, if the color system is YU
In the case of the S color system, the pixel data includes a luminance component Y and two types of color difference components Uc and Sc. In this case, the color noise removing unit 52 first calculates the luminance component V as shown in Expression 10.
The luminance component Y is used as it is, and the saturation component S
May be determined as shown in Equation 11. In this case, if the color noise removing unit 52 uses the first method,
The color system converter 68 calculates the suppressed saturation component S * using the equation 11
It is sufficient to convert into two types of chroma components using the inverse function of, and further add the luminance component Y to convert into the YUS color system.

【0087】 輝度成分V = Y …(10) 彩度成分S = √(Uc2 +Sc2 ) …(11) また、上述したように、輝度が補正された参照画像Ir
*の各画素の彩度の抑制の度合を、画素評価係数kが大
きくなるのに伴って連続的に大きくする代わりに、画素
の輝度成分Vが予め定める輝度の閾値以上であり、かつ
該画素の彩度成分Sが予め定める彩度の閾値未満である
かどうかを、前記参照画像Ir*の各画素毎にそれぞれ
調べ、輝度成分Vが前記輝度の閾値以上であり彩度成分
Sが前記彩度の閾値未満である画素の彩度だけを、抑制
するようにしてもよい。以上で、色ノイズ除去部52の
説明を終了する。
Luminance component V = Y (10) Saturation component S = √ (Uc 2 + Sc 2 ) ... (11) Further, as described above, the luminance-corrected reference image Ir
Instead of continuously increasing the degree of saturation suppression of each pixel of * as the pixel evaluation coefficient k increases, the luminance component V of the pixel is equal to or more than a predetermined luminance threshold value, and the pixel Is checked for each pixel of the reference image Ir *, and the luminance component V is equal to or more than the luminance threshold and the saturation component S is the color saturation. Only the saturation of pixels that are less than the threshold of the saturation may be suppressed. This is the end of the description of the color noise removing unit 52.

【0088】以下に、特徴点抽出部42が行う特徴点の
探索処理を、図9を用いて、詳細に説明する。参照画像
Irおよび補助画像Iq(1)〜Iq(N)が前記低照
度画像である場合、各画像Ir,Iq(1)〜Iq
(N)内に、対応点の探索処理に充分な特徴点情報を持
つ画素が該各画像全面に分布することは少なく、前記特
徴点情報をもつ画素は該各画像内の一部分に偏在してい
ると考えられる。特徴点情報とは、後述する対応点探索
のためのマッチング処理に必要なテキスチャを定めるた
めの情報である。したがって、特徴点抽出部42は、各
補助画像Iq(1)〜Iq(N)上の対応点の探索処理
に、最も適している参照画像Ir内の画素を、特徴点p
a1〜paMとして抽出する必要がある。
The feature point search processing performed by the feature point extraction unit 42 will be described in detail below with reference to FIG. When the reference image Ir and the auxiliary images Iq (1) to Iq (N) are the low-illuminance images, each of the images Ir, Iq (1) to Iq.
In (N), the pixels having the characteristic point information sufficient for the corresponding point search processing are rarely distributed over the entire surface of each image, and the pixels having the characteristic point information are unevenly distributed in a part of each image. It is believed that The feature point information is information for defining a texture necessary for matching processing for searching corresponding points described later. Therefore, the feature point extraction unit 42 determines the pixel in the reference image Ir that is most suitable for the search process of the corresponding points on each of the auxiliary images Iq (1) to Iq (N) as the feature point p.
It is necessary to extract as a1 to paM.

【0089】このため、特徴点抽出部42は、以下の手
順で特徴点pa1〜paMを抽出する。以下の説明で
は、特徴点の数Mを3と仮定する。まず、特徴点抽出部
42は、参照画像Ir内に、特徴点の数Mと同じ数の特
徴点探索領域81〜83を、図9に示す配置で設定す
る。図9は、参照画像Ir内の特徴点探索領域81〜8
3の配置状態を示す模式図である。各特徴点探索領域8
1〜83は、参照画像Irよりも小さい。また、特徴点
探索領域81〜83は、相互に予め定める適当な距離だ
け離れ、かつ、各特徴点探索領域81〜83の基準点を
頂点とする仮想の図形がほぼ正三角形になるように、配
置される。前記適当な距離とは、たとえば、参照画像I
rの幅の20%〜30%である。次いで、特徴点抽出部
42は、各特徴点探索領域81〜83内からそれぞれ、
特徴点を1つずつ探索する。この結果、3つの特徴点p
a1〜pa3が得られる。
Therefore, the characteristic point extracting section 42 extracts the characteristic points pa1 to paM in the following procedure. In the following description, the number M of feature points is assumed to be 3. First, the feature point extraction unit 42 sets the same number of feature point search areas 81 to 83 as the number M of feature points in the reference image Ir in the arrangement shown in FIG. FIG. 9 shows the feature point search areas 81 to 8 in the reference image Ir.
It is a schematic diagram which shows the arrangement state of FIG. Each feature point search area 8
1 to 83 are smaller than the reference image Ir. Further, the feature point search areas 81 to 83 are separated from each other by a predetermined appropriate distance, and the virtual figure having the reference point of each feature point search area 81 to 83 as an apex becomes a substantially equilateral triangle. Will be placed. The appropriate distance is, for example, the reference image I.
It is 20% to 30% of the width of r. Next, the feature point extraction unit 42 selects from each of the feature point search areas 81 to 83,
Search feature points one by one. As a result, the three feature points p
a1 to pa3 are obtained.

【0090】いずれか1つの特徴点探索領域内から、単
一の特徴点を抽出する手法を、以下に説明する。本実施
形態では、特徴点抽出部42は、まず、いずれか1つの
特徴点抽出領域内の全ての画素それぞれについて、式1
2に示す特徴点情報の分散値kpを求める。具体的に
は、いずれか1つの画素の分散値kpは、前記いずれか
1つの画素および該画素の近傍画素それぞれの輝度値y
iと、前記いずれか1つの画素および該画素の近傍画素
の輝度値の平均値ayとの差の絶対値|yi−ay|の
総和Σ|yi−ay|を、前記いずれか1つの画素およ
び前記近傍画素の数Nで除算した値である。次いで、特
徴点抽出部42は、前記全ての画素の分散値kpを相互
に比較して、最も分散値kpが大きい画素を、特徴点と
する。
A method for extracting a single feature point from any one of the feature point search areas will be described below. In the present embodiment, the feature point extraction unit 42 first sets Equation 1 for all pixels in any one of the feature point extraction regions.
The variance value kp of the feature point information shown in 2 is obtained. Specifically, the variance value kp of any one pixel is the brightness value y of each of the one pixel and the neighboring pixels of the pixel.
i and the sum Σ | yi-ay | of absolute values of the difference | yi-ay | It is a value divided by the number N of the neighboring pixels. Next, the feature point extraction unit 42 compares the variance values kp of all the pixels with each other, and sets the pixel having the largest variance value kp as the feature point.

【0091】 kp = Σi|yi−y|÷N …(12) 前述の輝度値yとは、画素の輝度を示す数値であり、該
画素のRGB表色系で示される画素データの3つの色成
分R,G,Bから経験的に導かれる。前記輝度値と、前
述するHSV表色系で示される画素データの輝度成分V
とは、3つの色成分に基づく算出手法が異なる。式13
は、輝度値yの定義式である。以下の式で、「R」,
「G」,「B」は、輝度値を定義するべき画素の赤、青
および緑の色成分である。
Kp = Σ i | yi−y | ÷ N (12) The above-mentioned brightness value y is a numerical value indicating the brightness of a pixel, and is three values of the pixel data shown in the RGB color system of the pixel. It is empirically derived from the color components R, G, and B. The brightness value and the brightness component V of the pixel data represented by the HSV color system described above.
Are different in the calculation method based on the three color components. Formula 13
Is a definitional expression of the brightness value y. In the following formula, "R",
"G" and "B" are the red, blue and green color components of the pixel for which the brightness value is to be defined.

【0092】 y = 0.3R+0.6G+0.1B …(13) 特徴点探索領域81〜83を図9のように配置して特徴
点pa1〜pa3を探索するのは、以下の理由からであ
る。全ての特徴点pa1〜pa3が、互いに極めて近く
に位置している場合、または全ての特徴点pa1〜pa
3がほぼ1本の直線状に並ぶ場合、後述の変形部44
(n)で行われるずれ補正のための変形処理の補正誤差
が大きくなることがある。ゆえに、全ての特徴点pa1
〜pa3は、参照画像内に、前記適当な距離に近い距離
だけ相互に離れ、かつ、直線状に並ばないように、点在
していることが好ましい。ここで、図9に示すように特
徴点探索領域81〜83を配置して各特徴点探索領域内
から1つずつ特徴点を抽出すると、特徴点pa1〜pa
3が、互いに前記適当な距離に近い距離だけ離れ、かつ
該特徴点pa1〜pa3を頂点とする仮想図形は、正三
角形に近い形になる。またこれによって、後述の対応点
探索部43(n)において、補助画像Iq(n)が特徴
的な情報の少ない低照度画像である場合も、対応点pb
1〜pb3を容易に見つけ出すことができる。これらの
ことから、ずれ補正処理を安定して行うことができる。
すなわち、前記変形処理の精度を向上することができ
る。またこれによって、特徴点および対応点の探索に要
する時間も短縮することができる。
Y = 0.3R + 0.6G + 0.1B (13) The feature point search areas 81 to 83 are arranged as shown in FIG. 9 to search the feature points pa1 to pa3 for the following reason. When all the feature points pa1 to pa3 are located very close to each other, or all the feature points pa1 to pa3
When 3 are arranged in almost one straight line, a deforming portion 44 described later is provided.
The correction error of the deformation process for correcting the deviation performed in (n) may increase. Therefore, all feature points pa1
It is preferable that ~ pa3 are scattered in the reference image so that they are separated from each other by a distance close to the appropriate distance and are not aligned in a straight line. Here, when the feature point search areas 81 to 83 are arranged as shown in FIG. 9 and one feature point is extracted from each feature point search area, the feature points pa1 to pa
A virtual figure 3 having a distance close to the appropriate distance from each other and having the feature points pa1 to pa3 as vertices has a shape close to an equilateral triangle. Further, as a result, in the corresponding point searching unit 43 (n) described later, even when the auxiliary image Iq (n) is a low illuminance image with little characteristic information, the corresponding point pb
1 to pb3 can be easily found. For these reasons, the shift correction process can be stably performed.
That is, the accuracy of the deformation process can be improved. Further, this also makes it possible to shorten the time required to search for the feature points and the corresponding points.

【0093】上記特徴点は、3点に限らず、4点以上抽
出してもよい。この場合、さらに、抽出された4点のう
ちから3点を選別して、選別された3点の特徴点だけを
全ての対応点探索部43(1)〜43(N)に与えても
よく、抽出された特徴点全てを用い最小2乗法を併用し
て以後の処理を行ってもよい。さらにまた、特徴点は、
上述の特徴点情報の分散値kpを用いる手法以外の手法
を用いても良い。また、特徴点探索領域81〜83は、
常に、参照画像Ir内の予め定める位置に設定してもよ
く、特徴点探索部42が参照画像Ir内の前記特徴点情
報を含む画素が多い部分を求めて、該部分を特徴点探索
領域としてもよい。
The above-mentioned characteristic points are not limited to three points, and four or more points may be extracted. In this case, three points may be further selected from the extracted four points, and only the selected three feature points may be given to all corresponding point searching units 43 (1) to 43 (N). , All the extracted feature points may be used together with the least squares method to perform the subsequent processing. Furthermore, the feature points are
A method other than the method using the variance value kp of the feature point information described above may be used. In addition, the feature point search areas 81 to 83 are
It may always be set to a predetermined position in the reference image Ir, and the feature point search unit 42 finds a portion in the reference image Ir that has many pixels including the feature point information and sets the portion as a feature point search area. Good.

【0094】以下に、いずれか1つの対応点探索部43
(n)が行う対応点探索処理を、説明する。前記対応点
探索部43(n)は、いずれか1つの補助画像Iq
(n)上から、全ての特徴点pa1〜paMにそれぞれ
対応する画素を、該補助画像Iq(n)の対応点pb1
〜pbMとして、探索する。具体的には、各特徴点pa
1〜paM近傍のいわゆるテキスチャと対応点pb1〜
pbM近傍のテキスチャとの相関がそれぞれ最大になる
ように、対応点pb1〜pbMを抽出する。
In the following, any one of the corresponding point search units 43
The corresponding point search process performed by (n) will be described. The corresponding point searching unit 43 (n) determines any one of the auxiliary images Iq.
(N) From above, the pixels corresponding to all the feature points pa1 to paM are designated as the corresponding points pb1 of the auxiliary image Iq (n).
Search as pbM. Specifically, each feature point pa
1-paM near so-called texture and corresponding point pb1-
The corresponding points pb1 to pbM are extracted so that the correlation with the texture near pbM is maximized.

【0095】特徴点近傍のテキスチャと前記補助画像I
q(n)内の任意の点の近傍のテキスチャとの相関Ct
は、たとえば、式14に示すように、いずれか1つの特
徴点pamおよび該特徴点pamの近傍画素それぞれの
輝度値yiと、該任意の点および該任意の点の近傍画素
それぞれの輝度値yjとの差の絶対値|yi−yj|の
積算値Σ|yi−yj|であると、仮定する。前記輝度
値yi,yjは、それぞれ、式13を用いて定められ
る。
Texture near the feature point and the auxiliary image I
Correlation Ct with texture near any point in q (n)
Is, for example, as shown in Expression 14, any one of the feature points pam and the luminance value yi of each of the neighboring pixels of the feature point pam, and the luminance value yj of each of the arbitrary points and the neighboring pixels of the arbitrary point. It is assumed that it is the integrated value Σ | yi-yj | of the absolute value | yi-yj | The brightness values yi and yj are respectively determined by using Expression 13.

【0096】 Ct = Σij |yi−yj| …(14) いずれか1つの対応点探索部43(n)は、処理画像I
q(n)内の全ての画素のうちで、前記相関値Ctが相
関値Ctがが最小となるいずれか1つの画素を、前記探
索点pamの対応点pbmとする。このために、いずれ
か1つの対応点探索部43(n)は、具体的には、前記
相関値Ctが最大である画素がマッチングが最大の画素
であると定義して、いわゆるテンプレートを用いたピラ
ミッドマッチング法を行う。この処理を、各特徴点pa
1〜paM毎に繰返すと、全ての特徴点pa1〜paM
の対応点pb1〜pbMが得られる。前記特徴点近傍の
テキスチャと任意の点近傍のテキスチャとの相関値Ct
は、前記積算値Σ|yi−yj|に限らず、他のもので
もよい。
Ct = Σ i , j | yi−yj | (14) Any one of the corresponding point search units 43 (n) is processed image I
Of all the pixels in q (n), one of the pixels having the smallest correlation value Ct and the correlation value Ct is set as the corresponding point pbm of the search point pam. For this reason, any one of the corresponding point searching units 43 (n) specifically defines the pixel with the maximum correlation value Ct as the pixel with the maximum matching, and uses a so-called template. Perform the pyramid matching method. This processing is performed for each feature point pa.
Repeating every 1 to paM, all the feature points pa1 to paM
Corresponding points pb1 to pbM are obtained. Correlation value Ct between the texture near the feature point and the texture near an arbitrary point
Is not limited to the integrated value Σ | yi-yj |, and may be another value.

【0097】以下に、いずれか1つの変形部44(n)
が行う変形処理を、説明する。前記変形部44(n)
は、まず、いずれか1つの補助画像Iq(n)の対応点
pb1〜pbMの妥当性を評価する。これは、以下の理
由からである。前記補助画像Iq(n)が前記低照度画
像であるならば、低照度画像はテキスチャ情報が乏しい
ため、前記対応点探索部43(n)の探索結果が信頼で
きるとは限らない。すなわち、前記補助画像Iq(n)
が前記低照度画像であるならば、参照画像Ir内の特徴
点pa1〜paMがある部分と、いずれか1つの補助画
像Iq(n)内の対応点pb1〜pbMがある部分と
に、被写体の同じ部分が写っているとは限らない。この
場合、対応点pa1〜paMを用いて変形処理が行われ
ると、画像処理装置22から最終的に出力される出力画
像Ioにいわゆるぼけや残像が生じるので、出力画像I
oが非常に見づらくなる。このため、前記変形部44
(n)は、まず、対応点探索部5の対応点探索処理の結
果の信頼性、すなわち対応点pb1〜pbMの妥当性を
評価して、妥当性の高い処理結果、すなわち探索処理が
成功している前記対応点pb1〜pb3だけを、変形処
理に用いる。
In the following, any one of the deformation parts 44 (n)
The transformation process performed by will be described. The deforming portion 44 (n)
First, the validity of the corresponding points pb1 to pbM of any one of the auxiliary images Iq (n) is evaluated. This is for the following reason. If the auxiliary image Iq (n) is the low-illuminance image, the low-illuminance image lacks texture information, and thus the search result of the corresponding point search unit 43 (n) is not always reliable. That is, the auxiliary image Iq (n)
Is the low illuminance image, the part of the reference image Ir having the feature points pa1 to paM and the part having the corresponding points pb1 to pbM in any one of the auxiliary images Iq (n) have the object of the subject. The same part is not always shown. In this case, when the deformation process is performed using the corresponding points pa1 to paM, so-called blurring or afterimage occurs in the output image Io finally output from the image processing device 22, so that the output image I
o becomes very hard to see. Therefore, the deformation portion 44
In (n), first, the reliability of the result of the corresponding point search process of the corresponding point search unit 5, that is, the validity of the corresponding points pb1 to pbM is evaluated, and the highly valid process result, that is, the search process succeeds. Only the corresponding points pb1 to pb3 that are present are used for the transformation process.

【0098】前記対応点の妥当性の評価手法を、図10
を用いて説明する。以後の説明では、特徴点の数Mが3
であると仮定する。図10(A)は、参照画像Ir内の
特徴点pa1〜pa3の相互の位置関係を示す図であ
る。図10(B)は、前記補助画像Iq(n)内の特徴
点pb1〜pb3の相互の位置関係を示す図である。
A method for evaluating the validity of the corresponding points is shown in FIG.
Will be explained. In the following description, the number M of feature points is 3
Suppose that FIG. 10A is a diagram showing a mutual positional relationship between the feature points pa1 to pa3 in the reference image Ir. FIG. 10B is a diagram showing a mutual positional relationship between the feature points pb1 to pb3 in the auxiliary image Iq (n).

【0099】前記妥当性の評価のために、いずれか1つ
の変形部44(n)は、以下の式15〜式21に基づい
て、妥当性評価値θを求める。妥当性評価値θは、特徴
点pa1〜pa3を頂点とする三角形Trから対応点p
b1〜pb3を頂点とする三角形Tq(n)への、三角
形の3辺の変動を示す。三角形Tr,Tq(n)の3辺
の変動は、参照画像Ir内および前記補助画像Iq
(n)内に写る被写体の位置や形状の違いによって、生
じる。
In order to evaluate the validity, any one of the deformation units 44 (n) obtains the validity evaluation value θ based on the following equations 15 to 21. The validity evaluation value θ is calculated from the triangle Tr having the feature points pa1 to pa3 as vertices and the corresponding point p.
The variation of the three sides of the triangle to the triangle Tq (n) having vertices b1 to pb3 is shown. The fluctuations of the three sides of the triangles Tr and Tq (n) are caused in the reference image Ir and the auxiliary image Iq.
It occurs due to the difference in the position and shape of the subject shown in (n).

【0100】 Lr1 = |Vpa1−Vpa2| …(15) Lr2 = |Vpa2−Vpa3| …(16) Lr3 = |Vpa3−Vpa1| …(17) Lq1 = |Vpb1−Vpb2| …(18) Lq2 = |Vpb2−Vpb3| …(19) Lq3 = |Vpb3−Vpb1| …(20) θ = (|Lq1−Lr1|÷Lr1+|Lq2−Lr2| ÷Lr2+|Lq3−Lr3|÷Lr3)÷3 …(21) 上式において、「Vpa1」,「Vpa2」,「Vpa
3」は、参照画像Ir上の各特徴点pa1〜pa3の座
標ベクトルである。「Vpb1」,「Vpb2」,「V
pb3」は、いずれか1つの補助画像Iq(n)上の各
対応点pb1〜pb3の座標ベクトルである。各点pa
1〜pa3,pb1〜pb3の座標ベクトルとは、画像
Ir,Iq(n)に設定される座標系の原点(0,0)
から、各点pa1〜pa3,pb1〜pb3に相当する
画素の代表点に向かうベクトルであり、画素の代表点と
は、たとえば画素の中心である。画像Ir,Iq(n)
の座標系の原点は、画像Ir,Iq(n)のどこにとっ
ても良い。「Lr1」,「Lr2」,「Lr3」,「L
q1」,「Lq2」,「Lq3」は、三角形Tr,Tq
(n)の3つの辺それぞれの長さである。
Lr1 = | Vpa1-Vpa2 | ... (15) Lr2 = | Vpa2-Vpa3 | ... (16) Lr3 = | Vpa3-Vpa1 | ... (17) Lq1 = | Vpb1-Vpb2 | ... (18) Lq2 = | Vpb2-Vpb3 | ... (19) Lq3 = | Vpb3-Vpb1 | ... (20) .theta. = (| Lq1-Lr1 | ÷ Lr1 + | Lq2-Lr2 | ÷ Lr2 + | Lq3-Lr3 | ÷ Lr3) ÷ 3 ... (21) In the above equation, "Vpa1", "Vpa2", "Vpa"
3 ”is a coordinate vector of each of the feature points pa1 to pa3 on the reference image Ir. "Vpb1", "Vpb2", "V
“Pb3” is a coordinate vector of each corresponding point pb1 to pb3 on any one of the auxiliary images Iq (n). Each point pa
The coordinate vectors 1 to pa3, pb1 to pb3 are the origin (0, 0) of the coordinate system set for the images Ir and Iq (n).
To a representative point of the pixel corresponding to the points pa1 to pa3 and pb1 to pb3, and the representative point of the pixel is, for example, the center of the pixel. Image Ir, Iq (n)
The origin of the coordinate system may be anywhere in the images Ir, Iq (n). "Lr1", "Lr2", "Lr3", "L
"q1", "Lq2", and "Lq3" are triangles Tr and Tq.
(N) is the length of each of the three sides.

【0101】次いで、前記変形部44(n)は、妥当性
評価値θを、前記対応点の妥当性の評価のための閾値θ
cと比較する。閾値θcは、たとえば0.9である。妥
当性評価値θが閾値θc以下である場合、前記対応点の
妥当性が低く、ずれ補正のための変形処理が困難である
と判断し、前記補助画像Iq(n)を、妥当性の評価処
理以後の処理に用いない。このため、前記変形部44
(n)は、この時点で処理を終了する。妥当性評価値θ
が閾値θcを越える場合、前記対応点の妥当性がずれ補
正のための変形処理を行うことができる程度に高いと判
断し、前記補助画像Iq(n)を、妥当性の評価処理以
後の処理に用いる。このため、前記変形部44(n)
は、前記補助画像Iq(n)の変形処理を行う。以上
が、妥当性の評価処理である。
Then, the transformation section 44 (n) uses the validity evaluation value θ as a threshold θ for evaluating the validity of the corresponding points.
Compare with c. The threshold value θc is 0.9, for example. When the validity evaluation value θ is equal to or less than the threshold value θc, it is determined that the validity of the corresponding points is low and the deformation process for the shift correction is difficult, and the auxiliary image Iq (n) is evaluated for the validity. Not used for subsequent processing. Therefore, the deformation portion 44
(N) ends the process at this point. Validity evaluation value θ
Is greater than the threshold value θc, it is determined that the validity of the corresponding points is high enough to perform the deformation process for the deviation correction, and the auxiliary image Iq (n) is processed after the validity evaluation process. Used for. Therefore, the deforming portion 44 (n)
Performs a transformation process on the auxiliary image Iq (n). The above is the validity evaluation processing.

【0102】いずれか1つの補助画像Iq(n)の変形
処理の具体的な手法を、以下に説明する。以下の説明で
は、特徴点の数Mは3であると仮定する。
A concrete method of the deformation process of any one of the auxiliary images Iq (n) will be described below. In the following description, it is assumed that the number M of feature points is 3.

【0103】まず、前記変形処理に先立って、対応点探
索部43(n)は、前記ずれ情報を求めて、前記変形部
44(n)に与える。具体的には、前記対応点探索部4
3(n)は、まず、3つの特徴点pa1〜pa3のうち
のいずれか2つを両端とするベクトルを2つ設定する。
以後の説明では、前記2つのベクトルを、特徴点pa1
から特徴点pa2に向かうベクトル「pa2−pa1」
と、特徴点pa1から特徴点pa3に向かうベクトル
「pa3−pa1」とであると仮定する。次いで、対応
点探索部43(n)は、参照画像Irの各画素の座標ベ
クトルpを、前記2つのベクトルを用いて、式22に示
すように、それぞれ線形分解する。この結果、前記座標
ベクトルpを線形分解した際の前記2つのベクトルpa
2−pa1,pa3−pa1の比率α,βが、参照画像
Irの全ての画素について、それぞれ求められる。参照
画像Irの全ての画素の前記比率α,βが、前記ずれ情
報として、対応点探索部43(n)から変形部44
(n)に与えられる。
First, prior to the transforming process, the corresponding point searching unit 43 (n) obtains the shift information and gives it to the transforming unit 44 (n). Specifically, the corresponding point searching unit 4
3 (n) first sets two vectors having two ends of any two of the three feature points pa1 to pa3.
In the following description, the two vectors will be referred to as the feature point pa1.
"Pa2-pa1" from the point toward the feature point pa2
And a vector “pa3-pa1” from the feature point pa1 toward the feature point pa3. Next, the corresponding point searching unit 43 (n) linearly decomposes the coordinate vector p of each pixel of the reference image Ir using the two vectors as shown in Expression 22. As a result, the two vectors pa when the coordinate vector p is linearly decomposed
The ratios α and β of 2-pa1 and pa3-pa1 are obtained for all pixels of the reference image Ir. The ratios α and β of all pixels of the reference image Ir are used as the shift information from the corresponding point searching unit 43 (n) to the transforming unit 44.
Given to (n).

【0104】 p = α×(pa2−pa1)+β×(pa3−pa1) …(22) 次いで、変形部44(n)は、変形処理として、前記ず
れ情報に基づいて、補助画像Iq(n)の全ての画素の
補正後の座標ベクトルp*を、該座標ベクトルp*を対
応点pb1〜pb3のうちのいずれか2つを両端とする
2つのベクトルpb2−pb1,pb3−pb1を用い
て線形分解する際の前記2つのベクトルの比率が、参照
画像Irの各画素の前記比率α,βと等しくなるよう
に、それぞれ求める。具体的には、前記補助画像Iq
(n)の任意の1つの画素の補正後の座標ベクトルp*
は、該画素に対応する参照画像Ir内の画素の前記比率
α,βを用い、式23に基づいて、求められる。
P = α × (pa2-pa1) + β × (pa3-pa1) (22) Next, the transforming unit 44 (n) performs the transforming process based on the shift information based on the auxiliary information Iq (n). Of the corrected coordinate vector p * of all the pixels of the The ratios of the two vectors at the time of decomposition are calculated so as to be equal to the ratios α and β of the pixels of the reference image Ir. Specifically, the auxiliary image Iq
Corrected coordinate vector p * of any one pixel in (n)
Is calculated based on Expression 23 using the ratios α and β of the pixels in the reference image Ir corresponding to the pixel.

【0105】 p* = α×(pb2−pb1)+β×(pb3−pb1) …(23) 最後に、前記変形部44(n)は、補助画像Iq(n)
の全ての画素の座標ベクトルpを、前記補正後の座標ベ
クトルp*に変更して、前記全ての画素を並べ直す。こ
の結果生成されるずれ補正画像は、補助画像Iq(n)
が、前記ずれを相殺するように変形されたものである。
前記ずれ補正画像の作成の際に、補助画像Iq(n)の
変形に伴い、全ての前記補正後の座標ベクトルp*の中
に存在しない座標の画素の画素データが必要になった場
合、前記存在しない座標の画素データと等しい座標の参
照画像Ir内の画素の画素データを、用いる。以上で、
変形処理の説明を終了する。
P * = α × (pb2-pb1) + β × (pb3-pb1) (23) Finally, the transformation unit 44 (n) causes the auxiliary image Iq (n) to be generated.
The coordinate vector p of all the pixels is changed to the corrected coordinate vector p *, and all the pixels are rearranged. The displacement correction image generated as a result is the auxiliary image Iq (n).
However, it has been modified so as to cancel the deviation.
When the pixel data of pixels having coordinates that do not exist in all of the coordinate vectors p * after the correction is required due to the deformation of the auxiliary image Iq (n) when the shift correction image is created, The pixel data of the pixel in the reference image Ir having the same coordinates as the pixel data of the nonexistent coordinates is used. Above,
The description of the transformation process ends.

【0106】上述のずれ補正画像、すなわち変形処理が
施された補助画像Iq(n)は、いずれか1つの補助用
前処理部45(n)に与えられて、前処理が施される。
いずれか1つの補助用前処理部45(n)内の輝度補正
部53(n)および色ノイズ除去部54(n)の具体的
な構成は、参照用前処理部41の内の輝度補正部51お
よび色ノイズ除去部52の具体的な構成とそれぞれ等し
い。これによって、変形処理が施された補助画像Iq
(n)に、前処理がさらに施される。
The above-described misalignment corrected image, that is, the deformed auxiliary image Iq (n) is given to one of the auxiliary preprocessing sections 45 (n) and subjected to the preprocessing.
The specific configuration of the brightness correction unit 53 (n) and the color noise removal unit 54 (n) in any one of the auxiliary preprocessing units 45 (n) is the same as the brightness correction unit in the reference preprocessing unit 41. The specific configurations of the color noise removing unit 51 and the color noise removing unit 52 are the same. As a result, the auxiliary image Iq that has been subjected to the deformation process
Pretreatment is further applied to (n).

【0107】以下に、合成部46が行う合成処理を説明
する。合成部46には、前処理が施された参照画像Ir
$と、変形処理および前処理が施された全ての補助画像
Iq(1)$〜Iq(N)$が、与えられる。変形部4
4(1)〜44(N)の妥当性の評価処理の評価結果に
起因して、変形処理が行われない補助画像がある場合、
該補助画像は合成部46には与えられない。以後の説明
では、全ての補助画像Iq(1)$〜Iq(N)$が、
合成部46に与えられているものと仮定する。また、以
後の説明では、前処理が施された参照画像Ir$を、
「補正参照画像Ir$」と称し、変形処理および前処理
が施された各補助画像Iq(1)$〜Iq(N)$を、
それぞれ、「補正補助画像Iq(1)$〜Iq(N)
$」と称する。
The combining process performed by the combining unit 46 will be described below. The synthesizing unit 46 includes a preprocessed reference image Ir.
$ And all the auxiliary images Iq (1) $ to Iq (N) $ that have been subjected to the transformation process and the preprocess are given. Deformation part 4
4 (1) to 44 (N), if there is an auxiliary image that is not subjected to the deformation process due to the evaluation result of the validity evaluation process,
The auxiliary image is not given to the combining unit 46. In the following description, all auxiliary images Iq (1) $ to Iq (N) $ are
It is assumed that this is given to the synthesizing unit 46. Further, in the following description, the reference image Ir $ that has been subjected to the preprocessing is
The auxiliary images Iq (1) $ to Iq (N) $ that have been subjected to the deformation process and the preprocess are referred to as “correction reference image Ir $”,
“Corrected auxiliary image Iq (1) $ to Iq (N)”
"$".

【0108】合成部46は、前記ランダムノイズを抑制
するために、上述の補正参照画像Ir$および全ての補
正補助画像Iq(1)$〜Iq(N)$を平均合成し
て、1枚の合成画像Isを得る。これは、前記ランダム
ノイズは、いわゆる真値を中心として確率的に分布する
傾向があるので、複数の画像を平均合成することによっ
て、前記ランダムノイズを抑制することができるからで
ある。前記合成画像Isを表す画像データを得るための
処理は、概略的には、合成画像Is内の全ての画素の画
素データを、合成画像Is内の座標(0,0)に相当す
る画素から順に、上述の全ての画像Ir$,Iq(1)
$〜Iq(N)$の各画素の画素データを各画素の相関
値を用いた重み付け平均して求め、順次出力する。
In order to suppress the random noise, the synthesizing unit 46 averages the above-mentioned corrected reference image Ir $ and all the corrected auxiliary images Iq (1) $ to Iq (N) $ to make one sheet. A composite image Is is obtained. This is because the random noise tends to be distributed probabilistically around the so-called true value, and the random noise can be suppressed by averaging a plurality of images. In the process for obtaining the image data representing the composite image Is, roughly, the pixel data of all the pixels in the composite image Is are sequentially arranged from the pixel corresponding to the coordinate (0,0) in the composite image Is. , All images Ir $, Iq (1) above
The pixel data of each pixel of $ to Iq (N) $ is obtained by weighted averaging using the correlation value of each pixel, and sequentially output.

【0109】図11は、合成画像Is内のいずれか1つ
の座標(x,y)に相当する処理対象の画素psの画素
データの設定手法を説明するための、機能的ブロック図
である。図11を用いて、前記設定手法を説明する。図
11では、補正参照画像Ir$の画像データ,全ての補
正補助画像Iq(1)$〜Iq(N)の画像データ、お
よび合成画像Isの画像データを、仮想的に四辺形で描
いている。実際には、補正参照画像Ir$および全ての
補正補助画像Iq(1)$〜Iq(N)の画像データ
は、該画像データ内の画素データが1つずつ、前記各前
処理部41,45(1)$〜45(N)から合成部46
に与えられ、合成画像Isの画像データ内の画素データ
が1つずつ後処理部に与えられていれば良く、前記各画
像データを記憶する画像バッファが必ずしもあるわけで
はない。
FIG. 11 is a functional block diagram for explaining the method of setting the pixel data of the pixel ps to be processed corresponding to any one of the coordinates (x, y) in the composite image Is. The setting method will be described with reference to FIG. In FIG. 11, the image data of the corrected reference image Ir $, the image data of all the corrected auxiliary images Iq (1) $ to Iq (N), and the image data of the combined image Is are virtually drawn in a quadrangle. . Actually, in the image data of the corrected reference image Ir $ and all the corrected auxiliary images Iq (1) $ to Iq (N), pixel data in the image data is one by one, and each of the pre-processing units 41 and 45. (1) From $ to 45 (N) to the synthesis unit 46
1 and the pixel data in the image data of the composite image Is are given to the post-processing unit one by one, and there is not necessarily an image buffer for storing each image data.

【0110】まず、補正参照画像Ir$内の、前記いず
れか1つの座標(x,y)と同じ座標に相当する画素p
rの画素データが、全ての相関値計算部91(1)〜9
1(N)と平均演算部93とに与えられる。また、各補
正補助画像Iq(1)$〜Iq(N)$内の、前記いず
れか1つの座標(x,y)と同じ座標に相当する画素p
q(1)〜pq(N)の画素データが、各相関値計算部
91(1)〜91(N)と各補正項演算部92(1)〜
92(N)とに、それぞれ与えられる。補正参照画像I
r$内の、合成画像の処理対象の画素psの座標(x,
y)と同じ座標に相当する前記画素prを、以後「参照
画素pr」と称し、各補正補助画像Iq(1)$〜Iq
(N)$内の該座標(x,y)と同じ座標に相当する前
記画素pq(1)〜pq(N)を、以後「補助画素pq
(1)〜pq(N)」と称する。
First, a pixel p corresponding to the same coordinate as any one of the coordinates (x, y) in the corrected reference image Ir $.
The pixel data of r are all correlation value calculation units 91 (1) -9
1 (N) and the average calculation unit 93. A pixel p corresponding to the same coordinate as any one of the coordinates (x, y) in each of the correction auxiliary images Iq (1) $ to Iq (N) $.
Pixel data of q (1) to pq (N) corresponds to the correlation value calculation units 91 (1) to 91 (N) and the correction term calculation units 92 (1) to.
92 (N). Correction reference image I
The coordinates (x,
The pixel pr corresponding to the same coordinates as y) is hereinafter referred to as “reference pixel pr”, and each corrected auxiliary image Iq (1) $ to Iq.
The pixels pq (1) to pq (N) corresponding to the same coordinates as the coordinates (x, y) in (N) $ will be referred to as “auxiliary pixel pq” hereinafter.
(1) to pq (N) ".

【0111】次いで、各相関値演算部91(1)〜91
(N)は、各補助画素pq(1)〜pq(N)と、参照
画素prとの相関値C1〜CNを、それぞれ求める。相
関値は、0以上1以下の整数である。相関値C1〜CN
の詳細な演算手法は後述する。続いて、補正項演算部9
2(1)〜92(N)は、各補助画素pq(1)〜pq
(N)の画素データの3つの色成分ri,gi,biそ
れぞれから、参照画素データの3つの色成分r0,g
0,b0を減算した差の半分の値に、相関値C1〜CN
をそれぞれ乗算した積を、合成画像の処理対象の画素p
sの3つの色成分r*,g*,b*の補正項として求め
る。最後に、平均演算部93が、各補正項演算部92
(1)〜92(N)で求められた3つの色成分r*,g
*,b*の補正項と参照画素prの画素データの3つの
色成分r0,g0,b0との和の平均をそれぞれ求め
る。前記和の平均が、合成画像の処理対象の画素psの
画素データの色成分r*,g*,b*である。
Next, the correlation value calculation units 91 (1) -91 (91)
(N) obtains the correlation values C1 to CN between the auxiliary pixels pq (1) to pq (N) and the reference pixel pr, respectively. The correlation value is an integer of 0 or more and 1 or less. Correlation value C1-CN
The detailed calculation method of will be described later. Then, the correction term calculation unit 9
2 (1) to 92 (N) are auxiliary pixels pq (1) to pq.
From each of the three color components ri, gi, bi of the pixel data of (N), the three color components r0, g of the reference pixel data
The correlation values C1 to CN are set to half of the difference obtained by subtracting 0 and b0.
And the product p
It is obtained as a correction term for the three color components r *, g *, and b * of s. Finally, the average calculation unit 93 determines that each correction term calculation unit 92
Three color components r *, g obtained in (1) to 92 (N)
An average of the sum of the correction terms of * and b * and the three color components r0, g0 and b0 of the pixel data of the reference pixel pr is obtained. The average of the sums is the color components r *, g *, b * of the pixel data of the pixel ps to be processed in the composite image.

【0112】以上の処理によって、合成画像Isの全て
の画素1つ毎に、式24〜式26に示す演算が行われ
る。以下の式で、「N」は、合成部45に与えられる全
ての補助画像の枚数と参照画像の枚数との和である。
「Σ」は、補助画像iについての加算を意味する。すな
わち、参照画素prの各色成分と、相関値C1〜CNに
よってそれぞれ重み付けされた全ての補助画素pq
(1)〜pq(N)の各色成分との平均値が、合成画像
Isの処理対象の画素psの各色成分になる。
Through the above processing, the calculations shown in equations 24 to 26 are performed for every pixel of the composite image Is. In the following equation, “N” is the sum of the number of all auxiliary images and the number of reference images given to the combining unit 45.
“Σ” means addition for the auxiliary image i. That is, each color component of the reference pixel pr and all the auxiliary pixels pq weighted by the correlation values C1 to CN, respectively.
The average value of each color component of (1) to pq (N) becomes each color component of the pixel ps to be processed in the combined image Is.

【0113】 r* = Σi((ri−r0)×Ci×0.5+r0)÷N …(24) g* = Σi((gi−g0)×Ci×0.5+g0)÷N …(25) b* = Σi((bi−b0)×Ci×0.5+b0)÷N …(26) このような重み付け平均を用いた計算によって、合成画
像Isの処理対象の画素psの画素データの色成分r
*,g*,b*を計算する場合、相関値C1〜CNがそ
れぞれ大きいならば、すなわち相関値C1〜CNが1に
それぞれ近いならば、合成画像Isの画素psの画素デ
ータは、全ての補助画素pq(1)〜pq(N)の画素
データと参照画素prの画素データとの平均に近付く。
また、前記場合、相関値C1〜CNが小さいならば、す
なわち相関値C1〜CNが0にそれぞれ近いならば、合
成画像Isの処理対象の画素psの画素データは、参照
画素prの画素データに近付く。
R * = Σ i ((ri−r0) × Ci × 0.5 + r0) ÷ N (24) g * = Σ i ((gi−g0) × Ci × 0.5 + g0) ÷ N (25) ) B * = Σ i ((bi−b0) × Ci × 0.5 + b0) ÷ N (26) By the calculation using such a weighted average, the color of the pixel data of the pixel ps to be processed in the composite image Is Component r
When calculating *, g *, and b *, if the correlation values C1 to CN are large, that is, if the correlation values C1 to CN are close to 1, respectively, the pixel data of the pixel ps of the composite image Is are all The average of the pixel data of the auxiliary pixels pq (1) to pq (N) and the pixel data of the reference pixel pr approaches.
In the above case, if the correlation values C1 to CN are small, that is, if the correlation values C1 to CN are close to 0, the pixel data of the pixel ps to be processed in the combined image Is becomes the pixel data of the reference pixel pr. Get closer.

【0114】たとえば、合成画像Isの画素psの赤の
色成分r*を例とすると、相関値C1〜CNが1である
場合、式27に示すように、赤の色成分r*は、おおよ
そ、各補助画素pq(1)〜pq(N)の赤の色成分r
iと参照画素prの赤の色成分r0との平均(ri+r
0)×0.5の、平均である。また、相関値C1〜CN
が0である場合、赤の色成分r*は、式28に示すよう
に、おおよそ、参照画素prの赤の色成分r0になる。
For example, taking the red color component r * of the pixel ps of the composite image Is as an example, when the correlation values C1 to CN are 1, the red color component r * is approximately as shown in Expression 27. , The red color component r of each auxiliary pixel pq (1) to pq (N)
The average (ri + r) of i and the red color component r0 of the reference pixel pr
It is an average of 0) × 0.5. Also, the correlation values C1 to CN
Is 0, the red color component r * is approximately the red color component r0 of the reference pixel pr, as shown in Expression 28.

【0115】 r*〜Σi((ri+r0)×0.5)÷N …(27) r*〜Σir0÷N …(28) このように、合成部46は、合成画像Isの処理対象の
画素1つ毎に、参照画素prとの相関値が大きい補助画
素pq(n)だけを用いて、上述の平均を各画素psの
画素データとして求める。合成画像Isの全ての画素の
画素データの集合が、合成画像Isを表す画像データに
相当する。この結果、変形部44(1)〜44(N)で
それぞれ補正しきれなかった前記ずれに起因する合成誤
りを、目立ちにくくすることができる。
R * to Σ i ((ri + r0) × 0.5) / N (27) r * to Σ i r0 / N (28) As described above, the combining unit 46 processes the composite image Is. For each pixel of, the above average is obtained as pixel data of each pixel ps by using only the auxiliary pixel pq (n) having a large correlation value with the reference pixel pr. A set of pixel data of all pixels of the combined image Is corresponds to image data representing the combined image Is. As a result, it is possible to make conspicuous a synthesis error caused by the deviation that cannot be completely corrected by the deformation units 44 (1) to 44 (N).

【0116】上述の合成処理の中の、合成画像Isの処
理対象の画素psの画素データを求める演算において、
相関値C1〜CNを用いた重み付け平均を用いる代わり
に、単純平均を用いてもよい。たとえば、前記補助画像
および参照画像Iq(1)〜Iq(N),Irを撮影し
た際に被写体が動いていないならば、前記合成処理か
ら、前記合成画像の各画素データを求める処理から相関
値Ciの演算と相関値Ciを用いる重み付けとを省略
し、合成部46は前記合成画像の各画素データを、全て
の前記画像Ir,Iq(1)〜Iq(N)の各画素の画
素データを単純に平均して求めてもよい。これは、前記
場合には、前記参照画像および補助画像Ir,Iq
(1)〜Iq(N)内に写るそれぞれ被写体の位置や形
状が相互にほぼ等しいので、前記参照画像Irと前記各
補助画像Iq(1)〜Iq(N)とのずれが小さく、ず
れに起因する合成誤りが起こりにくいからである。
In the calculation of the pixel data of the pixel ps to be processed in the combined image Is in the above-described combining processing,
Instead of using the weighted average using the correlation values C1 to CN, a simple average may be used. For example, if the subject is not moving when the auxiliary image and the reference images Iq (1) to Iq (N) and Ir are photographed, the correlation value is calculated from the process of obtaining each pixel data of the synthetic image. The calculation of Ci and the weighting using the correlation value Ci are omitted, and the combining unit 46 converts the pixel data of the combined image into the pixel data of the pixels of all the images Ir and Iq (1) to Iq (N). It may be simply averaged. This is because in the above case, the reference image and the auxiliary images Ir and Iq.
(1) to Iq (N), since the positions and shapes of the subjects are substantially equal to each other, the deviation between the reference image Ir and each of the auxiliary images Iq (1) to Iq (N) is small. This is because the resulting composite error is unlikely to occur.

【0117】また、上述の説明では、合成部46は、合
成対象の画像のうちの補正参照画像Ir$以外の残余の
画像として、変形処理および前処理が施された補助画像
Iq(1)〜Iq(N)、すなわち補正補助画像Iq
(1)$〜Iq(N)$を用いる。上述の合成処理を前
記ランダムノイズの抑制のために行うならば、合成部4
6は、前記残余の画像として、前処理だけが施された補
助画像Iq(1)〜Iq(N)を用いても良く、変形処
理および前処理のどちらも施されていない元の補助画像
Iq(1)〜Iq(N)を用いても良い。
In the above description, the synthesizing unit 46 uses the auxiliary images Iq (1) to Iq which have been subjected to the deformation processing and the preprocessing as the remaining images other than the corrected reference image Ir $ in the images to be synthesized. Iq (N), that is, the correction auxiliary image Iq
(1) Use $ to Iq (N) $. If the above-described combining process is performed to suppress the random noise, the combining unit 4
6 may use auxiliary images Iq (1) to Iq (N) that have undergone only preprocessing as the residual image, and the original auxiliary image Iq that has not undergone neither deformation processing nor preprocessing. (1) to Iq (N) may be used.

【0118】なお、前記残余の画像としては、少なくと
も前処理が施された補助画像Iq(1)〜Iq(N)を
用いることが好ましい。これは、以下の理由からであ
る。前記残余の画像に予め前処理が施されている場合、
合成対象の全ての画像それぞれから、彩度抑制処理を用
いてランダムノイズが減少されられている。ゆえに、前
記前処理が施された補助画像Iq(1)〜Iq(N)を
前記残余の画像とすると、それを用いた合成処理によっ
て充分にランダムノイズが除かれた合成画像Isを得る
ために最低限必要な合成対象の画像の枚数が、合成処理
を用いてランダムノイズを抑制する従来技術を用いた画
像処理装置における合成対象の画像の枚数よりも、少な
くなるからである。
As the residual image, it is preferable to use at least preprocessed auxiliary images Iq (1) to Iq (N). This is for the following reason. If the residual image has been preprocessed in advance,
Random noise is reduced from each of all the images to be combined by using saturation suppression processing. Therefore, when the pre-processed auxiliary images Iq (1) to Iq (N) are used as the residual images, a synthetic image Is sufficiently removed of random noise is obtained by the synthesizing process using the residual images. This is because the minimum number of images to be combined is smaller than the number of images to be combined in the image processing apparatus using the conventional technique that suppresses random noise using the combining process.

【0119】上述の各種の手法の合成処理で得られる合
成画像Isは、参照画像Irと比較して、写っている被
写体の位置や形状がほぼ等しく、かつ、画質が良好に改
善されている。また、補助画像Iq(1)〜Iq(N)
および参照画像Irを合成する場合、上述の説明と同じ
ように、合成処理に相関値Cnを用いた重み付け平均を
用いるならば、いわゆる二重写りのない合成画像を生成
することができるので、より好ましい。さらに、前記相
関値C1〜CNを用いた重み付け平均を用いる代わり
に、前記相関値を予め定める閾値と比較して、相関値が
前記閾値以上である補助画素pqと参照画素prとの画
素データだけの単純平均を、処理対象の画素psの画素
データとしてもよい。これによっても、前記二重写りの
ない合成画像を得ることができる。
In the composite image Is obtained by the above-described various combining processes, the position and the shape of the subject in the image are almost the same as the reference image Ir, and the image quality is improved satisfactorily. In addition, the auxiliary images Iq (1) to Iq (N)
When synthesizing the reference image Ir and the reference image Ir, if a weighted average using the correlation value Cn is used in the synthesizing process, a so-called double-image-free synthesized image can be generated. preferable. Further, instead of using the weighted average using the correlation values C1 to CN, only the pixel data of the auxiliary pixel pq and the reference pixel pr whose correlation value is equal to or more than the threshold value are compared by comparing the correlation value with a predetermined threshold value. The simple average may be used as the pixel data of the pixel ps to be processed. This also makes it possible to obtain the composite image without the double reflection.

【0120】以下に、全ての相関値演算部91(1)〜
91(N)が行う相関値の演算処理を、いずれか1つの
相関値演算部91(n)を例に説明する。全ての相関値
演算部91(1)〜91(N)の相関値の演算処理は、
処理対象となる補正補助画像が相互に異なるだけで、他
の点は相互に等しい。前記相関値の演算処理には、第1
〜第3の計算手法がある。
Below, all the correlation value calculation units 91 (1) ...
The calculation processing of the correlation value performed by 91 (N) will be described by taking one of the correlation value calculation units 91 (n) as an example. The calculation processing of the correlation values of all the correlation value calculation units 91 (1) to 91 (N) is
Only the correction auxiliary images to be processed are different from each other, and other points are equal to each other. In the calculation processing of the correlation value,
~ There is a third calculation method.

【0121】まず、相関値の第1の計算手法を説明す
る。第1の計算手法では、相関値Cnは、参照画素pr
の輝度値y1と、処理対象となるいずれか1つの補正補
助画像Iq(n)$の補助画素pq(n)の輝度値y2
とを用い、式29に基づいて、求められる。以下の式で
「ya」は、上記2つの輝度値y1,y2の平均値であ
る。前記輝度値y1,y2は、前述の式13を用いて定
義される。
First, the first method of calculating the correlation value will be described. In the first calculation method, the correlation value Cn is the reference pixel pr.
Luminance value y1 and the luminance value y2 of the auxiliary pixel pq (n) of any one corrected auxiliary image Iq (n) $ to be processed.
And are calculated based on the equation 29. In the following equation, “ya” is an average value of the above two brightness values y1 and y2. The brightness values y1 and y2 are defined by using the above-described equation 13.

【0122】 Cn = 1÷(|y1−ya|+|y2−ya|+1) …(29) 第1の計算手法では,合成画像Isの1つの処理対象の
画素psの画像データを定める際に、該画素psと同じ
座標の補正参照画像Ir$内の参照画像pr、および該
画素psと同じ座標の補正補助画像Iq(n)$内の画
素pq(n)だけを用いて、相関値Cnを計算してい
る。この結果、合成部46は、合成画像Isの画素単位
で、相関値を演算することができる。
Cn = 1 / (| y1-ya | + | y2-ya | +1) (29) In the first calculation method, when the image data of one pixel ps to be processed of the composite image Is is determined. , The correlation value Cn using only the reference image pr in the corrected reference image Ir $ having the same coordinates as the pixel ps and the pixel pq (n) in the correction auxiliary image Iq (n) $ having the same coordinates as the pixel ps. Is calculated. As a result, the combining unit 46 can calculate the correlation value for each pixel of the combined image Is.

【0123】したがって、各画像Ir$,Iq(n)$
内の画素pr,pq(n)の近傍の画素の画素データ
を、相関値の演算に用いる必要がなくなるので、ずれ補
正処理、前処理、および合成処理の演算時に、各処理の
処理結果を保持するバッファを備える必要がない。すな
わち、合成処理に用いられる元の画像を保持するため
の、いわゆる中間画像バッファを必要としない。ゆえ
に、本実施形態の画像処理装置22は、メモリを節約す
ることができるため、その部品点数を従来技術の画像処
理装置よりも減少させることができる。
Therefore, each image Ir $, Iq (n) $
Since it is not necessary to use the pixel data of the pixels in the vicinity of the pixels pr and pq (n) in the calculation of the correlation value, the processing result of each processing is held during the calculation of the deviation correction processing, the preprocessing, and the combining processing. It is not necessary to have a buffer to That is, a so-called intermediate image buffer for holding the original image used for the combining process is not required. Therefore, the image processing device 22 of the present embodiment can save memory, and the number of parts thereof can be reduced as compared with the image processing device of the prior art.

【0124】さらにまた、中間画像バッファを省略する
ことによって、画像処理装置の製造コストを大きく減少
させることができる。これは、以下の理由からである。
一般的に、中間画像バッファの容量は、式30に示すよ
うに、補助画像の幅と補助画像の高さとの積の3倍の値
と、全ての補助画像の枚数よりも1多い数との積のバイ
トになる。たとえば、補助画像のサイズが640×48
0画素であり、補助画像の枚数が10枚である場合、前
記中間画像バッファの容量は10Mバイトになる。この
ように、中間処理バッファは、比較的容量が大きくなり
易いので、部品コストが高く成り易い。ゆえに、中間画
像バッファを備えた分だけ、画像処理装置の製品コスト
が増加しやすい。本実施形態の画像処理装置22は、上
述の中間処理バッファを備えないので、製品コストを大
きく減少させることができるのである。
Furthermore, by omitting the intermediate image buffer, the manufacturing cost of the image processing apparatus can be greatly reduced. This is for the following reason.
In general, the capacity of the intermediate image buffer is, as shown in Equation 30, three times the product of the width of the auxiliary image and the height of the auxiliary image, and a number one more than the number of all auxiliary images. It becomes the product byte. For example, the size of the auxiliary image is 640 × 48.
When the number of auxiliary images is 0 and the number of auxiliary images is 10, the capacity of the intermediate image buffer is 10 Mbytes. In this way, the intermediate processing buffer tends to have a relatively large capacity, so that the component cost tends to be high. Therefore, the product cost of the image processing apparatus is likely to increase due to the provision of the intermediate image buffer. Since the image processing device 22 of the present embodiment does not include the above-mentioned intermediate processing buffer, the product cost can be greatly reduced.

【0125】 容量=3×(補助画像の幅×補助画像の高さ)×(補助画像の枚数+1) …(30) 次いで、相関値の第2の計算手法を説明する。図12
は、相関値の第2の計算方法を用いる、合成画像Is内
のいずれか1つの座標(x,y)に相当する処理対象の
画素psの画素データの設定手法を説明するための、機
能的ブロック図である。図12の機能的ブロック図は、
図11の機能的ブロック図と類似し、各画像Ir$,I
q(1)$〜Iq(N)$,Isをそれぞれ示す四辺形
は、図11の四辺形と同じ意味である。相関値の第2の
計算手法を用いる場合、図12に示すように、補助用前
処理部45(1)〜45(N)と合成部46との間に、
それぞれ、補正画像バッファ94(1)〜94(N)が
介在される。補正画像バッファ94(1)〜94(N)
は、それぞれ、補助用前処理部45(1)〜45(N)
からそれぞれ出力される画素データの集合、すなわち補
正補助画像Iq(1)$〜Iq(N)$を表す画像デー
タを記憶する。
Capacity = 3 × (width of auxiliary image × height of auxiliary image) × (number of auxiliary images + 1) (30) Next, a second calculation method of the correlation value will be described. 12
Is a functional diagram for explaining the method of setting the pixel data of the pixel ps to be processed corresponding to any one of the coordinates (x, y) in the composite image Is using the second calculation method of the correlation value. It is a block diagram. The functional block diagram of FIG. 12 is
Similar to the functional block diagram of FIG. 11, each image Ir $, I
The quadrangle representing q (1) $ to Iq (N) $, Is has the same meaning as the quadrangle in FIG. 11. When the second calculation method of the correlation value is used, as shown in FIG. 12, between the auxiliary preprocessing units 45 (1) to 45 (N) and the synthesizing unit 46,
Corrected image buffers 94 (1) to 94 (N) are respectively interposed. Correction image buffers 94 (1) to 94 (N)
Are auxiliary pretreatment units 45 (1) to 45 (N), respectively.
A set of pixel data respectively output from, that is, image data representing corrected auxiliary images Iq (1) $ to Iq (N) $ is stored.

【0126】第2の計算手法では、まず、補正参照画像
Ir$のイメージベクトルViと、処理対象となるいず
れか1つの補正補助画像Iq(n)$のイメージベクト
ルVjとを、求める。前記各画像Ir$,Iq(n)$
のイメージベクトルVi,Vjは、それぞれ、各画像I
r$,Iq(n)$内の前記処理対象の画素psと座標
が等しい画素pr、pq(n)の輝度値と、該画素p
r,pq(n)の複数の近傍画素それぞれの輝度値と
を、それぞれ成分とする。
In the second calculation method, first, the image vector Vi of the corrected reference image Ir $ and the image vector Vj of any one of the corrected auxiliary images Iq (n) $ to be processed are obtained. Each image Ir $, Iq (n) $
Image vectors Vi and Vj of
The luminance values of the pixels pr and pq (n) having the same coordinates as the pixel ps to be processed in r $ and Iq (n) $, and the pixel p.
The brightness value of each of a plurality of neighboring pixels of r and pq (n) is used as a component.

【0127】たとえば、前記画素pr,pq(n)の座
標を(x,y)と仮定し、前記複数の近傍画素をいわゆ
る3×3近傍の画素であると仮定する。この場合、前記
画素pr,pq(n)および前記複数の近傍画素の座標
は、以下の行列31に示す通りの組合わせになる。以下
の行列31の要素の配列は、前記画像Ir$,Iq
(n)$内の処理対象の画素pr,pq(n)および前
記複数の近傍画素の配列と等しい。
For example, it is assumed that the coordinates of the pixels pr and pq (n) are (x, y), and that the plurality of neighboring pixels are so-called 3 × 3 neighboring pixels. In this case, the coordinates of the pixels pr, pq (n) and the plurality of neighboring pixels are a combination as shown in the matrix 31 below. The array of elements of the matrix 31 below is the image Ir $, Iq
It is equal to the array of the processing target pixels pr and pq (n) in (n) $ and the plurality of neighboring pixels.

【0128】 (x−1,y−1),(x ,y−1),(x+1,y−1) (x−1,y ),(x ,y ),(x+1,y ) (x−1,y+1),(x ,y+1),(x+1,y+1) …(31) ゆえに、画像Iのいずれか1つの画素p(x,y)のイ
メージベクトルVは、上述の9つの画素の輝度値を要素
とするベクトルであり、式32で表される。以下の式に
おいて、「I(i,j)」は、画像I内の任意の1つの
座標(i,j)に相当する画素の輝度値を示す。前記輝
度値I(i,j)は、式13を用いて定義される。
「i」は、x−1,x,x+1のうちのいずれかであ
り、「j」は、y−1,y,y+1のうちのいずれかで
あり、画像Iは、補正参照画像Ir$またはいずれか1
つの補正補助画像Iq(n)$である。
(X-1, y-1), (x, y-1), (x + 1, y-1) (x-1, y), (x, y), (x + 1, y) (x- 1, y + 1), (x, y + 1), (x + 1, y + 1) (31) Therefore, the image vector V of any one pixel p (x, y) of the image I is the brightness value of the nine pixels described above. Is a vector whose elements are and is represented by Expression 32. In the following formula, “I (i, j)” indicates the luminance value of the pixel corresponding to any one coordinate (i, j) in the image I. The brightness value I (i, j) is defined using Equation 13.
"I" is any one of x-1, x, x + 1, "j" is any one of y-1, y, y + 1, and the image I is the corrected reference image Ir $ or Either one
One corrected auxiliary image Iq (n) $.

【0129】 V=[I(x−1,y−1),I(x,y−1),I(x+1,y−1), I(x−1,y ),I(x,y ),I(x+1,y ), I(x−1,y+1),I(x,y+1),I(x+1,y+1)] …(32) 次いで、いずれか1つの相関値演算部92(n)は、補
正参照画像Ir$のイメージベクトルViと、前記補正
補助画像Iq(n)$のイメージベクトルViとのベク
トル相関値Cvを、前記相関値Cnとして求める。前記
イメージベクトル相関値の演算処理には、第1〜第3の
算出手法があり、各算出手法の詳細は後述する。このよ
うに、第2の計算手法を用いる場合、全ての補助用前処
理部45(1)〜45(N)から出力される画素データ
の集合、すなわち前記変形処理および前処理が施された
全ての補助画像Iq(1)〜Iq(N)の画像データを
保存するための、補正画像バッファ94(1)〜94
(N)が必要となる。
V = [I (x-1, y-1), I (x, y-1), I (x + 1, y-1), I (x-1, y), I (x, y) , I (x + 1, y), I (x-1, y + 1), I (x, y + 1), I (x + 1, y + 1)] (32) Next, one of the correlation value calculation units 92 (n) A vector correlation value Cv between the image vector Vi of the corrected reference image Ir $ and the image vector Vi of the corrected auxiliary image Iq (n) $ is obtained as the correlation value Cn. There are first to third calculation methods for the calculation processing of the image vector correlation value, and details of each calculation method will be described later. As described above, when the second calculation method is used, a set of pixel data output from all the auxiliary preprocessing units 45 (1) to 45 (N), that is, all of the transformation processing and the preprocessing are performed. Corrected image buffers 94 (1) to 94 for storing the image data of the auxiliary images Iq (1) to Iq (N) of
(N) is required.

【0130】2つの前記イメージベクトルVi,Vj
は、それぞれ、参照画素prおよび補助画素pq(n)
の近傍におけるいわゆるテキスチャを、それぞれ表して
いる。2つの前記イメージベクトルVi,Vjの相関が
高くなることは、参照画素prの近傍のテキスチャと補
助画素pq(n)の近傍のテキスチャとが相互に似てい
ることを示している。このため、前記イメージベクトル
Vi,Vjの相関を、前記相関値Cnとして合成処理に
用いる場合、前記テキスチャの類似度に応じて、前記合
成処理の合成率を制御することができる。このように、
第2の計算手法を用いる場合、前記合成処理に、補正参
照画像Ir$およびいずれか1つの補正補助画像Iq
(n)$のテキスチャに関する情報を活用することがで
きる。したがって、いわゆるロバスト性を向上させるこ
とができる。
The two image vectors Vi, Vj
Are reference pixels pr and auxiliary pixels pq (n), respectively.
The so-called textures in the vicinity of are respectively represented. The high correlation between the two image vectors Vi and Vj indicates that the texture near the reference pixel pr and the texture near the auxiliary pixel pq (n) are similar to each other. Therefore, when the correlation between the image vectors Vi and Vj is used as the correlation value Cn in the synthesizing process, the synthesizing rate of the synthesizing process can be controlled according to the similarity of the texture. in this way,
When the second calculation method is used, the correction reference image Ir $ and any one correction auxiliary image Iq are included in the combining process.
(N) Information on the texture of $ can be utilized. Therefore, so-called robustness can be improved.

【0131】以下に、前記ベクトル相関値の第1の算出
手法を説明する。第1の算出手法では、イメージベクト
ルVi,Vjの第1のベクトル相関値Cv1として、式
33に示すイメージベクトルVi,Vjの内積を用い
る。これは、一般的に、2つの処理対象のベクトルが相
互に同じ方向を向く場合に内積が1に近づき、2つの処
理対象のベクトルが相互に異なる方向を向いている場合
に内積が1より小さい値となることを利用している。
The first method of calculating the vector correlation value will be described below. In the first calculation method, the inner product of the image vectors Vi and Vj shown in Expression 33 is used as the first vector correlation value Cv1 of the image vectors Vi and Vj. This is because the inner product generally approaches 1 when two vectors to be processed are in the same direction, and is less than 1 when the two vectors to be processed are in different directions. It takes advantage of the value.

【0132】 Cv1 = Vi・Vj …(33) 以下に、前記ベクトル相関値の第2の算出手法を説明す
る。第2の算出手法では、イメージベクトルVi,Vj
の第2のベクトル相関値Cv2として、式34に示すイ
メージベクトルの各成分の差の絶対値を積算した和を用
いる。第2のベクトル相関値Cv2は、算出式34が加
算および減算だけで構成されているので、ベクトル相関
値Cv2の計算に乗算処理を必要としない。ゆえに、第
1の計算手法が用いられる場合と比較して、第2の計算
手法が用いられる場合、相関値演算部91(1)〜91
(N)の計算量が少なくなる。
Cv1 = Vi · Vj (33) The second calculation method of the vector correlation value will be described below. In the second calculation method, the image vectors Vi, Vj
As the second vector correlation value Cv2 of, the sum of the absolute values of the differences between the components of the image vector shown in Expression 34 is used. The second vector correlation value Cv2 does not require a multiplication process to calculate the vector correlation value Cv2 because the calculation formula 34 is configured only by addition and subtraction. Therefore, as compared with the case where the first calculation method is used, when the second calculation method is used, the correlation value calculation units 91 (1) to 91
The calculation amount of (N) is reduced.

【0133】 Cv2 = Σk|Vik−Vjk| …(34) 以下に、前記ベクトル相関値の第3の計算手法を説明す
る。第3の計算手法では、イメージベクトルVi,Vj
の第3のベクトル相関値Cv3として、参照画素prお
よび補助画素pq(n)の輝度成分の逆数を用いる。こ
れは、以下の理由からである。一般的に、前記ランダム
ノイズは、画像内の前記低輝度領域で発生し、ずれ補正
の誤りに起因するいわゆる残像は、画像内の、輝度が大
きい画素を多く含む高輝度領域で顕著となる。このた
め、画像内の前記高輝度領域に関する合成処理を弱め、
かつ、画像内の低輝度領域で積極的に合成処理を行う
と、ずれ補正の誤りに起因する残像を抑えつつ、前記ラ
ンダムノイズを合成処理を用いて抑制することができる
のである。具体的には、第3のベクトル相関値Cv3
は、式35に示すように、参照画素prおよび補助画素
pq(n)の輝度値ya,ybの平均値に1を加えた値
の逆数である。輝度値ya,ybは、前述の式13を用
いて定義される。以下の式で、前記平均値に1を加えて
いるのは、前記平均値が0となった場合に、第3のベク
トル相関値Cv3が特異となるのを防ぐためである。以
上で、ベクトル相関値の計算手法の説明を終了する。
Cv2 = Σ k | Vik-Vjk | (34) The third calculation method of the vector correlation value will be described below. In the third calculation method, the image vectors Vi, Vj
As the third vector correlation value Cv3 of, the reciprocal of the luminance component of the reference pixel pr and the auxiliary pixel pq (n) is used. This is for the following reason. Generally, the random noise occurs in the low-luminance region in the image, and a so-called afterimage caused by an error in misregistration becomes prominent in the high-luminance region in the image that includes many pixels with high luminance. For this reason, weakening the synthesizing process for the high-luminance region in the image,
In addition, if the combining process is positively performed in the low-luminance region in the image, it is possible to suppress the random noise by using the combining process while suppressing the afterimage caused by the error in the shift correction. Specifically, the third vector correlation value Cv3
Is the reciprocal of the value obtained by adding 1 to the average value of the luminance values ya and yb of the reference pixel pr and the auxiliary pixel pq (n) as shown in Expression 35. The brightness values ya and yb are defined by using the above-described Expression 13. In the following equation, 1 is added to the average value to prevent the third vector correlation value Cv3 from becoming peculiar when the average value becomes 0. This is the end of the description of the vector correlation value calculation method.

【0134】 Cv3 = 1÷((y1+y2)÷2+1) …(35) 上述の合成処理に説明において、相関値Cnを、式36
に示す該相関値Cnと範囲指定係数kaとの積Cn*に
置換えても良い。これは、前記合成処理において、輝度
値yが取り得る有効範囲のうちの相関値Cnが影響する
範囲を、前記有効範囲内の一部分の限られた範囲内に限
定したり、画素の輝度成分に対する相関値Cnの適用強
度の分布を変えることができるようにするためである。
範囲指定係数kaは、式37に示す評価関数によって定
められる。以下の式で、「p」は前記評価関数の変化の
度合を決める係数である。「Ia」は、式38で示すよ
うに、参照画素prおよび補助画素pq(n)の輝度値
ya,ybの平均値である。「It」は、輝度値の平均
値Iaの予め定める閾値である。閾値Itは、たとえば
0.5であり、係数pは、たとえば10である。このよ
うに、積Cn*を相関値Cnと置換えて用いることによ
って、前記係数pを変化させるだけで、合成したい輝度
値の範囲を大きく変えるように、容易に指定することが
できる。
Cv3 = 1 / ((y1 + y2) / 2 + 1) (35) In the above description of the combining process, the correlation value Cn is calculated by the expression 36.
It may be replaced with the product Cn * of the correlation value Cn and the range designation coefficient ka shown in. This is because, in the synthesizing process, the range in which the correlation value Cn influences the effective range that the brightness value y can take is limited to a limited range of a part of the effective range, or the brightness component of the pixel. This is so that the distribution of the applied strength of the correlation value Cn can be changed.
The range designation coefficient ka is determined by the evaluation function shown in Expression 37. In the following equation, “p” is a coefficient that determines the degree of change in the evaluation function. “Ia” is an average value of the luminance values ya and yb of the reference pixel pr and the auxiliary pixel pq (n) as shown in Expression 38. “It” is a predetermined threshold value of the average value Ia of the brightness values. The threshold It is, for example, 0.5, and the coefficient p is, for example, 10. As described above, by using the product Cn * by substituting the correlation value Cn, it is possible to easily specify that the range of the luminance value to be combined is greatly changed only by changing the coefficient p.

【0135】 Cn* = Cn×ka …(36) ka = 1÷(1+exp(−p×(Ia−It))) …(37) Ia = (ya+yb)÷2 …(38) 彩度強調部55が行う彩度強調処理を、以下に説明す
る。彩度強調部55は、輝度補正部51,53(1)〜
53(N)における輝度補正処理に起因して参照および
補助画像Ir,Iq(1)〜Iq(N)から失われた色
のための合成画像Isの画質の劣化を補正するためのも
のであり、概略的には、合成部46で得られる合成画像
Isの各画素の彩度を、該各画素の輝度が大きいほど強
く強調する。前記彩度強調処理には、第1および第2の
手法がある。第1および第2の手法のどちらも、合成画
像の画素を1つずつ順次処理対象として行われ、合成画
像の全ての画素を処理対象とするまで繰返される。
Cn * = Cn × ka (36) ka = 1 / (1 + exp (-p × (Ia-It))) (37) Ia = (ya + yb) / 2 (38) Saturation enhancement unit 55 The saturation emphasis processing performed by will be described below. The saturation enhancement unit 55 includes the brightness correction units 51 and 53 (1) to
This is for correcting the deterioration of the image quality of the composite image Is due to the colors lost from the reference and auxiliary images Ir, Iq (1) to Iq (N) due to the brightness correction processing at 53 (N). Generally, the saturation of each pixel of the combined image Is obtained by the combining unit 46 is emphasized more strongly as the brightness of each pixel is higher. There are first and second methods for the saturation enhancement processing. In both the first and second methods, the pixels of the combined image are sequentially processed one by one, and the processing is repeated until all the pixels of the combined image are processed.

【0136】まず、彩度強調処理の第1の手法を説明す
る。第1の手法では、彩度強調部55は、まず、合成画
像Isの処理対象の1つの画素の画素データの表色系
を、RGB表色系からHSV表色系に変換する。次い
で、前記画素の画素データの輝度成分Vを調べ、輝度成
分Vが大きいほど、画素の彩度成分Sを拡大する。最後
に、前記画素の画素データの表色系を、HSV表色系か
らRGB表色系に戻す。この処理が、合成画像の各画素
毎に、繰返す。
First, the first method of saturation enhancement processing will be described. In the first method, the saturation enhancement unit 55 first converts the color system of the pixel data of one pixel of the processing target of the combined image Is from the RGB color system to the HSV color system. Next, the luminance component V of the pixel data of the pixel is examined, and as the luminance component V is larger, the saturation component S of the pixel is enlarged. Finally, the color system of the pixel data of the pixel is changed from the HSV color system to the RGB color system. This process is repeated for each pixel of the composite image.

【0137】次いで、彩度強調処理の第2の手法を説明
する。第1の手法では、彩度強調部55は、まず、合成
画像Isの処理対象の1つの画素の画素データの3つの
色成分r*,g*,b*の平均値ac2を求める。次い
で彩度強調部55は、前記各色成分r*,g*,b*
を、該各色成分と平均値ac2との差ac2−r*,a
c2−g*,ac2−b*と前記画素評価係数kとの積
だけ拡大した値に、置換える。すなわち、前記各色成分
r*,g*,b*が、以下の式39〜41で示す色成分
R*,G*,B*に、それぞれ置換えられる。前記画素
評価係数kは、前述の彩度抑制部67の説明の式1〜式
3で定められる。この結果、前記色成分R*,G*,B
*は、前記画素の輝度成分が大きいほど、強調されるこ
とになる。この際、変換後の色成分R*,G*,B*を
含む画素データを、HSV表色系に変換すると、該画素
データの輝度成分Vが、輝度成分Vが取得る予め定める
有効範囲からはみ出すことがある。ゆえに、色成分の変
換後、いわゆるクリッピングを用いて前記輝度成分が前
記有効範囲内にあるか否かを調べ、有効範囲内にない場
合には、前記画素データを修正することが好ましい。
Next, the second method of saturation enhancement processing will be described. In the first method, the saturation enhancement unit 55 first obtains the average value ac2 of the three color components r *, g *, and b * of the pixel data of one pixel to be processed in the combined image Is. Next, the saturation enhancement unit 55 causes the color components r *, g *, b *.
Is the difference ac2-r *, a between each color component and the average value ac2.
It is replaced with a value obtained by enlarging the product of c2-g *, ac2-b * and the pixel evaluation coefficient k. That is, the color components r *, g *, b * are replaced with the color components R *, G *, B * shown in the following equations 39 to 41, respectively. The pixel evaluation coefficient k is defined by the equations 1 to 3 in the description of the saturation suppressing section 67 described above. As a result, the color components R *, G *, B
* Is emphasized as the luminance component of the pixel increases. At this time, when the pixel data including the converted color components R *, G *, and B * is converted into the HSV color system, the brightness component V of the pixel data is out of the predetermined effective range acquired by the brightness component V. It may protrude. Therefore, after the conversion of the color component, it is preferable to use so-called clipping to check whether or not the luminance component is within the effective range, and if it is not within the effective range, it is preferable to correct the pixel data.

【0138】 R*=−(1−k)×(ac2−r*)+r* …(39) G*=−(1−k)×(ac2−g*)+g* …(40) B*=−(1−k)×(ac2−b*)+b* …(41) 上述の第1または第2の手法で彩度が強調された画素デ
ータは、順次、彩度強調部55から出力される。前記画
素データの集合が、彩度強調処理が施された合成画像I
s*に相当する。また、彩度強調処理において、上述の
ように前記合成画像の画素の彩度成分の強調の度合を、
画素評価係数が大きくなるのに伴って連続的に大きくす
る代わりに、前記画素の輝度成分Vが予め定める輝度の
閾値以上であるかどうかを前記合成画像Isの各画素毎
にそれぞれ調べ、輝度成分が前記輝度の閾値以上である
画素の彩度だけを、強調するようにしてもよい。以上
で、彩度強調処理の説明を終了する。
R * = − (1-k) × (ac2-r *) + r * (39) G * = − (1-k) × (ac2-g *) + g * (40) B * = -(1-k) * (ac2-b *) + b * (41) The pixel data whose saturation has been emphasized by the above-described first or second method is sequentially output from the saturation emphasizing unit 55. . The set of pixel data is a combined image I that has been subjected to saturation enhancement processing.
Corresponds to s *. In the saturation emphasis process, the degree of emphasis of the saturation component of the pixel of the composite image is set as described above.
Instead of continuously increasing as the pixel evaluation coefficient increases, it is checked for each pixel of the composite image Is whether or not the brightness component V of the pixel is greater than or equal to a predetermined brightness threshold, and the brightness component is checked. You may make it emphasize only the saturation of the pixel which is above the said threshold value of brightness. This is the end of the description of the saturation enhancement processing.

【0139】先鋭化部56が行う先鋭化処理を、以下に
説明する。先鋭化部10の先鋭化処理は、合成画像Is
の画質を改善するために、合成画像Isに生じるぼけを
抑制し、前記合成画像の先鋭度を回復させる。前記ぼけ
や前記先鋭度の劣化は、参照画像Irと各補助画像Iq
(1)〜Iq(N)とのずれが、変形部44(1)〜4
4(N)の変形処理によって完全に補正しきれなかった
場合に、生じる。
The sharpening process performed by the sharpening unit 56 will be described below. The sharpening process of the sharpening unit 10 is performed by the composite image Is.
In order to improve the image quality of the composite image Is, blurring occurring in the composite image Is is suppressed and the sharpness of the composite image is restored. The blur and the deterioration of the sharpness are caused by the reference image Ir and each auxiliary image Iq.
The deviation from (1) to Iq (N) is caused by the deformation portions 44 (1) to 4
This occurs when correction cannot be completely performed by the 4 (N) transformation process.

【0140】概略的には、先鋭化部10は、彩度が強調
された合成画像Is*に、先鋭化処理のためのフィルタ
を用いた先鋭化処理を施し、該合成画像Is*の先鋭度
を回復される。前記フィルタは、たとえば、いわゆるラ
プラシアンオペレータを用いたアンシャープマスキング
である。前記先鋭化処理の際、前記合成画像Is*内の
前記低輝度領域に先鋭化処理を適用すると、抑制された
ランダムノイズが再び目立つことになる。このため、先
鋭化部56は、前記合成画像Is*内の前記高輝度領域
を強く先鋭化して、画像内の前記低輝度領域には先鋭化
処理の影響がでないようにする。すなわち、前記合成画
像Is*内の各画素の画素データの3つの色成分それぞ
れを、式42に示すように、それぞれ変換する。
In general, the sharpening unit 10 performs sharpening processing using a filter for sharpening processing on the composite image Is * with enhanced saturation, and the sharpness of the composite image Is * is increased. Will be recovered. The filter is, for example, unsharp masking using a so-called Laplacian operator. When the sharpening process is applied to the low-luminance region in the composite image Is * during the sharpening process, the suppressed random noise becomes noticeable again. Therefore, the sharpening unit 56 strongly sharpens the high-luminance region in the composite image Is * so that the low-luminance region in the image is not affected by the sharpening process. That is, each of the three color components of the pixel data of each pixel in the composite image Is * is converted as shown in Expression 42.

【0141】 I*=I−αc×Y×L(I) …(42) 上式で,「I」は前記合成画像Is*の処理対象の任意
の1つの画素の画素データ内の3つの色成分のうちのい
ずれか1つの色成分であり、「L(I)」は前記任意の
画素のいわゆるラプラシアンであり、「αc」はエッジ
強調の強度を示す定数であり、「Y」は、前記任意の1
つの画素の輝度値であり、「I*」は先鋭化処理後の前
記いずれか1つの色成分である。前記輝度値は、式13
を用いて定められる。また、先鋭化処理が行われる場
合、前記合成画像Is*内の全ての画素pの輝度値Y
は、0以上1以下の範囲に正規化されているとする。
I * = I−αc × Y × L (I) (42) In the above equation, “I” represents three colors in the pixel data of any one pixel of the composite image Is * to be processed. Any one of the color components, “L (I)” is the so-called Laplacian of the arbitrary pixel, “αc” is a constant indicating the strength of edge enhancement, and “Y” is the above Any 1
The luminance value of one pixel, and “I *” is any one of the color components after the sharpening process. The brightness value is given by
Is determined using. Further, when the sharpening process is performed, the luminance values Y of all the pixels p in the composite image Is *.
Is normalized to a range of 0 or more and 1 or less.

【0142】上述の手法で変換された色成分I*は、順
次、先鋭化部56から出力される。合成画像の全ての画
素の3つの前記変換された色成分I*の集合が、出力画
像Ioに相当する。これによって、ランダムノイズを抑
制したまま、前記合成画像Is*内の前記高輝度領域だ
けに先鋭化処理が施される。この結果、参照画像Irと
比較して、出力画像Ioの画質を向上させることができ
る。以上で、先鋭化部56の説明を終了する。
The color component I * converted by the above method is sequentially output from the sharpening unit 56. The set of the three transformed color components I * of all the pixels of the composite image corresponds to the output image Io. As a result, the sharpening process is performed only on the high-luminance region in the composite image Is * while suppressing random noise. As a result, the image quality of the output image Io can be improved as compared with the reference image Ir. Above, description of the sharpening part 56 is complete | finished.

【0143】本発明の第2実施形態である画像処理装置
を、以下に説明する。前記画像処理装置は、中央演算処
理装置と記憶装置と表示装置と通信部とを備えるコンピ
ュータによって実現される。前記コンピュータには、第
1実施形態で説明した各種の処理を含む前記画質改善処
理を前記中央演算処理装置に行わせるためのプログラム
およびデータを含む画像処理ソフトウエアが、インスト
ールされている。前記画像処理プログラムは、たとえば
頒布時には記憶媒体に記憶されており、該前記記憶媒体
を前記コンピュータに装着して、前記記憶媒体内の前記
ソフトウエアを前記コンピュータにインストールする。
前記記憶媒体には、たとえば、CD−ROMおよびフロ
ッピーディスクが挙げられる。前記画像処理ソフトウエ
アは、たとえば、デジタルスチルカメラのバンドルソフ
トウェアである。前記コンピュータは、撮影装置23と
の間で、通信部29を介して相互に画像ファイルを送受
信することができるものと仮定する。
An image processing apparatus according to the second embodiment of the present invention will be described below. The image processing device is realized by a computer including a central processing unit, a storage device, a display device, and a communication unit. Image processing software including programs and data for causing the central processing unit to perform the image quality improvement processing including the various kinds of processing described in the first embodiment is installed in the computer. The image processing program is stored in, for example, a storage medium at the time of distribution, the storage medium is installed in the computer, and the software in the storage medium is installed in the computer.
Examples of the storage medium include a CD-ROM and a floppy disk. The image processing software is, for example, bundled software of a digital still camera. It is assumed that the computer can exchange image files with the photographing device 23 via the communication unit 29.

【0144】この場合、図2のブロック図は、前記プロ
グラムの全体の流れを示す機能的ブロック図に相当し、
図3,6,10のブロック図は、該各図3,6,10で
説明した各種処理を行うサブルーチンの流れを示す機能
的ブロック図に相当する。図4,5,7〜9の図表は、
前記ソフトウエア内のデータの特徴を表す。機能的ブロ
ック図では、単一のブロックが、中央演算処理回路の動
作プログラムのうちの或る目的のための一連の処理動
作、いわゆるサブルーチンを表し、該ブロックへ向かう
矢印が、該処理のために必要な入力信号およびデータを
表し、該ブロックから出る矢印が、該処理動作の処理結
果を示す出力信号およびデータを表す。
In this case, the block diagram of FIG. 2 corresponds to a functional block diagram showing the overall flow of the program,
The block diagrams of FIGS. 3, 6 and 10 correspond to the functional block diagrams showing the flow of the subroutine for performing the various processes described in FIGS. The charts in FIGS. 4, 5, 7-9 are
It represents the characteristics of the data in the software. In the functional block diagram, a single block represents a series of processing operations for a certain purpose in the operation program of the central processing unit, that is, a so-called subroutine, and an arrow toward the block indicates the processing operation. The necessary input signals and data are represented, and the arrows coming out of the block represent the output signals and data showing the processing result of the processing operation.

【0145】前記コンピュータを画像処理装置22とし
て動作させるには、前記コンピュータに前記画像処理ソ
フトウエアがインストールされた状態で、まず操作者
が、記憶部30内の画像ファイル36のうちのいずれか
1つを指定し、さらにインストールされた前記ソフトウ
エアの実行を、指示する。コンピュータの中央演算処理
装置は、前記指示に応答して、インストールされた前記
画像処理ソフトウエア内の前記プログラムを実行する。
これによって、前記コンピュータ内の前記中央演算処理
装置およびメモリが、前記画質改善部31内の各部品と
して順次動作するので、前記コンピュータ全体が画像処
理装置22として動作する。
To operate the computer as the image processing apparatus 22, the operator first installs one of the image files 36 in the storage unit 30 while the image processing software is installed in the computer. One of them is designated, and the execution of the installed software is instructed. The central processing unit of the computer executes the program in the installed image processing software in response to the instruction.
As a result, the central processing unit and the memory in the computer sequentially operate as the respective components in the image quality improving unit 31, so that the entire computer operates as the image processing device 22.

【0146】この結果、前記中央演算処理装置は、操作
者が指定した画像ファイル36を記憶部30から読込
み、該画像ファイル内の複数の画像を用いて上述した画
質改善処理を実行し、該画質改善処理の処理結果として
得られた出力画像Ioを含む画像ファイル37を記憶部
30に再び記憶させる。前記画質改善処理の後、操作者
は、さらに、コンピュータの中央演算処理装置に、前記
出力画像Ioの表示に適切ないわゆる画像ファイルビュ
ーアプログラムを実行させる。この結果、前記画像ファ
イル37が再生されて、出力画像Ioがコンピュータの
表示装置に表示される。これによって、操作者は、参照
画像Irよりも画質が改善された出力画像Ioを、得る
ことができる。このような手順で、汎用的なコンピュー
タを用いて、容易に第1実施形態の画像処理装置22を
を実現することができる。
As a result, the central processing unit reads the image file 36 designated by the operator from the storage unit 30, executes the above-mentioned image quality improving process using a plurality of images in the image file, and The image file 37 including the output image Io obtained as a result of the improvement process is stored in the storage unit 30 again. After the image quality improving process, the operator further causes the central processing unit of the computer to execute a so-called image file viewer program suitable for displaying the output image Io. As a result, the image file 37 is reproduced and the output image Io is displayed on the display device of the computer. Thereby, the operator can obtain the output image Io whose image quality is improved as compared with the reference image Ir. With such a procedure, the image processing apparatus 22 of the first embodiment can be easily realized by using a general-purpose computer.

【0147】上述した第1実施形態の画像処理装置22
および第2実施形態の画像処理ソフトウエアがインスト
ールされたコンピュータは、撮影装置23に外付けする
装置になっていた。画像処理装置22内の画質改善部3
1、および前記コンピュータ内の前記画像処理プログラ
ムを実行する部分は、それぞれ、撮影装置23内に内蔵
されていてもよい。
The image processing device 22 of the first embodiment described above.
The computer in which the image processing software of the second embodiment is installed is an external device to the photographing device 23. Image quality improvement unit 3 in the image processing device 22
1 and a portion that executes the image processing program in the computer may be incorporated in the image capturing device 23.

【0148】また、撮影装置23は、単一の被写体を複
数回数撮影することができる装置であれば、デジタルス
チルカメラ以外の他のものでもよい。たとえば、撮影装
置23は、ビデオカメラであってもよい。撮影装置23
がビデオカメラである場合、前記動画の各フレームを、
前記画質改善処理の処理対象の複数の画像とみなす。こ
の結果、前記画質改善処理によって、前記動画の各フレ
ームの画質の改善を行うことができる。またこの結果、
前記ビデオカメラを用いて静止画を得る場合、該静止画
の画質を改善することができる。
The photographing device 23 may be a device other than the digital still camera as long as it is a device capable of photographing a single subject a plurality of times. For example, the photographing device 23 may be a video camera. Imaging device 23
Is a video camera, each frame of the movie is
It is regarded as a plurality of images to be processed by the image quality improvement processing. As a result, the image quality of each frame of the moving image can be improved by the image quality improving process. As a result of this,
When a still image is obtained using the video camera, the image quality of the still image can be improved.

【0149】さらに、撮影装置23がビデオカメラであ
る場合、前記動画の連続する複数のフレームのうちの最
初のフレームを参照画像Irとし、前記連続する複数の
フレームのうちの2番目から最後までのフレームを、補
助画像Iq(1)〜Iq(N)としてもよい。また前記
場合、前記動画の連続する複数のフレームのうちのいず
れか1つのフレームを参照画像Irとし、前記連続する
複数のフレームのうちの前記いずれか1つのフレーム以
外の残余のフレームを、補助画像Iq(1)〜Iq
(N)としてもよい。この場合、前記いずれか1つのフ
レームは、前記複数のフレームの中で、該複数のフレー
ム内の他のフレームと重複する面積が最も大きいフレー
ムであることが好ましい。さらに、前記動画の中から前
記複数のフレームを選択する際に、該複数のフレームか
ら成るフレーム列が2つのシーンにまたがっていると、
前記画像改善処理内の合成処理において、合成処理の画
質を損なう可能性がある。ゆえに、前記フレーム列は、
いわゆるカット検出技術を用いて、単一のシーン内の複
数のフレームだけ抽出して、該複数のフレームを画質改
善処理の処理対象の複数の画像とすることが好ましい。
Further, when the photographing device 23 is a video camera, the first frame of the plurality of consecutive frames of the moving image is set as the reference image Ir, and the second to the last of the plurality of consecutive frames are set. The frames may be the auxiliary images Iq (1) to Iq (N). Further, in the above case, any one frame of the plurality of continuous frames of the moving image is set as a reference image Ir, and the remaining frames other than the one frame of the plurality of continuous frames are set as auxiliary images. Iq (1) to Iq
It may be (N). In this case, it is preferable that any one of the plurality of frames has a largest area overlapping with other frames in the plurality of frames. Furthermore, when selecting the plurality of frames from the moving image, if the frame sequence composed of the plurality of frames spans two scenes,
In the combining process within the image improving process, the image quality of the combining process may be impaired. Therefore, the frame sequence is
It is preferable to use a so-called cut detection technique to extract only a plurality of frames in a single scene and set the plurality of frames as a plurality of images to be processed by the image quality improvement processing.

【0150】さらに、前記画質改善処理は、該画質改善
処理内の一部分の処理だけを、選択的に行っても良い。
前記画質改善処理内の全ての処理のうちのどの部分を実
行するかは、たとえば、前記画質改善処理の実行モード
の切換えに応じて切換えられる。前記画質改善処理の中
の複数の処理のうち、実行される処理の数が多いほど、
出力画像Ioの画質を、参照画像Irよりも向上させる
ことできることができる。特に、前記輝度補正処理と、
前記画質改善処理の中の前記輝度補正処理以外の残余の
処理のうちの少なくとも1つの処理とを組合わせて行う
場合、前記輝度補正処理によって増幅された参照画像内
Ir内のランダムノイズの影響を、出力画像Ioから充
分に除いて、出力画像Ioの画質を改善することができ
る。
Further, in the image quality improving process, only a part of the image quality improving process may be selectively performed.
Which part of all the processes in the image quality improving process is executed can be switched according to, for example, switching of the execution mode of the image quality improving process. Of the plurality of processes in the image quality improving process, the larger the number of processes to be executed,
It is possible to improve the image quality of the output image Io compared to the reference image Ir. In particular, the brightness correction process,
When performing a combination with at least one of the remaining processes other than the brightness correction process in the image quality improvement process, the influence of random noise in Ir in the reference image amplified by the brightness correction process The image quality of the output image Io can be improved by sufficiently removing it from the output image Io.

【0151】たとえば、前記前処理、すなわち前記輝度
補正処理と前記色ノイズ除去処理だけを実行する第1の
手法では、参照画像Irの画質改善処理を、画素単位の
処理を繰返して行うことができる。前記第1の場合に
は、画像全体を一様に処理するのに比べて、画質改善処
理の効率が良くなる。また、第2の手法として、前記前
処理と後処理内の彩度強調処理および先鋭化処理の少な
くとも一方とだけを実行してもよい。第2の手法では、
前記ランダムノイズに起因する彩度成分の突出を抑えつ
つ、参照画像Ir内の前記ランダムノイズが発生しやす
い部分の彩度を強調したり先鋭化することを、画素単位
の処理を繰返して行うことができるので、画質改善処理
の効率が良くなる。
For example, in the first method in which only the preprocessing, that is, the luminance correction processing and the color noise removal processing are executed, the image quality improvement processing of the reference image Ir can be performed by repeating the processing for each pixel. . In the first case, the efficiency of the image quality improving process is higher than that of uniformly processing the entire image. Further, as a second method, at least one of the saturation enhancement processing and the sharpening processing in the pre-processing and the post-processing may be executed. In the second approach,
Repeating the process for each pixel to enhance or sharpen the saturation of the portion of the reference image Ir where the random noise is likely to occur while suppressing the protrusion of the saturation component due to the random noise. Therefore, the efficiency of the image quality improvement process is improved.

【0152】また、第3の手法として、前記前処理と、
合成対象の画像に補正参照画像Ir$と補助画像Iq
(1)〜Iq(N)とを用いる前記合成処理とをだけを
実行してもよい。第3の手法では、彩度抑制と画像合成
との2つの手法を用いて前記ランダムノイズを除去する
ことができるので、出力画像Ioの画質がさらに良くな
る。さらにまた、第4の手法として、前記前処理と、合
成対象の画像に補正参照画像Ir$と補正補助画像Iq
(1)$〜Iq(N)$とを用いる前記合成処理とをだ
けを実行してもよい。第4の手法では、出力画像Ioの
画質をさせることができると共に、従来技術の画像処理
装置よりも少ない枚数の画像を合成しつつ、ノイズ除去
の精度を高くすることができる。さらに、前記前処理と
前記変形処理と前記第3の手法の合成処理を実行する第
5の手法では、撮影装置23を手で保持して被写体を撮
影して得られた複数枚の画像を処理対象とした場合も、
高い精度のノイズ除去と前記合成画像のぼけの影響の防
止とを行って、参照画像Irの画質を充分に改善するこ
とができる。
As a third method, the pre-processing,
The corrected reference image Ir $ and the auxiliary image Iq are added to the image to be combined.
You may perform only the said synthetic | combination process using (1) -Iq (N). In the third method, since the random noise can be removed by using two methods, that is, saturation suppression and image composition, the image quality of the output image Io is further improved. Furthermore, as a fourth method, the above-mentioned pre-processing and the correction reference image Ir $ and the correction auxiliary image Iq are added to the image to be combined.
(1) Only the combining process using $ to Iq (N) $ may be executed. According to the fourth method, the image quality of the output image Io can be improved, and the noise removal accuracy can be increased while synthesizing a smaller number of images than the image processing device of the related art. Further, in the fifth method of executing the preprocessing, the deformation processing, and the synthesis processing of the third method, a plurality of images obtained by photographing the subject while holding the photographing device 23 by hand are processed. Even when targeted,
The image quality of the reference image Ir can be sufficiently improved by performing highly accurate noise removal and preventing the influence of the blurring of the composite image.

【0153】また、第6の手法として、前記輝度補正処
理だけが施された参照画像Irに、前記後処理内の2つ
の処理の少なくとも一方を、施してもよい。第6の手法
では、後処理を画素単位で行うことができるので、画質
改善処理の効率が、従来の画質改善処理よりも良くな
る。またさらに、第7の手法として、前記輝度補正処理
が施された参照画像Irと補助画像Iq(1)〜Iq
(N)とを前記第2または第3の手法の合成処理によっ
て合成し、この結果得られる合成画像に前記後処理のう
ちの少なくとも一方を加えても良い。この結果、2種類
のノイズ除去処理と後処理とを同時に行うことができる
ので、出力画像の画質を参照画像の画質よりもさらに向
上させることができる。
As a sixth method, at least one of the two processes in the post-process may be performed on the reference image Ir that has been subjected to only the brightness correction process. In the sixth method, since the post-processing can be performed on a pixel-by-pixel basis, the efficiency of the image quality improvement processing is better than that of the conventional image quality improvement processing. Furthermore, as a seventh method, the reference image Ir and the auxiliary images Iq (1) to Iq that have been subjected to the brightness correction processing are used.
(N) may be combined by the combining process of the second or third method, and at least one of the post-processes may be added to the combined image obtained as a result. As a result, two types of noise removal processing and post-processing can be performed at the same time, so that the image quality of the output image can be further improved over the image quality of the reference image.

【0154】さらにまた、第8の手法として、参照画像
Irと補助画像Iq(1)〜Iq(N)に前記ずれ補正
処理を加えてから、参照画像Irとずれ補正後の補助画
像Iq(1)〜Iq(N)とを前記合成処理によって合
成し、この結果得られる合成画像に前記後処理のうちの
少なくとも一方を加えても良い。これによって、前記画
像Ir,Iq(1)〜Iq(N)の撮影時に撮影装置2
3が手で保持される場合も、高い精度のノイズ除去と前
記合成画像のぼけの影響の防止とを行って、参照画像I
rの画質を充分に改善することができる。また、第9の
手法として、前記前処理と前記第合成処理と前記後処理
の2つの処理のうちの少なくとも一方とだけを行っても
よい。第9の手法では、彩度抑制および画像合成を用い
た2種類のノイズ除去処理と後処理とが同時に行われる
ので、参照画像Irの画質を充分に改善することができ
る。
Furthermore, as an eighth method, after the deviation correction processing is applied to the reference image Ir and the auxiliary images Iq (1) to Iq (N), the reference image Ir and the auxiliary image Iq (1) after the deviation correction are added. ) To Iq (N) may be combined by the combining process, and at least one of the post-processes may be added to the resulting combined image. As a result, the photographing device 2 is used when photographing the images Ir, Iq (1) to Iq (N).
3 is also held by hand, noise is removed with high accuracy and blurring of the composite image is prevented, and the reference image I
The image quality of r can be sufficiently improved. Further, as a ninth method, only at least one of the two processes of the pre-processing, the second combining processing, and the post-processing may be performed. In the ninth method, since two types of noise removal processing using saturation suppression and image synthesis and post-processing are performed at the same time, the image quality of the reference image Ir can be sufficiently improved.

【0155】上述の画像改善処理の第1〜第9の手法に
おいて、前記合成処理は、前記単純平均を用いた合成処
理であってもよく、前記相関値を用いた重み付け平均を
用いる合成処理であってもよい。後者の合成処理を用い
た場合、前記複数の場合のそれぞれの効果に加えて、さ
らに、いわゆる手ぶれに起因する合成画像のぼけの影響
を出力画像Ioが受けることを、防ぐことができる。こ
れによって、出力画像Ioの画質がさらに良くなる。
In the first to ninth methods of the image improving process, the synthesizing process may be the synthesizing process using the simple average, or the synthesizing process using the weighted average using the correlation value. It may be. When the latter synthesizing process is used, it is possible to prevent the output image Io from being affected by the blurring of the synthetic image due to so-called camera shake, in addition to the effects of the plurality of cases. This further improves the image quality of the output image Io.

【0156】また、上述の第1および第2実施形態のよ
うに、画像改善処理として、前記輝度補正処理と前記彩
度抑制処理と補助画像Iq(1)〜Iq(N)のずれ補
正のための前記変形処理と前記重み付け平均を用いる合
成処理と前記後処理とを行う場合、手持ちぶれに起因す
るボケおよび手持ちに起因する画像ずれの補正処理およ
び前記ランダムノイズの除去処理を、従来技術の画像処
理装置よりも少ない枚数の画像を用いて行うことができ
る。したがって、出力画像の画質が最も良く改善され、
かつ、従来技術の画像処理装置よりも、画像処理が容易
になる。
As in the first and second embodiments described above, as the image improvement processing, the luminance correction processing, the saturation suppression processing, and the deviation correction of the auxiliary images Iq (1) to Iq (N) are performed. When performing the deformation process, the combining process using the weighted average, and the post-process, the correction process of the blur caused by the hand-held blur and the image shift caused by the hand-held process and the removal process of the random noise are performed by the conventional image processing. This can be done using a smaller number of images than the processing device. Therefore, the quality of the output image is best improved,
In addition, the image processing becomes easier than the image processing device of the related art.

【0157】本実施形態の画像処理装置22および画像
処理プログラムは、本発明の画像処理装置および画像処
理プログラムの例示であり、主要な動作が等しければ、
他の様々な形で実施することができる。特に各装置およ
び部の詳細な動作は、同じ処理結果が得られれば、これ
に限らず他の動作によって実現されてもよい。
The image processing device 22 and the image processing program of this embodiment are examples of the image processing device and the image processing program of the present invention.
It can be implemented in various other forms. In particular, the detailed operation of each device and unit is not limited to this and may be realized by another operation as long as the same processing result is obtained.

【0158】[0158]

【発明の効果】以上のように本発明によれば、前記画像
処理装置は、いわゆる輝度補正処理が施された前記被処
理画像に、さらに、画素の輝度が低くかつ画素の彩度が
高いほど前記彩度を強く抑制する彩度抑制処理を、画素
単位で施す。これによって、前記被処理画像が、照度が
低い被写体を撮影して得られていても、前記被処理画像
の画質を効率良く改善することができる。
As described above, according to the present invention, in the image processing apparatus, the lower the brightness of the pixel and the higher the saturation of the pixel are, the more the processed image subjected to the so-called brightness correction process. The saturation suppression processing that strongly suppresses the saturation is performed in pixel units. Accordingly, even if the processed image is obtained by photographing a subject having low illuminance, the image quality of the processed image can be efficiently improved.

【0159】また本発明によれば、前記画像処理装置
は、輝度が補正された前記被処理画像内の各画素の彩度
をそれぞれ抑制するだけでなく、少なくとも1枚の補助
画像と前記彩度が抑制された被処理画像とを平均合成す
る。これによって得られる合成画像の画質は、前記彩度
が抑制された被処理画像よりも画質が向上する。さらに
また本発明によれば、前記画像処理装置は、前記平均合
成処理の合成対象の画像、すなわち前記被処理画像およ
び補助画像に、予め輝度補正処理と彩度抑制処理とを施
す。これによって、前記合成画像からランダムノイズの
影響を除くために必要な最低限の合成対象の画像の数
を、減少させることができる。
Further, according to the present invention, the image processing apparatus not only suppresses the saturation of each pixel in the processed image whose brightness is corrected, but also at least one auxiliary image and the saturation. The average is combined with the processed image in which the noise is suppressed. The image quality of the composite image thus obtained is higher than that of the processed image in which the saturation is suppressed. Furthermore, according to the present invention, the image processing apparatus performs brightness correction processing and saturation suppression processing on the images to be combined in the average combining processing, that is, the processed image and the auxiliary image in advance. As a result, it is possible to reduce the minimum number of images to be combined that are required to remove the influence of random noise from the combined image.

【0160】また本発明によれば、前記画像処理装置
は、前記合成処理にいわゆる単純平均を用いる。これに
よって、簡単な演算処理によって、前記合成画像からラ
ンダムノイズの影響を除くことができる。さらにまた本
発明によれば、前記画像処理装置は、前記合成処理に、
前記相関を用いた重み付け平均を用いる。これによっ
て、たとえば合成対象の画像にいわゆる手ぶれに起因す
るずれがある場合も、前記合成画像の画質を向上させる
ことができる。また本発明によれば、前記画像処理装置
は、合成対象の画像のうちから、被処理画像とのずれの
検出の信頼性が低い補助画像を除く。これによって、前
記ずれの検出誤りに起因して、前記合成画像の画質が劣
化することを、防止することができる。
Further, according to the present invention, the image processing device uses so-called simple averaging in the synthesizing process. As a result, the influence of random noise can be removed from the composite image by a simple calculation process. Furthermore, according to the present invention, the image processing device, in the combining process,
A weighted average using the correlation is used. This makes it possible to improve the image quality of the combined image even when the image to be combined has a shift due to so-called camera shake. Further, according to the present invention, the image processing apparatus excludes, from among the images to be combined, an auxiliary image having low reliability in detecting a deviation from the image to be processed. As a result, it is possible to prevent the image quality of the composite image from being deteriorated due to the misdetection of the shift.

【0161】さらにまた本発明によれば、前記画像処理
装置は、前記補助画像と被処理画像とのずれに基づい
て、前記補助画像を変形してから、変形後の補助画像と
前記被処理画像とを合成する。これによって、補助画像
と前記被処理画像とにいわゆる手ぶれに起因するずれが
ある場合でも、前記合成画像の画質を向上させることが
できる。また本発明によれば、前記画像処理装置は、前
記ずれを求める基準とするべき複数の特徴点を、前記被
処理画像内に相互に予め定める距離だけ離して配置され
る複数の領域の中から、1つずつ抽出する。これによっ
て、前記被処理画像と各補助画像とのずれを、確実に検
出することができる。
Further, according to the present invention, the image processing apparatus deforms the auxiliary image based on the shift between the auxiliary image and the processed image, and then the deformed auxiliary image and the processed image. And are combined. This makes it possible to improve the image quality of the composite image even when there is a shift between the auxiliary image and the image to be processed due to so-called camera shake. Further, according to the present invention, the image processing device selects a plurality of feature points to be used as a reference for obtaining the shift from a plurality of regions arranged in the image to be processed with a predetermined distance from each other. Extract one by one. As a result, it is possible to reliably detect the deviation between the processed image and each auxiliary image.

【0162】さらにまた本発明によれば、前記画像処理
装置の輝度補正手段は、前記被処理画像の各画素の輝度
を、該輝度と予め定める基準輝度との和を予め定める関
数に基づいて変換した値に置換える。これによって、被
処理画像に重畳されるランダムノイズが輝度補正処理に
起因して増幅されることを、防止することができる。
Further, according to the present invention, the brightness correction means of the image processing device converts the brightness of each pixel of the image to be processed based on a predetermined function of the sum of the brightness and a predetermined reference brightness. Replace with the specified value. Thereby, it is possible to prevent the random noise superimposed on the image to be processed from being amplified due to the brightness correction process.

【0163】また本発明によれば、前記画像処理装置
は、さらに、前記輝度補正処理および彩度抑制処理が施
された被処理画像の画素の彩度を、前記補正された輝度
が高いほど、強調する。これによって、前記彩度抑制処
理によって抑制されたランダムノイズを増加させること
なく、前記輝度補正処理によって失われた各画素の彩度
だけを補正することができる。さらにまた本発明によれ
ば、前記画像処理装置は、さらに、前記輝度補正処理お
よび彩度抑制処理が施された被処理画像に、先鋭化を施
す。前記先鋭化の度合は、前記被処理画像の中の前記高
輝度領域ほど、強い。この結果、前記彩度抑制処理によ
って抑制されたランダムノイズを増加させることなく、
前記被処理画像を先鋭化することができる。
Further, according to the present invention, the image processing apparatus further sets the saturation of the pixel of the processing target image subjected to the brightness correction processing and the saturation suppression processing as the corrected brightness is higher. Emphasize. This makes it possible to correct only the saturation of each pixel lost by the brightness correction processing without increasing the random noise suppressed by the saturation suppression processing. Furthermore, according to the present invention, the image processing apparatus further sharpens the processed image that has been subjected to the luminance correction processing and the saturation suppression processing. The degree of sharpening is stronger in the higher brightness area in the image to be processed. As a result, without increasing the random noise suppressed by the saturation suppression processing,
The image to be processed can be sharpened.

【0164】また本発明によれば、前記画像処理装置
は、いわゆる輝度補正処理が施された前記被処理画像
に、さらに彩度抑制処理を画素単位で施すための画像処
理プログラムが、媒体に記憶される。この画像処理プロ
グラムをコンピュータにインストールして実行させるだ
けで、画像処理装置を容易に実現することができる。
Further, according to the present invention, the image processing apparatus stores in the medium an image processing program for further subjecting the processed image subjected to the so-called brightness correction processing to the saturation suppression processing in pixel units. To be done. The image processing apparatus can be easily realized only by installing and executing this image processing program in a computer.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施形態である画像処理装置22
を含む画像作成装置21の電気的な構成を示すブロック
図である。
FIG. 1 is an image processing device 22 according to a first embodiment of the present invention.
FIG. 3 is a block diagram showing an electrical configuration of the image creating device 21 including the above.

【図2】画像処理装置22内の画質改善部31の機能的
構成を示すブロック図である。
FIG. 2 is a block diagram showing a functional configuration of an image quality improving unit 31 in the image processing device 22.

【図3】画質改善部31の中の参照用前処理部41内の
輝度補正部51の機能的構成を示すブロック図である。
FIG. 3 is a block diagram showing a functional configuration of a brightness correction unit 51 in a reference preprocessing unit 41 in the image quality improvement unit 31.

【図4】画質改善部31に備えられる輝度補正ルックア
ップテーブルの特性を示すグラフである。
FIG. 4 is a graph showing characteristics of a brightness correction lookup table provided in the image quality improving unit 31.

【図5】画質改善部31に備えられる輝度補正ルックア
ップテーブルの特性を示すグラフである。
5 is a graph showing the characteristics of a brightness correction lookup table provided in the image quality improving unit 31. FIG.

【図6】画質改善部31の中の参照用前処理部41内の
色ノイズ除去部52の機能的構成を示すブロック図であ
る。
FIG. 6 is a block diagram showing a functional configuration of a color noise removing unit 52 in the reference preprocessing unit 41 in the image quality improving unit 31.

【図7】色ノイズ除去部5の中の彩度抑制部67におい
て、画素の彩度成分Sの抑制の度合を定めるために用い
られる輝度評価係数kiと、画素の輝度成分Vとの関係
を示すグラフである。
FIG. 7 shows a relationship between a luminance evaluation coefficient ki used for determining a degree of suppression of a saturation component S of a pixel and a luminance component V of a pixel in a saturation suppression unit 67 in the color noise removing unit 5. It is a graph shown.

【図8】色ノイズ除去部5の中の彩度抑制部67におい
て、画素の彩度成分Sの抑制の度合を定めるために用い
られる彩度評価係数ksと、画素の彩度成分Sとの関係
を示すグラフである。
FIG. 8 illustrates a saturation evaluation coefficient ks used for determining a degree of suppression of a saturation component S of a pixel and a saturation component S of a pixel in a saturation suppression unit 67 in the color noise removing unit 5. It is a graph which shows a relationship.

【図9】画質改善部31内の特徴点抽出部42の動作を
説明するための、参照画像Irの模式図である。
9 is a schematic diagram of a reference image Ir for explaining the operation of a feature point extraction unit 42 in the image quality improvement unit 31. FIG.

【図10】画質改善部31内の補助用前処理部45の動
作を説明するための、参照画像Irおよび補助画像Iq
(n)の模式図である。
10 is a reference image Ir and an auxiliary image Iq for explaining the operation of the auxiliary preprocessing unit 45 in the image quality improving unit 31. FIG.
It is a schematic diagram of (n).

【図11】画質改善部31の中の合成部46における第
1の手法の合成処理を説明するための機能的ブロック図
である。
11 is a functional block diagram for explaining a combining process of a first method in a combining unit in the image quality improving unit 31. FIG.

【図12】画質改善部31の中の合成部46における第
2の手法の合成処理を説明するための機能的ブロック図
である。
FIG. 12 is a functional block diagram for explaining the combining process of the second method in the combining unit 46 in the image quality improvement unit 31.

【図13】ランダムノイズの抑制に関する第1の従来技
術である雑音除去回路1の電気的構成を示すブロック図
である。
FIG. 13 is a block diagram showing an electrical configuration of a noise removal circuit 1 which is a first conventional technique relating to suppression of random noise.

【図14】ランダムノイズの抑制に関する第2の従来技
術である映像信号処理装置の電気的構成を示すブロック
図である。
FIG. 14 is a block diagram showing an electrical configuration of a video signal processing device which is a second conventional technique relating to suppression of random noise.

【符号の説明】[Explanation of symbols]

22 画像処理装置 23 撮影装置 29 通信部 31 画質改善部 42 特徴点抽出部 43(1)〜43(N) 対応点探索部 44(1)〜44(N) 変形部 46 合成部 51,53(1)〜53(N) 輝度補正部 52,54(1)〜54(N) 色ノイズ除去部 55 彩度強調部 56 先鋭化部 81,82,83 特徴点探索領域 22 Image processing device 23 Imaging device 29 Communications Department 31 Image Quality Improvement Section 42 Feature Point Extraction Unit 43 (1) to 43 (N) corresponding point searching unit 44 (1) to 44 (N) Deformation part 46 Composition Department 51, 53 (1) to 53 (N) brightness correction unit 52, 54 (1) to 54 (N) color noise removing unit 55 Saturation emphasis section 56 Sharpened part 81, 82, 83 Feature point search area

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中村 安久 大阪府大阪市阿倍野区長池町22番22号 シャープ株式会社内 (56)参考文献 特開 昭57−44385(JP,A) 特開 平5−91395(JP,A) 特開 平6−189324(JP,A) 特開 平7−135599(JP,A) 特開 平7−143509(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 9/64 - 9/68 H04N 1/46 H04N 1/60 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Yasuhisa Nakamura 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Inside Sharp Corporation (56) Reference JP-A-57-44385 (JP, A) JP-A-5- 91395 (JP, A) JP-A-6-189324 (JP, A) JP-A-7-135599 (JP, A) JP-A-7-143509 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 9/64-9/68 H04N 1/46 H04N 1/60

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の画素から構成されるカラーの被処
理画像を入力する被処理画像入力手段と、 前記被処理画像の各画素の輝度を、予め定める関数に基
づいて、それぞれ補正する被処理画像用輝度補正手段
と、 輝度成分が補正された前記被処理画像の各画素の彩度
を、前記各画素の補正された輝度が低くかつ前記各画素
の前記彩度が高いほど、それぞれ抑制する被処理画像用
彩度抑制手段とを含むことを特徴とする画像処理装置。
1. A to-be-processed image input means for inputting a to-be-processed image of a color composed of a plurality of pixels, and a to-be-processed image for correcting the brightness of each pixel of the to-be-processed image based on a predetermined function. Image brightness correction means, and the saturation of each pixel of the processed image whose brightness component has been corrected is suppressed as the corrected brightness of each pixel becomes lower and the saturation of each pixel becomes higher. An image processing apparatus comprising: a saturation suppressing unit for an image to be processed.
【請求項2】 前記被処理画像と同じ被写体が写り、複
数の画素から構成されるカラーの補助画像を、少なくと
も1枚入力する補助画像入力手段と、 彩度が抑制された前記被処理画像と、全ての前記補助画
像とを合成して、合成画像を得る合成手段とをさらに含
み、 前記合成画像の各画素の色は、前記彩度が抑制された被
処理画像の各画素の色と、該被処理画像内の各画素にそ
れぞれ対応する前記全ての補助画像の各画素の色との平
均であることを特徴とする請求項1記載の画像処理装
置。
2. An auxiliary image inputting means for inputting at least one color auxiliary image including a plurality of pixels, in which the same subject as the processed image is captured, and the processed image whose saturation is suppressed. , Further comprising a synthesizing unit for synthesizing all the auxiliary images to obtain a synthetic image, wherein the color of each pixel of the synthetic image is the color of each pixel of the processed image in which the saturation is suppressed, The image processing apparatus according to claim 1, wherein an average of colors of pixels of all the auxiliary images corresponding to pixels of the image to be processed is obtained.
【請求項3】 前記全ての補助画像の各画素の輝度を、
予め定める関数に基づいて、それぞれ補正する補助画像
用輝度補正手段と、 輝度が補正された前記全ての補助画像の各画素の彩度
を、前記各画素の補正された前記輝度が低くかつ前記各
画素の前記彩度が高いほど、それぞれ抑制する補助画像
用彩度抑制手段とをさらに含み、 前記合成手段は、彩度が抑制された前記被処理画像と、
彩度が抑制された全ての補助画像とを合成することを特
徴とする請求項2記載の画像処理装置。
3. The brightness of each pixel of all the auxiliary images
Auxiliary image brightness correction means for respectively correcting based on a predetermined function, and saturation of each pixel of all the brightness-corrected auxiliary images, the corrected brightness of each pixel is low and As the saturation of the pixel is higher, it further includes auxiliary image saturation suppression means for suppressing the saturation, and the synthesizing means is the processed image in which saturation is suppressed,
The image processing apparatus according to claim 2, wherein the image processing apparatus combines all auxiliary images of which saturation is suppressed.
【請求項4】 前記合成画像の各画素の色は、前記彩度
が抑制された被処理画像の各画素の色と、該被処理画像
の各画素にそれぞれ対応する前記全ての補助画像の各画
素の色との単純平均であることを特徴とする請求項2記
載の画像処理装置。
4. The color of each pixel of the composite image is the color of each pixel of the processed image in which the saturation is suppressed and each of the auxiliary images corresponding to each pixel of the processed image. The image processing device according to claim 2, wherein the image processing device is a simple average of the color of the pixel.
【請求項5】 前記各補助画像の各画素と、該補助画像
の画素にそれぞれ対応する前記彩度が抑制された被処理
画像の画素との相関を、該各補助画像の画素毎に個別に
求める相関演算手段をさらに含み、 前記合成画像の各画素の色は、前記彩度が抑制された被
処理画像の各画素の色と、該被処理画像内の各画素にそ
れぞれ対応し、かつ、前記相関値によってそれぞれ重み
付けされた前記全ての補助画像内の各画素の色との平均
であることを特徴とする請求項2記載の画像処理装置。
5. Correlation between each pixel of each auxiliary image and each pixel of the target image in which the saturation is suppressed, which corresponds to each pixel of the auxiliary image, is individually calculated for each pixel of each auxiliary image. Further comprising a correlation calculating means for obtaining, the color of each pixel of the composite image, corresponding to the color of each pixel of the processed image in which the saturation is suppressed, and each pixel in the processed image, and 3. The image processing apparatus according to claim 2, wherein the image processing apparatus is an average of colors of respective pixels in all the auxiliary images weighted by the correlation values.
【請求項6】 前記各補助画像と前記被処理画像とのず
れを、各補助画像毎にそれぞれ検出するずれ検出手段
と、 前記各補助画像と前記被処理画像とのずれの検出の信頼
性を、各補助画像毎にそれぞれ求める信頼性算出手段と
をさらに含み、 前記合成手段は、前記全ての補助画像のうちの前記信頼
性が予め定める評価基準以上である補助画像と、前記彩
度が抑制された被処理画像とを、合成することを特徴と
する請求項2記載の画像処理装置。
6. A deviation detecting unit for detecting a deviation between each of the auxiliary images and the processed image for each auxiliary image, and reliability of detection of a deviation between each of the auxiliary images and the processed image. And a reliability calculation unit that obtains each auxiliary image, wherein the combining unit is an auxiliary image in which the reliability of all the auxiliary images is equal to or more than a predetermined evaluation criterion, and the saturation is suppressed. The image processing apparatus according to claim 2, wherein the processed image is combined with the processed image.
【請求項7】 前記各補助画像と前記被処理画像とのず
れをそれぞれ検出するずれ検出手段と、 前記被処理画像と前記各補助画像とのずれを相殺するよ
うに、前記各補助画像をそれぞれ変形する変形手段をさ
らに含み、 前記合成手段は、変形された前記全ての補助画像と、前
記彩度が抑制された被処理画像とを、合成することを特
徴とする請求項2記載の画像処理装置。
7. A shift detecting unit for detecting a shift between each of the auxiliary images and the processed image, and each of the auxiliary images so as to cancel the shift between the processed image and each of the auxiliary images. The image processing according to claim 2, further comprising a deforming unit that deforms, wherein the combining unit combines all the deformed auxiliary images and the processed image in which the saturation is suppressed. apparatus.
【請求項8】 前記被処理画像内に3つ以上設定される
領域内から、特徴点を1つずつ抽出する特徴点抽出手段
をさらに含み、 前記領域のうちの少なくとも3つの領域は、各領域に予
め定められる基準点を頂点とする図形が正三角形になる
ように、配置され、 前記ずれ検出手段は、複数の前記特徴点にそれぞれ対応
する前記各補助画像内の複数の対応点を、前記各補助画
像毎に個別に探索して、前記被処理画像内の全ての前記
特徴点同士の位置関係と、前記各補助画像内の全ての前
記対応点同士の位置関係とに基づいて、前記被処理画像
と前記各補助画像とのずれをそれぞれ求めることを特徴
とする請求項6および7記載の画像処理装置。
8. The image processing apparatus further includes a feature point extracting unit that extracts one feature point from each of the three or more regions set in the image to be processed, wherein at least three regions of the region are each regions. Are arranged so that the figure having the reference point predetermined as a vertex becomes an equilateral triangle, and the deviation detecting means defines a plurality of corresponding points in each of the auxiliary images respectively corresponding to the plurality of feature points, Individually searched for each auxiliary image, based on the positional relationship between all the feature points in the image to be processed and the positional relationship between all the corresponding points in each of the auxiliary image, 8. The image processing apparatus according to claim 6, wherein a shift between the processed image and each of the auxiliary images is obtained.
【請求項9】 前記被処理画像用輝度補正手段は、前記
被処理画像の各画素の輝度と予め定める基準輝度との和
をそれぞれ求め、前記和を前記関数に基づいてそれぞれ
補正することを特徴とする請求項1記載の画像処理装
置。
9. The processed image brightness correction means obtains the sum of the brightness of each pixel of the processed image and a predetermined reference brightness, and corrects the sum based on the function. The image processing apparatus according to claim 1.
【請求項10】 前記被処理画像の各画素の抑制された
彩度を、前記各画素の補正された輝度が高いほど、強調
する彩度強調手段をさらに含むことを特徴とする請求項
1記載の画像処理装置。
10. The saturation enhancement means for enhancing the suppressed saturation of each pixel of the processed image as the corrected luminance of each pixel is higher. Image processing device.
【請求項11】 各画素の彩度が抑制された前記被処理
画像に先鋭化を施す先鋭化手段をさらに含み、 前記先鋭化の度合は、前記彩度が抑制された被処理画像
の中の、前記補正された輝度が高い画素がある部分ほ
ど、強いことを特徴とする請求項1記載の画像処理装
置。
11. A sharpening unit for sharpening the processed image in which the saturation of each pixel is suppressed, wherein the degree of sharpening is within the processed image in which the saturation is suppressed. 2. The image processing apparatus according to claim 1, wherein the portion having the corrected high luminance pixel is stronger.
【請求項12】 複数の画素から構成されるカラーの被
処理画像の画質を改善するための画像処理プログラムを
記憶する媒体であって、 前記画像処理プログラムは、 前記被処理画像の各画素の輝度を、予め定める関数に基
づいて、各画素毎にそれぞれ補正し、 輝度が補正された前記被処理画像の各画素の彩度を、前
記各画素の補正された輝度が低くかつ前記各画素の彩度
が高いほど、それぞれ抑制することを特徴とする画像処
理プログラムを記憶する媒体。
12. A medium for storing an image processing program for improving the image quality of a color processed image composed of a plurality of pixels, wherein the image processing program is the brightness of each pixel of the processed image. Is corrected for each pixel on the basis of a predetermined function, and the saturation of each pixel of the processed image whose brightness is corrected is calculated as follows: A medium for storing an image processing program, which is characterized in that the higher the degree, the more the degree is suppressed.
JP08723998A 1998-03-31 1998-03-31 Image processing apparatus and medium storing image processing program Expired - Lifetime JP3408146B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08723998A JP3408146B2 (en) 1998-03-31 1998-03-31 Image processing apparatus and medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08723998A JP3408146B2 (en) 1998-03-31 1998-03-31 Image processing apparatus and medium storing image processing program

Publications (2)

Publication Number Publication Date
JPH11285019A JPH11285019A (en) 1999-10-15
JP3408146B2 true JP3408146B2 (en) 2003-05-19

Family

ID=13909277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08723998A Expired - Lifetime JP3408146B2 (en) 1998-03-31 1998-03-31 Image processing apparatus and medium storing image processing program

Country Status (1)

Country Link
JP (1) JP3408146B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3691506B2 (en) 2001-10-11 2005-09-07 三菱電機株式会社 Color conversion apparatus and color conversion method
JP3731741B2 (en) * 2002-03-07 2006-01-05 学校法人慶應義塾 Color moving image processing method and processing apparatus
BRPI0302384B1 (en) 2002-07-20 2018-06-19 Samsung Electronics Co., Ltd. "METHOD FOR ADAPTABLE COLORING A COLOR, AND EQUIPMENT FOR ADAPTABLE COLORING AN IMAGE"
JP4648071B2 (en) 2005-04-28 2011-03-09 株式会社日立製作所 Video display device and video signal color saturation control method
JP4833669B2 (en) * 2006-01-11 2011-12-07 富士フイルム株式会社 Imaging apparatus and signal processing method thereof
JP5198240B2 (en) * 2008-12-24 2013-05-15 キヤノン電子株式会社 Image reading apparatus, image reading apparatus control method, and program
CN102934422B (en) * 2010-06-07 2015-05-27 奥林巴斯医疗株式会社 Signal processing device and still image generation method

Also Published As

Publication number Publication date
JPH11285019A (en) 1999-10-15

Similar Documents

Publication Publication Date Title
US6774943B1 (en) Method and apparatus for edge enhancement in digital images
US8155441B2 (en) Image processing apparatus, image processing method, and program for color fringing estimation and compensation
JP3828210B2 (en) Image contrast enhancement method
US5982926A (en) Real-time image enhancement techniques
US7103214B2 (en) Image processing apparatus and method
US8525904B2 (en) Image processing device, image processing method, and capturing device
US7373020B2 (en) Image processing apparatus and image processing program
US20100278423A1 (en) Methods and systems for contrast enhancement
US7646930B2 (en) Edge enhancement system and method and imaging system
US20120008005A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium having image processing program recorded thereon
US8280162B2 (en) Image processing apparatus and recording medium recording image processing program
EP2130175A2 (en) Edge mapping incorporating panchromatic pixels
US20180061029A1 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium storing image processing program of image processing apparatus
JP3862621B2 (en) Image processing apparatus, image processing method, and program thereof
JP3408146B2 (en) Image processing apparatus and medium storing image processing program
JP6825617B2 (en) Image processing equipment, imaging equipment, and image processing methods, and programs
US7684636B2 (en) Edge correction apparatus, edge correction method, program, and storage medium
JP2003123063A (en) Image processor
US8107759B2 (en) Method of detecting low luminance noise and image compression apparatus using the same
JP2001197356A (en) Device and method for restoring picture
JP3731741B2 (en) Color moving image processing method and processing apparatus
JP3807266B2 (en) Image processing device
CN109600596B (en) Nonlinear colorless constant white balance method
JP2929983B2 (en) Color image processing equipment
KR100688757B1 (en) An apparatus and method for the edge enhancement of image data

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090314

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100314

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100314

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 10