JP2015192338A - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP2015192338A
JP2015192338A JP2014068810A JP2014068810A JP2015192338A JP 2015192338 A JP2015192338 A JP 2015192338A JP 2014068810 A JP2014068810 A JP 2014068810A JP 2014068810 A JP2014068810 A JP 2014068810A JP 2015192338 A JP2015192338 A JP 2015192338A
Authority
JP
Japan
Prior art keywords
image
map
captured image
saturation
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014068810A
Other languages
Japanese (ja)
Inventor
英範 栗林
Hidenori Kuribayashi
英範 栗林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014068810A priority Critical patent/JP2015192338A/en
Publication of JP2015192338A publication Critical patent/JP2015192338A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce an influence of noise when a photographic image is corrected.SOLUTION: An image processing device includes: image acquisition means of acquiring a photographic image; first map generation means of generating a first map representing a distribution of degrees of low saturation and high lightness of the photographic image using saturation information associated with the photographic image and lightness information associated with lightness of the photographic image; and correction means of generating a correction image by correcting the photographic image using the first map.

Description

本発明は、画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

屋外での撮影時に、霧やもやなどによって撮影画像が白っぽくぼやけてしまうことがある。そこで、撮影画像から霧やもやを除去する方法が知られている(特許文献1参照)。特許文献1に記載の方法では、撮影画像からダークチャネル画像を生成し、ダークチャネル画像と霧画像モデルとを用いて霧を除去した画像を生成する。ここでダークチャネル画像とは、撮影画像の各画素におけるRGBチャネルの強度値の最小値からなる画像である。霧のない鮮明な画像よりも霧によって白くぼやけた画像の方がダークチャネル画像の強度が高くなることから、ダークチャネル画像はおおよその霧の濃度を表している。   When photographing outdoors, the photographed image may become whitish due to fog or haze. Therefore, a method for removing fog and haze from a photographed image is known (see Patent Document 1). In the method described in Patent Document 1, a dark channel image is generated from a captured image, and an image from which fog has been removed is generated using the dark channel image and the fog image model. Here, the dark channel image is an image composed of the minimum values of the intensity values of the RGB channels in each pixel of the captured image. Since the intensity of the dark channel image is higher in an image that is white and blurred by fog than in a clear image without fog, the dark channel image represents an approximate fog density.

特開2013−58202号公報JP2013-58202A

上記従来技術で用いるダークチャネル画像では、RGBチャネルの強度値の最小値を用いるので、暗いレベルを用いることがあり、ノイズの影響を大きく受けることがあった。   In the dark channel image used in the above-described conventional technology, since the minimum value of the RGB channel intensity value is used, a dark level may be used, which may be greatly affected by noise.

(1)請求項1に記載の画像処理装置は、撮影画像を取得する画像取得手段と、撮影画像の彩度に関する彩度情報および撮影画像の明度に関する明度情報を用いて、撮影画像における彩度が低く且つ明度が高い度合いの分布を表す第1マップを作成する第1マップ作成手段と、第1マップを用いて撮影画像を補正して補正画像を作成する補正手段と、を備えることを特徴とする。
(2)請求項9に記載の画像処理プログラムは、撮影画像を取得する処理と、撮影画像の彩度に関する彩度情報および撮影画像の明度に関する明度情報を用いて、撮影画像における彩度が低く且つ明度が高い度合いの分布を表す第1マップを作成する処理と、第1マップを用いて撮影画像を補正して補正画像を作成する処理と、をコンピュータに実行させることを特徴とする。
(3)請求項10に記載の画像処理装置は、被写体の前に存在する光透過性の媒体を介して被写体を撮影した撮影画像を取得する画像取得手段と、撮影画像の彩度に関する彩度情報および撮影画像の明度に関する明度情報を用いて、撮影画像における彩度が低く且つ明度が高い度合いの分布を表す第1マップを作成する第1マップ作成手段と、第1マップを用いて撮影画像を補正して光透過性の媒体の影響を低減した補正画像を作成する補正手段と、を備えることを特徴とする。
(1) The image processing apparatus according to the first aspect uses the image acquisition means for acquiring the captured image, the saturation information regarding the saturation of the captured image, and the brightness information regarding the brightness of the captured image, and thereby the saturation of the captured image. Comprising: a first map creating means for creating a first map representing a distribution with a low brightness and a high brightness; and a correcting means for creating a corrected image by correcting a captured image using the first map. And
(2) The image processing program according to claim 9 uses a process for obtaining a captured image, saturation information regarding the saturation of the captured image, and brightness information regarding the brightness of the captured image, so that the saturation of the captured image is low. In addition, the processing is characterized in that the computer executes a process for creating a first map representing a distribution with a high degree of lightness and a process for creating a corrected image by correcting a captured image using the first map.
(3) The image processing apparatus according to claim 10 is an image acquisition unit that acquires a photographed image obtained by photographing a subject via a light-transmitting medium that exists in front of the subject, and saturation related to saturation of the photographed image. First map creating means for creating a first map representing a distribution of a degree of low saturation and high brightness in the photographed image using the information and the brightness information on the brightness of the photographed image, and the photographed image using the first map Correction means for generating a corrected image in which the influence of the light-transmitting medium is reduced by correcting the above.

本発明によれば、撮影画像を補正する際のノイズの影響を低減することができる。   According to the present invention, it is possible to reduce the influence of noise when correcting a captured image.

デジタルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of a digital camera. 霧画像モデルを説明する模式図である。It is a schematic diagram explaining a fog image model. 画像補正処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of an image correction process. (a)は撮影画像の一例の模式図であり、(b)は白強度マップの一例の模式図であり、(c)は透過率マップの一例の模式図である。(A) is a schematic diagram of an example of a captured image, (b) is a schematic diagram of an example of a white intensity map, and (c) is a schematic diagram of an example of a transmittance map. プログラムの提供の様子を説明する図である。It is a figure explaining the mode of provision of a program.

−第1の実施の形態−
図面を参照して本発明の第1の実施の形態について説明する。図1は、本実施の形態における画像処理装置を搭載したデジタルカメラの構成例を示すブロック図である。デジタルカメラ100は、操作部材101と、撮影レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、ユーザによって操作される種々の入力部材、例えば電源スイッチ、レリーズボタン、マルチセレクタ、再生ボタン、削除ボタンなどを含んでいる。
-First embodiment-
A first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of a digital camera equipped with an image processing apparatus according to the present embodiment. The digital camera 100 includes an operation member 101, a photographing lens 102, an image sensor 103, a control device 104, a memory card slot 105, and a monitor 106. The operation member 101 includes various input members operated by the user, for example, a power switch, a release button, a multi selector, a play button, a delete button, and the like.

撮影レンズ102は、被写体像を撮像素子103の撮像面に結像するように配置されている。撮影レンズ102は、図1では代表して1枚のレンズで表しているが、実際は複数の光学レンズから構成される。   The photographing lens 102 is disposed so as to form a subject image on the imaging surface of the image sensor 103. The photographic lens 102 is represented by a single lens in FIG. 1 as a representative, but actually includes a plurality of optical lenses.

撮像素子103は、例えばCMOSなどのイメージセンサであり、撮影レンズ102により結像した被写体像を撮像して、撮像によって得られた画像信号を制御装置104へ出力する。撮像素子103の受光面には、周知のカラーフィルターが設けられている。カラーフィルターは、赤(R)色、青(B)色、および緑(G)色のいずれかの光を通過させる原色フィルタが画素位置に対応してベイヤー配列で構成された色分解フィルタである。撮像素子103は、このようなカラーフィルターを通して被写体像を撮像することにより、光の3原色ごとのカラー画像信号を出力する。撮像素子103で生成された画像信号は、不図示のA/D変換部でデジタル信号に変換され、制御装置104に出力される。   The image sensor 103 is an image sensor such as a CMOS, for example, captures a subject image formed by the photographing lens 102, and outputs an image signal obtained by the imaging to the control device 104. A well-known color filter is provided on the light receiving surface of the image sensor 103. The color filter is a color separation filter in which primary color filters that pass any one of red (R), blue (B), and green (G) light are configured in a Bayer arrangement corresponding to pixel positions. . The imaging element 103 outputs a color image signal for each of the three primary colors of light by capturing a subject image through such a color filter. An image signal generated by the image sensor 103 is converted into a digital signal by an A / D converter (not shown) and output to the control device 104.

制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、デジタルカメラ100全体の制御を行う。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用されたりする。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。   The control device 104 includes a CPU, a memory, and other peripheral circuits, and controls the entire digital camera 100. Note that the memory constituting the control device 104 includes SDRAM and flash memory. The SDRAM is a volatile memory, and is used as a work memory for developing a program when the CPU executes a program, or as a buffer memory for temporarily recording data. The flash memory is a non-volatile memory in which data of a program executed by the control device 104, various parameters read during program execution, and the like are recorded.

メモリカードスロット105は、メモリカードなどの記録媒体を挿入するためのスロットである。制御装置104は、撮影処理を行なうことによって生成した画像ファイルを、メモリカードスロット105に挿入されているメモリカードへ書込んで記録する。また、制御装置104は、メモリカードスロット105に挿入されているメモリカード内に記録されている画像ファイルを読込む。   The memory card slot 105 is a slot for inserting a recording medium such as a memory card. The control device 104 writes and records the image file generated by performing the photographing process on the memory card inserted in the memory card slot 105. Further, the control device 104 reads an image file recorded in a memory card inserted in the memory card slot 105.

モニタ106は、デジタルカメラ100の背面に搭載された液晶モニタ(背面モニタ)である。当該モニタ106には、メモリカードに記録されている画像ファイルに基づく再生画像や、デジタルカメラ100を設定するための設定メニューなどが表示される。また、使用者が操作部材101を操作してデジタルカメラ100を撮影モードに設定すると、制御装置104は、撮像素子103から時系列で取得した画像の表示用画像データをモニタ106に出力する。これによってモニタ106にライブビュー画が表示される。   The monitor 106 is a liquid crystal monitor (rear monitor) mounted on the back of the digital camera 100. The monitor 106 displays a reproduction image based on the image file recorded on the memory card, a setting menu for setting the digital camera 100, and the like. When the user operates the operation member 101 to set the digital camera 100 to the shooting mode, the control device 104 outputs image data for display of images acquired in time series from the image sensor 103 to the monitor 106. As a result, the live view image is displayed on the monitor 106.

ところで、屋外で撮影を行うと、被写体とデジタルカメラ100との間に存在する大気中の浮遊物体(たとえば、霧やもや、煙、塵埃など)によって被写体光が散乱され、撮影画像が白っぽくぼやけてしまうことがある。そこで、本実施形態のデジタルカメラ100では、このような白っぽくぼやけた撮影画像を補正する画像補正処理を行う。以下、この画像補正処理について説明する。   By the way, when shooting outdoors, subject light is scattered by airborne objects (for example, fog, haze, smoke, dust, etc.) existing between the subject and the digital camera 100, and the photographed image is blurred in white. May end up. Therefore, the digital camera 100 according to the present embodiment performs image correction processing for correcting such a whitish and blurred photographed image. Hereinafter, this image correction process will be described.

<霧画像モデル>
まず、図2の模式図を用いて、霧Fgの影響を受けた撮影画像(以下、霧画像と表記する)のモデル(霧画像モデル)について説明する。霧画像は、被写体(物体)Tgからの直接光(被写体光)と、周りの環境光A(光源Lsからの光)とを合わせたものであると考えられる。そこで、霧画像モデルは、以下の式(1)により表すことができる。
I(x)=J(x)・t(x)+A・(1−t(x)) ・・・(1)
<Fog image model>
First, a model (fog image model) of a captured image (hereinafter referred to as a fog image) affected by the fog Fg will be described with reference to the schematic diagram of FIG. The fog image is considered to be a combination of direct light (subject light) from the subject (object) Tg and surrounding ambient light A (light from the light source Ls). Therefore, the fog image model can be expressed by the following equation (1).
I (x) = J (x) .t (x) + A. (1-t (x)) (1)

式(1)において、xは画素位置を示す。I(x)は、デジタルカメラ100によって撮影された撮影画像(霧画像)の各画素の画素値を示す。J(x)は、各画素位置における被写体光を表し、霧画像I(x)から霧Fgの影響を低減した画像、すなわち被写体Tgの鮮明な画像の各画素の画素値を示す。Aは環境光を表し、全ての画素位置で同一である。t(x)は、各画素位置において、被写体光J(x)が霧Fgを含む大気を透過して(すなわち霧Fgによって散乱されずに)デジタルカメラ100に到達する度合い(透過率)を示す。   In Expression (1), x indicates a pixel position. I (x) indicates the pixel value of each pixel of the captured image (fog image) captured by the digital camera 100. J (x) represents subject light at each pixel position, and represents the pixel value of each pixel of an image obtained by reducing the influence of the fog Fg from the fog image I (x), that is, a clear image of the subject Tg. A represents ambient light and is the same at all pixel positions. t (x) indicates the degree (transmittance) at which the subject light J (x) reaches the digital camera 100 through the atmosphere including the fog Fg (that is, not scattered by the fog Fg) at each pixel position. .

式(1)で表されるように、霧画像I(x)は、被写体光J(x)に関する成分J(x)・t(x)と環境光Aに関する成分A・(1−t(x))とからなる。J(x)・t(x)は、霧Fgによって散乱されずにデジタルカメラ100に到達した被写体光を表している。A・(1−t(x))は、環境光が撮影画像(霧画像)に及ぼす影響の度合いを表している。   As represented by Expression (1), the fog image I (x) includes a component J (x) · t (x) related to the subject light J (x) and a component A · (1-t (x) related to the ambient light A. )). J (x) · t (x) represents subject light that has reached the digital camera 100 without being scattered by the fog Fg. A · (1-t (x)) represents the degree of influence of ambient light on the captured image (fog image).

また、式(1)を変形すると、以下の式(2)が得られる。
J(x)=(I(x)−A)/t(x)+A ・・・(2)
Further, when the formula (1) is modified, the following formula (2) is obtained.
J (x) = (I (x) −A) / t (x) + A (2)

式(2)によれば、透過率t(x)と環境光Aとを求めることで、霧画像(撮影画像)I(x)から霧Fgの影響が低減された画像、すなわち鮮明な画像J(x)を得ることができる。本実施形態では、このような霧画像モデルを応用した画像補正処理を行う。   According to Expression (2), by obtaining the transmittance t (x) and the ambient light A, an image in which the influence of the fog Fg is reduced from the fog image (captured image) I (x), that is, a clear image J (X) can be obtained. In the present embodiment, image correction processing using such a fog image model is performed.

<画像補正処理>
次に、本実施形態の画像補正処理の流れについて、図3に示すフローチャートを用いて説明する。操作部材101を介してユーザにより画像補正処理の実行が指示されると、制御装置104は不図示のメモリに記憶されている画像補正処理を行うプログラムを起動して、画像補正処理を開始する。
<Image correction processing>
Next, the flow of image correction processing of the present embodiment will be described using the flowchart shown in FIG. When execution of image correction processing is instructed by the user via the operation member 101, the control device 104 starts a program for performing image correction processing stored in a memory (not shown) and starts the image correction processing.

(撮影画像の取得)
ステップS1において、制御装置104は、画像補正処理を行う対象となる撮影画像を取得して、ステップS2へ進む。ここで、撮影画像の色空間は、R(赤)、G(緑)、B(青)の3つの成分で表されるRGB色空間であるとする。なお、画像補正処理を行う対象となる撮影画像は、たとえば、メモリカードから読み込んでもよいし、外部装置から通信により取得してもよい。
(Acquisition of captured images)
In step S1, the control device 104 acquires a captured image to be subjected to image correction processing, and proceeds to step S2. Here, it is assumed that the color space of the captured image is an RGB color space represented by three components of R (red), G (green), and B (blue). Note that the captured image to be subjected to the image correction processing may be read from a memory card, for example, or acquired from an external device by communication.

(白強度マップの作成)
ステップS2において、制御装置104は、ステップS1で取得した撮影画像において、彩度が低く且つ明度が高い度合い、すなわち白っぽい度合い(以下、白強度と表記する)の分布を表す白強度マップを作成する。霧やもやなどによって白っぽくぼやけた撮影画像を補正するには、撮影画像の白っぽい領域の白を減少させ彩度を高くすることで、撮影画像を鮮明にする(くっきりさせる)ことができる。これをふまえ、本実施形態の画像補正処理では、撮影画像の白っぽい度合い(白強度)の分布を表す白強度マップを作成し、これを用いて撮影画像を補正する。
(Create white intensity map)
In step S2, the control device 104 creates a white intensity map that represents a distribution of a degree of low saturation and high brightness, that is, a whitish degree (hereinafter referred to as white intensity) in the captured image acquired in step S1. . In order to correct a photographed image that is whitish and blurry due to fog or haze, the photographed image can be made clear (clear) by reducing the whiteness of the whitish region of the photographed image and increasing the saturation. Based on this, in the image correction processing of the present embodiment, a white intensity map representing the distribution of the whitish degree (white intensity) of the photographed image is created, and the photographed image is corrected using this.

撮影画像の白強度マップを作成するために、まず、制御装置104は、ステップS1で取得した撮影画像の色空間を、RGB色空間から、H(色相)、S(彩度)、V(明度)の3つの成分で表されるHSV色空間に変換する。   In order to create a white intensity map of a photographed image, first, the control device 104 changes the color space of the photographed image acquired in step S1 from the RGB color space to H (hue), S (saturation), and V (lightness). ) To the HSV color space represented by the three components.

なお、HSV色空間の表現方法としては円柱モデルと円錐モデルとがあるが、本実施形態では円錐モデルを用いる。円錐モデルのHSV色空間において、色相Hは、円錐の外周に沿って変化し、色相が示された色環に沿った角度で表される。ここでは、色相Hは、0〜360の範囲で表されるとする。彩度Sは、円錐の中心からの距離に伴って変化する。ここでは、彩度Sは、0.0〜1.0の範囲で表されるとする。明度Vは、円錐の高さ方向に沿って変化する。ここでは、明度Vは、0.0〜1.0の範囲で表されるとする。これら3つの成分(H、S、V)の組み合わせにより、所定の色が決定される。   Note that there are a cylindrical model and a conical model as a method for expressing the HSV color space. In this embodiment, a conical model is used. In the HSV color space of the cone model, the hue H varies along the outer circumference of the cone and is represented by an angle along the color circle where the hue is shown. Here, the hue H is expressed in a range of 0 to 360. The saturation S changes with the distance from the center of the cone. Here, it is assumed that the saturation S is expressed in the range of 0.0 to 1.0. The lightness V varies along the height direction of the cone. Here, it is assumed that the brightness V is expressed in the range of 0.0 to 1.0. A predetermined color is determined by a combination of these three components (H, S, V).

色空間をRGB色空間から円錐モデルのHSV色空間に変換するための式は、周知技術を用いればよい。撮影画像のRGB値を最小値を0.0、最大値を1.0として正規化した場合、撮影画像のRGB値から以下の式(3)および(4)により円錐モデルのHSV色空間における彩度Sおよび明度Vを求めることができる。なお、以下の式において、max(R,G,B)は各画素のRGB値のうちの最大値を示し、min(R,G,B)は各画素のRGB値のうちの最小値を示す。
S=max(R,G,B)−min(R,G,B) ・・・(3)
V=max(R,G,B) ・・・(4)
As a formula for converting the color space from the RGB color space to the HSV color space of the conical model, a known technique may be used. When the RGB value of the photographed image is normalized by setting the minimum value to 0.0 and the maximum value to 1.0, the color of the cone model in the HSV color space is calculated from the RGB values of the photographed image by the following equations (3) and (4). The degree S and the brightness V can be obtained. In the following expression, max (R, G, B) indicates the maximum value among the RGB values of each pixel, and min (R, G, B) indicates the minimum value among the RGB values of each pixel. .
S = max (R, G, B) −min (R, G, B) (3)
V = max (R, G, B) (4)

このように制御装置104は、ステップS1で取得した撮影画像の色空間を、円錐モデルのHSV色空間に変換する。そして、制御装置104は、HSV色空間に変換した撮影画像のS(彩度)およびV(明度)を用いて、以下の式(5)により白強度(すなわち彩度が低く且つ明度が高い度合い)の分布を表す白強度マップを作成する。
W(x)=(1−S(x))・V(x) ・・・(5)
但し、
x:画素位置
W(x):各画素位置の白強度
S(x):各画素位置の彩度
V(x):各画素位置の明度
In this way, the control device 104 converts the color space of the captured image acquired in step S1 into the HSV color space of the conical model. Then, the control device 104 uses the S (saturation) and V (brightness) of the photographed image converted into the HSV color space, and the white intensity (that is, the low saturation and the high brightness) according to the following equation (5). ) To create a white intensity map representing the distribution of
W (x) = (1-S (x)). V (x) (5)
However,
x: Pixel position W (x): White intensity at each pixel position S (x): Saturation at each pixel position V (x): Lightness at each pixel position

なお、式(5)に式(3)および式(4)を代入すると、各画素位置の白強度W(x)は、以下の式(6)で表される。
W(x)={1−(max(R,G,B)−min(R,G,B))}・max(R,G,B)=(1−max(R,G,B)+min(R,G,B))・max(R,G,B) ・・・(6)
Note that when the formulas (3) and (4) are substituted into the formula (5), the white intensity W (x) at each pixel position is expressed by the following formula (6).
W (x) = {1− (max (R, G, B) −min (R, G, B))} · max (R, G, B) = (1−max (R, G, B) + min (R, G, B)) · max (R, G, B) (6)

式(5)からわかるように、白強度は、彩度が低かったり明度が高かったりするほど高い値となり、彩度が高かったり明度が低かったりするほど低い値となる。ここで、白強度マップについて、図4の撮影画像を例に挙げて説明する。図4(a)は、霧が発生している屋外で撮影された撮影画像の一例を示す模式図である。図4(a)の撮影画像には、近景である人物51と、遠景である山52および空53とが写っている。図4(a)の撮影画像では、遠景である山52および空53は霧の影響を受けて白っぽくぼやけて写っているとし、近景である人物51は霧の影響が小さく比較的鮮明に写っているとする。図4(b)は、図4(a)の撮影画像における白強度マップの一例を示す模式図である。たとえば、図4(b)の白強度マップにおいて、霧の影響が大きい山領域62および空領域63は白っぽく写っているために白強度が高くなり、霧の影響が小さい人物領域61は鮮明に写っているために白強度が低くなる。   As can be seen from Equation (5), the white intensity becomes higher as the saturation is lower or the brightness is higher, and the white intensity is lower as the saturation is higher or the brightness is lower. Here, the white intensity map will be described using the captured image of FIG. 4 as an example. FIG. 4A is a schematic diagram illustrating an example of a photographed image photographed outdoors where fog is generated. In the photographed image of FIG. 4A, a person 51 who is a foreground and a mountain 52 and a sky 53 which are a distant view are shown. In the captured image of FIG. 4A, it is assumed that the mountain 52 and the sky 53 which are distant views are reflected in whitish blur due to the influence of the fog, and the person 51 which is a close view is reflected relatively clearly with little influence of the fog. Suppose that FIG. 4B is a schematic diagram showing an example of a white intensity map in the photographed image of FIG. For example, in the white intensity map of FIG. 4B, the mountain area 62 and the sky area 63 that are greatly affected by fog are whitish, so the white intensity is high, and the person area 61 that is less affected by fog is clearly visible. Therefore, the white strength is lowered.

(環境光の色情報の取得)
ステップS3(図3)において、制御装置104は、撮影画像における環境光の色情報を取得する。具体的に制御装置104は、ステップS2で作成した白強度マップにおいて、各画素位置の白強度を高い順で並べた場合の全体に対する上位0.1%の領域を、撮影画像における白強度の最大領域として抽出する。そして制御装置104は、抽出した白強度の最大領域に対応する撮影画像の領域において、明度Vが最も高い画素位置の色情報(HSV)を、環境光の色情報として取得する。すなわち、制御装置104は、撮影画像において白強度および明度が高い位置の色情報を、環境光の色情報として取得する。
(Acquisition of ambient light color information)
In step S3 (FIG. 3), the control device 104 acquires color information of the ambient light in the captured image. Specifically, in the white intensity map created in step S2, the control device 104 sets the highest 0.1% of the white intensity in the photographed image as the top 0.1% of the entire area when the white intensity at each pixel position is arranged in descending order. Extract as a region. Then, the control device 104 acquires the color information (HSV) of the pixel position having the highest brightness V as the color information of the ambient light in the area of the captured image corresponding to the extracted white intensity maximum area. That is, the control device 104 acquires color information of a position where white intensity and brightness are high in the captured image as color information of ambient light.

たとえば、図4の撮影画像の場合、白強度が高い空領域63のうち、環境光の光源である太陽54の位置で最も明度Vが高くなるため、その位置の色情報を環境光の色情報として取得することができる。   For example, in the case of the captured image of FIG. 4, in the sky region 63 with high white intensity, the brightness V is the highest at the position of the sun 54 that is the light source of the ambient light. Can be obtained as

白強度の最大領域には、空の明るい箇所だけでなく白い物体などが含まれる場合があるため、白い物体ではなく、空の明るい箇所の色情報を取得できるように、本実施形態の画像補正処理では、白強度が高い領域のうちで明度Vが最も高い画素位置の色情報を取得する。   Since the maximum white intensity region may include not only a bright part of the sky but also a white object, the image correction of this embodiment is performed so that color information of a bright part of the sky can be acquired instead of a white object. In the processing, the color information of the pixel position with the highest brightness V in the region with high white intensity is acquired.

(透過率マップの作成)
ステップS4(図3)において、制御装置104は、ステップS2で作成した白強度マップと、ステップS3で取得した環境光の色情報(HSV)のうちの明度とを用いて、上述した霧画像モデルに対応する透過率t(x)の分布を表す透過率マップを作成する。具体的には制御装置104は、以下の式(7)を用いて、透過率t(x)を求める。
t(x)=1−ω・W(x)/Av ・・・(7)
但し、
x:画素位置
t(x):各画素位置の透過率
ω:定数
W(x):各画素位置の白強度
Av:環境光の明度
(Transparency map creation)
In step S4 (FIG. 3), the control device 104 uses the white intensity map created in step S2 and the brightness of the ambient light color information (HSV) acquired in step S3 to describe the fog image model described above. A transmittance map representing the distribution of transmittance t (x) corresponding to is created. Specifically, the control apparatus 104 calculates | requires the transmittance | permeability t (x) using the following formula | equation (7).
t (x) = 1−ω · W (x) / Av (7)
However,
x: pixel position t (x): transmittance at each pixel position ω: constant W (x): white intensity at each pixel position Av: brightness of ambient light

式(7)からわかるように、白強度W(x)が高いところほど透過率t(x)が低くなり、白強度W(x)が低いところほど透過率t(x)が高くなる。図4(c)は、図4(a)の撮影画像における透過率マップの一例を示す模式図である。たとえば、図4(c)の透過率マップにおいて、白強度W(x)が高い山領域72および空領域73では透過率t(x)が低くなり、白強度W(x)が低い人物領域71では透過率t(x)が低くなる。   As can be seen from Equation (7), the higher the white intensity W (x), the lower the transmittance t (x), and the lower the white intensity W (x), the higher the transmittance t (x). FIG. 4C is a schematic diagram illustrating an example of a transmittance map in the captured image of FIG. For example, in the transmittance map of FIG. 4C, the mountain region 72 and the sky region 73 where the white intensity W (x) is high have a low transmittance t (x) and the person region 71 where the white intensity W (x) is low. Then, the transmittance t (x) becomes low.

ここで、元々の撮影画像と同じ解像度の透過率マップをそのまま用いて、上述した霧画像モデルによって霧の影響を低減した画像(補正画像)を求めた場合、補正画像にリング状のゴーストが現れるハロー効果が発生してしまうことがある。そこで、本実施形態の画像補正処理では、ハロー効果を防止するために、以下の第1の作成方法または第2の作成方法を用いて透過率マップを作成する。   Here, when the transmittance map having the same resolution as the original photographed image is used as it is and an image (corrected image) in which the influence of fog is reduced by the above-described fog image model is obtained, a ring-shaped ghost appears in the corrected image. A halo effect may occur. Therefore, in the image correction processing of the present embodiment, a transmittance map is created using the following first creation method or second creation method in order to prevent the halo effect.

(1)第1の作成方法
第1の作成方法では、まず、制御装置104は、撮影画像と同じ解像度の透過率マップを作成する。そして、制御装置104は、作成した透過率マップを用いて、撮影画像よりも逐次的に低い解像度を有する透過率マップを1つ以上作成する(すなわち多重解像度化した透過率マップを作成)する。制御装置104は、これら作成した透過率マップを重み付け加算して、補正画像の作成に使用する透過率マップ(以下、使用透過率マップと表記する)を作成する。この第1の作成方法を式で表すと、以下の式(8)のように表される。
T(x)=αt(x)+βt(x)+γt(x)+ ・・・ +ωt(x) ・・・(8)
但し、
x:画素位置
T(x):使用透過率マップにおける各画素位置の透過率
t(x):撮影画像と同じ解像度の透過率マップにおける各画素位置の透過率
(x)〜t(x):撮影画像よりも逐次的に低い解像度を有する透過率マップにおける各画素位置の透過率
α〜ω:重み付け定数
(1) First Creation Method In the first creation method, first, the control device 104 creates a transmittance map having the same resolution as the captured image. Then, the control device 104 uses the created transmittance map to create one or more transmittance maps having resolutions lower than that of the captured image (that is, create a multi-resolution transmittance map). The control device 104 weights and adds the created transmittance maps to create a transmittance map (hereinafter referred to as a used transmittance map) used to create a corrected image. This first creation method is represented by the following equation (8).
T (x) = αt (x) + βt 1 (x) + γt 2 (x) +... + Ωt n (x) (8)
However,
x: pixel position T (x): transmittance t (x) at each pixel position in the used transmittance map: transmittance t 1 (x) to t n (at each pixel position in the transmittance map having the same resolution as the captured image) x): transmittances α to ω at respective pixel positions in a transmittance map having a resolution sequentially lower than that of the captured image: weighting constants

なお、たとえばt(x)は撮影画像の1/2の解像度の透過率マップ、t(x)は撮影画像の1/4の解像度の透過率マップ・・・、のように、t(x)、t(x)、・・・、t(x)はそれぞれ異なる解像度の透過率マップを示す。撮影画像よりも低解像度の透過率マップについては適切な個数を作成すればよく、少なくとも1つ作成すればよい。 Incidentally, for example, t 1 (x) is half the resolution of the transmittance map of the captured image, t 2 (x) is transmittance map ... 1/4 resolution of the captured image, as in, t 1 (X), t 2 (x),..., T n (x) indicate transmittance maps having different resolutions. An appropriate number of transmittance maps having a lower resolution than the captured image may be created, and at least one may be created.

このように、透過率マップを多重解像度化して重み付け加算して使用透過率マップを作成することで、補正画像におけるハロー効果を低減することができる。   Thus, the halo effect in the corrected image can be reduced by creating a use transmittance map by converting the transmittance map into multiple resolutions and performing weighted addition.

(2)第2の作成方法
また、多重解像度化を行わなくても、解像度を落とせばハロー効果が見られなくなることが実験的にわかった。そこで、第2の作成方法では、撮影画像の解像度よりも0.5〜0.9倍の解像度の透過率マップを、使用透過率マップとして作成する。
(2) Second creation method It has also been experimentally found that the halo effect cannot be seen if the resolution is lowered without performing multi-resolution. Therefore, in the second creation method, a transmittance map having a resolution of 0.5 to 0.9 times the resolution of the captured image is created as the use transmittance map.

第1の作成方法および第2の作成方法のどちらで使用透過率マップを作成するかは、適宜選択される。たとえば、制御装置104は、以下の第1〜第4の選択方法のいずれかを用いて、使用透過率マップを作成する方法を選択する。   Which of the first creation method and the second creation method is used to create the use transmittance map is appropriately selected. For example, the control device 104 selects a method for creating a use transmittance map by using any of the following first to fourth selection methods.

(1)第1の選択方法
第1の選択方法では、制御装置104は、撮影画像の周波数成分に応じて、使用透過率マップを作成する方法を選択する。撮影画像において高周波成分が多い時はエッジが多いので使用透過率マップを低解像度にすると、補正画像の解像感が低下してしまう。そのため、制御装置104は、撮影画像の周波数成分を求め、高周波成分が多い場合は、第1の作成方法を選択して使用透過率マップを作成し、低周波成分が多い場合は、第2の作成方法を選択して使用透過率マップを作成する。
(1) First Selection Method In the first selection method, the control device 104 selects a method for creating a use transmittance map according to the frequency component of the captured image. When there are many high-frequency components in the photographed image, there are many edges. Therefore, if the use transmittance map is set to a low resolution, the resolution of the corrected image is lowered. Therefore, the control device 104 obtains the frequency component of the captured image. If there are many high-frequency components, the control device 104 selects the first creation method and creates a use transmittance map. If there are many low-frequency components, the control device 104 creates the second component. Select a creation method and create a usage transmittance map.

(2)第2の選択方法
第2の選択方法では、制御装置104は、ノイズの発生状況、具体的には撮影画像の撮影時のISO感度に応じて、使用透過率マップを作成する方法を選択する。撮影時のISO感度については、撮影画像に付加されたExif(登録商標)情報を参照する。ノイズが多い時はなるべく低解像度で使用透過率マップを作成した方がノイズの影響を低減できると考えられる。そこで、制御装置104は、撮影画像においてノイズが多い条件、すなわち撮影時のISO感度が高感度である(たとえば1600以上である)場合には第2の作成方法を選択して使用透過率マップを作成し、低感度である場合には第1の作成方法を選択して使用透過率マップを作成する。
(2) Second Selection Method In the second selection method, the control device 104 creates a usage transmittance map in accordance with the noise generation status, specifically, the ISO sensitivity at the time of shooting a shot image. select. For ISO sensitivity at the time of shooting, refer to Exif (registered trademark) information added to the shot image. When there is a lot of noise, it is considered that the influence of noise can be reduced by creating a use transmittance map with as low a resolution as possible. Therefore, the control device 104 selects the second creation method when the noisy condition in the photographed image, that is, the ISO sensitivity at the time of photographing is high (for example, 1600 or more) and selects the use transmittance map. If the sensitivity is low and the sensitivity is low, the first transmission method is selected to create a use transmittance map.

(3)第3の選択方法
第3の選択方法では、制御装置104は、撮影画像が静止画であるか動画であるかに応じて、使用透過率マップを作成する方法を選択する。撮影画像が動画である場合には処理速度を上げる必要があるので、制御装置104は、比較的処理負荷の少ない第2の作成方法を選択して使用透過率マップを作成する。一方、撮影画像が静止画像である場合には解像感を良くしたいので、制御装置104は、第1の作成方法を選択して使用透過率マップを作成する。
(3) Third Selection Method In the third selection method, the control device 104 selects a method for creating a use transmittance map depending on whether the captured image is a still image or a moving image. Since it is necessary to increase the processing speed when the captured image is a moving image, the control device 104 selects the second generation method with a relatively low processing load and generates the use transmittance map. On the other hand, when the captured image is a still image, the control device 104 selects the first creation method and creates the use transmittance map because it is desired to improve the resolution.

(4)第4の選択方法
第4の選択方法では、操作部材101を介してユーザが手動で第1の作成方法および第2の作成方法のいずれかを選択する。すなわち、制御装置104は、操作部材101の操作に応じて、第1の作成方法および第2の作成方法のいずれかを選択して、使用透過率マップを作成する。
(4) Fourth Selection Method In the fourth selection method, the user manually selects either the first creation method or the second creation method via the operation member 101. That is, the control device 104 selects either the first creation method or the second creation method in accordance with the operation of the operation member 101, and creates the use transmittance map.

なお、以上の第1〜第4の選択方法についてはどれを用いてもよく、どれを用いるかについては予め設定されていてもよいし、ユーザが手動で設定できるようにしてもよい。   Note that any of the first to fourth selection methods described above may be used, and which one may be used may be set in advance, or may be set manually by the user.

(補正画像の作成)
ステップS5(図3)において、制御装置104は、ステップS3で取得した環境光の色情報とステップS4で作成した使用透過率マップとを用いて、撮影画像を補正して(すなわち霧の影響を低減して)補正画像を作成し、図3の処理を終了する。具体的には、制御装置104は、以下の式(9)〜(11)により、HSV色空間で表された補正画像を作成する。
Jh(x)=Ih(x) ・・・(9)
Js(x)=(Is(x)−α・As)/T(x)+α・As ・・・(10)
Jv(x)=(Iv(x)−β・Av)/T(x)+β・Av ・・・(11)
但し、
x:画素位置
Ih(x),Is(x),Iv(x):撮影画像の各画素位置の色相、彩度、明度
Jh(x),Js(x),Jv(x):補正画像の各画素位置の色相、彩度、明度
α,α,β,β:定数
As,Av:環境光の彩度、明度
T(x):使用透過率マップにおける各画素位置の透過率
(Creating a corrected image)
In step S5 (FIG. 3), the control device 104 corrects the photographed image using the ambient light color information acquired in step S3 and the use transmittance map created in step S4 (that is, the influence of fog). 3), a corrected image is created, and the process of FIG. 3 is terminated. Specifically, the control device 104 creates a corrected image represented in the HSV color space by the following equations (9) to (11).
Jh (x) = Ih (x) (9)
Js (x) = (Is (x) −α 1 · As) / T (x) + α 2 · As (10)
Jv (x) = (Iv (x) −β 1 · Av) / T (x) + β 2 · Av (11)
However,
x: Pixel position Ih (x), Is (x), Iv (x): Hue, saturation, brightness Jh (x), Js (x), Jv (x) of each pixel position of the captured image Hue, saturation, brightness α 1 , α 2 , β 1 , β 2 : constant As, Av: saturation of ambient light, brightness T (x): transmittance at each pixel position in the used transmittance map

彩度および明度を求める式(10)および(11)については、上述した霧画像モデルの式(2)を応用した式であり、たとえば彩度と明度とで強調度合いを変えるなどの調整を行うため、環境光の成分に定数α,α,β,βが乗算されている。 Expressions (10) and (11) for obtaining saturation and lightness are expressions applying the above-described fog image model expression (2). For example, adjustment such as changing the degree of enhancement between saturation and lightness is performed. Therefore, the components of ambient light are multiplied by constants α 1 , α 2 , β 1 , β 2 .

また、HSV色空間では、霧やもやによる白味の軽減は、彩度と明度だけを考慮すればよいので、式(9)のように補正画像の色相については撮影画像と同一とすればよい。したがって、実質的な計算処理は彩度と明度の2チャンネルだけで済むので、RGB3チャンネルで計算処理を行う場合より、処理負荷を軽減することができる。   Also, in the HSV color space, whiteness reduction due to fog or haze only needs to consider saturation and lightness, so that the hue of the corrected image is the same as that of the photographed image as in equation (9). Good. Therefore, since the substantial calculation process is only required for the two channels of saturation and lightness, the processing load can be reduced as compared with the case where the calculation process is performed with three RGB channels.

以上のようにして図3に示す画像補正処理を行うことで、大気中の浮遊物体(たとえば、霧やもや、煙、塵埃など)の影響により白っぽくぼやけた撮影画像を補正して鮮明にすることができる。また、上述の説明では大気中の浮遊物体(霧やもやなど)を例に挙げてこれらの影響を低減する例を説明したが、これに限らず、上記画像補正処理は、水中撮影においても、被写体とデジタルカメラ100との間に存在する水の影響で白っぽくぼやけた撮影画像を鮮明に補正することができる。   By performing the image correction processing shown in FIG. 3 as described above, a photographed image that is whitish and blurred due to the influence of floating objects in the atmosphere (for example, fog, haze, smoke, dust, etc.) is corrected to be clear. be able to. Further, in the above description, an example of reducing these effects by taking a floating object (mist, haze, etc.) in the atmosphere as an example has been described. However, the present invention is not limited to this, and the image correction process is also applicable to underwater photography. The photographed image that is whitish and blurred under the influence of water existing between the subject and the digital camera 100 can be corrected clearly.

以上説明した実施の形態によれば、次の作用効果が得られる。
(1)デジタルカメラ100において、制御装置104は、被写体の前に存在する光透過性の媒体(たとえば、霧やもやを含む大気、水中撮影の場合の水など)を介して被写体を撮影した撮影画像を取得する。制御装置104は、撮影画像の彩度に関する彩度情報と明度に関する明度情報を用いて、彩度が低く且つ明度が高い度合い(白強度)の分布を表す白強度マップを作成する。制御装置104は、白強度マップを用いて撮影画像を補正して、上記光透過性の媒体の影響(たとえば霧やもやを含む大気、水中撮影の場合の水などの影響)を低減した補正画像を作成する。このようにすることで、従来技術のダークチャネル画像のように暗いレベルを用いずに撮影画像を補正することができ、撮影画像を補正する際のノイズの影響を低減することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) In the digital camera 100, the control device 104 images the subject via a light-transmitting medium (for example, the atmosphere including fog or haze, water in the case of underwater photography) existing in front of the subject. Acquire a captured image. The control device 104 creates a white intensity map representing a distribution of the degree of low saturation and high brightness (white intensity) using the saturation information related to the saturation of the photographed image and the brightness information related to the brightness. The control device 104 corrects the photographed image using the white intensity map to reduce the influence of the light-transmitting medium (for example, the atmosphere including fog and haze, the influence of water in the case of underwater photography). Create an image. In this way, the captured image can be corrected without using a dark level as in the case of the conventional dark channel image, and the influence of noise when correcting the captured image can be reduced.

(2)デジタルカメラ100において、制御装置104は、撮影画像に関する環境光情報を取得し、白強度マップと環境光情報とを用いて補正用パラメータ(透過率)の分布を表す透過率マップを作成する。制御装置104は、環境光情報および透過率マップを用いて撮影画像を補正して補正画像を作成する。このようにすることで、彩度が低く且つ明度が高い度合い(すなわち白っぽい度合い)に加え、環境光の影響を考慮して、撮影画像を補正することができる。 (2) In the digital camera 100, the control device 104 acquires the ambient light information related to the captured image, and creates a transmittance map that represents the distribution of the correction parameter (transmittance) using the white intensity map and the ambient light information. To do. The control device 104 corrects the captured image using the ambient light information and the transmittance map to create a corrected image. In this way, the captured image can be corrected in consideration of the influence of ambient light in addition to the degree of low saturation and high brightness (that is, the degree of whitishness).

(3)デジタルカメラ100において、制御装置104は、撮影画像と同じ解像度で補正用パラメータ(透過率)の分布を表すマップと撮影画像よりも低解像度で補正用パラメータ(透過率)の分布を表すマップとを加算して使用透過率マップを作成する。これにより、補正画像におけるハロー効果を低減することができる。 (3) In the digital camera 100, the control device 104 represents the distribution of the correction parameter (transmittance) at a resolution lower than that of the captured image and the map representing the distribution of the correction parameter (transmittance) at the same resolution as the captured image. Add a map to create a transparency map. Thereby, the halo effect in the corrected image can be reduced.

(4)デジタルカメラ100において、制御装置104は、撮影画像よりも低解像度で補正用パラメータ(透過率)の分布を表す使用透過率マップを作成する。これにより、補正画像におけるハロー効果を低減することができる。 (4) In the digital camera 100, the control device 104 creates a use transmittance map that represents the distribution of correction parameters (transmittance) at a lower resolution than the captured image. Thereby, the halo effect in the corrected image can be reduced.

(5)デジタルカメラ100において、制御装置104は、撮影画像と同じ解像度で補正用パラメータ(透過率)の分布を表すマップと撮影画像よりも低解像度で補正用パラメータ(透過率)の分布を表すマップとを加算して使用透過率マップを作成する第1の作成方法と、撮影画像よりも低解像度で補正用パラメータ(透過率)の分布を表す使用透過率マップを作成する第2の作成方法とが使用可能である。制御装置104は、撮影画像の周波数成分、撮影画像の撮影時のISO感度、および撮影画像が動画であるか静止画であるかのいずれかに応じて、第1の作成方法および第2の作成方法のいずれかを選択して、使用透過率マップを作成する。これにより、補正画像の解像感が高くなる第1の作成方法と処理負荷の少ない第2の作成方法とを適切に使い分けることができる。 (5) In the digital camera 100, the control device 104 represents the distribution of the correction parameter (transmittance) at a resolution lower than that of the captured image and the map representing the distribution of the correction parameter (transmittance) at the same resolution as the captured image. A first creation method for creating a used transmittance map by adding a map, and a second creation method for creating a used transmittance map representing a correction parameter (transmittance) distribution at a lower resolution than the captured image. And can be used. The control device 104 performs the first creation method and the second creation according to the frequency component of the shot image, the ISO sensitivity at the time of shooting the shot image, and whether the shot image is a moving image or a still image. Choose one of the methods to create a usage transmittance map. This makes it possible to properly use the first creation method that increases the resolution of the corrected image and the second creation method that has a low processing load.

(6)デジタルカメラ100において、制御装置104は、RGB色空間で表された撮影画像を、円錐モデルのHSV色空間で表されるHSV画像に変換し、当該HSV画像のS成分(彩度)とV成分(明度)とに基づいて白強度マップを作成するようにした。このようにHSV色空間の円錐モデルを利用することにより、「彩度が高くかつ明度が低い」条件と「彩度が低くかつ明度が高い」条件とが切り分けやすく、霧やもや、煙などの影響で白くぼやけた領域を抽出しやすくなる。従って、霧やもや、煙などの影響で白くぼやけた領域を強調して処理することができる。 (6) In the digital camera 100, the control device 104 converts the captured image expressed in the RGB color space into an HSV image expressed in the HSV color space of the conical model, and the S component (saturation) of the HSV image. And a white intensity map based on the V component (lightness). By using the cone model of the HSV color space in this way, it is easy to distinguish between “high saturation and low brightness” conditions and “low saturation and high brightness” conditions, such as fog, haze, smoke, etc. This makes it easier to extract a white and blurred area. Accordingly, it is possible to emphasize and process a region that is white and blurred due to the influence of fog, haze, smoke, or the like.

−第2の実施の形態−
次に、本発明の第2の実施の形態について説明する。上述した第1の実施の形態では、撮影画像の色空間をRGB色空間からHSV色空間へ変換して、上記画像補正処理を行う例について説明した。以下で説明する第2の実施の形態では、HSV色空間への変換を行わずに、Y(輝度)とCb,Cr(色差)の3つの成分で表されるYCbCr色空間において上記画像補正処理を行う例について説明する。
-Second Embodiment-
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the example in which the image correction process is performed by converting the color space of the captured image from the RGB color space to the HSV color space has been described. In the second embodiment described below, the image correction processing is performed in the YCbCr color space represented by three components of Y (luminance) and Cb, Cr (color difference) without performing conversion to the HSV color space. An example of performing is described.

第2の実施の形態においても、画像補正処理の流れ(図3)は第1の実施の形態と同様であるため、図3のフローチャートを参照して説明する。ステップS1において、制御装置104は、画像補正処理を行う撮影画像を取得する。ここで、撮影画像は、YCbCr色空間で表されているとする。   Also in the second embodiment, the flow of image correction processing (FIG. 3) is the same as in the first embodiment, and will be described with reference to the flowchart of FIG. In step S1, the control device 104 acquires a captured image on which image correction processing is performed. Here, it is assumed that the captured image is expressed in the YCbCr color space.

ステップS2において、制御装置104は、撮影画像の白強度マップを作成する。ここで、制御装置104は、YCbCr色空間で表された撮影画像のCbCr(色差)を用いて、撮影画像の彩度情報S’を算出する。彩度情報S’は、たとえば、以下の式(12)により求めることができる。なお、以下に説明する式において、Cb、Crは、−0.5〜0.5の範囲で表されているとする。

Figure 2015192338
In step S2, the control device 104 creates a white intensity map of the captured image. Here, the control device 104 calculates the saturation information S ′ of the captured image using CbCr (color difference) of the captured image expressed in the YCbCr color space. The saturation information S ′ can be obtained by the following equation (12), for example. In the formulas described below, it is assumed that Cb and Cr are expressed in a range of −0.5 to 0.5.
Figure 2015192338

上記式(12)ではルートの計算が入るため、以下の式(13)のように簡略化して、彩度情報S’を求めるようにしてもよい。なお、以下の式において、normalizeは、最小値が0、最大値が1となるように正規化する関数である。
S’=normalize(Cb+Cr) ・・・(13)
Since the above equation (12) involves calculation of the route, the saturation information S ′ may be obtained by simplifying the equation (13) below. In the following expression, normalize is a function that normalizes so that the minimum value is 0 and the maximum value is 1.
S ′ = normalize (Cb 2 + Cr 2 ) (13)

さらに以下の式(14)または(15)のように簡略化して、彩度情報S’を求めるようにしてもよい。
S’=(min|Cb|,|Cr|)/0.5 ・・・(14)
S’=normalize(|Cb|)・normalize(|Cr|) ・・・(15)
Further, the saturation information S ′ may be obtained by simplification as in the following formula (14) or (15).
S ′ = (min | Cb |, | Cr |) /0.5 (14)
S ′ = normalize (| Cb |) · normalize (| Cr |) (15)

このように制御装置104は、上述した式(12)〜(15)のいずれかを用いて、YCbCr色空間で表された撮影画像の彩度情報S’を算出する。   As described above, the control device 104 calculates the saturation information S ′ of the captured image expressed in the YCbCr color space using any of the above-described equations (12) to (15).

また、制御装置104は、YCbCr色空間で表された撮影画像において、Y(輝度)を撮影画像の明度情報として用いる。制御装置104は、撮影画像の彩度情報S’と明度情報Y(輝度)を用いて、以下の式(16)により撮影画像の白強度マップを作成する。
W(x)=(1−S’(x))・Y(x) ・・・(16)
但し、
x:画素位置
W(x):各画素位置の白強度
S’(x):各画素位置のCbCrから算出した彩度情報
Y(x):各画素位置の輝度
Further, the control device 104 uses Y (luminance) as brightness information of the captured image in the captured image represented in the YCbCr color space. The control device 104 uses the saturation information S ′ and brightness information Y (luminance) of the captured image to create a white intensity map of the captured image according to the following equation (16).
W (x) = (1−S ′ (x)) · Y (x) (16)
However,
x: pixel position W (x): white intensity S ′ (x) at each pixel position: saturation information Y (x) calculated from CbCr at each pixel position: luminance at each pixel position

ステップS3において、制御装置104は、撮影画像における環境光の色情報を取得する。ここでは、明度Vを輝度Yに置き換えて、上述した第1の実施の形態と同様に環境光の色情報を求めればよい。   In step S3, the control device 104 acquires color information of ambient light in the captured image. Here, the lightness V is replaced with the luminance Y, and the color information of the ambient light may be obtained in the same manner as in the first embodiment described above.

ステップS4において、制御装置104は、上述した第1の実施の形態と同様にして、使用透過率マップを作成する。   In step S4, the control device 104 creates a use transmittance map in the same manner as in the first embodiment described above.

ステップS5において、制御装置104は、上述した第1の実施の形態と同様に、上述した式(10)および(11)を用いて補正画像の彩度Js(x)および明度Jv(x)を算出する。また、補正画像の色相Jh(x)については、元の撮影画像の色相と同じなので、撮影画像のCbCr成分から以下の式(17)により色相Hを求めればよい。
H=tan−1(Cr/Cb) ・・・(17)
In step S5, the control device 104 determines the saturation Js (x) and lightness Jv (x) of the corrected image using the above-described equations (10) and (11), as in the first embodiment. calculate. Further, since the hue Jh (x) of the corrected image is the same as the hue of the original photographed image, the hue H may be obtained from the CbCr component of the photographed image by the following equation (17).
H = tan −1 (Cr / Cb) (17)

そして制御装置104は、得られたHSV色空間の補正画像を、YCbCr色空間の補正画像に変換する。ここでは、補正画像の明度Vを、補正画像のY(輝度)とすればよい。また、補正画像のCbCr(色差)については、補正画像の彩度Sと色相Hとから以下の式(18)および(19)により算出する。
Cb=S・cos(H) ・・・(18)
Cr=S・sin(H) ・・・(19)
Then, the control device 104 converts the obtained HSV color space correction image into a YCbCr color space correction image. Here, the brightness V of the corrected image may be Y (luminance) of the corrected image. Further, CbCr (color difference) of the corrected image is calculated from the saturation S and the hue H of the corrected image by the following equations (18) and (19).
Cb = S · cos (H) (18)
Cr = S · sin (H) (19)

以上説明した第2の実施の形態によれば、次の作用効果が得られる。
制御装置104は、YCbCr色空間で表される撮影画像のCb成分およびCr成分に基づいて彩度情報S’を算出し、撮影画像のY成分を明度情報として、白強度マップを作成し、上記画像補正処理を行うようにした。このように、JPEGやMPEGなどの圧縮にも使用されているYCbCr色空間において直接計算を行うことで、YCbCr色空間で記録された撮影画像に対して上記画像補正処理を行う場合に、色空間を変換することなく処理を行えるので、処理負荷を軽減することができる。
According to the second embodiment described above, the following operational effects can be obtained.
The control device 104 calculates saturation information S ′ based on the Cb component and the Cr component of the captured image represented in the YCbCr color space, creates a white intensity map using the Y component of the captured image as the brightness information, and Image correction processing was performed. In this way, when performing the above image correction processing on a photographic image recorded in the YCbCr color space by directly performing calculation in the YCbCr color space also used for compression such as JPEG and MPEG, the color space Since the processing can be performed without conversion, the processing load can be reduced.

−第3の実施の形態−
次に、本発明の第3の実施の形態について説明する。上述した第1の実施の形態では、HSV色空間において上記画像補正処理を行う例について説明した。以下説明する第3の実施の形態では、白強度マップの作成のみHSV色空間において行い、これ以降の処理(図3のステップS3〜S5)をRGB色空間において行う例について説明する。
-Third embodiment-
Next, a third embodiment of the present invention will be described. In the above-described first embodiment, the example in which the image correction process is performed in the HSV color space has been described. In the third embodiment described below, an example will be described in which only the white intensity map is generated in the HSV color space and the subsequent processing (steps S3 to S5 in FIG. 3) is performed in the RGB color space.

第3の実施の形態においても、画像補正処理の流れ(図3)は第1の実施の形態と同様であるため、図3のフローチャートを参照して説明する。ステップS1において、制御装置104は、RGB色空間で表された撮影画像を取得する。ステップS2において、制御装置104は、上述した第1の実施の形態と同様に、撮影画像の色空間をRGB色空間からHSV色空間へ変換し、彩度Sおよび明度Vを用いて白強度マップを作成する。   Also in the third embodiment, the flow of image correction processing (FIG. 3) is the same as in the first embodiment, and will be described with reference to the flowchart of FIG. In step S1, the control device 104 acquires a captured image represented in an RGB color space. In step S2, the control device 104 converts the color space of the photographed image from the RGB color space to the HSV color space, and uses the saturation S and the lightness V in the same manner as in the first embodiment described above. Create

ステップS3において、制御装置104は、撮影画像における環境光の色情報を取得する。具体的に制御装置104は、第1の実施の形態と同様に、ステップS2で作成した白強度マップにおいて、各画素位置の白強度を高い順で並べた場合の全体に対する上位0.1%の領域を、撮影画像における白強度の最大領域として抽出する。そして制御装置104は、第1の実施の形態とは異なり、抽出した白強度の最大領域のうちグレースケール強度Grayが最も高い画素位置の色情報(RGB)を、環境光の色情報として取得する。なお、グレースケール強度Grayは、撮影画像の各画素位置におけるRGB値の平均値であり、以下の式(20)によって算出される。
Gray=(R+G+B)/3 ・・・(20)
In step S3, the control device 104 acquires color information of ambient light in the captured image. Specifically, as in the first embodiment, the control device 104 uses the white intensity map created in step S2 in the top 0.1% of the whole when the white intensity at each pixel position is arranged in descending order. The region is extracted as the maximum white intensity region in the captured image. Unlike the first embodiment, the control device 104 acquires the color information (RGB) of the pixel position having the highest gray scale intensity Gray in the extracted white intensity maximum area as the color information of the ambient light. . The gray scale intensity Gray is an average value of RGB values at each pixel position of the captured image, and is calculated by the following equation (20).
Gray = (R + G + B) / 3 (20)

ステップS4において、制御装置104は、ステップS2で作成した白強度マップと、ステップS3で取得した環境光の色情報(RGB)から算出されるグレースケール強度とを用いて、撮影画像の透過率マップを作成する。制御装置104は、以下の式(21)を用いて、透過率t(x)を求める。
t(x)=1−ω・W(x)/Agray ・・・(21)
但し、
x:画素位置
t(x):各画素位置の透過率
ω:定数
W(x):各画素位置の白強度
gray:環境光のグレースケール強度
In step S4, the control device 104 uses the white intensity map created in step S2 and the gray scale intensity calculated from the color information (RGB) of the ambient light acquired in step S3 to obtain a transmittance map of the captured image. Create The control apparatus 104 calculates | requires the transmittance | permeability t (x) using the following formula | equation (21).
t (x) = 1−ω · W (x) / A gray (21)
However,
x: pixel position t (x): transmittance at each pixel position ω: constant W (x): white intensity at each pixel position A gray : gray scale intensity of ambient light

そして、制御装置104は、ハロー効果を防止するため、上述した第1の実施の形態と同様にして、使用透過率マップを作成する。   Then, in order to prevent the halo effect, the control device 104 creates a use transmittance map in the same manner as in the first embodiment described above.

ステップS5(図3)において、制御装置104は、ステップS3で取得した環境光の色情報とステップS4で作成した使用透過率マップとを用いて、撮影画像を補正した補正画像を作成し、図3の処理を終了する。具体的には、制御装置104は、以下の式(22)〜(24)により、RGB色空間で表された補正画像を作成する。
Jr(x)={(Ir(x)−Ar)/T(x)}・Ar+Ar ・・・(22)
Jg(x)={(Ig(x)−Ag)/T(x)}・Ag+Ag ・・・(23)
Jb(x)={(Ib(x)−Ab)/T(x)}・Ab+Ab ・・・(24)
但し、
x:画素位置
Ir(x),Ig(x),Ib(x):撮影画像の各画素位置のR,G,B
Jh(x),Js(x),Jv(x):補正画像の各画素位置のR,G,B
Ar,Ag,Ab:環境光のR,G,B
T(x):使用透過率マップにおける各画素位置の透過率
In step S5 (FIG. 3), the control device 104 creates a corrected image obtained by correcting the captured image using the ambient light color information acquired in step S3 and the use transmittance map created in step S4. The process of 3 is finished. Specifically, the control device 104 creates a corrected image represented in the RGB color space by the following equations (22) to (24).
Jr (x) = {(Ir (x) -Ar) / T (x)}. Ar + Ar (22)
Jg (x) = {(Ig (x) −Ag) / T (x)} · Ag + Ag (23)
Jb (x) = {(Ib (x) −Ab) / T (x)} · Ab + Ab (24)
However,
x: Pixel position Ir (x), Ig (x), Ib (x): R, G, B at each pixel position of the captured image
Jh (x), Js (x), Jv (x): R, G, B at each pixel position of the corrected image
Ar, Ag, Ab: R, G, B of ambient light
T (x): transmittance at each pixel position in the used transmittance map

式(22)〜(24)は、上述した霧画像モデルの式(2)を応用した式であり、式(2)の第1項(I(x)−A)/t(x)に対応する成分に環境光の成分を乗算することで、より自然に撮影画像をくっきりさせた補正画像を得ることができる。   Expressions (22) to (24) are expressions applying Expression (2) of the fog image model described above, and correspond to the first term (I (x) −A) / t (x) of Expression (2). By multiplying the component to be multiplied by the component of ambient light, it is possible to obtain a corrected image that sharpens the captured image more naturally.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
撮影画像における環境光の色情報を取得する方法について、上述した方法に限らない。たとえば、デジタルカメラ100に環境光を検出する環境光センサを設け、撮影時における環境光センサの検出結果を利用してもよいし、撮影時のホワイトバランス設定の情報を利用してもよい。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
The method for acquiring the color information of the ambient light in the captured image is not limited to the method described above. For example, an ambient light sensor that detects ambient light may be provided in the digital camera 100, and the detection result of the ambient light sensor at the time of shooting may be used, or information on white balance setting at the time of shooting may be used.

また、撮影画像ごとに環境光の色情報を取得するのではなく、予め所定の環境光色情報をデジタルカメラ100内のメモリに記憶させておき、上記画像補正処理の際に当該環境光色情報を読み出して使用するようにしてもよい。   In addition, instead of acquiring ambient light color information for each captured image, predetermined ambient light color information is stored in advance in a memory in the digital camera 100, and the ambient light color information is stored in the image correction process. May be read and used.

(変形例2)
上述した実施の形態では、ユーザの指示に応じて上記画像補正処理を実行する例について説明したが、撮影モードが風景モードまたは水中モードである場合には、制御装置104は、撮影画像に対して自動的に上記画像補正処理を実行するようにしてもよい。
(Modification 2)
In the above-described embodiment, the example in which the image correction process is executed according to the user's instruction has been described. However, when the shooting mode is the landscape mode or the underwater mode, the control device 104 performs processing on the shot image. The image correction process may be automatically executed.

(変形例3)
透過率t(x)を求める式は、上述した式(7)に限らない。たとえば、定数ωの代わりに、以下の式(25)のようにlogを用いた式で透過率t(x)を算出するようにしてもよい。
t(x)=1−log(W(x)/Av) ・・・(25)
(Modification 3)
The formula for obtaining the transmittance t (x) is not limited to the formula (7) described above. For example, instead of the constant ω, the transmittance t (x) may be calculated by an equation using log as in the following equation (25).
t (x) = 1-log (W (x) / Av) (25)

(変形例4)
上述した実施の形態では、デジタルカメラ100の制御装置104が上述した画像補正処理(図3)を実行する例について説明したが、これらの処理を行うプログラムをパーソナルコンピュータなどの画像処理装置が実行するようにしてもよい。この場合、パーソナルコンピュータ(PC)200に対するプログラムのローディングは、図5に示すように、プログラムを格納したCD−ROMなどの記録媒体201をPC200にセットして行ってもよいし、ネットワークなどの通信回線202を経由する方法でPC200へローディングしてもよい。通信回線202を経由する場合は、通信回線202に接続されたサーバー(コンピュータ)203のハードディスク装置204などにプログラムを格納しておく。プログラムは、記録媒体201や通信回線202を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。
(Modification 4)
In the above-described embodiment, the example in which the control device 104 of the digital camera 100 executes the above-described image correction processing (FIG. 3) has been described. However, an image processing device such as a personal computer executes a program for performing these processing. You may do it. In this case, the loading of the program to the personal computer (PC) 200 may be performed by setting a recording medium 201 such as a CD-ROM storing the program in the PC 200 as shown in FIG. It may be loaded into the PC 200 by a method via the line 202. When passing through the communication line 202, the program is stored in the hard disk device 204 of the server (computer) 203 connected to the communication line 202. The program can be supplied as various types of computer program products, such as provision via the recording medium 201 or the communication line 202.

(変形例5)
上述した画像補正処理は、防災や防犯のための監視カメラや、事故予防のための車載カメラなどにおいて、たとえば霧やもや、煙などの影響で白くぼやけた撮影画像の視認性を向上させる場合にも好適である。
(Modification 5)
The above-mentioned image correction processing is used to improve the visibility of captured images that are white and blurred due to the influence of fog, haze, smoke, etc., in surveillance cameras for disaster prevention and crime prevention, in-vehicle cameras for accident prevention, etc. Also suitable.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

100…デジタルカメラ、101…操作部材、102…撮影レンズ、103…撮像素子、104…制御装置、105…メモリカードスロット、106…モニタ DESCRIPTION OF SYMBOLS 100 ... Digital camera, 101 ... Operation member, 102 ... Shooting lens, 103 ... Imaging element, 104 ... Control apparatus, 105 ... Memory card slot, 106 ... Monitor

Claims (10)

撮影画像を取得する画像取得手段と、
前記撮影画像の彩度に関する彩度情報および前記撮影画像の明度に関する明度情報を用いて、前記撮影画像における彩度が低く且つ明度が高い度合いの分布を表す第1マップを作成する第1マップ作成手段と、
前記第1マップを用いて前記撮影画像を補正して補正画像を作成する補正手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a captured image;
First map creation for creating a first map representing a distribution of a degree of low saturation and high brightness in the photographed image using saturation information relating to the saturation of the photographed image and brightness information relating to the brightness of the photographed image Means,
Correction means for correcting the captured image using the first map to create a corrected image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記撮影画像に関する環境光情報を取得する環境光情報取得手段と、
前記第1マップと前記環境光情報とを用いて、前記撮影画像における補正用パラメータの分布を表す第2マップを作成する第2マップ作成手段と、
をさらに備え、
前記補正手段は、前記環境光情報および前記第2マップを用いて前記撮影画像を補正して前記補正画像を作成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
Ambient light information acquisition means for acquiring ambient light information related to the captured image;
Second map creating means for creating a second map representing a distribution of correction parameters in the photographed image using the first map and the ambient light information;
Further comprising
The image processing apparatus, wherein the correction unit corrects the captured image using the ambient light information and the second map to create the corrected image.
請求項2に記載の画像処理装置において、
前記第2マップ作成手段は、前記撮影画像と同じ解像度で前記補正用パラメータの分布を表すマップと前記撮影画像よりも低解像度で前記補正用パラメータの分布を表すマップとを加算して前記第2マップを作成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The second map creating means adds the map representing the distribution of the correction parameters at the same resolution as the captured image and the map representing the distribution of the correction parameters at a lower resolution than the captured image. An image processing apparatus characterized by creating a map.
請求項2に記載の画像処理装置において、
前記第2マップ作成手段は、前記撮影画像よりも低解像度で前記補正用パラメータの分布を表す前記第2マップを作成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing apparatus, wherein the second map creating means creates the second map representing the correction parameter distribution at a lower resolution than the captured image.
請求項2に記載の画像処理装置において、
前記第2マップ作成手段は、前記撮影画像と同じ解像度で前記補正用パラメータの分布を表すマップと前記撮影画像よりも低解像度で前記補正用パラメータの分布を表すマップとを加算して前記第2マップを作成する第1作成部と、前記撮影画像よりも低解像度で前記補正用パラメータの分布を表す前記第2マップを作成する第2作成部と、を有し、前記撮影画像の周波数成分、前記撮影画像の撮影時のISO感度、前記撮影画像が動画であるか静止画であるか、およびユーザ操作のいずれかに応じて、前記第1作成部および前記第2作成部のいずれかを選択して、前記第2マップを作成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The second map creating means adds the map representing the distribution of the correction parameters at the same resolution as the captured image and the map representing the distribution of the correction parameters at a lower resolution than the captured image. A first creation unit that creates a map; and a second creation unit that creates the second map that represents the distribution of the correction parameters at a lower resolution than the captured image, and a frequency component of the captured image, Select either the first creation unit or the second creation unit according to the ISO sensitivity at the time of shooting the shot image, whether the shot image is a moving image or a still image, and user operation An image processing apparatus that creates the second map.
請求項2〜5のいずれか一項に記載の画像処理装置において、
前記環境光情報取得手段は、前記第1マップの前記度合いが最も高い領域に対応する前記撮影画像の領域において明度情報が最大である画素位置の画像情報を前記環境光情報として取得することを特徴とする画像処理装置。
In the image processing device according to any one of claims 2 to 5,
The ambient light information acquisition means acquires, as the ambient light information, image information of a pixel position where the brightness information is maximum in a region of the captured image corresponding to the region with the highest degree of the first map. An image processing apparatus.
請求項1〜6のいずれか一項に記載の画像処理装置において、
前記撮影画像を、HSV色空間で表されるHSV画像に変換するHSV変換手段をさらに備え、
前記第1マップ作成手段は、前記HSV画像のS成分を前記彩度情報とし、前記HSV画像のV成分を前記明度情報として、前記第1マップを作成することを特徴とする画像処理装置。
In the image processing apparatus according to any one of claims 1 to 6,
HSV conversion means for converting the captured image into an HSV image represented in an HSV color space;
The image processing apparatus, wherein the first map creating means creates the first map using the S component of the HSV image as the saturation information and the V component of the HSV image as the brightness information.
請求項1〜6のいずれか一項に記載の画像処理装置において、
前記撮影画像は、YCbCr色空間で表されるYCbCr画像であり、
前記第1マップ作成手段は、前記YCbCr画像のCb成分およびCr成分を用いて前記彩度情報を算出し、前記YCbCr画像のY成分を前記明度情報として、前記第1マップを作成することを特徴とする画像処理装置。
In the image processing apparatus according to any one of claims 1 to 6,
The captured image is a YCbCr image expressed in a YCbCr color space,
The first map creating means calculates the saturation information using a Cb component and a Cr component of the YCbCr image, and creates the first map using the Y component of the YCbCr image as the brightness information. An image processing apparatus.
撮影画像を取得する処理と、
前記撮影画像の彩度に関する彩度情報および前記撮影画像の明度に関する明度情報を用いて、前記撮影画像における彩度が低く且つ明度が高い度合いの分布を表す第1マップを作成する処理と、
前記第1マップを用いて前記撮影画像を補正して補正画像を作成する処理と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
Processing to acquire a captured image;
A process of creating a first map that represents a distribution of a degree of low saturation and high brightness in the captured image, using saturation information regarding the saturation of the captured image and brightness information regarding the brightness of the captured image;
A process of correcting the captured image using the first map to create a corrected image;
An image processing program for causing a computer to execute.
被写体の前に存在する光透過性の媒体を介して前記被写体を撮影した撮影画像を取得する画像取得手段と、
前記撮影画像の彩度に関する彩度情報および前記撮影画像の明度に関する明度情報を用いて、前記撮影画像における彩度が低く且つ明度が高い度合いの分布を表す第1マップを作成する第1マップ作成手段と、
前記第1マップを用いて前記撮影画像を補正して前記光透過性の媒体の影響を低減した補正画像を作成する補正手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a photographed image obtained by photographing the subject via a light-transmitting medium existing in front of the subject;
First map creation for creating a first map representing a distribution of a degree of low saturation and high brightness in the photographed image using saturation information relating to the saturation of the photographed image and brightness information relating to the brightness of the photographed image Means,
Correction means for correcting the captured image using the first map to create a corrected image in which the influence of the light-transmitting medium is reduced;
An image processing apparatus comprising:
JP2014068810A 2014-03-28 2014-03-28 Image processing device and image processing program Pending JP2015192338A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014068810A JP2015192338A (en) 2014-03-28 2014-03-28 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014068810A JP2015192338A (en) 2014-03-28 2014-03-28 Image processing device and image processing program

Publications (1)

Publication Number Publication Date
JP2015192338A true JP2015192338A (en) 2015-11-02

Family

ID=54426517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014068810A Pending JP2015192338A (en) 2014-03-28 2014-03-28 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP2015192338A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189901A1 (en) * 2015-05-22 2016-12-01 三菱電機株式会社 Image processing device, image processing method, program, recording medium recording same, video capture device, and video recording/reproduction device
CN108629748A (en) * 2018-04-16 2018-10-09 深圳臻迪信息技术有限公司 Image correction method, device, electronic equipment and computer readable storage medium
JP2019144827A (en) * 2018-02-20 2019-08-29 キヤノン株式会社 Image processing device, and control method and program of the same
KR102245501B1 (en) * 2020-11-25 2021-04-29 주식회사 아이지오 Low-quality CCTV Image Based Object Restoration System Using Deep-learning

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189901A1 (en) * 2015-05-22 2016-12-01 三菱電機株式会社 Image processing device, image processing method, program, recording medium recording same, video capture device, and video recording/reproduction device
JPWO2016189901A1 (en) * 2015-05-22 2017-09-21 三菱電機株式会社 Image processing apparatus, image processing method, program, recording medium recording the same, video photographing apparatus, and video recording / reproducing apparatus
JP2019144827A (en) * 2018-02-20 2019-08-29 キヤノン株式会社 Image processing device, and control method and program of the same
JP7025237B2 (en) 2018-02-20 2022-02-24 キヤノン株式会社 Image processing equipment and its control method and program
CN108629748A (en) * 2018-04-16 2018-10-09 深圳臻迪信息技术有限公司 Image correction method, device, electronic equipment and computer readable storage medium
KR102245501B1 (en) * 2020-11-25 2021-04-29 주식회사 아이지오 Low-quality CCTV Image Based Object Restoration System Using Deep-learning

Similar Documents

Publication Publication Date Title
US10021313B1 (en) Image adjustment techniques for multiple-frame images
JP5089405B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
US20150163391A1 (en) Image capturing apparatus, control method of image capturing apparatus, and non-transitory computer readable storage medium
JP2013106149A (en) Imaging apparatus, control method of the same and program
JP2015156615A (en) Image processing system, image processing method, control program, and recording medium
JP6720881B2 (en) Image processing apparatus and image processing method
JP6613697B2 (en) Image processing apparatus, program, and recording medium
JP2004222231A (en) Image processing apparatus and image processing program
KR20180080297A (en) IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US20200304723A1 (en) Image processing device, imaging apparatus, image processing method, and program
JP5984975B2 (en) Imaging apparatus, imaging method, and program
JP2015192338A (en) Image processing device and image processing program
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
US10897581B2 (en) Image capturing apparatus, image compositing method, and recording medium having recorded therein image compositing program to be executed by computer of image capturing apparatus
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP2015233202A (en) Image processing apparatus, image processing method, and program
JP2004222233A (en) Image processing apparatus and image processing program
JP6157274B2 (en) Imaging apparatus, information processing method, and program
CN109447925B (en) Image processing method and device, storage medium and electronic equipment
JP2012169936A (en) Imaging apparatus and image processing method of the same
JP2016051982A (en) Image processing system, camera, and image processing program
JP6248662B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6326841B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2004222232A (en) Image processor and image processing program