JP6806356B2 - Image processing equipment, imaging system, image processing method and computer program - Google Patents

Image processing equipment, imaging system, image processing method and computer program Download PDF

Info

Publication number
JP6806356B2
JP6806356B2 JP2016130865A JP2016130865A JP6806356B2 JP 6806356 B2 JP6806356 B2 JP 6806356B2 JP 2016130865 A JP2016130865 A JP 2016130865A JP 2016130865 A JP2016130865 A JP 2016130865A JP 6806356 B2 JP6806356 B2 JP 6806356B2
Authority
JP
Japan
Prior art keywords
image
weight
pixel value
target image
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016130865A
Other languages
Japanese (ja)
Other versions
JP2018005518A (en
Inventor
和田 俊和
俊和 和田
ツヴェッコヴィッチ アレクサンダー
ツヴェッコヴィッチ アレクサンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WAKAYAMA UNIVERSITY
Original Assignee
WAKAYAMA UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WAKAYAMA UNIVERSITY filed Critical WAKAYAMA UNIVERSITY
Priority to JP2016130865A priority Critical patent/JP6806356B2/en
Publication of JP2018005518A publication Critical patent/JP2018005518A/en
Application granted granted Critical
Publication of JP6806356B2 publication Critical patent/JP6806356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理に関する。 The present invention relates to image processing.

フィルタリング処理によって対象画像の画質を改善する画像処理として、バイラテラルフィルタを用いた処理が知られている。バイラテラルフィルタは、画像中のエッジを保存しつつ画像を平滑化することができる。バイラテラルフィルタは、注目画素と周辺画素との距離に基づく空間重みと、注目画素値と周辺画素値との差に基づく画素値重みとを含む。注目画素値と周辺画素値との差は、エッジのある箇所のように画素値間の差が大きくなる箇所で生じる。注目画素値と周辺画素値との差が大きいと、画素値重みは小さくなる。画素値重みが小さい部分では、エッジが保存されやすい。 As an image process for improving the image quality of a target image by a filtering process, a process using a bilateral filter is known. Bilateral filters can smooth an image while preserving the edges in the image. The bilateral filter includes a spatial weight based on the distance between the pixel of interest and a peripheral pixel, and a pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value. The difference between the pixel value of interest and the peripheral pixel value occurs in a place where the difference between the pixel values becomes large, such as a place having an edge. When the difference between the pixel value of interest and the peripheral pixel value is large, the pixel value weight becomes small. Edges are likely to be preserved in areas where the pixel value weight is small.

画素値重みを、対象画像とは別のコントロール画像によって求めることがある。画素値重みがコントロール画像に基づいて求められたフィルタは、ジョイントバイラテラルフィルタとよばれる。ジョイントバイラテラルフィルタは、クロスバイラテラルフィルタとよばれることもある。ジョイントバイラテラルフィルタは、例えば、特許文献1に開示されている。 The pixel value weight may be obtained from a control image different from the target image. A filter in which the pixel value weight is obtained based on the control image is called a joint bilateral filter. The joint bilateral filter is sometimes called a cross bilateral filter. The joint bilateral filter is disclosed in, for example, Patent Document 1.

特開2015−144423号公報JP 2015-144423

ジョイントバイラテラルフィルタは、対象画像がコントロール画像にないエッジを有する場合、そのエッジを十分に保存することができない。コントロール画像にないエッジにおいては、コントロール画像に基づく画素値重みは、十分に小さくならない。このため、対象画像におけるエッジは、周辺画素値の影響を大きく受けてぼやける。 If the target image has an edge that is not in the control image, the joint bilateral filter cannot sufficiently store that edge. At edges that are not in the control image, the pixel value weights based on the control image are not sufficiently small. Therefore, the edge in the target image is greatly affected by the peripheral pixel value and becomes blurred.

したがって、従来のジョイントバイラテラルフィルタの改善が望まれる。 Therefore, improvement of the conventional joint bilateral filter is desired.

本発明の一の態様において、フィルタは、注目画素値と周辺画素値との差に基づく画素値重みとして、コントロール画像に基づく第1重みだけでなく、対象画像に基づく第2重みをも含む。画素値重みとして、対象画像に基づく第2重みがあることで、対象画像のエッジがぼやけるのを抑制できる。 In one aspect of the present invention, the filter includes not only the first weight based on the control image but also the second weight based on the target image as the pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value. Since there is a second weight based on the target image as the pixel value weight, it is possible to suppress blurring of the edge of the target image.

撮像システムのブロック図である。It is a block diagram of an imaging system. トライラテラルフィルタにおける重みの求め方の説明図である。It is explanatory drawing of the method of obtaining the weight in a trilateral filter. バイラテラルフィルタにおける重みの求め方の説明図である。It is explanatory drawing of the method of obtaining the weight in a bilateral filter. バイラテラルフィルタリングの処理結果を示す画像である。It is an image which shows the processing result of bilateral filtering. 図4Aの画像のディザ画像である。It is a dither image of the image of FIG. 4A. 図4Aの画像の拡大画像である。It is an enlarged image of the image of FIG. 4A. 図5Aの画像のディザ画像である。It is a dither image of the image of FIG. 5A. バイラテラルフィルタリングとトライラテラルフィルタリングの処理結果を示す画像である。It is an image which shows the processing result of bilateral filtering and trilateral filtering. 図6Aの画像のディザ画像である。It is a dither image of the image of FIG. 6A. トライラテラルフィルタリングと局所トライラテラルフィルタリングの処理結果を示す画像である。It is an image which shows the processing result of trilateral filtering and local trilateral filtering. 図7Aの画像のディザ画像である。It is a dither image of the image of FIG. 7A.

[1.実施形態の概要] [1. Outline of Embodiment]

(1)実施形態に係る画像処理装置は、フィルタを対象画像に適用するフィルタリング処理を実行する。前記フィルタは、注目画素と周辺画素との距離に基づく空間重みと、注目画素値と周辺画素値との差に基づく画素値重みと、を含む。前記画素値重みは、前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、を含む。画素値重みとして、コントロール画像に基づく第1重みだけでなく、対象画像に基づく第2重もあることで、対象画像のエッジがぼやけるのを抑制できる。 (1) The image processing apparatus according to the embodiment executes a filtering process that applies a filter to a target image. The filter includes a spatial weight based on the distance between the pixel of interest and a peripheral pixel, and a pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value. The pixel value weights are the first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image, and the pixel value of interest and the periphery in the target image. Includes a second weight based on the difference from the pixel value. Since the pixel value weight includes not only the first weight based on the control image but also the second weight based on the target image, it is possible to suppress blurring of the edge of the target image.

(2)前記対象画像は、前記コントロール画像よりも低解像度の画像であり、前記フィルタリング処理は、画素数が前記コントロール画像に対応するように前記対象画像を変換する変換処理を含み、前記第2重みは、前記変換処理がなされた前記対象画像に基づいて求められ、前記フィルタは、前記変換処理がなされた前記対象画像に適用されるのが好ましい。この場合、対象画像の高解像度化が可能である。 (2) The target image is an image having a lower resolution than the control image, and the filtering process includes a conversion process for converting the target image so that the number of pixels corresponds to the control image, and the second The weight is determined based on the target image that has undergone the conversion process, and the filter is preferably applied to the target image that has undergone the conversion process. In this case, the resolution of the target image can be increased.

(3)前記コントロール画像は、可視光画像であり、前記対象画像は、赤外線画像であるのが好ましい。この場合、赤外線画像のエッジがぼやけるのを抑制できる。 (3) The control image is preferably a visible light image, and the target image is preferably an infrared image. In this case, blurring of the edges of the infrared image can be suppressed.

(4)前記コントロール画像は、可視光画像であり、前記対象画像は、前記可視光画像よりも低解像度の赤外線画像であり、前記フィルタリング処理は、画素数が前記可視光画像に対応するように前記赤外線画像を変換する変換処理を更に含み、前記第2重みは、前記変換処理がなされた前記遠赤外線画像に基づいて求められ、前記フィルタは、前記変換処理がなされた前記赤外線画像に適用されるのが好ましい。この場合、赤外線画像のエッジがぼやけるのを抑制しつつ、赤外線画像を高解像度化することができる。 (4) The control image is a visible light image, the target image is an infrared image having a resolution lower than that of the visible light image, and the filtering process is such that the number of pixels corresponds to the visible light image. Further including a conversion process for converting the infrared image, the second weight is obtained based on the far-infrared image to which the conversion process has been performed, and the filter is applied to the infrared image to which the conversion process has been performed. Is preferable. In this case, the resolution of the infrared image can be increased while suppressing blurring of the edges of the infrared image.

(5)前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定されるのが好ましい。この場合、よりフィルタリングがより適切となる。 (5) The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. preferable. In this case, filtering becomes more appropriate.

(6)前記第1重みは、局所的な前記相互関連性が高いほど大きく設定され、前記第2重みは、局所的な前記相互関連性が低いほど大きく設定されるのが好ましい。 (6) It is preferable that the first weight is set larger as the local interrelationship is higher, and the second weight is set larger as the local interrelationship is lower.

(7)実施形態に係る撮像システムは、対象画像及びコントロール画像を撮像する撮像部と、前記フィルタを前記対象画像に適用するフィルタリング処理を実行する画像処理装置と、を備える。 (7) The imaging system according to the embodiment includes an imaging unit that captures a target image and a control image, and an image processing device that executes a filtering process that applies the filter to the target image.

(8)実施形態に係る画像処理方法は、前記フィルタを対象画像に適用するフィルタリング処理を実行することを含む。 (8) The image processing method according to the embodiment includes executing a filtering process that applies the filter to the target image.

(9)実施形態に係るコンピュータプログラムは、前記フィルタを対象画像に適用するフィルタリング処理をコンピュータに実行させる。 (9) The computer program according to the embodiment causes the computer to execute a filtering process for applying the filter to the target image.

[2.実施形態の詳細] [2. Details of the embodiment]

[2.1 撮像システム] [2.1 Imaging system]

図1に示す撮像システム10は、撮像部20を備える。撮像部20は、複数の画像を出力する。複数の画像は、対象画像及びコントロール画像を含む。対象画像は、画像処理の対象となる画像である。コントロール画像は、フィルタ重みを求めるために用いられる画像である。コントロール画像は、対象画像と同じ撮像対象物を撮像した画像である。コントロール画像は、例えば、対象画像とは異なる撮像法で、対象画像と同じ撮像対象物を撮像した画像が用いられる。 The imaging system 10 shown in FIG. 1 includes an imaging unit 20. The imaging unit 20 outputs a plurality of images. The plurality of images include a target image and a control image. The target image is an image that is the target of image processing. The control image is an image used to obtain the filter weight. The control image is an image obtained by capturing the same image pickup object as the target image. As the control image, for example, an image obtained by capturing the same imaging target as the target image by an imaging method different from the target image is used.

対象画像とは異なる撮像法とは、例えば、コントロール画像に現れる撮像対象物に、対象画像に現れる撮像対象物とは何らかの相違が生じるような撮像法である。対象画像とは異なる撮像法とは、例えば、対象画像が可視光により像が検出された可視光画像であれば、赤外線により像を検出する撮像法である。対象画像とは異なる撮像法の他の例としては、例えば、対象画像が超音波画像であれば、核磁気共鳴画像法(MRI)である。 The imaging method different from the target image is, for example, an imaging method in which the imaging target appearing in the control image has some difference from the imaging target appearing in the target image. The imaging method different from the target image is, for example, an imaging method in which the image is detected by infrared rays if the target image is a visible light image whose image is detected by visible light. Another example of an imaging method different from the target image is, for example, magnetic resonance imaging (MRI) when the target image is an ultrasonic image.

撮像法の相違は、撮像条件の相違であってもよい。撮像条件の相違は、例えば、撮像時の光量の違いである。光量の違いは、例えば、フラッシュの有無又は環境光の相違によって生じることがある。撮像条件の相違は、例えば、撮像に用いられるレンズの違いであってもよい。レンズの相違は撮像によって得られる像の相違を生じさせる。 The difference in the imaging method may be the difference in the imaging conditions. The difference in imaging conditions is, for example, the difference in the amount of light during imaging. The difference in the amount of light may be caused by, for example, the presence or absence of a flash or the difference in ambient light. The difference in imaging conditions may be, for example, a difference in the lens used for imaging. Differences in lenses cause differences in the images obtained by imaging.

撮像部20は、1又は複数の撮像装置を有する。複数の撮像装置21,23を有する撮像部20は、例えば、アレイカメラとして構成される。複数の撮像装置21,23は、近接して配置され、同じ撮像対象物を撮像することができる。複数の撮像装置は、例えば、コントロール画像を撮像する撮像装置21と、対象画像を撮像する撮像装置23とを備える。 The image pickup unit 20 has one or more image pickup devices. The imaging unit 20 having a plurality of imaging devices 21 and 23 is configured as, for example, an array camera. The plurality of imaging devices 21 and 23 are arranged close to each other and can image the same imaging object. The plurality of imaging devices include, for example, an imaging device 21 for capturing a control image and an imaging device 23 for capturing a target image.

撮像装置21は、例えば、可視光カメラ21である。可視光カメラ21は、可視光に基づく撮像装置である、可視光カメラ21によって撮像された可視光画像は、肉眼で見える像と同様の像を有する。実施形態において、可視光画像は、コントロール画像として用いられる。 The image pickup device 21 is, for example, a visible light camera 21. The visible light camera 21 is an imaging device based on visible light. The visible light image captured by the visible light camera 21 has an image similar to that seen by the naked eye. In the embodiment, the visible light image is used as a control image.

撮像装置23は、例えば、赤外線カメラ23である。赤外線カメラ23は、赤外線に基づく撮像装置である。赤外線カメラ23によって撮像された赤外線画像は、撮像対象物からの赤外線を視覚化した画像である。赤外線画像は、サーマル画像とよばれることもある。実施形態において、赤外線画像は、対象画像として用いられる。 The image pickup device 23 is, for example, an infrared camera 23. The infrared camera 23 is an infrared imaging device. The infrared image captured by the infrared camera 23 is an image that visualizes infrared rays from an imaged object. Infrared images are sometimes called thermal images. In the embodiment, the infrared image is used as the target image.

赤外線は、赤外線は、波長が、約0.7μから1mmの範囲の電磁波である。赤外線は可視光よりも波長が長い。赤外線は、例えば、近赤外線、中赤外線及び遠赤外線に分類される。遠赤外線は、例えば、波長8〜14μmの電磁波である。赤外線カメラ23は、いずれの赤外線をとらえるものであってもよい。実施形態の赤外線カメラ23は、例えば、遠赤外線カメラである。遠赤外線カメラは、遠赤外線の強弱をとらえることができる。 Infrared rays are electromagnetic waves having a wavelength in the range of about 0.7 μ to 1 mm. Infrared has a longer wavelength than visible light. Infrared rays are classified into, for example, near infrared rays, mid infrared rays and far infrared rays. Far infrared rays are, for example, electromagnetic waves having a wavelength of 8 to 14 μm. The infrared camera 23 may capture any infrared ray. The infrared camera 23 of the embodiment is, for example, a far-infrared camera. A far-infrared camera can capture the strength of far-infrared rays.

赤外線カメラ23は可視光カメラ21よりも解像度が劣ることが多い。この結果、赤外線画像は、可視光画像よりも解像度が低いことが多い。特に遠赤外線カメラによって撮像された赤外線画像は解像度が低い。一方、可視光カメラは、CMOS技術の発展により、高解像度であり、比較的、低価格である。赤外線カメラは、低解像度であっても高価格であることが多く、十分に高い解像度を持つものは非常に高価である。とりわけ、遠赤外線カメラにおいてはその傾向が顕著である。 The infrared camera 23 is often inferior in resolution to the visible light camera 21. As a result, infrared images often have lower resolutions than visible light images. In particular, infrared images captured by far-infrared cameras have low resolution. Visible light cameras, on the other hand, have high resolution and are relatively inexpensive due to the development of CMOS technology. Infrared cameras are often expensive, even at low resolutions, and those with sufficiently high resolution are very expensive. This tendency is particularly remarkable in far-infrared cameras.

本実施形態では、高解像度であっても比較的安価である可視光カメラ21で撮像された画像をコントロール画像とし、可視光カメラ21よりも低解像度の遠赤外線カメラ23で撮像された画像を対象画像とする。低解像度の遠赤外線カメラ23の採用により、撮像システム10の高価格化を抑制できる。 In the present embodiment, the image captured by the visible light camera 21 which is relatively inexpensive even at high resolution is used as the control image, and the image captured by the far infrared camera 23 having a lower resolution than the visible light camera 21 is targeted. It is an image. By adopting the low-resolution far-infrared camera 23, it is possible to suppress the increase in price of the imaging system 10.

撮像部20は、複数の撮像装置21,23を有している必要はなく、一つの撮像装置だけを有していても良い。一つの撮像装置によって対象画像及びコントロール画像を撮像するには、前述の撮像条件を異ならせればよい。 The imaging unit 20 does not have to have a plurality of imaging devices 21 and 23, and may have only one imaging device. In order to capture the target image and the control image with one imaging device, the above-mentioned imaging conditions may be different.

図1に示すように、撮像システム10は、画像処理装置30を備える。画像処理装置30は、例えば、コンピュータを備える。コンピュータは、プロセッサ50及び記憶装置40を備える。プロセッサ50は、記憶装置40に格納されたコンピュータプログラムを実行する。コンピュータプログラムは、対象画像に対する画像処理をコンピュータに実行させるコードを含む。実施形態のコンピュータプログラムは、撮像部20による撮像を制御する処理をコンピュータに実行させるコードも含むことができる。 As shown in FIG. 1, the image pickup system 10 includes an image processing device 30. The image processing device 30 includes, for example, a computer. The computer includes a processor 50 and a storage device 40. The processor 50 executes a computer program stored in the storage device 40. The computer program contains code that causes the computer to perform image processing on the target image. The computer program of the embodiment may also include a code that causes the computer to execute a process of controlling imaging by the imaging unit 20.

記憶装置40は、コントロール画像の記憶領域41を有する。可視光カメラ21によって撮像されたコントロール画像は、記憶領域41に格納される。記憶装置40は、対象画像の記憶領域43を有する。赤外線カメラ23によって撮像された対象画像は、記憶領域43に格納される。記憶装置40は、対象画像に対する画像処理によって生成された生成画像の記憶領域45を有する。 The storage device 40 has a storage area 41 for a control image. The control image captured by the visible light camera 21 is stored in the storage area 41. The storage device 40 has a storage area 43 for the target image. The target image captured by the infrared camera 23 is stored in the storage area 43. The storage device 40 has a storage area 45 of the generated image generated by image processing on the target image.

プロセッサ50によって実行される画像処理は、フィルタリング処理51を含む。フィルタリング処理51において、プロセッサ50は、記憶領域43に格納された対象画像にフィルタを適用し、生成画像を生成する。プロセッサ50は、生成画像を、記憶領域45に格納する。 The image processing performed by the processor 50 includes a filtering process 51. In the filtering process 51, the processor 50 applies a filter to the target image stored in the storage area 43 to generate a generated image. The processor 50 stores the generated image in the storage area 45.

実施形態のフィルタは、複数のフィルタ重みを有して構成される。実施形態のフィルタは、コントロール画像及び対象画像に基づいて生成される。フィルタリング処理51の詳細は、後述する。 The filter of the embodiment is configured to have a plurality of filter weights. The filter of the embodiment is generated based on the control image and the target image. Details of the filtering process 51 will be described later.

[2.2 バイラテラルフィルタ(bilateral filter)] [2.2 bilateral filter]

以下では、実施形態のフィルタのベースとなったバイラテラルフィルタについて説明する。バイラテラルフィルタは、ガウス関数を用いた空間重み及び輝度値重みを有する。バイラテラルフィルタは、エッジを保存しつつ画像を平滑化する。バイラテラルフィルタを用いたフィルタリング処理は、例えば、次式で表される。
ここで、Iは、対象画像である。Fは、フィルタリングにより生成された画像である。pは注目画素である。qは周辺画素である。周辺画素pは、注目画素pの周辺領域に含まれる画素である。周辺画素は中心画素を含む。I(q)は対象画像Iの周辺画素qにおける画素値である。F(I(p))は、生成画像Fの注目画素pにおける画素値である。N(p)は、画素pの周辺領域の範囲を示す。N(p)は、式1Aにおける積和計算の範囲となる。
The bilateral filter on which the filter of the embodiment is based will be described below. The bilateral filter has a spatial weight and a luminance value weight using a Gaussian function. Bilateral filters smooth the image while preserving the edges. The filtering process using the bilateral filter is expressed by, for example, the following equation.
Here, I is a target image. F is an image generated by filtering. p is a pixel of interest. q is a peripheral pixel. The peripheral pixel p is a pixel included in the peripheral region of the pixel of interest p. The peripheral pixel includes the central pixel. I (q) is a pixel value in the peripheral pixel q of the target image I. F (I (p)) is a pixel value in the pixel of interest p of the generated image F. N (p) indicates the range of the peripheral region of the pixel p. N (p) is the range of the product-sum calculation in the formula 1A.

式1Aに示すバイラテラルフィルタは、注目画素pと周辺画素qとの距離に基づく空間重みWを有する。空間重みWは、例えば、次式によって求められる。空間重みWは、注目画素pと周辺画素qとの距離が大きくなるほど小さくなる。空間重みWによって、画像が平滑化される。
ここで、σは、重みWを決定するパラメータであり、分散を示す。
The bilateral filter represented by the formula 1A has a spatial weight W s based on the distance between the pixel of interest p and the peripheral pixel q. The spatial weight W s is obtained by, for example, the following equation. The spatial weight W s decreases as the distance between the pixel of interest p and the peripheral pixel q increases. The spatial weight W s smoothes the image.
Here, σ s is a parameter that determines the weight W s and indicates the variance.

式1Aに示すバイラテラルフィルタは、対象画像Iにおける注目画素値I(p)と周辺画素値I(p)との差に基づく画素値重みWを有する。画素値重みは、例えば、次式によって求められる。画素値重みWは、注目画素値I(p)と周辺画素値I(q)との差が大きくなるほど小さくなる。画素値重みWによって対象画像Iのエッジが保存される。
ここで、σは、重みWを決定するパラメータであり、分散を示す。
The bilateral filter represented by the formula 1A has a pixel value weight W c based on the difference between the pixel value I (p) of interest and the peripheral pixel value I (p) in the target image I. The pixel value weight is obtained by, for example, the following equation. The pixel value weight W c becomes smaller as the difference between the pixel value I (p) of interest and the peripheral pixel value I (q) becomes larger. The edge of the target image I is stored by the pixel value weight W c .
Here, σ c is a parameter that determines the weight W c , and indicates the variance.

バイラテラルフィルタを用いたフィルタリングでは、対象画像Iの周辺画素値I(q)に対して、空間重みWと画素値重みWとの積が掛けられ、複数の周辺画素qについての総和が求められる。 In filtering using a bilateral filter, the peripheral pixel value I (q) of the target image I is multiplied by the product of the spatial weight W s and the pixel value weight W c, and the sum of the plurality of peripheral pixels q is calculated. Desired.

式1AにおけるWは、正規化パラメータであり、次式のように、WとWの積和計算によって得られる。
W in the equation 1A is a normalization parameter, and is obtained by the product-sum calculation of W s and W c as in the following equation.

[2.3 ジョイントバイラテラルフィルタ(joint bilateral filter)]
対象画像Oとは別のコントロール画像Iに基づいて求めた重みW,Wの積が対象画像Oに対するフィルタリングに用いられるフィルタは、ジョイントバイラテラルフィルタとよばれる。ジョイントバイラテラルフィルタを用いたフィルタリング処理は、例えば、次式で表される。
ここで、Oは、対象画像である。Fは、フィルタリングによる生成画像である。pは注目画素である。qは周辺画素である。O(q)は対象画像Oの周辺画素qにおける画素値である。F(O(p))は、生成画像Fの注目画素pにおける画素値である。N(p)は、画素pの周辺領域の範囲を示す。N(p)は、式1Bにおける積和計算の範囲となる。
[2.3 joint bilateral filter]
A filter in which the product of weights W s and W c obtained based on a control image I different from the target image O is used for filtering the target image O is called a joint bilateral filter. The filtering process using the joint bilateral filter is expressed by, for example, the following equation.
Here, O is a target image. F is an image generated by filtering. p is a pixel of interest. q is a peripheral pixel. O (q) is a pixel value in the peripheral pixel q of the target image O. F (O (p)) is a pixel value in the pixel of interest p of the generated image F. N (p) indicates the range of the peripheral region of the pixel p. N (p) is the range of the product-sum calculation in Equation 1B.

式1Bにおいて、重みW,Wは、対象画像Oではなく、コントロール画像Iに基づいて求められる。式1Bにおいて、その他の点は、式1Aと同様である。 In the formula 1B, the weights W s and W c are obtained based on the control image I, not the target image O. The other points of the formula 1B are the same as those of the formula 1A.

ジョイントバイラテラルフィルタは、可視光画像などのコントロール画像に基づいて求められた重みW,Wを利用して、距離画像などの別の対象画像Oをフィルタリングするために用いられる。 The joint bilateral filter is used to filter another target image O such as a distance image by using the weights W s and W c obtained based on a control image such as a visible light image.

ジョイントバイラテラルフィルタを、高解像度のコントロール画像と低解像度の対象画像の組に適用すると、対象画像の解像度をコントロール画像の解像度まで高くすることができる。このような高解像度化処理をアップサンプリングとよぶ。アップサンプリングは、次式で表される。
ここで、Tは、高解像度のコントロール画像Iと低解像度の対象画像Oとの間の画素の対応関係を求める変換処理である。変換処理は、例えば、画素の補間処理によって行われる。変換処理が施された対象画像Oは、コントロール画像Iの画素数に対応した画素数を持つ。T(p)は、変換処理が施された対象画像Oにおける画素qの画素値である。式1Cにおいて、その他の点は、式1Bと同様である。
When a joint bilateral filter is applied to a pair of a high resolution control image and a low resolution target image, the resolution of the target image can be increased to the resolution of the control image. Such high resolution processing is called upsampling. Upsampling is expressed by the following equation.
Here, T is a conversion process for obtaining the pixel correspondence between the high-resolution control image I and the low-resolution target image O. The conversion process is performed by, for example, pixel interpolation processing. The target image O that has undergone the conversion process has a number of pixels corresponding to the number of pixels of the control image I. T (p) is the pixel value of the pixel q in the target image O that has undergone the conversion process. The other points of the formula 1C are the same as those of the formula 1B.

[2.4 トライラテラルフィルタ(trilateral filter)]
実施形態のフィルタは、コントロール画像Iから求めた重みW,Wだけでなく、対象画像Oから求めた重みWをも有する。重みWは、対象画像Oにおける注目画素値O(p)と周辺画素値O(q)との差に基づく重みである。重みWは、コントロール画像Iから求められるのに対し、重みWは、対象画像Oから求められる。以下、重みWを第1重みといい、重みWを第2重みということがある。
[2.4 trilateral filter]
The filter of the embodiment has not only the weights W s and W c obtained from the control image I, but also the weights W o obtained from the target image O. The weight W o is a weight based on the difference between the pixel value O (p) of interest and the peripheral pixel value O (q) in the target image O. The weight W c is obtained from the control image I, whereas the weight W o is obtained from the target image O. Hereinafter, the weight W c may be referred to as a first weight, and the weight W o may be referred to as a second weight.

以下では、実施形態のフィルタを、トライラテラルフィルタとよぶ。トライラテラルフィルタによるフィルタリング処理は、図1に示すフィルタリング処理51に対応し、例えば、次式で表される。
ここで、Oは、対象画像である。Fは、フィルタリングによる生成画像である。pは注目画素である。qは周辺画素である。Tは、高解像度のコントロール画像Iと低解像度の対象画像Qとの間の画素の対応関係を求める変換処理である。T(p)は、変換処理が施された対象画像Oにおける画素qの画素値である。O(T(q)は変換処理が施された対象画像Oの画素qにおける画素値である。F(O(p))は、生成画像Fの画素pにおける画素値である。N(p)は、画素pの周辺領域の範囲を示す。N(p)は、式1Dにおける積和計算の範囲となる。
Hereinafter, the filter of the embodiment is referred to as a trilateral filter. The filtering process by the trilateral filter corresponds to the filtering process 51 shown in FIG. 1, and is represented by, for example, the following equation.
Here, O is a target image. F is an image generated by filtering. p is a pixel of interest. q is a peripheral pixel. T is a conversion process for obtaining the pixel correspondence between the high-resolution control image I and the low-resolution target image Q. T (p) is the pixel value of the pixel q in the target image O that has undergone the conversion process. O (T (q) is the pixel value in the pixel q of the target image O that has undergone the conversion process. F (O (p)) is the pixel value in the pixel p of the generated image F. N (p). Indicates the range of the peripheral region of the pixel p. N (p) is the range of the product-sum calculation in the equation 1D.

式1Dに示すフィルタは、低解像度の対象画像に対する変換処理Tを含む。変換処理Tによって、低解像度の対象画像Oの画素数を、高解像度のコントロール画像Iに対応させることができる。ただし、トライラテラルフィルタは、変換処理Tを含まなくても良い。 The filter represented by the formula 1D includes a conversion process T for a low-resolution target image. By the conversion process T, the number of pixels of the low-resolution target image O can be made to correspond to the high-resolution control image I. However, the trilateral filter does not have to include the conversion process T.

図2に示すように、式1Dにおける空間重みWは、コントロール画像Iに基づき、式2によって求められる。式1Dにおける輝度値重みである第1重みWは、コントロール画像Iに基づき、式3によって求められる。なお、空間重みWは、変換処理Tが施された対象画像Oに基づいて求められても良い。 As shown in FIG. 2, the spatial weight W s in the equation 1D is obtained by the equation 2 based on the control image I. The first weight W c , which is the luminance value weight in the formula 1D, is obtained by the formula 3 based on the control image I. The spatial weight W s may be obtained based on the target image O subjected to the conversion process T.

図2に示すように、式1Dにおける他の輝度値重みである第2重みWは、対象画像Oに基づき、次式によって求められる。第2重みWは、対象画像Oの注目画素値O(T(p))と周辺画素値O(T(q))との差が大きくなるほど小さくなる。第2重みWによって、対象画像Oのエッジがぼやけるのを防止できる。
ここで、σは、重みWを決定するパラメータであり、分散を示す。
As shown in FIG. 2, the second weight W o is the other brightness value weights in Formula 1D, based on the object image O, obtained by the following equation. The second weight Wo becomes smaller as the difference between the attention pixel value O (T (p)) of the target image O and the peripheral pixel value O (T (q)) becomes larger. The second weight W o, it is possible to prevent the edge of the object image O is blurred.
Here, σ o is a parameter that determines the weight W o , and indicates the variance.

プロセッサ50は、σの値を設定する処理を行うことができる。プロセッサ50は、σ,σの値を設定する処理を行うこともできる。プロセッサ50は、重みWと重みWの大きさのバランスを調整する処理を行うこともできる。重みWを大きくすれば、フィルタリングの際に、コントロール画像Iの効きがより強くなり、重みWを大きくすれば、フィルタリングの際に、対象画像Iの効きがより強くなる。重みWと重みWの大きさのバランス調整は、例えば、σ,σの値を調整することで行われても良いし、重みに調整用の係数を掛けることで行われても良い。重みWと重みWのバランスの調整は、画像毎に行われても良いし、画像中の画素毎又は画像中の部分領域毎に局所的に行われても良い。 The processor 50 can perform a process of setting a value of σ 0 . The processor 50 can also perform a process of setting the values of σ s and σ c . The processor 50 can also perform a process of adjusting the balance between the sizes of the weight W c and the weight W o . By increasing the weight W c, during filtering, will effectiveness is stronger control image I, by increasing the weight W o, during filtering, effectiveness of the target image I becomes stronger. The balance adjustment between the weight W c and the size of the weight W o may be performed by, for example, adjusting the values of σ c and σ o , or by multiplying the weight by a coefficient for adjustment. good. The balance between the weight W c and the weight W o may be adjusted for each image, or may be locally performed for each pixel in the image or for each partial region in the image.

トライラテラルフィルタを用いたフィルタリング処理51では、対象画像Oの周辺画素値O(T(q))に対して、空間重みWと第1重みWと第2重みWとの積が掛けられ、複数の周辺画素qについての総和が求められる積和計算が行われる。 In the filtering process 51 using the trilateral filter, the product of the spatial weight W s , the first weight W c, and the second weight W o is multiplied by the peripheral pixel value O (T (q)) of the target image O. Then, a product-sum calculation is performed to obtain the sum of the plurality of peripheral pixels q.

式1DにおけるWは、正規化パラメータであり、次式のように、WとWとWとの積和計算によって得られる。フィルタリング処理51では、Wによって、空間重みWと第1重みWと第2重みWの積和計算結果が正規化される。正規化された値が、生成画像における画素pの画素値となる。
W in Equation 1D is a normalized parameter, and is obtained by multiply-accumulate calculation of W s , W c, and W o as in the following equation. In the filtering process 51, W normalizes the product-sum calculation result of the spatial weight W s , the first weight W c, and the second weight W o . The normalized value becomes the pixel value of pixel p in the generated image.

図3は、バイラテラルフィルタにおける重みW,Wの求め方を示している。図2と図3との対比からも明らかなように、トライラテラルフィルタは、ジョイントバイラテラルフィルタに、対象画像Oから求めた輝度値重みWを追加したものである。対象画像Oから求めた輝度値重みWは、対象画像Oのエッジを保存するように機能するため、生成画像のエッジがぼやけるのを防止できる。 FIG. 3 shows how to obtain the weights W s and W c in the bilateral filter. As is apparent from comparison between FIGS. 2 and 3, the tri-lateral filter, the joint bilateral filter is obtained by adding the luminance value weight W o, determined from the target image O. Luminance value weight W o, determined from the target image O is to function to store edge of the object image O, it is possible to prevent the edge of the generated image is blurred.

式1Dにおける第2重みWは、対象画像から求められた輝度値重みであるという点で、式1Aに示すバイラテラルフィルタにおける輝度値重みWと共通する。また、式1Dにおける空間重みWも、式1Aに示すバイラテラルフィルタにおける空間重みWと同様ものである。したがって、式1Dに示すトライラテラルフィルタは、式1Cに示すジョイントバイラテラルフィルタと、式1Aに示すバイラテラルフィルタとを融合したものであると考えることができる。 The second weight W o in formula 1D, in that a luminance value weights obtained from the target image, in common with the luminance value weight W c in bilateral filter shown in Equation 1A. Also, space weighting W s in Formula 1D also, those similar to the spatial weight W s in bilateral filter shown in Equation 1A. Therefore, the trilateral filter represented by the formula 1D can be considered to be a fusion of the joint bilateral filter represented by the formula 1C and the bilateral filter represented by the formula 1A.

ジョイントバイラテラルフィルタは、対象画像がコントロール画像にないエッジを有する場合、生成画像において対象画像のエッジを保存することができず、生成画像が部分的に対象画像からかけ離れたものとなることがある。しかし、トライラテラルフィルタは、対象画像Oのエッジを保存するように機能する輝度値重みWを有するため、コントロール画像にないエッジがぼやけるのを抑制する。この結果、生成画像が対象画像から大きくかけ離れることを抑制できる。しかも、トライラテラルフィルタは、ジョイントバイラテラルフィルタに基づいているため、ジョイントバイラテラルフィルタとしての機能も期待できる。 The joint bilateral filter cannot save the edge of the target image in the generated image when the target image has an edge that is not in the control image, and the generated image may be partially separated from the target image. .. However, tri-lateral filter, because it has a luminance value weight W o which function to store the edge of the object image O, restrain the blurred no edge in the control image. As a result, it is possible to prevent the generated image from being significantly separated from the target image. Moreover, since the trilateral filter is based on the joint bilateral filter, it can be expected to function as a joint bilateral filter.

図4A及び図5Aは、ジョイントバイラテラルフィルタによるフィルタリング処理結果の例を示している。図4Aに示すコントロール画像Iは、可視光カメラ21で撮像された高解像度のカラー可視光画像である。撮像対象物は、ある建物の屋上である。図4Aに示す対象画像Oは、同じ撮像対象物を赤外線カメラ23で撮像した赤外線画像である。赤外線画像は、可視光画像よりも低解像度である。 4A and 5A show an example of the filtering processing result by the joint bilateral filter. The control image I shown in FIG. 4A is a high-resolution color visible light image captured by the visible light camera 21. The object to be imaged is the roof of a building. The target image O shown in FIG. 4A is an infrared image obtained by capturing the same imaging target with the infrared camera 23. Infrared images have a lower resolution than visible light images.

図5Aに示す画像I,O,Fは、図4Aに示す画像I,O,Fの拡大画像である。図5Aにおけるコントロール画像Iの領域Aに着目すると、コントロール画像Iでは、屋上面と、屋上面に建てられた構造物の屋根と、は同じ色であり、両者の境界にはエッジが存在しない。これに対して、対象画像Oの領域Bに着目すると、屋上面と、屋上面に建てられた構造物の屋根と、では温度が異なるため、赤外線画像としては、両者に濃淡差が生じ、両者の境界にエッジが存在する。 The images I, O, and F shown in FIG. 5A are enlarged images of the images I, O, and F shown in FIG. 4A. Focusing on the region A of the control image I in FIG. 5A, in the control image I, the roof surface and the roof of the structure built on the roof surface have the same color, and there is no edge at the boundary between the two. On the other hand, focusing on the region B of the target image O, since the temperatures of the roof surface and the roof of the structure built on the roof surface are different, there is a difference in shade between the two as an infrared image. There is an edge at the boundary of.

領域A及び領域Bは撮像対象物における同じ領域であるにもかかわらず、撮像法の違いにより、コントロール画像Iの領域Aではエッジが存在せず、対象画像Oの領域Bではエッジが存在する。このようなコントロール画像Iから求めた重みW,Wを有するジョイントバイラテラルフィルタを対象画像Oに適用すると、図5Aにおける生成画像Fの領域Cに示すように、対象画像Oの領域Bに存在していたエッジが、エッジを有しないコントロール画像Iに引きずられて、ぼやけてしまう。 Although the area A and the area B are the same area in the image pickup object, the edge does not exist in the area A of the control image I and the edge exists in the area B of the target image O due to the difference in the imaging method. When a joint bilateral filter having weights W s and W c obtained from the control image I is applied to the target image O, as shown in the region C of the generated image F in FIG. 5A, the region B of the target image O is covered. The existing edge is dragged by the control image I having no edge and becomes blurred.

図6Aは、バイラテラルフィルタリングによる生成画像102a,102bと、トライラテラルフィルタリングによる生成画像103a,103bとを示している。生成画像102b及び生成画像103bは、それぞれ、生成画像102a及び生成画像103aの拡大画像である。バイラテラルフィルタリングによる生成画像102bの領域Cでは、エッジがぼやけているのに対して、トライラテラルフィルタリングによる生成画像103bの領域Dでは、エッジが保存されている。 FIG. 6A shows the images 102a and 102b generated by bilateral filtering and the images 103a and 103b generated by trilateral filtering. The generated image 102b and the generated image 103b are enlarged images of the generated image 102a and the generated image 103a, respectively. The edge is blurred in the region C of the generated image 102b by bilateral filtering, whereas the edge is preserved in the region D of the generated image 103b by trilateral filtering.

このようにジョイントバイラテラルフィルタでは、低解像度の赤外線画像を高解像度の可視光画像を用いて高解像度化すると、適切な高解像度化が行えないことがあるのに対して、実施形態のトライラテラルフィルタリングでは、低解像度の赤外線画像を適切に高解像度化することができる。実施形態のトライラテラルフィルタリングを利用すると、比較的安価な低解像度の赤外線カメラ23を用いて、高解像度の赤外線画像が得られるため、非常に高価な高解像度の赤外線カメラを用いる必要がなく有利である。 As described above, in the joint bilateral filter, when the low resolution infrared image is increased in resolution by using the high resolution visible light image, it may not be possible to achieve an appropriate high resolution, whereas the trilateral of the embodiment is used. Filtering can appropriately increase the resolution of low-resolution infrared images. When the trilateral filtering of the embodiment is used, a high-resolution infrared image can be obtained by using a relatively inexpensive low-resolution infrared camera 23, which is advantageous because it is not necessary to use a very expensive high-resolution infrared camera. is there.

なお、図4B,図5B及び図6B中の画像は、図4A,図5A及び図6A中の画像それぞれに対して、ディザリング(Dithering)処理を施して2値のディザ画像としたものである。ディザリング処理を行うことは、本発明及びその実施形態とは無関係である。権限を有する機関による本願の公開に際して、仮に図4A,図5A及び図6A中の画像に劣化が生じた場合であっても、図4B,図5B及び図6Bによって、第三者が画像を認識できるようにすることが意図されている。後述の図7Bも図7Aのディザ画像であり、同様の意図に基づくものである。 The images in FIGS. 4B, 5B and 6B are dithered images obtained by subjecting the images in FIGS. 4A, 5A and 6A to dithering processing. .. Performing the dithering process is irrelevant to the present invention and its embodiments. At the time of publication of the present application by an authorized institution, even if the images in FIGS. 4A, 5A and 6A are deteriorated, a third party recognizes the images according to FIGS. 4B, 5B and 6B. It is intended to be able to. FIG. 7B, which will be described later, is also a dither image of FIG. 7A, and is based on the same intention.

さて、トライラテラルフィルタによるフィルタリング処理は、ベクトル値を持つ対象画像Oにも適用できる。ベクトル値を持つ対象画像Oへのトライラテラルフィルタリングは、例えば、次式で表される。式1Eに関し、特に説明しない点は、式1Dと同様である。
By the way, the filtering process by the trilateral filter can be applied to the target image O having a vector value. Trilateral filtering to the target image O having a vector value is expressed by, for example, the following equation. The points not particularly described with respect to the formula 1E are the same as those of the formula 1D.

式1Eにおける第2重みWは、対象画像Oに基づき、次式によって求められる。
The second weight W o in Formula 1E, based on the object image O, obtained by the following equation.

[2.4 局所トライラテラルフィルタ(local trilateral filter)]
式1Eに示すトライラテラルフィルタでは、対象画像Oに基づく第2重みWによるフィルタリングも行われるため、対象画像Oの空間解像度が低い場合、空間解像度の向上には限界が生じる。そこで、トライラテラルフィルタにおける第1重みW及び第2重みWの大きさのバランスを、画像上の場所(座標)に応じて局所的に変更すると、例えば、生成画像Fにおける空間解像度をより向上させて、よりシャープな画像を得ることができる。画像上の場所に応じて第1重みW及び第2重みWの大きさのバランスが変更されるトライラテラルフィルタを、局所トライラテラルフィルタという。局所トライラテラルフィルタは、コントロール画像と解像度が同じ対象画像に適用してもよい。
[2.4 local trilateral filter]
The tri-lateral filter shown in Formula 1E, to be done also filtered by the second weight W o based on object image O, if the spatial resolution of the object image O is low, the limit occurs in the improvement of the spatial resolution. Therefore, if the balance between the sizes of the first weight W c and the second weight W o in the trilateral filter is locally changed according to the location (coordinates) on the image, for example, the spatial resolution in the generated image F can be increased. It can be improved to obtain a sharper image. A trilateral filter in which the balance between the sizes of the first weight W c and the second weight W o is changed according to the location on the image is called a local trilateral filter. The local trilateral filter may be applied to a target image having the same resolution as the control image.

実施形態の局所トライラテラルフィルタを用いたフィルタリング処理51では、第1重みW及び第2重みWのバランスは、コントロール画像Iと対象画像Oとの局所的な相互関連性に基づいて設定される。局所的な相互関連性とは、2つの画像I,Oの局所的な領域における、2つの画像I,O相互の関連性をいう。局所的な領域は、1又は複数の画素からなる範囲である。局所的な相互関連性としては、例えば、コントロール画像Iと対象画像Oとの局所相互情報量が用いられる。 The filtering process 51 using local tri lateral filter embodiments, the balance of the first weight W c and the second weight W o is set based on local correlation of the control image I and target image O To. The local interrelationship refers to the reciprocity between the two images I and O in the local region of the two images I and O. The local region is a range consisting of one or more pixels. As the local mutual relationship, for example, the amount of local mutual information between the control image I and the target image O is used.

2つの画像Ix及び画像Iyの画素pにおける局所相互情報量μXY(p)は、例えば、次式で定義される。
ここで、N(p)は画素Pの近傍系、PXY(I(q),I(q))は画素値I(q),I(q)の同時生起確率、P(I(q)),P(I(q))は、それぞれ、画素値I(q),I(q)の生起確率である。
The local mutual information μ XY (p) in the pixels p of the two images Ix and the image Iy is defined by, for example, the following equation.
Here, N (p) is a neighborhood system of the pixel P, and PXY ( IX (q), I Y (q)) is the simultaneous occurrence probability of the pixel values IX (q) and YY (q), P X. ( IX (q)) and P Y (I Y (q)) are the occurrence probabilities of the pixel values IX (q) and YY (q), respectively.

プロセッサ50は、フィルタリング処理において、各画素pについて、コントロール画像Iと対象画像Oとの局所相互情報量μcoを求める。ある注目画素pにおいて、コントロール画像Iと対象画像Oとの局所相互情報量μcoが大きければ、その注目画素p付近においては、二つの画像I,O間で相互関連性が高い。相互関連性が高ければ、コントロール画像Iの効き方を強めても問題はない。したがって、ある注目画素pにおいて局所相互情報量μcoが大きければ、プロセッサ50は、コントロール画像Iに基づく第1重みWのほうが大きくなるように、注目画素pにおける両重みW,Wの大きさのバランスを設定する。 The processor 50, in the filtering process, for each pixel p, determine local mutual information mu co of the control image I and target image O. In certain target pixel p, the greater the local mutual information mu co of the control image I and target image O, in the vicinity of the target pixel p, high interconnectedness between two images I, O. If the interrelationship is high, there is no problem even if the effect of the control image I is strengthened. Therefore, if the local mutual information μ co is large in a certain pixel of interest p, the processor 50 has the weights W c and W o of both weights W c and W o in the pixel of interest p so that the first weight W c based on the control image I is larger. Set the size balance.

一方、ある注目画素pにおいて、コントロール画像Iと対象画像Oとの局所相互情報量が小さければ、その注目画素p付近においては、二つの画像I,O間で相互関連性が低い。相互関連性が低ければ、コントロール画像Iの効き方を弱めて対象画像Oの効き方を強めるべきである。したがって、ある注目画素pにおいて局所相互情報量μcoが小さければ、プロセッサ50は、対象画像Oに基づく第2重みWのほうが大きくなるように、注目画素pにおける両重みW,Wの大きさのバランスを設定する。 On the other hand, if the amount of local mutual information between the control image I and the target image O is small in a certain pixel of interest p, the interrelationship between the two images I and O is low in the vicinity of the pixel of interest p. If the interrelationship is low, the effectiveness of the control image I should be weakened and the effectiveness of the target image O should be strengthened. Therefore, if the local mutual information μ co is small in a certain pixel of interest p, the processor 50 has the two weights W c and W o of the pixel of interest p so that the second weight W o based on the target image O is larger. Set the size balance.

重みW,Wの大きさのバランス調整は、前述のように、例えば、プロセッサ50がパラメータσ,σの値を調整する処理を実行することで行える。パラメータσ,σの値の調整は、画素毎に行われても良いし、複数の画素を含む部分領域毎に行われても良い。σ,σの値の調整は、例えば、パラメータσ,σを、相互関連性の関数とすることで行われる。より具体的には、σ,σの値の調整は、パラメータσ,σを、相互情報量μcoの関数σ(μco),σ(μco)とすることで行える。 The balance adjustment of the magnitudes of the weights W c and W o can be performed, for example, by the processor 50 executing a process of adjusting the values of the parameters σ c and σ o as described above. The values of the parameters σ c and σ o may be adjusted for each pixel, or may be adjusted for each partial region including a plurality of pixels. Adjustment of the values of σ c and σ o is performed, for example, by using the parameters σ c and σ o as a function of interrelationship. More specifically, the values of σ c and σ o can be adjusted by setting the parameters σ c and σ o to the functions σ cco ) and σ oco ) of the mutual information amount μ co. ..

関数σ(μco)は、局所相互情報量μcoが大きくなれば、関数σ(μco)の値が小さくなり、局所相互情報量μcoが小さくなれば、関数σ(μco)の値が大きくなるものとすればよい。関数σ(μco)は、局所相互情報量μcoが大きくなれば、関数σ(μco)の値が大きく、局所相互情報量μcoが小さくなれば、関数σ(μco)の値が小さくなる。 Function σ cco) is the larger the local mutual information mu co, the value of the function σ cco) decreases, the smaller the local mutual information mu co, function σ cco ) May be large. Function σ oco) is the larger the local mutual information mu co, increase the value of the function σ oco) is, the smaller the local mutual information mu co, function σ oco) The value of becomes smaller.

換言すると、局所相互情報量μcoが大きくなれば、関数σ(μco)の値が小さくなり、関数σ(μco)の値が大きくなる。これにより、コントロール画像Iに基づく第1重みWのほうが大きくなる。また、局所相互情報量μcoが小さくなれば、関数σ(μco)の値が大きくなり、関数σ(μco)の値が小さくなる。これにより、対象画像Oに基づく第2重みWのほうが大きくなる。 In other words, as the local mutual information μ co increases, the value of the function σ cco ) decreases, and the value of the function σ oco ) increases. As a result, the first weight W c based on the control image I becomes larger. Further, as the local mutual information μ co decreases, the value of the function σ cco ) increases and the value of the function σ oco ) decreases. Thus, more of the second weight W o based on object image O becomes large.

相互情報量の関数であるパラメータσ,σの一例を以下に示す。相互情報量の関数であるパラメータσ,σの計算方法は、以下のものに限られない。以下において、σrO,σgO,σbOは、それぞれ、カラーコントロール画像Iの赤、緑、青チャネルr,g,b毎のパラメータである。σrC,σgC,σbCは、それぞれ、カラーコントロール画像Iの赤、緑、青チャネルr,g,b毎のパラメータである。
ここで、μro,μgo,μboは、それぞれ、カラーコントロール画像Iの赤、緑、青チャネルの画像I,I,Iそれぞれと対象画像Oとの局所相互情報量を表している。
An example of parameters σ C and σ O , which are functions of mutual information, is shown below. The calculation method of the parameters σ C and σ O , which are functions of mutual information, is not limited to the following. In the following, σ rO , σ gO , and σ bO are parameters for each of the red, green, and blue channels r, g, and b of the color control image I, respectively. σ rC , σ gC , and σ bC are parameters for each of the red, green, and blue channels r, g, and b of the color control image I, respectively.
Here, μ ro, μ go, μ bo , respectively, represent the red color control image I, green, image I r and blue channels, I g, the local mutual information between I b, respectively and the target image O There is.

式8〜式10に示すように、パラメータσrO,σgO,σbOは、それぞれ、μrO,μgo,μbOの関数となっている。第2重みWのためのパラメータσは、色チャネルr,g,b毎に求められたパラメータσrO,σgO,σbOに基づき、式11のように求められる。 As shown in Equations 8 to 10, the parameters σ rO , σ gO , and σ bO are functions of μ rO , μ go , and μ bO , respectively. Parameter sigma O for the second weight W O is the color channel r, g, the parameters found for b σ rO, σ gO, based on sigma bO, determined as in equation 11.

式8〜式10に示すように、パラメータσrC,σgC,σbCも、それぞれ、μrO,μgo,μbOの関数となっている。第1重みWは、色チャネルr,g,b毎に求められたパラメータσrC,σgC,σbCに基づき、次式によって求められる。
As shown in Equations 8 to 10, the parameters σ rC , σ gC , and σ bC are also functions of μ rO , μ go , and μ bO , respectively. The first weight W c is obtained by the following equation based on the parameters σ rC , σ gC , and σ bC obtained for each of the color channels r, g, and b.

図7Aは、トライラテラルフィルタリングによる生成画像103a,103b,103cと、局所トライラテラルフィルタリングによる生成画像104a,104b,104cとを示している。生成画像103b及び生成画像104bは、それぞれ、生成画像103a,104aの拡大画像である。生成画像103c,104cは、それぞれ、生成画像103b及び生成画像104bの拡大画像である。 FIG. 7A shows the images 103a, 103b, 103c generated by trilateral filtering and the images 104a, 104b, 104c generated by local trilateral filtering. The generated image 103b and the generated image 104b are enlarged images of the generated images 103a and 104a, respectively. The generated images 103c and 104c are enlarged images of the generated image 103b and the generated image 104b, respectively.

局所トライラテラルフィルタリングによる生成画像104cの領域Eでは、トライラテラルフィルタリングによる生成画像103bの領域Dに比べて、エッジがよりシャープになっており、空間解像度が向上している。 In the region E of the image 104c generated by the local trilateral filtering, the edges are sharper and the spatial resolution is improved as compared with the region D of the image 103b generated by the trilateral filtering.

[3.付記]
本発明は、前述の実施形態に限定されるものではなく、様々な変形が可能である。
[3. Addendum]
The present invention is not limited to the above-described embodiment, and various modifications are possible.

10 撮像システム
20 撮像部
21 可視光カメラ
23 赤外線カメラ
30 画像処理装置
40 記憶装置
41 コントロール画像の記憶領域
43 対象画像の記憶領域
45 生成画像の記憶領域
50 プロセッサ
51 フィルタリング処理
102a,102b 生成画像
103a,103b,103c 生成画像
104a,104b,104c 生成画像
O 対象画像
I コントロール画像
10 Imaging system 20 Imaging unit 21 Visible light camera 23 Infrared camera 30 Image processing device 40 Storage device 41 Control image storage area 43 Target image storage area 45 Generated image storage area 50 Processor 51 Filtering process 102a, 102b Generated image 103a, 103b, 103c Generated image 104a, 104b, 104c Generated image O Target image I Control image

Claims (8)

フィルタを対象画像に適用するフィルタリング処理を実行する画像処理装置であって、
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
画像処理装置。
An image processing device that executes filtering processing that applies a filter to a target image.
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
An image processing device in which the first weight and the second weight are set based on the interrelationship between the control image and the target image in a local region to which the first weight and the second weight are applied .
前記対象画像は、前記コントロール画像よりも低解像度の画像であり、
前記フィルタリング処理は、画素数が前記コントロール画像に対応するように前記対象画像を変換する変換処理を含み、
前記第2重みは、前記変換処理がなされた前記対象画像に基づいて求められ、
前記フィルタは、前記変換処理がなされた前記対象画像に適用される
請求項1に記載の画像処理装置。
The target image is an image having a lower resolution than the control image.
The filtering process includes a conversion process of converting the target image so that the number of pixels corresponds to the control image.
The second weight is obtained based on the target image that has undergone the conversion process.
The image processing apparatus according to claim 1, wherein the filter is applied to the target image to which the conversion process has been performed.
前記コントロール画像は、可視光画像であり、
前記対象画像は、赤外線画像である
請求項1に記載の画像処理装置。
The control image is a visible light image and is
The image processing apparatus according to claim 1, wherein the target image is an infrared image.
前記コントロール画像は、可視光画像であり、
前記対象画像は、前記可視光画像よりも低解像度の赤外線画像であり、
前記フィルタリング処理は、画素数が前記可視光画像に対応するように前記赤外線画像を変換する変換処理を更に含み、
前記第2重みは、前記変換処理がなされた前記赤外線画像に基づいて求められ、
前記フィルタは、前記変換処理がなされた前記赤外線画像に適用される
請求項1に記載の画像処理装置。
The control image is a visible light image and is
The target image is an infrared image having a resolution lower than that of the visible light image.
The filtering process further includes a conversion process for converting the infrared image so that the number of pixels corresponds to the visible light image.
The second weight, the conversion processing is determined based on Kiaka external image before was made,
The image processing apparatus according to claim 1, wherein the filter is applied to the infrared image that has undergone the conversion process.
前記第1重みは、局所的な前記相互関連性が高いほど大きく設定され、
前記第2重みは、局所的な前記相互関連性が低いほど大きく設定される
請求項1〜4のいずれか1項に記載の画像処理装置。
The first weight is set larger as the local interrelationship is higher.
The image processing apparatus according to any one of claims 1 to 4, wherein the second weight is set larger as the local interrelationship is lower.
対象画像及びコントロール画像を撮像する撮像部と、
フィルタを前記対象画像に適用するフィルタリング処理を実行する画像処理装置と、
を備え、
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記コントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
撮像システム。
An imaging unit that captures the target image and control image,
An image processing device that executes a filtering process that applies a filter to the target image, and
With
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. system.
フィルタを対象画像に適用するフィルタリング処理を実行することを含む画像処理方法であって、
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
画像処理方法。
An image processing method that includes performing a filtering process that applies a filter to a target image.
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. Processing method.
フィルタを対象画像に適用するフィルタリング処理をコンピュータに実行させるコンピュータプログラムであって、
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
コンピュータプログラム。
A computer program that causes a computer to perform a filtering process that applies a filter to a target image.
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. program.
JP2016130865A 2016-06-30 2016-06-30 Image processing equipment, imaging system, image processing method and computer program Active JP6806356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016130865A JP6806356B2 (en) 2016-06-30 2016-06-30 Image processing equipment, imaging system, image processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130865A JP6806356B2 (en) 2016-06-30 2016-06-30 Image processing equipment, imaging system, image processing method and computer program

Publications (2)

Publication Number Publication Date
JP2018005518A JP2018005518A (en) 2018-01-11
JP6806356B2 true JP6806356B2 (en) 2021-01-06

Family

ID=60946391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130865A Active JP6806356B2 (en) 2016-06-30 2016-06-30 Image processing equipment, imaging system, image processing method and computer program

Country Status (1)

Country Link
JP (1) JP6806356B2 (en)

Also Published As

Publication number Publication date
JP2018005518A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP4571670B2 (en) Method, system, program module and computer program product for restoration of color components in an image model
JP5222472B2 (en) Image processing apparatus, image restoration method, and program
JP5651118B2 (en) Image processing apparatus and image processing method
WO2018037521A1 (en) Image processing method, image processing apparatus, image capture apparatus, image processing program, and storage medium
US8340417B2 (en) Image processing method and apparatus for correcting skin color
WO2014125659A1 (en) Image processing device, image capture device, filter generating device, image restoration method, and program
WO2011096157A1 (en) Imaging device and method, and image processing method for imaging device
JP2009207118A (en) Image shooting apparatus and blur correction method
JP2008016029A (en) Apparatus and method for correcting edge
JP6711396B2 (en) Image processing device, imaging device, image processing method, and program
WO2011099239A1 (en) Imaging device and method, and image processing method for imaging device
US8942477B2 (en) Image processing apparatus, image processing method, and program
WO2016051716A1 (en) Image processing method, image processing device, and recording medium for storing image processing program
JP6520920B2 (en) Image processing device
JP6806356B2 (en) Image processing equipment, imaging system, image processing method and computer program
JP2017076240A (en) Image processing apparatus, image processing method, and program
JP6957665B2 (en) Image processing equipment, image processing methods and programs
JP2019045981A (en) Image processing apparatus, image processing method, and program
JP6331339B2 (en) Imaging apparatus, imaging system including the imaging apparatus, and false color removal method
US9154716B2 (en) Image processing apparatus and method for smoothing pixel values according to a divergence of pixel candidates
JP5832095B2 (en) Image processing apparatus, image processing method, and program
JP2017130167A (en) Image processing device, imaging device, and image processing program
JP6929185B2 (en) Image processing equipment and image processing methods, programs, storage media
WO2016063452A1 (en) Image processing apparatus, image pickup apparatus, image processing system, and image processing process
JP2017130168A (en) Image processing device, imaging device, and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201127

R150 Certificate of patent or registration of utility model

Ref document number: 6806356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250