JP6806356B2 - Image processing equipment, imaging system, image processing method and computer program - Google Patents
Image processing equipment, imaging system, image processing method and computer program Download PDFInfo
- Publication number
- JP6806356B2 JP6806356B2 JP2016130865A JP2016130865A JP6806356B2 JP 6806356 B2 JP6806356 B2 JP 6806356B2 JP 2016130865 A JP2016130865 A JP 2016130865A JP 2016130865 A JP2016130865 A JP 2016130865A JP 6806356 B2 JP6806356 B2 JP 6806356B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- weight
- pixel value
- target image
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 57
- 238000004590 computer program Methods 0.000 title claims description 6
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims description 57
- 238000001914 filtration Methods 0.000 claims description 51
- 230000002093 peripheral effect Effects 0.000 claims description 46
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000002146 bilateral effect Effects 0.000 description 39
- 238000004364 calculation method Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Description
本発明は、画像処理に関する。 The present invention relates to image processing.
フィルタリング処理によって対象画像の画質を改善する画像処理として、バイラテラルフィルタを用いた処理が知られている。バイラテラルフィルタは、画像中のエッジを保存しつつ画像を平滑化することができる。バイラテラルフィルタは、注目画素と周辺画素との距離に基づく空間重みと、注目画素値と周辺画素値との差に基づく画素値重みとを含む。注目画素値と周辺画素値との差は、エッジのある箇所のように画素値間の差が大きくなる箇所で生じる。注目画素値と周辺画素値との差が大きいと、画素値重みは小さくなる。画素値重みが小さい部分では、エッジが保存されやすい。 As an image process for improving the image quality of a target image by a filtering process, a process using a bilateral filter is known. Bilateral filters can smooth an image while preserving the edges in the image. The bilateral filter includes a spatial weight based on the distance between the pixel of interest and a peripheral pixel, and a pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value. The difference between the pixel value of interest and the peripheral pixel value occurs in a place where the difference between the pixel values becomes large, such as a place having an edge. When the difference between the pixel value of interest and the peripheral pixel value is large, the pixel value weight becomes small. Edges are likely to be preserved in areas where the pixel value weight is small.
画素値重みを、対象画像とは別のコントロール画像によって求めることがある。画素値重みがコントロール画像に基づいて求められたフィルタは、ジョイントバイラテラルフィルタとよばれる。ジョイントバイラテラルフィルタは、クロスバイラテラルフィルタとよばれることもある。ジョイントバイラテラルフィルタは、例えば、特許文献1に開示されている。 The pixel value weight may be obtained from a control image different from the target image. A filter in which the pixel value weight is obtained based on the control image is called a joint bilateral filter. The joint bilateral filter is sometimes called a cross bilateral filter. The joint bilateral filter is disclosed in, for example, Patent Document 1.
ジョイントバイラテラルフィルタは、対象画像がコントロール画像にないエッジを有する場合、そのエッジを十分に保存することができない。コントロール画像にないエッジにおいては、コントロール画像に基づく画素値重みは、十分に小さくならない。このため、対象画像におけるエッジは、周辺画素値の影響を大きく受けてぼやける。 If the target image has an edge that is not in the control image, the joint bilateral filter cannot sufficiently store that edge. At edges that are not in the control image, the pixel value weights based on the control image are not sufficiently small. Therefore, the edge in the target image is greatly affected by the peripheral pixel value and becomes blurred.
したがって、従来のジョイントバイラテラルフィルタの改善が望まれる。 Therefore, improvement of the conventional joint bilateral filter is desired.
本発明の一の態様において、フィルタは、注目画素値と周辺画素値との差に基づく画素値重みとして、コントロール画像に基づく第1重みだけでなく、対象画像に基づく第2重みをも含む。画素値重みとして、対象画像に基づく第2重みがあることで、対象画像のエッジがぼやけるのを抑制できる。 In one aspect of the present invention, the filter includes not only the first weight based on the control image but also the second weight based on the target image as the pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value. Since there is a second weight based on the target image as the pixel value weight, it is possible to suppress blurring of the edge of the target image.
[1.実施形態の概要] [1. Outline of Embodiment]
(1)実施形態に係る画像処理装置は、フィルタを対象画像に適用するフィルタリング処理を実行する。前記フィルタは、注目画素と周辺画素との距離に基づく空間重みと、注目画素値と周辺画素値との差に基づく画素値重みと、を含む。前記画素値重みは、前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、を含む。画素値重みとして、コントロール画像に基づく第1重みだけでなく、対象画像に基づく第2重もあることで、対象画像のエッジがぼやけるのを抑制できる。 (1) The image processing apparatus according to the embodiment executes a filtering process that applies a filter to a target image. The filter includes a spatial weight based on the distance between the pixel of interest and a peripheral pixel, and a pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value. The pixel value weights are the first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image, and the pixel value of interest and the periphery in the target image. Includes a second weight based on the difference from the pixel value. Since the pixel value weight includes not only the first weight based on the control image but also the second weight based on the target image, it is possible to suppress blurring of the edge of the target image.
(2)前記対象画像は、前記コントロール画像よりも低解像度の画像であり、前記フィルタリング処理は、画素数が前記コントロール画像に対応するように前記対象画像を変換する変換処理を含み、前記第2重みは、前記変換処理がなされた前記対象画像に基づいて求められ、前記フィルタは、前記変換処理がなされた前記対象画像に適用されるのが好ましい。この場合、対象画像の高解像度化が可能である。 (2) The target image is an image having a lower resolution than the control image, and the filtering process includes a conversion process for converting the target image so that the number of pixels corresponds to the control image, and the second The weight is determined based on the target image that has undergone the conversion process, and the filter is preferably applied to the target image that has undergone the conversion process. In this case, the resolution of the target image can be increased.
(3)前記コントロール画像は、可視光画像であり、前記対象画像は、赤外線画像であるのが好ましい。この場合、赤外線画像のエッジがぼやけるのを抑制できる。 (3) The control image is preferably a visible light image, and the target image is preferably an infrared image. In this case, blurring of the edges of the infrared image can be suppressed.
(4)前記コントロール画像は、可視光画像であり、前記対象画像は、前記可視光画像よりも低解像度の赤外線画像であり、前記フィルタリング処理は、画素数が前記可視光画像に対応するように前記赤外線画像を変換する変換処理を更に含み、前記第2重みは、前記変換処理がなされた前記遠赤外線画像に基づいて求められ、前記フィルタは、前記変換処理がなされた前記赤外線画像に適用されるのが好ましい。この場合、赤外線画像のエッジがぼやけるのを抑制しつつ、赤外線画像を高解像度化することができる。 (4) The control image is a visible light image, the target image is an infrared image having a resolution lower than that of the visible light image, and the filtering process is such that the number of pixels corresponds to the visible light image. Further including a conversion process for converting the infrared image, the second weight is obtained based on the far-infrared image to which the conversion process has been performed, and the filter is applied to the infrared image to which the conversion process has been performed. Is preferable. In this case, the resolution of the infrared image can be increased while suppressing blurring of the edges of the infrared image.
(5)前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定されるのが好ましい。この場合、よりフィルタリングがより適切となる。 (5) The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. preferable. In this case, filtering becomes more appropriate.
(6)前記第1重みは、局所的な前記相互関連性が高いほど大きく設定され、前記第2重みは、局所的な前記相互関連性が低いほど大きく設定されるのが好ましい。 (6) It is preferable that the first weight is set larger as the local interrelationship is higher, and the second weight is set larger as the local interrelationship is lower.
(7)実施形態に係る撮像システムは、対象画像及びコントロール画像を撮像する撮像部と、前記フィルタを前記対象画像に適用するフィルタリング処理を実行する画像処理装置と、を備える。 (7) The imaging system according to the embodiment includes an imaging unit that captures a target image and a control image, and an image processing device that executes a filtering process that applies the filter to the target image.
(8)実施形態に係る画像処理方法は、前記フィルタを対象画像に適用するフィルタリング処理を実行することを含む。 (8) The image processing method according to the embodiment includes executing a filtering process that applies the filter to the target image.
(9)実施形態に係るコンピュータプログラムは、前記フィルタを対象画像に適用するフィルタリング処理をコンピュータに実行させる。 (9) The computer program according to the embodiment causes the computer to execute a filtering process for applying the filter to the target image.
[2.実施形態の詳細] [2. Details of the embodiment]
[2.1 撮像システム] [2.1 Imaging system]
図1に示す撮像システム10は、撮像部20を備える。撮像部20は、複数の画像を出力する。複数の画像は、対象画像及びコントロール画像を含む。対象画像は、画像処理の対象となる画像である。コントロール画像は、フィルタ重みを求めるために用いられる画像である。コントロール画像は、対象画像と同じ撮像対象物を撮像した画像である。コントロール画像は、例えば、対象画像とは異なる撮像法で、対象画像と同じ撮像対象物を撮像した画像が用いられる。 The imaging system 10 shown in FIG. 1 includes an imaging unit 20. The imaging unit 20 outputs a plurality of images. The plurality of images include a target image and a control image. The target image is an image that is the target of image processing. The control image is an image used to obtain the filter weight. The control image is an image obtained by capturing the same image pickup object as the target image. As the control image, for example, an image obtained by capturing the same imaging target as the target image by an imaging method different from the target image is used.
対象画像とは異なる撮像法とは、例えば、コントロール画像に現れる撮像対象物に、対象画像に現れる撮像対象物とは何らかの相違が生じるような撮像法である。対象画像とは異なる撮像法とは、例えば、対象画像が可視光により像が検出された可視光画像であれば、赤外線により像を検出する撮像法である。対象画像とは異なる撮像法の他の例としては、例えば、対象画像が超音波画像であれば、核磁気共鳴画像法(MRI)である。 The imaging method different from the target image is, for example, an imaging method in which the imaging target appearing in the control image has some difference from the imaging target appearing in the target image. The imaging method different from the target image is, for example, an imaging method in which the image is detected by infrared rays if the target image is a visible light image whose image is detected by visible light. Another example of an imaging method different from the target image is, for example, magnetic resonance imaging (MRI) when the target image is an ultrasonic image.
撮像法の相違は、撮像条件の相違であってもよい。撮像条件の相違は、例えば、撮像時の光量の違いである。光量の違いは、例えば、フラッシュの有無又は環境光の相違によって生じることがある。撮像条件の相違は、例えば、撮像に用いられるレンズの違いであってもよい。レンズの相違は撮像によって得られる像の相違を生じさせる。 The difference in the imaging method may be the difference in the imaging conditions. The difference in imaging conditions is, for example, the difference in the amount of light during imaging. The difference in the amount of light may be caused by, for example, the presence or absence of a flash or the difference in ambient light. The difference in imaging conditions may be, for example, a difference in the lens used for imaging. Differences in lenses cause differences in the images obtained by imaging.
撮像部20は、1又は複数の撮像装置を有する。複数の撮像装置21,23を有する撮像部20は、例えば、アレイカメラとして構成される。複数の撮像装置21,23は、近接して配置され、同じ撮像対象物を撮像することができる。複数の撮像装置は、例えば、コントロール画像を撮像する撮像装置21と、対象画像を撮像する撮像装置23とを備える。 The image pickup unit 20 has one or more image pickup devices. The imaging unit 20 having a plurality of imaging devices 21 and 23 is configured as, for example, an array camera. The plurality of imaging devices 21 and 23 are arranged close to each other and can image the same imaging object. The plurality of imaging devices include, for example, an imaging device 21 for capturing a control image and an imaging device 23 for capturing a target image.
撮像装置21は、例えば、可視光カメラ21である。可視光カメラ21は、可視光に基づく撮像装置である、可視光カメラ21によって撮像された可視光画像は、肉眼で見える像と同様の像を有する。実施形態において、可視光画像は、コントロール画像として用いられる。 The image pickup device 21 is, for example, a visible light camera 21. The visible light camera 21 is an imaging device based on visible light. The visible light image captured by the visible light camera 21 has an image similar to that seen by the naked eye. In the embodiment, the visible light image is used as a control image.
撮像装置23は、例えば、赤外線カメラ23である。赤外線カメラ23は、赤外線に基づく撮像装置である。赤外線カメラ23によって撮像された赤外線画像は、撮像対象物からの赤外線を視覚化した画像である。赤外線画像は、サーマル画像とよばれることもある。実施形態において、赤外線画像は、対象画像として用いられる。 The image pickup device 23 is, for example, an infrared camera 23. The infrared camera 23 is an infrared imaging device. The infrared image captured by the infrared camera 23 is an image that visualizes infrared rays from an imaged object. Infrared images are sometimes called thermal images. In the embodiment, the infrared image is used as the target image.
赤外線は、赤外線は、波長が、約0.7μから1mmの範囲の電磁波である。赤外線は可視光よりも波長が長い。赤外線は、例えば、近赤外線、中赤外線及び遠赤外線に分類される。遠赤外線は、例えば、波長8〜14μmの電磁波である。赤外線カメラ23は、いずれの赤外線をとらえるものであってもよい。実施形態の赤外線カメラ23は、例えば、遠赤外線カメラである。遠赤外線カメラは、遠赤外線の強弱をとらえることができる。 Infrared rays are electromagnetic waves having a wavelength in the range of about 0.7 μ to 1 mm. Infrared has a longer wavelength than visible light. Infrared rays are classified into, for example, near infrared rays, mid infrared rays and far infrared rays. Far infrared rays are, for example, electromagnetic waves having a wavelength of 8 to 14 μm. The infrared camera 23 may capture any infrared ray. The infrared camera 23 of the embodiment is, for example, a far-infrared camera. A far-infrared camera can capture the strength of far-infrared rays.
赤外線カメラ23は可視光カメラ21よりも解像度が劣ることが多い。この結果、赤外線画像は、可視光画像よりも解像度が低いことが多い。特に遠赤外線カメラによって撮像された赤外線画像は解像度が低い。一方、可視光カメラは、CMOS技術の発展により、高解像度であり、比較的、低価格である。赤外線カメラは、低解像度であっても高価格であることが多く、十分に高い解像度を持つものは非常に高価である。とりわけ、遠赤外線カメラにおいてはその傾向が顕著である。 The infrared camera 23 is often inferior in resolution to the visible light camera 21. As a result, infrared images often have lower resolutions than visible light images. In particular, infrared images captured by far-infrared cameras have low resolution. Visible light cameras, on the other hand, have high resolution and are relatively inexpensive due to the development of CMOS technology. Infrared cameras are often expensive, even at low resolutions, and those with sufficiently high resolution are very expensive. This tendency is particularly remarkable in far-infrared cameras.
本実施形態では、高解像度であっても比較的安価である可視光カメラ21で撮像された画像をコントロール画像とし、可視光カメラ21よりも低解像度の遠赤外線カメラ23で撮像された画像を対象画像とする。低解像度の遠赤外線カメラ23の採用により、撮像システム10の高価格化を抑制できる。 In the present embodiment, the image captured by the visible light camera 21 which is relatively inexpensive even at high resolution is used as the control image, and the image captured by the far infrared camera 23 having a lower resolution than the visible light camera 21 is targeted. It is an image. By adopting the low-resolution far-infrared camera 23, it is possible to suppress the increase in price of the imaging system 10.
撮像部20は、複数の撮像装置21,23を有している必要はなく、一つの撮像装置だけを有していても良い。一つの撮像装置によって対象画像及びコントロール画像を撮像するには、前述の撮像条件を異ならせればよい。 The imaging unit 20 does not have to have a plurality of imaging devices 21 and 23, and may have only one imaging device. In order to capture the target image and the control image with one imaging device, the above-mentioned imaging conditions may be different.
図1に示すように、撮像システム10は、画像処理装置30を備える。画像処理装置30は、例えば、コンピュータを備える。コンピュータは、プロセッサ50及び記憶装置40を備える。プロセッサ50は、記憶装置40に格納されたコンピュータプログラムを実行する。コンピュータプログラムは、対象画像に対する画像処理をコンピュータに実行させるコードを含む。実施形態のコンピュータプログラムは、撮像部20による撮像を制御する処理をコンピュータに実行させるコードも含むことができる。 As shown in FIG. 1, the image pickup system 10 includes an image processing device 30. The image processing device 30 includes, for example, a computer. The computer includes a processor 50 and a storage device 40. The processor 50 executes a computer program stored in the storage device 40. The computer program contains code that causes the computer to perform image processing on the target image. The computer program of the embodiment may also include a code that causes the computer to execute a process of controlling imaging by the imaging unit 20.
記憶装置40は、コントロール画像の記憶領域41を有する。可視光カメラ21によって撮像されたコントロール画像は、記憶領域41に格納される。記憶装置40は、対象画像の記憶領域43を有する。赤外線カメラ23によって撮像された対象画像は、記憶領域43に格納される。記憶装置40は、対象画像に対する画像処理によって生成された生成画像の記憶領域45を有する。 The storage device 40 has a storage area 41 for a control image. The control image captured by the visible light camera 21 is stored in the storage area 41. The storage device 40 has a storage area 43 for the target image. The target image captured by the infrared camera 23 is stored in the storage area 43. The storage device 40 has a storage area 45 of the generated image generated by image processing on the target image.
プロセッサ50によって実行される画像処理は、フィルタリング処理51を含む。フィルタリング処理51において、プロセッサ50は、記憶領域43に格納された対象画像にフィルタを適用し、生成画像を生成する。プロセッサ50は、生成画像を、記憶領域45に格納する。 The image processing performed by the processor 50 includes a filtering process 51. In the filtering process 51, the processor 50 applies a filter to the target image stored in the storage area 43 to generate a generated image. The processor 50 stores the generated image in the storage area 45.
実施形態のフィルタは、複数のフィルタ重みを有して構成される。実施形態のフィルタは、コントロール画像及び対象画像に基づいて生成される。フィルタリング処理51の詳細は、後述する。 The filter of the embodiment is configured to have a plurality of filter weights. The filter of the embodiment is generated based on the control image and the target image. Details of the filtering process 51 will be described later.
[2.2 バイラテラルフィルタ(bilateral filter)] [2.2 bilateral filter]
以下では、実施形態のフィルタのベースとなったバイラテラルフィルタについて説明する。バイラテラルフィルタは、ガウス関数を用いた空間重み及び輝度値重みを有する。バイラテラルフィルタは、エッジを保存しつつ画像を平滑化する。バイラテラルフィルタを用いたフィルタリング処理は、例えば、次式で表される。
式1Aに示すバイラテラルフィルタは、注目画素pと周辺画素qとの距離に基づく空間重みWsを有する。空間重みWsは、例えば、次式によって求められる。空間重みWsは、注目画素pと周辺画素qとの距離が大きくなるほど小さくなる。空間重みWsによって、画像が平滑化される。
式1Aに示すバイラテラルフィルタは、対象画像Iにおける注目画素値I(p)と周辺画素値I(p)との差に基づく画素値重みWcを有する。画素値重みは、例えば、次式によって求められる。画素値重みWcは、注目画素値I(p)と周辺画素値I(q)との差が大きくなるほど小さくなる。画素値重みWcによって対象画像Iのエッジが保存される。
バイラテラルフィルタを用いたフィルタリングでは、対象画像Iの周辺画素値I(q)に対して、空間重みWsと画素値重みWcとの積が掛けられ、複数の周辺画素qについての総和が求められる。 In filtering using a bilateral filter, the peripheral pixel value I (q) of the target image I is multiplied by the product of the spatial weight W s and the pixel value weight W c, and the sum of the plurality of peripheral pixels q is calculated. Desired.
式1AにおけるWは、正規化パラメータであり、次式のように、WsとWcの積和計算によって得られる。
[2.3 ジョイントバイラテラルフィルタ(joint bilateral filter)]
対象画像Oとは別のコントロール画像Iに基づいて求めた重みWs,Wcの積が対象画像Oに対するフィルタリングに用いられるフィルタは、ジョイントバイラテラルフィルタとよばれる。ジョイントバイラテラルフィルタを用いたフィルタリング処理は、例えば、次式で表される。
A filter in which the product of weights W s and W c obtained based on a control image I different from the target image O is used for filtering the target image O is called a joint bilateral filter. The filtering process using the joint bilateral filter is expressed by, for example, the following equation.
式1Bにおいて、重みWs,Wcは、対象画像Oではなく、コントロール画像Iに基づいて求められる。式1Bにおいて、その他の点は、式1Aと同様である。 In the formula 1B, the weights W s and W c are obtained based on the control image I, not the target image O. The other points of the formula 1B are the same as those of the formula 1A.
ジョイントバイラテラルフィルタは、可視光画像などのコントロール画像に基づいて求められた重みWs,Wcを利用して、距離画像などの別の対象画像Oをフィルタリングするために用いられる。 The joint bilateral filter is used to filter another target image O such as a distance image by using the weights W s and W c obtained based on a control image such as a visible light image.
ジョイントバイラテラルフィルタを、高解像度のコントロール画像と低解像度の対象画像の組に適用すると、対象画像の解像度をコントロール画像の解像度まで高くすることができる。このような高解像度化処理をアップサンプリングとよぶ。アップサンプリングは、次式で表される。
[2.4 トライラテラルフィルタ(trilateral filter)]
実施形態のフィルタは、コントロール画像Iから求めた重みWs,Wcだけでなく、対象画像Oから求めた重みWoをも有する。重みWoは、対象画像Oにおける注目画素値O(p)と周辺画素値O(q)との差に基づく重みである。重みWcは、コントロール画像Iから求められるのに対し、重みWoは、対象画像Oから求められる。以下、重みWcを第1重みといい、重みWoを第2重みということがある。
[2.4 trilateral filter]
The filter of the embodiment has not only the weights W s and W c obtained from the control image I, but also the weights W o obtained from the target image O. The weight W o is a weight based on the difference between the pixel value O (p) of interest and the peripheral pixel value O (q) in the target image O. The weight W c is obtained from the control image I, whereas the weight W o is obtained from the target image O. Hereinafter, the weight W c may be referred to as a first weight, and the weight W o may be referred to as a second weight.
以下では、実施形態のフィルタを、トライラテラルフィルタとよぶ。トライラテラルフィルタによるフィルタリング処理は、図1に示すフィルタリング処理51に対応し、例えば、次式で表される。
式1Dに示すフィルタは、低解像度の対象画像に対する変換処理Tを含む。変換処理Tによって、低解像度の対象画像Oの画素数を、高解像度のコントロール画像Iに対応させることができる。ただし、トライラテラルフィルタは、変換処理Tを含まなくても良い。 The filter represented by the formula 1D includes a conversion process T for a low-resolution target image. By the conversion process T, the number of pixels of the low-resolution target image O can be made to correspond to the high-resolution control image I. However, the trilateral filter does not have to include the conversion process T.
図2に示すように、式1Dにおける空間重みWsは、コントロール画像Iに基づき、式2によって求められる。式1Dにおける輝度値重みである第1重みWcは、コントロール画像Iに基づき、式3によって求められる。なお、空間重みWsは、変換処理Tが施された対象画像Oに基づいて求められても良い。 As shown in FIG. 2, the spatial weight W s in the equation 1D is obtained by the equation 2 based on the control image I. The first weight W c , which is the luminance value weight in the formula 1D, is obtained by the formula 3 based on the control image I. The spatial weight W s may be obtained based on the target image O subjected to the conversion process T.
図2に示すように、式1Dにおける他の輝度値重みである第2重みWoは、対象画像Oに基づき、次式によって求められる。第2重みWoは、対象画像Oの注目画素値O(T(p))と周辺画素値O(T(q))との差が大きくなるほど小さくなる。第2重みWoによって、対象画像Oのエッジがぼやけるのを防止できる。
プロセッサ50は、σ0の値を設定する処理を行うことができる。プロセッサ50は、σs,σcの値を設定する処理を行うこともできる。プロセッサ50は、重みWcと重みWoの大きさのバランスを調整する処理を行うこともできる。重みWcを大きくすれば、フィルタリングの際に、コントロール画像Iの効きがより強くなり、重みWoを大きくすれば、フィルタリングの際に、対象画像Iの効きがより強くなる。重みWcと重みWoの大きさのバランス調整は、例えば、σc,σoの値を調整することで行われても良いし、重みに調整用の係数を掛けることで行われても良い。重みWcと重みWoのバランスの調整は、画像毎に行われても良いし、画像中の画素毎又は画像中の部分領域毎に局所的に行われても良い。 The processor 50 can perform a process of setting a value of σ 0 . The processor 50 can also perform a process of setting the values of σ s and σ c . The processor 50 can also perform a process of adjusting the balance between the sizes of the weight W c and the weight W o . By increasing the weight W c, during filtering, will effectiveness is stronger control image I, by increasing the weight W o, during filtering, effectiveness of the target image I becomes stronger. The balance adjustment between the weight W c and the size of the weight W o may be performed by, for example, adjusting the values of σ c and σ o , or by multiplying the weight by a coefficient for adjustment. good. The balance between the weight W c and the weight W o may be adjusted for each image, or may be locally performed for each pixel in the image or for each partial region in the image.
トライラテラルフィルタを用いたフィルタリング処理51では、対象画像Oの周辺画素値O(T(q))に対して、空間重みWsと第1重みWcと第2重みWoとの積が掛けられ、複数の周辺画素qについての総和が求められる積和計算が行われる。 In the filtering process 51 using the trilateral filter, the product of the spatial weight W s , the first weight W c, and the second weight W o is multiplied by the peripheral pixel value O (T (q)) of the target image O. Then, a product-sum calculation is performed to obtain the sum of the plurality of peripheral pixels q.
式1DにおけるWは、正規化パラメータであり、次式のように、WsとWcとWoとの積和計算によって得られる。フィルタリング処理51では、Wによって、空間重みWsと第1重みWcと第2重みWoの積和計算結果が正規化される。正規化された値が、生成画像における画素pの画素値となる。
図3は、バイラテラルフィルタにおける重みWs,Wcの求め方を示している。図2と図3との対比からも明らかなように、トライラテラルフィルタは、ジョイントバイラテラルフィルタに、対象画像Oから求めた輝度値重みWoを追加したものである。対象画像Oから求めた輝度値重みWoは、対象画像Oのエッジを保存するように機能するため、生成画像のエッジがぼやけるのを防止できる。 FIG. 3 shows how to obtain the weights W s and W c in the bilateral filter. As is apparent from comparison between FIGS. 2 and 3, the tri-lateral filter, the joint bilateral filter is obtained by adding the luminance value weight W o, determined from the target image O. Luminance value weight W o, determined from the target image O is to function to store edge of the object image O, it is possible to prevent the edge of the generated image is blurred.
式1Dにおける第2重みWoは、対象画像から求められた輝度値重みであるという点で、式1Aに示すバイラテラルフィルタにおける輝度値重みWcと共通する。また、式1Dにおける空間重みWsも、式1Aに示すバイラテラルフィルタにおける空間重みWsと同様ものである。したがって、式1Dに示すトライラテラルフィルタは、式1Cに示すジョイントバイラテラルフィルタと、式1Aに示すバイラテラルフィルタとを融合したものであると考えることができる。 The second weight W o in formula 1D, in that a luminance value weights obtained from the target image, in common with the luminance value weight W c in bilateral filter shown in Equation 1A. Also, space weighting W s in Formula 1D also, those similar to the spatial weight W s in bilateral filter shown in Equation 1A. Therefore, the trilateral filter represented by the formula 1D can be considered to be a fusion of the joint bilateral filter represented by the formula 1C and the bilateral filter represented by the formula 1A.
ジョイントバイラテラルフィルタは、対象画像がコントロール画像にないエッジを有する場合、生成画像において対象画像のエッジを保存することができず、生成画像が部分的に対象画像からかけ離れたものとなることがある。しかし、トライラテラルフィルタは、対象画像Oのエッジを保存するように機能する輝度値重みWoを有するため、コントロール画像にないエッジがぼやけるのを抑制する。この結果、生成画像が対象画像から大きくかけ離れることを抑制できる。しかも、トライラテラルフィルタは、ジョイントバイラテラルフィルタに基づいているため、ジョイントバイラテラルフィルタとしての機能も期待できる。 The joint bilateral filter cannot save the edge of the target image in the generated image when the target image has an edge that is not in the control image, and the generated image may be partially separated from the target image. .. However, tri-lateral filter, because it has a luminance value weight W o which function to store the edge of the object image O, restrain the blurred no edge in the control image. As a result, it is possible to prevent the generated image from being significantly separated from the target image. Moreover, since the trilateral filter is based on the joint bilateral filter, it can be expected to function as a joint bilateral filter.
図4A及び図5Aは、ジョイントバイラテラルフィルタによるフィルタリング処理結果の例を示している。図4Aに示すコントロール画像Iは、可視光カメラ21で撮像された高解像度のカラー可視光画像である。撮像対象物は、ある建物の屋上である。図4Aに示す対象画像Oは、同じ撮像対象物を赤外線カメラ23で撮像した赤外線画像である。赤外線画像は、可視光画像よりも低解像度である。 4A and 5A show an example of the filtering processing result by the joint bilateral filter. The control image I shown in FIG. 4A is a high-resolution color visible light image captured by the visible light camera 21. The object to be imaged is the roof of a building. The target image O shown in FIG. 4A is an infrared image obtained by capturing the same imaging target with the infrared camera 23. Infrared images have a lower resolution than visible light images.
図5Aに示す画像I,O,Fは、図4Aに示す画像I,O,Fの拡大画像である。図5Aにおけるコントロール画像Iの領域Aに着目すると、コントロール画像Iでは、屋上面と、屋上面に建てられた構造物の屋根と、は同じ色であり、両者の境界にはエッジが存在しない。これに対して、対象画像Oの領域Bに着目すると、屋上面と、屋上面に建てられた構造物の屋根と、では温度が異なるため、赤外線画像としては、両者に濃淡差が生じ、両者の境界にエッジが存在する。 The images I, O, and F shown in FIG. 5A are enlarged images of the images I, O, and F shown in FIG. 4A. Focusing on the region A of the control image I in FIG. 5A, in the control image I, the roof surface and the roof of the structure built on the roof surface have the same color, and there is no edge at the boundary between the two. On the other hand, focusing on the region B of the target image O, since the temperatures of the roof surface and the roof of the structure built on the roof surface are different, there is a difference in shade between the two as an infrared image. There is an edge at the boundary of.
領域A及び領域Bは撮像対象物における同じ領域であるにもかかわらず、撮像法の違いにより、コントロール画像Iの領域Aではエッジが存在せず、対象画像Oの領域Bではエッジが存在する。このようなコントロール画像Iから求めた重みWs,Wcを有するジョイントバイラテラルフィルタを対象画像Oに適用すると、図5Aにおける生成画像Fの領域Cに示すように、対象画像Oの領域Bに存在していたエッジが、エッジを有しないコントロール画像Iに引きずられて、ぼやけてしまう。 Although the area A and the area B are the same area in the image pickup object, the edge does not exist in the area A of the control image I and the edge exists in the area B of the target image O due to the difference in the imaging method. When a joint bilateral filter having weights W s and W c obtained from the control image I is applied to the target image O, as shown in the region C of the generated image F in FIG. 5A, the region B of the target image O is covered. The existing edge is dragged by the control image I having no edge and becomes blurred.
図6Aは、バイラテラルフィルタリングによる生成画像102a,102bと、トライラテラルフィルタリングによる生成画像103a,103bとを示している。生成画像102b及び生成画像103bは、それぞれ、生成画像102a及び生成画像103aの拡大画像である。バイラテラルフィルタリングによる生成画像102bの領域Cでは、エッジがぼやけているのに対して、トライラテラルフィルタリングによる生成画像103bの領域Dでは、エッジが保存されている。 FIG. 6A shows the images 102a and 102b generated by bilateral filtering and the images 103a and 103b generated by trilateral filtering. The generated image 102b and the generated image 103b are enlarged images of the generated image 102a and the generated image 103a, respectively. The edge is blurred in the region C of the generated image 102b by bilateral filtering, whereas the edge is preserved in the region D of the generated image 103b by trilateral filtering.
このようにジョイントバイラテラルフィルタでは、低解像度の赤外線画像を高解像度の可視光画像を用いて高解像度化すると、適切な高解像度化が行えないことがあるのに対して、実施形態のトライラテラルフィルタリングでは、低解像度の赤外線画像を適切に高解像度化することができる。実施形態のトライラテラルフィルタリングを利用すると、比較的安価な低解像度の赤外線カメラ23を用いて、高解像度の赤外線画像が得られるため、非常に高価な高解像度の赤外線カメラを用いる必要がなく有利である。 As described above, in the joint bilateral filter, when the low resolution infrared image is increased in resolution by using the high resolution visible light image, it may not be possible to achieve an appropriate high resolution, whereas the trilateral of the embodiment is used. Filtering can appropriately increase the resolution of low-resolution infrared images. When the trilateral filtering of the embodiment is used, a high-resolution infrared image can be obtained by using a relatively inexpensive low-resolution infrared camera 23, which is advantageous because it is not necessary to use a very expensive high-resolution infrared camera. is there.
なお、図4B,図5B及び図6B中の画像は、図4A,図5A及び図6A中の画像それぞれに対して、ディザリング(Dithering)処理を施して2値のディザ画像としたものである。ディザリング処理を行うことは、本発明及びその実施形態とは無関係である。権限を有する機関による本願の公開に際して、仮に図4A,図5A及び図6A中の画像に劣化が生じた場合であっても、図4B,図5B及び図6Bによって、第三者が画像を認識できるようにすることが意図されている。後述の図7Bも図7Aのディザ画像であり、同様の意図に基づくものである。 The images in FIGS. 4B, 5B and 6B are dithered images obtained by subjecting the images in FIGS. 4A, 5A and 6A to dithering processing. .. Performing the dithering process is irrelevant to the present invention and its embodiments. At the time of publication of the present application by an authorized institution, even if the images in FIGS. 4A, 5A and 6A are deteriorated, a third party recognizes the images according to FIGS. 4B, 5B and 6B. It is intended to be able to. FIG. 7B, which will be described later, is also a dither image of FIG. 7A, and is based on the same intention.
さて、トライラテラルフィルタによるフィルタリング処理は、ベクトル値を持つ対象画像Oにも適用できる。ベクトル値を持つ対象画像Oへのトライラテラルフィルタリングは、例えば、次式で表される。式1Eに関し、特に説明しない点は、式1Dと同様である。
式1Eにおける第2重みWoは、対象画像Oに基づき、次式によって求められる。
[2.4 局所トライラテラルフィルタ(local trilateral filter)]
式1Eに示すトライラテラルフィルタでは、対象画像Oに基づく第2重みWoによるフィルタリングも行われるため、対象画像Oの空間解像度が低い場合、空間解像度の向上には限界が生じる。そこで、トライラテラルフィルタにおける第1重みWc及び第2重みWoの大きさのバランスを、画像上の場所(座標)に応じて局所的に変更すると、例えば、生成画像Fにおける空間解像度をより向上させて、よりシャープな画像を得ることができる。画像上の場所に応じて第1重みWc及び第2重みWoの大きさのバランスが変更されるトライラテラルフィルタを、局所トライラテラルフィルタという。局所トライラテラルフィルタは、コントロール画像と解像度が同じ対象画像に適用してもよい。
[2.4 local trilateral filter]
The tri-lateral filter shown in Formula 1E, to be done also filtered by the second weight W o based on object image O, if the spatial resolution of the object image O is low, the limit occurs in the improvement of the spatial resolution. Therefore, if the balance between the sizes of the first weight W c and the second weight W o in the trilateral filter is locally changed according to the location (coordinates) on the image, for example, the spatial resolution in the generated image F can be increased. It can be improved to obtain a sharper image. A trilateral filter in which the balance between the sizes of the first weight W c and the second weight W o is changed according to the location on the image is called a local trilateral filter. The local trilateral filter may be applied to a target image having the same resolution as the control image.
実施形態の局所トライラテラルフィルタを用いたフィルタリング処理51では、第1重みWc及び第2重みWoのバランスは、コントロール画像Iと対象画像Oとの局所的な相互関連性に基づいて設定される。局所的な相互関連性とは、2つの画像I,Oの局所的な領域における、2つの画像I,O相互の関連性をいう。局所的な領域は、1又は複数の画素からなる範囲である。局所的な相互関連性としては、例えば、コントロール画像Iと対象画像Oとの局所相互情報量が用いられる。 The filtering process 51 using local tri lateral filter embodiments, the balance of the first weight W c and the second weight W o is set based on local correlation of the control image I and target image O To. The local interrelationship refers to the reciprocity between the two images I and O in the local region of the two images I and O. The local region is a range consisting of one or more pixels. As the local mutual relationship, for example, the amount of local mutual information between the control image I and the target image O is used.
2つの画像Ix及び画像Iyの画素pにおける局所相互情報量μXY(p)は、例えば、次式で定義される。
プロセッサ50は、フィルタリング処理において、各画素pについて、コントロール画像Iと対象画像Oとの局所相互情報量μcoを求める。ある注目画素pにおいて、コントロール画像Iと対象画像Oとの局所相互情報量μcoが大きければ、その注目画素p付近においては、二つの画像I,O間で相互関連性が高い。相互関連性が高ければ、コントロール画像Iの効き方を強めても問題はない。したがって、ある注目画素pにおいて局所相互情報量μcoが大きければ、プロセッサ50は、コントロール画像Iに基づく第1重みWcのほうが大きくなるように、注目画素pにおける両重みWc,Woの大きさのバランスを設定する。 The processor 50, in the filtering process, for each pixel p, determine local mutual information mu co of the control image I and target image O. In certain target pixel p, the greater the local mutual information mu co of the control image I and target image O, in the vicinity of the target pixel p, high interconnectedness between two images I, O. If the interrelationship is high, there is no problem even if the effect of the control image I is strengthened. Therefore, if the local mutual information μ co is large in a certain pixel of interest p, the processor 50 has the weights W c and W o of both weights W c and W o in the pixel of interest p so that the first weight W c based on the control image I is larger. Set the size balance.
一方、ある注目画素pにおいて、コントロール画像Iと対象画像Oとの局所相互情報量が小さければ、その注目画素p付近においては、二つの画像I,O間で相互関連性が低い。相互関連性が低ければ、コントロール画像Iの効き方を弱めて対象画像Oの効き方を強めるべきである。したがって、ある注目画素pにおいて局所相互情報量μcoが小さければ、プロセッサ50は、対象画像Oに基づく第2重みWoのほうが大きくなるように、注目画素pにおける両重みWc,Woの大きさのバランスを設定する。 On the other hand, if the amount of local mutual information between the control image I and the target image O is small in a certain pixel of interest p, the interrelationship between the two images I and O is low in the vicinity of the pixel of interest p. If the interrelationship is low, the effectiveness of the control image I should be weakened and the effectiveness of the target image O should be strengthened. Therefore, if the local mutual information μ co is small in a certain pixel of interest p, the processor 50 has the two weights W c and W o of the pixel of interest p so that the second weight W o based on the target image O is larger. Set the size balance.
重みWc,Woの大きさのバランス調整は、前述のように、例えば、プロセッサ50がパラメータσc,σoの値を調整する処理を実行することで行える。パラメータσc,σoの値の調整は、画素毎に行われても良いし、複数の画素を含む部分領域毎に行われても良い。σc,σoの値の調整は、例えば、パラメータσc,σoを、相互関連性の関数とすることで行われる。より具体的には、σc,σoの値の調整は、パラメータσc,σoを、相互情報量μcoの関数σc(μco),σo(μco)とすることで行える。 The balance adjustment of the magnitudes of the weights W c and W o can be performed, for example, by the processor 50 executing a process of adjusting the values of the parameters σ c and σ o as described above. The values of the parameters σ c and σ o may be adjusted for each pixel, or may be adjusted for each partial region including a plurality of pixels. Adjustment of the values of σ c and σ o is performed, for example, by using the parameters σ c and σ o as a function of interrelationship. More specifically, the values of σ c and σ o can be adjusted by setting the parameters σ c and σ o to the functions σ c (μ co ) and σ o (μ co ) of the mutual information amount μ co. ..
関数σc(μco)は、局所相互情報量μcoが大きくなれば、関数σc(μco)の値が小さくなり、局所相互情報量μcoが小さくなれば、関数σc(μco)の値が大きくなるものとすればよい。関数σo(μco)は、局所相互情報量μcoが大きくなれば、関数σo(μco)の値が大きく、局所相互情報量μcoが小さくなれば、関数σo(μco)の値が小さくなる。 Function σ c (μ co) is the larger the local mutual information mu co, the value of the function σ c (μ co) decreases, the smaller the local mutual information mu co, function σ c (μ co ) May be large. Function σ o (μ co) is the larger the local mutual information mu co, increase the value of the function σ o (μ co) is, the smaller the local mutual information mu co, function σ o (μ co) The value of becomes smaller.
換言すると、局所相互情報量μcoが大きくなれば、関数σc(μco)の値が小さくなり、関数σo(μco)の値が大きくなる。これにより、コントロール画像Iに基づく第1重みWcのほうが大きくなる。また、局所相互情報量μcoが小さくなれば、関数σc(μco)の値が大きくなり、関数σo(μco)の値が小さくなる。これにより、対象画像Oに基づく第2重みWoのほうが大きくなる。 In other words, as the local mutual information μ co increases, the value of the function σ c (μ co ) decreases, and the value of the function σ o (μ co ) increases. As a result, the first weight W c based on the control image I becomes larger. Further, as the local mutual information μ co decreases, the value of the function σ c (μ co ) increases and the value of the function σ o (μ co ) decreases. Thus, more of the second weight W o based on object image O becomes large.
相互情報量の関数であるパラメータσC,σOの一例を以下に示す。相互情報量の関数であるパラメータσC,σOの計算方法は、以下のものに限られない。以下において、σrO,σgO,σbOは、それぞれ、カラーコントロール画像Iの赤、緑、青チャネルr,g,b毎のパラメータである。σrC,σgC,σbCは、それぞれ、カラーコントロール画像Iの赤、緑、青チャネルr,g,b毎のパラメータである。
式8〜式10に示すように、パラメータσrO,σgO,σbOは、それぞれ、μrO,μgo,μbOの関数となっている。第2重みWOのためのパラメータσOは、色チャネルr,g,b毎に求められたパラメータσrO,σgO,σbOに基づき、式11のように求められる。 As shown in Equations 8 to 10, the parameters σ rO , σ gO , and σ bO are functions of μ rO , μ go , and μ bO , respectively. Parameter sigma O for the second weight W O is the color channel r, g, the parameters found for b σ rO, σ gO, based on sigma bO, determined as in equation 11.
式8〜式10に示すように、パラメータσrC,σgC,σbCも、それぞれ、μrO,μgo,μbOの関数となっている。第1重みWcは、色チャネルr,g,b毎に求められたパラメータσrC,σgC,σbCに基づき、次式によって求められる。
図7Aは、トライラテラルフィルタリングによる生成画像103a,103b,103cと、局所トライラテラルフィルタリングによる生成画像104a,104b,104cとを示している。生成画像103b及び生成画像104bは、それぞれ、生成画像103a,104aの拡大画像である。生成画像103c,104cは、それぞれ、生成画像103b及び生成画像104bの拡大画像である。 FIG. 7A shows the images 103a, 103b, 103c generated by trilateral filtering and the images 104a, 104b, 104c generated by local trilateral filtering. The generated image 103b and the generated image 104b are enlarged images of the generated images 103a and 104a, respectively. The generated images 103c and 104c are enlarged images of the generated image 103b and the generated image 104b, respectively.
局所トライラテラルフィルタリングによる生成画像104cの領域Eでは、トライラテラルフィルタリングによる生成画像103bの領域Dに比べて、エッジがよりシャープになっており、空間解像度が向上している。 In the region E of the image 104c generated by the local trilateral filtering, the edges are sharper and the spatial resolution is improved as compared with the region D of the image 103b generated by the trilateral filtering.
[3.付記]
本発明は、前述の実施形態に限定されるものではなく、様々な変形が可能である。
[3. Addendum]
The present invention is not limited to the above-described embodiment, and various modifications are possible.
10 撮像システム
20 撮像部
21 可視光カメラ
23 赤外線カメラ
30 画像処理装置
40 記憶装置
41 コントロール画像の記憶領域
43 対象画像の記憶領域
45 生成画像の記憶領域
50 プロセッサ
51 フィルタリング処理
102a,102b 生成画像
103a,103b,103c 生成画像
104a,104b,104c 生成画像
O 対象画像
I コントロール画像
10 Imaging system 20 Imaging unit 21 Visible light camera 23 Infrared camera 30 Image processing device 40 Storage device 41 Control image storage area 43 Target image storage area 45 Generated image storage area 50 Processor 51 Filtering process 102a, 102b Generated image 103a, 103b, 103c Generated image 104a, 104b, 104c Generated image O Target image I Control image
Claims (8)
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
画像処理装置。 An image processing device that executes filtering processing that applies a filter to a target image.
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
An image processing device in which the first weight and the second weight are set based on the interrelationship between the control image and the target image in a local region to which the first weight and the second weight are applied .
前記フィルタリング処理は、画素数が前記コントロール画像に対応するように前記対象画像を変換する変換処理を含み、
前記第2重みは、前記変換処理がなされた前記対象画像に基づいて求められ、
前記フィルタは、前記変換処理がなされた前記対象画像に適用される
請求項1に記載の画像処理装置。 The target image is an image having a lower resolution than the control image.
The filtering process includes a conversion process of converting the target image so that the number of pixels corresponds to the control image.
The second weight is obtained based on the target image that has undergone the conversion process.
The image processing apparatus according to claim 1, wherein the filter is applied to the target image to which the conversion process has been performed.
前記対象画像は、赤外線画像である
請求項1に記載の画像処理装置。 The control image is a visible light image and is
The image processing apparatus according to claim 1, wherein the target image is an infrared image.
前記対象画像は、前記可視光画像よりも低解像度の赤外線画像であり、
前記フィルタリング処理は、画素数が前記可視光画像に対応するように前記赤外線画像を変換する変換処理を更に含み、
前記第2重みは、前記変換処理がなされた前記赤外線画像に基づいて求められ、
前記フィルタは、前記変換処理がなされた前記赤外線画像に適用される
請求項1に記載の画像処理装置。 The control image is a visible light image and is
The target image is an infrared image having a resolution lower than that of the visible light image.
The filtering process further includes a conversion process for converting the infrared image so that the number of pixels corresponds to the visible light image.
The second weight, the conversion processing is determined based on Kiaka external image before was made,
The image processing apparatus according to claim 1, wherein the filter is applied to the infrared image that has undergone the conversion process.
前記第2重みは、局所的な前記相互関連性が低いほど大きく設定される
請求項1〜4のいずれか1項に記載の画像処理装置。 The first weight is set larger as the local interrelationship is higher.
The image processing apparatus according to any one of claims 1 to 4, wherein the second weight is set larger as the local interrelationship is lower.
フィルタを前記対象画像に適用するフィルタリング処理を実行する画像処理装置と、
を備え、
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記コントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
撮像システム。 An imaging unit that captures the target image and control image,
An image processing device that executes a filtering process that applies a filter to the target image, and
With
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. system.
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
画像処理方法。 An image processing method that includes performing a filtering process that applies a filter to a target image.
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. Processing method.
前記フィルタは、
注目画素と周辺画素との距離に基づく空間重みと、
注目画素値と周辺画素値との差に基づく画素値重みと、
を含み、
前記画素値重みは、
前記対象画像の撮像対象物と同じ撮像対象物を撮像したコントロール画像における注目画素値と周辺画素値との差に基づく第1重みと、
前記対象画像における注目画素値と周辺画素値との差に基づく第2重みと、
を含み、
前記第1重み及び前記第2重みは、前記第1重み及び前記第2重みが適用される局所領域における前記コントロール画像と前記対象画像との相互関連性に基づいて設定される
コンピュータプログラム。
A computer program that causes a computer to perform a filtering process that applies a filter to a target image.
The filter
Spatial weight based on the distance between the pixel of interest and peripheral pixels,
The pixel value weight based on the difference between the pixel value of interest and the peripheral pixel value,
Including
The pixel value weight is
The first weight based on the difference between the pixel value of interest and the peripheral pixel value in the control image obtained by imaging the same imaging object as the imaging object of the target image,
A second weight based on the difference between the pixel value of interest and the peripheral pixel value in the target image,
Only including,
The first weight and the second weight are set based on the interrelationship between the control image and the target image in the local region to which the first weight and the second weight are applied. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016130865A JP6806356B2 (en) | 2016-06-30 | 2016-06-30 | Image processing equipment, imaging system, image processing method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016130865A JP6806356B2 (en) | 2016-06-30 | 2016-06-30 | Image processing equipment, imaging system, image processing method and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005518A JP2018005518A (en) | 2018-01-11 |
JP6806356B2 true JP6806356B2 (en) | 2021-01-06 |
Family
ID=60946391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016130865A Active JP6806356B2 (en) | 2016-06-30 | 2016-06-30 | Image processing equipment, imaging system, image processing method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6806356B2 (en) |
-
2016
- 2016-06-30 JP JP2016130865A patent/JP6806356B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018005518A (en) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4571670B2 (en) | Method, system, program module and computer program product for restoration of color components in an image model | |
JP5222472B2 (en) | Image processing apparatus, image restoration method, and program | |
JP5651118B2 (en) | Image processing apparatus and image processing method | |
WO2018037521A1 (en) | Image processing method, image processing apparatus, image capture apparatus, image processing program, and storage medium | |
US8340417B2 (en) | Image processing method and apparatus for correcting skin color | |
WO2014125659A1 (en) | Image processing device, image capture device, filter generating device, image restoration method, and program | |
WO2011096157A1 (en) | Imaging device and method, and image processing method for imaging device | |
JP2009207118A (en) | Image shooting apparatus and blur correction method | |
JP2008016029A (en) | Apparatus and method for correcting edge | |
JP6711396B2 (en) | Image processing device, imaging device, image processing method, and program | |
WO2011099239A1 (en) | Imaging device and method, and image processing method for imaging device | |
US8942477B2 (en) | Image processing apparatus, image processing method, and program | |
WO2016051716A1 (en) | Image processing method, image processing device, and recording medium for storing image processing program | |
JP6520920B2 (en) | Image processing device | |
JP6806356B2 (en) | Image processing equipment, imaging system, image processing method and computer program | |
JP2017076240A (en) | Image processing apparatus, image processing method, and program | |
JP6957665B2 (en) | Image processing equipment, image processing methods and programs | |
JP2019045981A (en) | Image processing apparatus, image processing method, and program | |
JP6331339B2 (en) | Imaging apparatus, imaging system including the imaging apparatus, and false color removal method | |
US9154716B2 (en) | Image processing apparatus and method for smoothing pixel values according to a divergence of pixel candidates | |
JP5832095B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017130167A (en) | Image processing device, imaging device, and image processing program | |
JP6929185B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
WO2016063452A1 (en) | Image processing apparatus, image pickup apparatus, image processing system, and image processing process | |
JP2017130168A (en) | Image processing device, imaging device, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160719 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6806356 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |