JP2015118611A - Image processor, image processing method, and program - Google Patents
Image processor, image processing method, and program Download PDFInfo
- Publication number
- JP2015118611A JP2015118611A JP2013262755A JP2013262755A JP2015118611A JP 2015118611 A JP2015118611 A JP 2015118611A JP 2013262755 A JP2013262755 A JP 2013262755A JP 2013262755 A JP2013262755 A JP 2013262755A JP 2015118611 A JP2015118611 A JP 2015118611A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- weight
- value
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims 2
- 238000009499 grossing Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 29
- 238000001914 filtration Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000010354 integration Effects 0.000 description 5
- 230000002146 bilateral effect Effects 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 238000003706 image smoothing Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、画像のフィルタ処理を行う技術に関する。 The present invention relates to a technique for performing image filtering.
データの欠損や非一様な誤差、信頼性の低い画素値などを含む画像を補正する方法として、補正対象の画像に平滑化フィルタをかける処理がある。しかし、平滑化フィルタは、注目画素とその周囲の画素との画素値の差を小さくするフィルタであるため、平滑化フィルタをかけることにより、被写体の境界であるエッジがぼけてしまうという問題がある。そこで、エッジの情報を失わずに画像を平滑化する方法として、エッジ保存型の平滑化フィルタが提案されている。特許文献1では、エッジ保存型の平滑化フィルタの一例として、クロス(またはジョイント)バイラテラルフィルタが開示されている。クロスバイラテラルフィルタは、補正対象の画像(入力画像)と同一のシーンに対応する、より高画質な画像(参照画像)を用意し、参照画像の各画素の輝度値の類似度などの一つのパラメータに基づいてフィルタ処理に用いる重み値を画素ごとに決定するフィルタである。クロスバイラテラルフィルタでは、入力画像よりもエッジがはっきりしている参照画像に基づいてフィルタ処理に用いる重み値が決定されるため、入力画像のみを用いて重みを決定した場合よりも、エッジが鮮明な画像を得ることができる。そして、参照画像の各画素の輝度値の類似度に基づいてフィルタ処理に用いる重み値を画素ごとに決定することで、異なる被写体に対応する画素の寄与を小さくすることができ、エッジがより鮮明な画像を得ることができる。 As a method for correcting an image including data loss, non-uniform error, unreliable pixel value, and the like, there is a process of applying a smoothing filter to an image to be corrected. However, since the smoothing filter is a filter that reduces the difference in pixel value between the pixel of interest and the surrounding pixels, there is a problem that the edge that is the boundary of the subject is blurred by applying the smoothing filter. . Therefore, an edge preserving type smoothing filter has been proposed as a method of smoothing an image without losing edge information. In Patent Document 1, a cross (or joint) bilateral filter is disclosed as an example of an edge-preserving smoothing filter. The cross bilateral filter prepares a higher-quality image (reference image) corresponding to the same scene as the image to be corrected (input image), and has one such as the similarity of the luminance value of each pixel of the reference image. It is a filter that determines a weight value used for filter processing for each pixel based on a parameter. In the cross bilateral filter, the weight value used for the filter processing is determined based on the reference image whose edge is clearer than the input image. Therefore, the edge is clearer than when the weight is determined using only the input image. Can be obtained. Then, by determining the weight value used for the filtering process for each pixel based on the similarity of the luminance value of each pixel of the reference image, the contribution of the pixels corresponding to different subjects can be reduced, and the edges become clearer. Can be obtained.
しかし、特許文献1に記載の技術のように一つのパラメータだけを用いたフィルタ処理を行う場合では、輝度値が近い被写体同士の境界など、フィルタ処理によりエッジがぼけてしまう領域が発生することがあった。そこで、本発明は、エッジの鮮明さを残しつつ、高い精度で画像の平滑化処理を行うことを目的としている。 However, in the case of performing filter processing using only one parameter as in the technique described in Patent Document 1, a region where the edge is blurred due to the filter processing, such as a boundary between subjects having similar luminance values, may occur. there were. SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to perform an image smoothing process with high accuracy while maintaining the sharpness of an edge.
上記課題を解決するために、本発明に係る画像処理装置は、第一の画像と、前記第一の画像と同一のシーンに対応する第二の画像とを取得する取得手段と、前記第二の画像の画素値に基づく複数のパラメータを用いて、前記第一の画像の各画素の重みを決定する決定手段と、前記第一の画像において、注目画素の画素値を、前記注目画素を含む複数の画素の画素値と、前記決定手段によって決定された重みとに基づいて置き換えるフィルタ処理を施す処理手段とを備える。 In order to solve the above problems, an image processing apparatus according to the present invention includes an acquisition unit that acquires a first image and a second image corresponding to the same scene as the first image, and the second image Determining means for determining a weight of each pixel of the first image using a plurality of parameters based on a pixel value of the image of the first image, and the pixel value of the target pixel in the first image includes the target pixel And processing means for performing filter processing for replacement based on the pixel values of the plurality of pixels and the weights determined by the determination means.
エッジの鮮明さを残しつつ、高い精度で画像の平滑化処理を行うことができる。 The image smoothing process can be performed with high accuracy while leaving the sharpness of the edge.
<実施例1>
本実施例では、各画素位置に対応する被写体までの距離を画素値で表現した距離マップ(モノクロ画像)に平滑化フィルタをかける場合について述べる。距離マップにかける平滑化フィルタのカーネルは、距離マップと同じシーンに対応するカラー画像の輝度と色差に基づいて決定される。なお、ここで同じシーンに対応するカラー画像とは、各画素が距離マップにおいて同じ画素位置に存在する画素と同じ被写体に対応するカラー画像のことを意味する。以下、本実施例の構成を述べる。図1は、本実施例の画像処理装置100の構成を示す図である。
<Example 1>
In this embodiment, a case will be described in which a smoothing filter is applied to a distance map (monochrome image) in which a distance to a subject corresponding to each pixel position is expressed by a pixel value. The smoothing filter kernel to be applied to the distance map is determined based on the luminance and color difference of the color image corresponding to the same scene as the distance map. Here, the color image corresponding to the same scene means a color image corresponding to the same subject as the pixel where each pixel exists at the same pixel position in the distance map. The configuration of this embodiment will be described below. FIG. 1 is a diagram illustrating a configuration of an image processing apparatus 100 according to the present embodiment.
画像処理装置100は、CPU101と、RAM102と、ROM103と、記憶部104と、入力インターフェース105と、出力インターフェース106と、システムバス107とから構成される。外部メモリ108は入力インターフェース105と出力インターフェース106に接続されており、表示装置109は出力インターフェース106に接続されている。 The image processing apparatus 100 includes a CPU 101, a RAM 102, a ROM 103, a storage unit 104, an input interface 105, an output interface 106, and a system bus 107. The external memory 108 is connected to the input interface 105 and the output interface 106, and the display device 109 is connected to the output interface 106.
CPU101は、画像処理装置100の各構成を統括的に制御するプロセッサであり、RAM102は、CPU101の主メモリ、ワークエリアとして機能するメモリである。そして、ROM103は画像処理装置100内の処理に用いられるプログラム等を格納するメモリである。CPU101は、RAM102をワークエリアとしてROM103に格納されたプログラムを実行することで、後述する様々な処理を実行する。記憶部104は、画像処理装置100での処理に用いる画像データや、処理のためのパラメータなどを記憶する記憶デバイスである。記憶部104としてはHDDや光ディスクドライブ、フラッシュメモリなどを用いることができる。 The CPU 101 is a processor that comprehensively controls each component of the image processing apparatus 100, and the RAM 102 is a memory that functions as a main memory and work area of the CPU 101. A ROM 103 is a memory that stores programs used for processing in the image processing apparatus 100. The CPU 101 executes various processes to be described later by executing programs stored in the ROM 103 using the RAM 102 as a work area. The storage unit 104 is a storage device that stores image data used for processing in the image processing apparatus 100, parameters for processing, and the like. As the storage unit 104, an HDD, an optical disk drive, a flash memory, or the like can be used.
入力インターフェース105は、例えばUSBやIEEE1394などのシリアルバスインターフェースである。画像処理装置100は、この入力インターフェース105を介して、外部メモリ108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)から処理対象の画像データ等を取得することができる。出力インターフェース106は、例えばDVIやHDMI(登録商標)などの映像出力端子である。画像処理装置100は、この出力インターフェース106を介して、表示装置109(液晶ディスプレイなどの画像表示デバイス)に、画像処理装置100で処理した画像データを出力することができる。なお、画像処理装置100の構成要素は上記のもの以外にも存在するが、本発明の主眼ではないため、説明を省略する。 The input interface 105 is a serial bus interface such as USB or IEEE1394. The image processing apparatus 100 can acquire image data to be processed from an external memory 108 (for example, a hard disk, a memory card, a CF card, an SD card, a USB memory) via the input interface 105. The output interface 106 is a video output terminal such as DVI or HDMI (registered trademark). The image processing apparatus 100 can output the image data processed by the image processing apparatus 100 to the display device 109 (image display device such as a liquid crystal display) via the output interface 106. Note that the components of the image processing apparatus 100 exist in addition to those described above, but are not the main points of the present invention, and thus description thereof is omitted.
以下、本実施例の画像処理装置100における処理を、図2に示すブロック図と、図3に示すフローチャートを用いて説明する。図2は、画像処理装置100の処理ブロック図である。本実施例では、CPU101がROM103に格納された図3のフローチャートに示すプログラムを実行することにより、図2に記載の各ブロックとして機能する。もちろん、全ての処理ブロックの機能をCPU101が有していなくてもよく、各処理ブロックに対応する処理回路を画像処理装置100内に新たに設けるようにしてもよい。 Hereinafter, the processing in the image processing apparatus 100 of the present embodiment will be described with reference to the block diagram shown in FIG. 2 and the flowchart shown in FIG. FIG. 2 is a processing block diagram of the image processing apparatus 100. In this embodiment, the CPU 101 executes the program shown in the flowchart of FIG. 3 stored in the ROM 103, thereby functioning as each block shown in FIG. Of course, the CPU 101 may not have the functions of all the processing blocks, and a processing circuit corresponding to each processing block may be newly provided in the image processing apparatus 100.
ステップS301では、取得部201が、入力インターフェース105を介して外部メモリ108からフィルタ処理に用いる画像データを取得し、注目画素選択部202に出力する。ここで取得する画像データは、フィルタ処理の対象である入力画像データと、フィルタの重み値の決定に用いる参照画像データである。本実施例において、参照画像データはカメラによる撮像により得られたカラー画像データであり、入力画像データは、参照画像データの各画素に対応する被写体までの距離を画素値で表現したマップである。距離マップはモノクロの画像データであり、各被写体に対応する距離が0〜255の画素値により表現されている。 In step S <b> 301, the acquisition unit 201 acquires image data used for filter processing from the external memory 108 via the input interface 105 and outputs the image data to the target pixel selection unit 202. The image data acquired here is input image data to be filtered and reference image data used to determine the filter weight value. In this embodiment, the reference image data is color image data obtained by imaging with a camera, and the input image data is a map that expresses a distance to a subject corresponding to each pixel of the reference image data by a pixel value. The distance map is monochrome image data, and the distance corresponding to each subject is represented by pixel values of 0 to 255.
ステップS302では、注目画素選択部202が、RAM102に格納された注目画素の座標を示す情報に基づいて、フィルタ処理を行う対象である注目画素pを選択し、注目画素pの画素値をRAM102に格納する。なお、初期状態では、RAM102には画像の最も左上の画素である画素(0,0)を示す情報が格納されている。 In step S <b> 302, the pixel-of-interest selection unit 202 selects the pixel of interest p to be filtered based on the information indicating the coordinates of the pixel of interest stored in the RAM 102, and stores the pixel value of the pixel of interest p in the RAM 102. Store. In the initial state, the RAM 102 stores information indicating the pixel (0, 0) which is the upper left pixel of the image.
ステップS303では、周辺画素選択部203が、RAM102に格納された画素pの座標を示す情報と、RAM102に格納された、画素pからの相対的な座標を示す情報に基づいて、フィルタ処理における重みを決定する画素rを選択する。そして、周辺画素選択部203は、画素rの座標および画素値を示す情報をRAM102に格納する。本実施例では、注目画素を中心とした11×11画素がフィルタ処理に用いられるため、画素rは、注目画素を中心とした11×11画素の所定の範囲から選択される(以下、この範囲内の画素を周辺画素と呼ぶ)。なお、初期状態では、画素pからの相対的な座標を示す情報として、画素pの座標を(0,0)とした、(−5,−5)がRAM102に格納されている。 In step S <b> 303, the peripheral pixel selection unit 203 performs weighting in the filter processing based on information indicating the coordinates of the pixel p stored in the RAM 102 and information indicating the relative coordinates from the pixel p stored in the RAM 102. Select a pixel r that determines. The peripheral pixel selection unit 203 stores information indicating the coordinates and pixel values of the pixel r in the RAM 102. In this embodiment, since 11 × 11 pixels centered on the target pixel are used for the filter processing, the pixel r is selected from a predetermined range of 11 × 11 pixels centered on the target pixel (hereinafter, this range). The pixels inside are called peripheral pixels). In the initial state, (−5, −5) is stored in the RAM 102 as information indicating the relative coordinates from the pixel p, where the coordinates of the pixel p are (0, 0).
ステップS304では、距離重み算出部204が、RAM102に格納された、画素rの座標を示す情報を用いて、画素pからの距離に基づく重み係数sを算出し、フィルタ演算部207に出力する。sは以下の式で表わされる。 In step S <b> 304, the distance weight calculation unit 204 calculates a weight coefficient s based on the distance from the pixel p using the information indicating the coordinates of the pixel r stored in the RAM 102, and outputs the weight coefficient s to the filter calculation unit 207. s is represented by the following equation.
式(1)において、pとrはそれぞれ画素pと画素rの座標に対応する2次元のベクトルであり、sの値はpとrの間のユークリッド距離に依存している。式(2)は式(1)におけるノルムの定義を示す式であり、式(1)ではm=2を式(2)に代入した項が含まれている。また、σsは任意に設定できる実定数で、注目画素からどれだけ離れた周辺画素まで考慮するかを示す定数である。σsは言い換えると係数分布の空間的な分散を表すパラメータであり、一般にσsを大きくすれば補正後の画像はぼける傾向にある。本実施例においてはσs=5を設定しているが、この値は自由に設定可能である。なお、本実施例において参照画像のビット深度は8ビットとし、最大階調は255としている。また、重み係数sは必ずしも式1にもとづいて算出される必要はなく、複数のpおよびrに対応する重み係数sを予めテーブルとして格納しておき、pおよびrの入力に応じてsを読み出すようにしてもよい。このステップでは、距離重み算出部204が、RAM102に格納された画素pおよび画素rの座標を式(1)に代入することによって距離重みsを算出する。 In Equation (1), p and r are two-dimensional vectors corresponding to the coordinates of the pixel p and the pixel r, respectively, and the value of s depends on the Euclidean distance between p and r. Expression (2) is an expression indicating the definition of the norm in Expression (1), and Expression (1) includes a term in which m = 2 is substituted into Expression (2). Also, σ s is a real constant that can be arbitrarily set, and is a constant that indicates how far away from the target pixel is taken into consideration. In other words, σ s is a parameter representing the spatial dispersion of the coefficient distribution. Generally, when σ s is increased, the corrected image tends to be blurred. In this embodiment, σs = 5 is set, but this value can be set freely. In this embodiment, the bit depth of the reference image is 8 bits and the maximum gradation is 255. The weighting factor s does not necessarily have to be calculated based on Equation 1, but the weighting factors s corresponding to a plurality of p and r are stored in advance as a table, and s is read according to the input of p and r. You may do it. In this step, the distance weight calculation unit 204 calculates the distance weight s by substituting the coordinates of the pixel p and the pixel r stored in the RAM 102 into the equation (1).
ステップS305では、輝度重み算出部205が、RAM102に格納された画素pと画素rの画素値を用いて、画素pとの輝度の違いに基づく重み係数wyを算出し、フィルタ演算部207に出力する。wyは以下の式で表わされる。 In step S305, the luminance weight calculation unit 205, by using the pixel value of the pixel p and the pixel r stored in the RAM 102, calculates a weighting factor w y based on the luminance difference between the pixel p, the filter computation unit 207 Output. w y is represented by the following formula.
ここで、Ry(p)およびRy(r)はそれぞれ画素pおよび画素rの輝度値である。σy係数分布のYチャネルの強度方向への分散を表わすパラメータである。本実施例においては、σy=25を設定しているが、この値はσsと同様に自由に設定可能である。このステップでは、輝度重み算出部205が、RAM102に格納された画素pおよび画素rの輝度値を式(3)に代入することによって輝度重みwyを算出する。 Here, Ry (p) and Ry (r) are the luminance values of the pixel p and the pixel r, respectively. This is a parameter representing the dispersion in the intensity direction of the Y channel of the σ y coefficient distribution. In this embodiment, σ y = 25 is set, but this value can be set freely as with σ s . In this step, the luminance weight calculation unit 205 calculates a luminance weight w y by substituting the luminance value of the pixel p and the pixel r stored in the RAM102 in equation (3).
ステップS306では、色差重み算出部206が、RAM102に格納された画素pと画素rの画素値を用いて、画素pとの色差の違いに基づく重み係数wCbおよびwCrを算出し、フィルタ演算部207に出力する。wCbおよびwCrは以下の式で表わされる。 In step S306, the color difference weight calculation unit 206 calculates the weight coefficients w Cb and w Cr based on the difference in color difference from the pixel p using the pixel values of the pixel p and the pixel r stored in the RAM 102, and performs a filter operation. Output to the unit 207. w Cb and w Cr are represented by the following equations.
ここで、RCb(p)およびRCb(r)はそれぞれ画素pおよび画素rの、YCbCr色空間におけるCbの値を示している。また、RCr(p)およびRCr(r)はそれぞれ画素pおよび画素rの、YCbCr色空間におけるCrの値を示している。σCbおよびσCrはそれぞれ係数分布のCbチャネルとCrチャネルの強度方向への分散を表わすパラメータである。本実施例では、σCb=σCr=15を設定している。これはσyよりも小さい値であるが、このように色差に基づく重み係数の広がりを輝度に基づく重み係数の広がりよりも小さくすると、より真値に近い補正結果を得ることができる。これは、輝度と色差は同一画像内における画素間の相関が異なる統計に従っており、一般に色差チャネルの方が輝度チャネルよりも近傍画素間での画素値の分散が大きいことに由来する。このステップでは、色差重み算出部206が、RAM102に格納された画素pおよび画素rの色差値を式(4)および式(5)に代入することによって色差重みwCbおよびwCrを算出する。 Here, R Cb (p) and R Cb (r) indicate the values of Cb in the YCbCr color space of the pixel p and the pixel r, respectively. R Cr (p) and R Cr (r) indicate the values of Cr in the YCbCr color space of the pixel p and the pixel r, respectively. σ Cb and σ Cr are parameters representing the dispersion of the coefficient distribution in the intensity direction of the Cb channel and the Cr channel, respectively. In this embodiment, σ Cb = σ Cr = 15 is set. Although this is a value smaller than σy, if the spread of the weighting factor based on the color difference is made smaller than the spread of the weighting factor based on the luminance, a correction result closer to the true value can be obtained. This is because luminance and color differences are in accordance with statistics in which the correlation between pixels in the same image is different, and in general, the color difference channel has a larger distribution of pixel values between neighboring pixels than the luminance channel. In this step, the color difference weight calculation unit 206 calculates the color difference weights w Cb and w Cr by substituting the color difference values of the pixels p and r stored in the RAM 102 into the equations (4) and (5).
ステップS307では、フィルタ演算部207が、全ての周辺画素について重みが決定されたかどうかを判定する。全ての周辺画素について重みが決定されたと判定された場合、ステップS309に進む。全ての周辺画素について重みが決定されていないと判定された場合、ステップS308に進む。 In step S307, the filter calculation unit 207 determines whether or not weights have been determined for all surrounding pixels. If it is determined that the weights have been determined for all the peripheral pixels, the process proceeds to step S309. If it is determined that the weight has not been determined for all peripheral pixels, the process proceeds to step S308.
ステップS308では、フィルタ演算部207が、RAM102に格納された画素rを示す情報を更新し、ステップS303に戻る。ここで、画素rを示す情報は、周辺画素の間で変更されるものとする。 In step S308, the filter calculation unit 207 updates information indicating the pixel r stored in the RAM 102, and the process returns to step S303. Here, the information indicating the pixel r is changed between the peripheral pixels.
ステップS309では、フィルタ演算部207が、RAM102に格納された画素pの画素値と、各周辺画素の重み関数および画素値に基づいて、画素pの補正後の画素値を算出し、画素値統合部208に出力する。画素pの補正後の画素値J(p)は、以下の式で表わされる。 In step S309, the filter calculation unit 207 calculates the corrected pixel value of the pixel p based on the pixel value of the pixel p stored in the RAM 102, the weight function and the pixel value of each peripheral pixel, and integrates the pixel values. The data is output to the unit 208. The corrected pixel value J (p) of the pixel p is expressed by the following equation.
ここで、I(r)は画素rの画素値である。このように、本実施例で行われるフィルタ処理で用いられる重みは、ステップS304〜S306で算出された複数の重み関数の積により決定される。つまり、注目画素からの距離に基づいて決定された重み関数である距離重みsと、注目画素との輝度および色差の違いに基づいて決定された重み関数である輝度重みwyと色差重みwCbおよびwCrの積により決定される。このステップでは、フィルタ演算部207が、距離重み算出部204と、輝度重み算出部205と、色差重み算出部206とから出力された重み値と、RAM102に格納された画素rの画素値を式6に代入することで、J(p)を算出する。 Here, I (r) is the pixel value of the pixel r. Thus, the weight used in the filter processing performed in the present embodiment is determined by the product of a plurality of weight functions calculated in steps S304 to S306. In other words, a weighting function determined based on the distance from the target pixel distance weight s and a weighting function determined based on the difference in luminance and chrominance between the target pixel luminance weight w y and the color difference weighting w Cb And w Cr . In this step, the filter calculation unit 207 calculates the weight value output from the distance weight calculation unit 204, the luminance weight calculation unit 205, and the color difference weight calculation unit 206, and the pixel value of the pixel r stored in the RAM 102. By substituting into 6, J (p) is calculated.
ステップS310では、画素値統合部208が、全ての画素について補正後の画素値の算出が行われたかどうかを判定する。全ての画素について補正後の画素値の算出が行われたと判定された場合はステップS313に進む。全ての画素について補正後の画素値の算出が行われていないと判定された場合は、ステップS311に進む。 In step S310, the pixel value integration unit 208 determines whether or not the corrected pixel values have been calculated for all the pixels. If it is determined that the corrected pixel values have been calculated for all the pixels, the process proceeds to step S313. If it is determined that the pixel values after correction have not been calculated for all the pixels, the process proceeds to step S311.
ステップS311では、画素値統合部208が、RAM102に格納された注目画素を示す情報を更新する。そして、ステップS312では、画素値統合部208が、RAM102に格納された、注目画素からの相対的な座標を示す情報を、(−5,−5)に戻してステップS302に戻る。 In step S <b> 311, the pixel value integration unit 208 updates information indicating the target pixel stored in the RAM 102. In step S312, the pixel value integration unit 208 returns the information stored in the RAM 102 indicating the relative coordinates from the target pixel to (−5, −5) and returns to step S302.
ステップS313では、画素値統合部208が、フィルタ演算部207で算出された補正後の画素値を並べた、補正後の画像データを生成および出力して処理を終了する。 In step S313, the pixel value integration unit 208 generates and outputs corrected image data in which the corrected pixel values calculated by the filter calculation unit 207 are arranged, and ends the process.
以上の処理によると、参照画像の輝度および色差に基づいて平滑化フィルタにおける重み値を決定するので、エッジの鮮明さを残しつつ、高い精度で画像の平滑化処理を行うことができる。なお、本実施例において、注目画素を中心に11×11画素の範囲をフィルタ処理に用いる周辺画素としたが、フィルタ処理に用いる画素数はこの数に限られない。例えば参照画像内の全ての画素をフィルタ処理に用いるようにしてもよいし、各重み係数の分散に応じて変更してもよい。 According to the above processing, since the weight value in the smoothing filter is determined based on the luminance and color difference of the reference image, the image smoothing processing can be performed with high accuracy while maintaining the sharpness of the edge. In the present embodiment, the 11 × 11 pixel range centered on the target pixel is used as the peripheral pixel used for the filter processing. However, the number of pixels used for the filter processing is not limited to this number. For example, all the pixels in the reference image may be used for the filtering process, or may be changed according to the distribution of each weight coefficient.
なお、本実施例において、取得部201は、第一の画像と、前記第一の画像と同一のシーンに対応する第二の画像とを取得する取得手段として機能した。また、輝度重み算出部205および色差重み算出部206は、前記第二の画像の画素値に基づく複数のパラメータを用いて、前記第一の画像の各画素の重みを決定する決定手段として機能した。また、フィルタ演算部207は、前記第一の画像において、注目画素の画素値を、前記注目画素を含む複数の画素の画素値と、前記決定手段によって決定された重みとに基づいて置き換えるフィルタ処理を施す処理手段として機能した。 In this embodiment, the acquisition unit 201 functions as an acquisition unit that acquires a first image and a second image corresponding to the same scene as the first image. In addition, the luminance weight calculation unit 205 and the color difference weight calculation unit 206 function as a determination unit that determines the weight of each pixel of the first image using a plurality of parameters based on the pixel values of the second image. . Further, the filter operation unit 207 replaces the pixel value of the target pixel in the first image based on the pixel values of a plurality of pixels including the target pixel and the weight determined by the determination unit. Functioned as a processing means.
<実施例2>
本実施例では、平滑化フィルタにおける距離重みを、参照画像データの画素値を微分した微分画像に基づいて決定する場合について述べる。以下、本実施例の画像処理装置100における処理を、図4に示すブロック図と、図5に示すフローチャートを用いて説明する。図4は、本実施例における画像処理装置100の処理ブロック図である。本実施例では、CPU101がROM103に格納された図5のフローチャートに示すプログラムを実行することにより、図4に記載の各ブロックとして機能する。もちろん、全ての処理ブロックの機能をCPU101が有していなくてもよく、各処理ブロックに対応する処理回路を画像処理装置100内に新たに設けるようにしてもよい。なお、実施例1と同じ処理については、同様の符号を付して説明を省略する。
<Example 2>
In the present embodiment, a case will be described in which the distance weight in the smoothing filter is determined based on a differential image obtained by differentiating the pixel value of the reference image data. Hereinafter, processing in the image processing apparatus 100 of the present embodiment will be described with reference to a block diagram shown in FIG. 4 and a flowchart shown in FIG. FIG. 4 is a processing block diagram of the image processing apparatus 100 in the present embodiment. In this embodiment, the CPU 101 functions as each block shown in FIG. 4 by executing the program shown in the flowchart of FIG. 5 stored in the ROM 103. Of course, the CPU 101 may not have the functions of all the processing blocks, and a processing circuit corresponding to each processing block may be newly provided in the image processing apparatus 100. In addition, about the same process as Example 1, the same code | symbol is attached and description is abbreviate | omitted.
ステップS501では、微分画像生成部401が、取得部201から取得した参照画像データの画素値を微分した、微分画像データを生成し、距離重み算出部204に出力する。本実施例においては、参照画像データが有するYチャネル、Cbチャネル、Crチャネルのそれぞれについて微分画像データを生成する。画像の微分演算としては、隣接画素間の単純差分、Sobelフィルタ、ラプラシアンフィルタなどの公知の技術を用いることができる。 In step S <b> 501, the differential image generation unit 401 generates differential image data obtained by differentiating the pixel values of the reference image data acquired from the acquisition unit 201, and outputs the differential image data to the distance weight calculation unit 204. In this embodiment, differential image data is generated for each of the Y channel, Cb channel, and Cr channel included in the reference image data. As the differential operation of the image, a known technique such as a simple difference between adjacent pixels, a Sobel filter, a Laplacian filter, or the like can be used.
ステップS502では、距離重み算出部204が、ステップS501で生成された微分画像データに基づいて、チャネルごとの距離重みsjを決定し、フィルタ演算部207に出力する。sjは以下の式で表わされる。 In step S502, the distance weight calculation unit 204 determines the distance weight s j for each channel based on the differential image data generated in step S501 and outputs the distance weight s j to the filter calculation unit 207. s j is expressed by the following equation.
ここで、αjおよびβjは任意の実定数であり、αjは距離重みsjの注目画素からの広がりを規定する定数、βjは距離重みsjの最小値を規定する定数である。本実施例において、αjは一律で25に設定されているが、他の値を用いるようにしてもよい。例えば、実施例1のように、CbチャネルおよびCrチャネルのαの値をYチャネルのαの値よりも小さくしてもよい。また、βjは、本実施例では一律で1に設定されているが、例えば微分値が最大の画素にも重みを持たせたい場合などは、1よりも大きな数を用いることができる。Gj(p)は、チャネルjの画素値について微分した微分画像の画素pにおける画素値であり、本実施例ではGj(p)は最大値が1になるように規格化されている。式(8)に示すように、Gj(p)が大きくなるほどσsjは小さくなる。すなわち、注目画素pが、Gj(p)が大きくなるエッジ上に存在する場合、距離重みsjが示す重み関数は注目画素を中心により急峻になるため、注目画素から離れた画素の影響を受けにくくなり、エッジの鮮明さが保たれるようになる。このステップでは、距離重み算出部204が、RAM102に格納された画素pおよび画素rの座標と、微分画像生成部401から出力された微分画像の画素値を式(8)に代入し、それによって得られたσsjを式(7)に代入することによって距離重みsjを算出する。 Here, α j and β j are arbitrary real constants, α j is a constant that defines the spread of the distance weight s j from the target pixel, and β j is a constant that defines the minimum value of the distance weight s j. . In this embodiment, α j is uniformly set to 25, but other values may be used. For example, as in the first embodiment, the α value of the Cb channel and the Cr channel may be smaller than the α value of the Y channel. In addition, β j is uniformly set to 1 in this embodiment, but a number larger than 1 can be used, for example, when it is desired to give weight to a pixel having the largest differential value. G j (p) is the pixel value at the pixel p of the differential image differentiated with respect to the pixel value of the channel j. In this embodiment, G j (p) is standardized so that the maximum value is 1. As shown in Expression (8), σ sj decreases as G j (p) increases. That is, when the target pixel p exists on an edge where G j (p) increases, the weight function indicated by the distance weight s j becomes steeper from the center of the target pixel. It becomes hard to receive and the sharpness of the edge is maintained. In this step, the distance weight calculation unit 204 substitutes the coordinates of the pixel p and the pixel r stored in the RAM 102 and the pixel value of the differential image output from the differential image generation unit 401 into the equation (8), thereby The distance weight s j is calculated by substituting the obtained σ sj into the equation (7).
ステップS503では、フィルタ演算部207が、ステップS309と同様に、RAM102に格納された注目画素の画素値と、各周辺画素の重み関数および画素値に基づいて、注目画素の補正後の画素値を算出し、画素値統合部208に出力する。このステップで計算される注目画素の補正後の画素値J(p)は、実施例1とは異なり、以下の式で表わされる。 In step S503, the filter calculation unit 207 calculates the corrected pixel value of the target pixel based on the pixel value of the target pixel stored in the RAM 102, the weight function and the pixel value of each peripheral pixel, as in step S309. Calculate and output to the pixel value integration unit 208. Unlike the first embodiment, the corrected pixel value J (p) of the target pixel calculated in this step is represented by the following equation.
sy(p,r)sCb(p,r)sCr(p,r)は、それぞれ参照画像データのYチャネルCbチャネル、Crチャネルの微分画像から求められた距離重みである。このステップでは、フィルタ演算部207が、距離重み算出部204と、輝度重み算出部205と、色差重み算出部206とから出力された重み値と、RAM102に格納された画素rの画素値を式(9)に代入することで、J(p)を算出する。 s y (p, r) s Cb (p, r) s Cr (p, r) are distance weights obtained from the Y channel Cb channel and Cr channel differential images of the reference image data, respectively. In this step, the filter calculation unit 207 calculates the weight value output from the distance weight calculation unit 204, the luminance weight calculation unit 205, and the color difference weight calculation unit 206, and the pixel value of the pixel r stored in the RAM 102. By substituting in (9), J (p) is calculated.
以上が本実施例における処理である。以上の処理によれば、参照画像の画素値の微分値に基づいて入力画像に平滑化フィルタをかけるので、よりエッジが鮮明な補正画像を得ることができる。 The above is the processing in this embodiment. According to the above processing, since the smoothing filter is applied to the input image based on the differential value of the pixel value of the reference image, a corrected image with clearer edges can be obtained.
なお、本実施例において、取得部201は、第一の画像と、前記第一の画像と同一のシーンに対応する第二の画像とを取得する取得手段として機能した。また、距離重み算出部204と、輝度重み算出部205および色差重み算出部206は、前記第二の画像の画素値に基づく複数のパラメータを用いて、前記第一の画像の各画素の重みを決定する決定手段として機能した。また、フィルタ演算部207は、前記第一の画像において、注目画素の画素値を、前記注目画素を含む複数の画素の画素値と、前記決定手段によって決定された重みとに基づいて置き換えるフィルタ処理を施す処理手段として機能した。 In this embodiment, the acquisition unit 201 functions as an acquisition unit that acquires a first image and a second image corresponding to the same scene as the first image. Further, the distance weight calculation unit 204, the luminance weight calculation unit 205, and the color difference weight calculation unit 206 calculate the weight of each pixel of the first image using a plurality of parameters based on the pixel value of the second image. Served as a decision means to decide. Further, the filter operation unit 207 replaces the pixel value of the target pixel in the first image based on the pixel values of a plurality of pixels including the target pixel and the weight determined by the determination unit. Functioned as a processing means.
<実施例3>
上記の実施例では、複数の画素の画素値の加重平均により、注目画素の画素値を置き換えるフィルタ処理について述べたが、本実施例では、各画素について求められた重み値を用いて、加重平均以外の方法で補正後の画素値を求める方法について述べる。
<Example 3>
In the above embodiment, the filter processing for replacing the pixel value of the target pixel by the weighted average of the pixel values of a plurality of pixels has been described. However, in this embodiment, the weighted average is calculated using the weight value obtained for each pixel. A method for obtaining a corrected pixel value by a method other than the above will be described.
本実施例の画像処理装置100の構成および処理は、基本的には実施例1の画像処理装置100の構成および処理と同じであるが、ステップS309で行われる計算だけが異なる。そこで、ここではステップS309で行われる処理の違いについて述べる。本実施例では、ステップS309において、複数の画素の画素値の加重平均を行うのではなく、加重メディアンフィルタによる処理を行う。本実施例で計算される注目画素の補正後の画素値J(p)は以下の式で表わされる。 The configuration and processing of the image processing apparatus 100 according to the present embodiment are basically the same as the configuration and processing of the image processing apparatus 100 according to the first embodiment, but only the calculation performed in step S309 is different. Therefore, here, the difference in processing performed in step S309 will be described. In this embodiment, in step S309, a weighted median filter is used instead of performing a weighted average of pixel values of a plurality of pixels. The pixel value J (p) after correction of the target pixel calculated in the present embodiment is expressed by the following equation.
ここで、medianは引数の配列の中央値を返すメディアンフィルタ、◇は左側の数値を右側の数だけ多重化する(繰り返す)演算子、INTは引数を正の整数に丸める演算子である。また、w(p,r)はwy(p,r)とwCb(p,r)とwCr(p,r)の積であり、r1,r2,...は周辺画素それぞれの座標を表す。本実施例では、フィルタ演算部207が、距離重み算出部204と、輝度重み算出部205と、色差重み算出部206とから出力された重み値と、RAM102に格納された画素rの画素値を式10に代入することで、J(p)を算出する。このように、複数の画素値の線型変換以外の処理についても、本発明は適用可能である。 Here, median is a median filter that returns the median of the argument array, ◇ is an operator that multiplexes (repeats) the left numerical value by the right number, and INT is an operator that rounds the argument to a positive integer. Further, w (p, r) is the product of w y (p, r) and w Cb (p, r) and w Cr (p, r), r1, r2 ,. . . Represents the coordinates of each peripheral pixel. In the present embodiment, the filter calculation unit 207 calculates the weight value output from the distance weight calculation unit 204, the luminance weight calculation unit 205, and the color difference weight calculation unit 206, and the pixel value of the pixel r stored in the RAM 102. By substituting into Equation 10, J (p) is calculated. Thus, the present invention can be applied to processing other than linear conversion of a plurality of pixel values.
なお、本実施例において、取得部201は、第一の画像と、前記第一の画像と同一のシーンに対応する第二の画像とを取得する取得手段として機能した。また、距離重み算出部204と、輝度重み算出部205および色差重み算出部206は、前記第二の画像の画素値に基づく複数のパラメータを用いて、前記第一の画像の各画素の重みを決定する決定手段として機能した。また、フィルタ演算部207は、前記第一の画像において、注目画素の画素値を、前記注目画素を含む複数の画素の画素値と、前記決定手段によって決定された重みとに基づいて置き換えるフィルタ処理を施す処理手段として機能した。 In this embodiment, the acquisition unit 201 functions as an acquisition unit that acquires a first image and a second image corresponding to the same scene as the first image. Further, the distance weight calculation unit 204, the luminance weight calculation unit 205, and the color difference weight calculation unit 206 calculate the weight of each pixel of the first image using a plurality of parameters based on the pixel value of the second image. Served as a decision means to decide. Further, the filter operation unit 207 replaces the pixel value of the target pixel in the first image based on the pixel values of a plurality of pixels including the target pixel and the weight determined by the determination unit. Functioned as a processing means.
<その他の実施例>
なお、本発明の実施形態は上記の実施例に限られず、様々な形態をとることが可能である。例えば、上記の実施例では、参照画像のYCbCr空間における輝度値Yと色差CbおよびCrに基づいて決定した重み値を用いて平滑化フィルタをかけるたが、参照画像から得られた他のパラメータに基づいて決定された重み値を用いてもよい。例えば、RGB空間のR、GおよびBの画素値を用いてもよいし、Lab空間のL、a、bの画素値を用いてもよい。また、各色空間の3つの画素値のうち2つだけを選択して用いてもよいし、例えば輝度値Yと輝度値の微分値Y’など、同じチャネルの画素値から取得された異なるパラメータを併用するようにしてもよい。つまり、参照画像の画素値から求められた一つのパラメータだけで重みを決定するのではなく、参照画像の画素値から求められた複数のパラメータに基づいて重みを決定するのであればよい。また、本明細書における輝度は各画素の明るさを示す他の値に置き換えることができ、YCbCr空間のYだけではなくLab空間のLの値やHSV色空間のVの値などを用いることができる。また、本明細書における色差は、各画素の色彩を示す他の値に置き換えることができ、YCbCr空間のCbおよびCrだけではなく、Lab空間のaおよびbや、HSV空間のHおよびSなど様々なものを用いることができる。
<Other examples>
The embodiment of the present invention is not limited to the above-described embodiment, and can take various forms. For example, in the above embodiment, the smoothing filter is applied using the weight value determined based on the luminance value Y and the color differences Cb and Cr in the YCbCr space of the reference image. However, other parameters obtained from the reference image are applied to other parameters. You may use the weight value determined based on. For example, R, G, and B pixel values in the RGB space may be used, and L, a, and b pixel values in the Lab space may be used. Alternatively, only two of the three pixel values in each color space may be selected and used. For example, different parameters acquired from pixel values of the same channel, such as the luminance value Y and the differential value Y ′ of the luminance value, may be used. You may make it use together. That is, instead of determining the weight based on only one parameter obtained from the pixel value of the reference image, the weight may be determined based on a plurality of parameters obtained from the pixel value of the reference image. In addition, the luminance in this specification can be replaced with other values indicating the brightness of each pixel, and not only Y in the YCbCr space but also L value in the Lab space, V value in the HSV color space, or the like can be used. it can. In addition, the color difference in this specification can be replaced with other values indicating the color of each pixel. Not only Cb and Cr in the YCbCr space but also a and b in the Lab space, and H and S in the HSV space. Can be used.
また、本発明を適用する入力画像と参照画像は、距離マップおよびその距離マップと同じシーンに対応するカラー画像のみに限られず、様々な画像について適用可能である。例えば、入力画像を複数の異なる視点から撮像された画像にステレオ法を適用することで取得された距離マップとして、参照画像をTime Of Flight法を用いて取得された距離マップとしてもよい。また、参照画像を、距離マップに付随して得られる信頼度画像としてもよい。信頼度画像とは、各画素における被写体距離の確からしさの指標である信頼度を並べた画像である。また、入力画像と参照画像の両方をカラー画像としてもよい。また、同じシーンに対応する画像は、上記実施例のように、各画素がもう一方の画像において同じ画素位置に存在する画素と同じ被写体に対応する画像ではなくてもよい。例えば、各画像の間の各画素の対応関係が分かっており、同じ被写体を含む画像の組であればよい。 Further, the input image and the reference image to which the present invention is applied are not limited to the distance map and the color image corresponding to the same scene as the distance map, and can be applied to various images. For example, the input image may be a distance map acquired by applying the stereo method to images captured from a plurality of different viewpoints, and the reference image may be a distance map acquired using the Time Of Flight method. Further, the reference image may be a reliability image obtained along with the distance map. The reliability image is an image in which reliability that is an index of the probability of subject distance in each pixel is arranged. Further, both the input image and the reference image may be color images. In addition, the image corresponding to the same scene may not be an image corresponding to the same subject as the pixel in which each pixel is located at the same pixel position in the other image as in the above embodiment. For example, the correspondence relationship of each pixel between each image is known, and a set of images including the same subject may be used.
また、実施例2において、各チャネルについて距離重みsjを決定したが、各チャネルの微分画像全てを考慮した1つの距離重みsjを決定してもよい。その場合、σsは以下の式で表わされる。 Further, in Example 2, was determined distance weight s j for each channel may determine one distance weight sj considering all differential image of each channel. In that case, σ s is expressed by the following equation.
なお、本発明は例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。また、複数の機器から構成されるシステムに適用してもよいし、一つの機器からなる装置に適用してもよい。また、本発明は、上述した実施例の機能(例えば、上記のフローチャートにより示される工程)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。 Note that the present invention can take the form of, for example, a system, apparatus, method, program, or storage medium. Further, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of one device. The present invention can also be realized by supplying a storage medium storing a program code of software for realizing the functions of the above-described embodiments (for example, the steps shown in the above flowchart) to a system or apparatus. In this case, the functions of the above-described embodiments are realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium so that the computer can read the program code. Further, the program may be executed by one computer or may be executed in conjunction with a plurality of computers.
100 画像処理装置
101 CPU
102 RAM
103 ROM
201 取得部
204 距離重み算出部
205 輝度重み算出部
206 色差重み算出部
207 フィルタ演算部
100 Image processing apparatus 101 CPU
102 RAM
103 ROM
DESCRIPTION OF SYMBOLS 201 Acquisition part 204 Distance weight calculation part 205 Luminance weight calculation part 206 Color difference weight calculation part 207 Filter calculation part
Claims (15)
前記第二の画像の画素値に基づく複数のパラメータを用いて、前記第一の画像の各画素の重みを決定する決定手段と、
前記第一の画像において、注目画素の画素値を、前記注目画素を含む複数の画素の画素値と、前記決定手段によって決定された重みとに基づいて置き換えるフィルタ処理を施す処理手段とを備えることを特徴とする画像処理装置。 Obtaining means for obtaining a first image and a second image corresponding to the same scene as the first image;
Determining means for determining the weight of each pixel of the first image using a plurality of parameters based on the pixel values of the second image;
The first image includes processing means for performing filter processing for replacing the pixel value of the target pixel based on the pixel values of a plurality of pixels including the target pixel and the weight determined by the determination means. An image processing apparatus.
前記決定手段は、前記加重平均における重みを決定することを特徴とする請求項1に記載の画像処理装置。 The filtering process is a process of replacing the pixel value of the target pixel with a weighted average of pixel values of a plurality of pixels including the target pixel,
The image processing apparatus according to claim 1, wherein the determination unit determines a weight in the weighted average.
前記決定手段は、前記画素値の選択に用いる重みを決定することを特徴とする請求項1に記載の画像処理装置。 The filtering process selects one of the pixel values of the plurality of pixels including the target pixel based on the weight determined for each of the plurality of pixels including the target pixel, and sets the pixel value of the target pixel. A process of replacing with the selected pixel value,
The image processing apparatus according to claim 1, wherein the determining unit determines a weight used for selecting the pixel value.
前記決定手段は、前記明るさを示す値に基づくパラメータおよび前記色彩を示す値に基づくパラメータを用いて前記重みを決定することを特徴とする請求項6に記載の画像処理装置。 The plurality of parameters include a parameter based on a value indicating the brightness of the pixel of the second image, and a parameter based on a value indicating the color of the pixel of the second image,
The image processing apparatus according to claim 6, wherein the determination unit determines the weight using a parameter based on a value indicating the brightness and a parameter based on a value indicating the color.
前記複数の画素の重みは、前記第一の重み関数と前記第二の重み関数の両方に基づいて決定されることを特徴とする請求項7又は8に記載の画像処理装置。 The determining means determines a first weight function for determining the weight of the pixel based on a value indicating the brightness of the pixel of the second image, and sets the value indicating the color of the pixel of the second image. Based on the second weight, the variance centered around the value indicating the color of the pixel of interest is smaller than the variance centered around the value indicating the brightness of the pixel of interest of the first weight function Determine the function,
The image processing apparatus according to claim 7, wherein the weights of the plurality of pixels are determined based on both the first weight function and the second weight function.
前記決定手段は、前記微分値に基づくパラメータを用いて前記重みを決定することを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。 The plurality of parameters include a parameter based on a differential value of a pixel value of the second image,
The image processing apparatus according to claim 1, wherein the determination unit determines the weight using a parameter based on the differential value.
前記第二の画像の画素値に基づいて取得された複数のパラメータに基づいて、前記第一の画像の各画素の重みを決定するステップと、
前記第一の画像において、注目画素の画素値を、前記注目画素を含む複数の画素の画素値と、前記決定するステップにおいてに決定された重みとに基づいて置き換えるフィルタ処理を施すステップとを含むことを特徴とする画像処理方法。 Obtaining a first image and a second image corresponding to the same scene as the first image;
Determining a weight of each pixel of the first image based on a plurality of parameters obtained based on a pixel value of the second image;
Applying a filter process for replacing the pixel value of the target pixel in the first image based on the pixel values of a plurality of pixels including the target pixel and the weight determined in the determining step. An image processing method.
A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262755A JP2015118611A (en) | 2013-12-19 | 2013-12-19 | Image processor, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013262755A JP2015118611A (en) | 2013-12-19 | 2013-12-19 | Image processor, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015118611A true JP2015118611A (en) | 2015-06-25 |
Family
ID=53531251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013262755A Pending JP2015118611A (en) | 2013-12-19 | 2013-12-19 | Image processor, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015118611A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017011653A (en) * | 2015-06-26 | 2017-01-12 | キヤノン株式会社 | Image processing device, imaging apparatus, image processing method and program |
CN110660031A (en) * | 2019-09-19 | 2020-01-07 | 广州酷狗计算机科技有限公司 | Image sharpening method and device and storage medium |
-
2013
- 2013-12-19 JP JP2013262755A patent/JP2015118611A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017011653A (en) * | 2015-06-26 | 2017-01-12 | キヤノン株式会社 | Image processing device, imaging apparatus, image processing method and program |
CN110660031A (en) * | 2019-09-19 | 2020-01-07 | 广州酷狗计算机科技有限公司 | Image sharpening method and device and storage medium |
CN110660031B (en) * | 2019-09-19 | 2023-12-05 | 广州酷狗计算机科技有限公司 | Image sharpening method and device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6579868B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
CN108694703B (en) | Method and apparatus for refining depth image | |
JP6282095B2 (en) | Image processing apparatus, image processing method, and program. | |
US20150278996A1 (en) | Image processing apparatus, method, and medium for generating color image data | |
US20170206690A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US10145790B2 (en) | Image processing apparatus, image processing method, image capturing device and storage medium | |
CN106251365A (en) | Many exposure video fusion method and device | |
JP5653104B2 (en) | Image processing apparatus, image processing method, and program | |
US20140293076A1 (en) | Image pickup apparatus, image processing system, image pickup system, image processing method, and non-transitory computer-readable storage medium | |
US9292732B2 (en) | Image processing apparatus, image processing method and computer program product | |
JP2017021759A (en) | Image processor, image processing method and program | |
US20200143582A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2018045396A (en) | Image processing apparatus, image processing method, and program | |
US9053552B2 (en) | Image processing apparatus, image processing method and non-transitory computer readable medium | |
JP2017085570A (en) | Image correction method and image correction device | |
JP2015118611A (en) | Image processor, image processing method, and program | |
US20230274398A1 (en) | Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium | |
US11580620B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable medium | |
JP2019045981A (en) | Image processing apparatus, image processing method, and program | |
JP6494817B2 (en) | Image processing apparatus, image processing method, and program. | |
JP5889383B2 (en) | Image processing apparatus and image processing method | |
JP2015156189A (en) | image evaluation device, and image evaluation program | |
JP2008147714A (en) | Image processor and image processing method | |
US20240177281A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2017034376A (en) | Image processor, image processing method, and computer program |