JP2018022385A - Image processing apparatus, image processing method and image processing program - Google Patents

Image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2018022385A
JP2018022385A JP2016153877A JP2016153877A JP2018022385A JP 2018022385 A JP2018022385 A JP 2018022385A JP 2016153877 A JP2016153877 A JP 2016153877A JP 2016153877 A JP2016153877 A JP 2016153877A JP 2018022385 A JP2018022385 A JP 2018022385A
Authority
JP
Japan
Prior art keywords
pixel
input image
wavelet
image processing
subband
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016153877A
Other languages
Japanese (ja)
Inventor
石原 聖司
Seiji Ishihara
聖司 石原
長谷川 誠
Makoto Hasegawa
誠 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Denki University
Original Assignee
Tokyo Denki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Denki University filed Critical Tokyo Denki University
Priority to JP2016153877A priority Critical patent/JP2018022385A/en
Publication of JP2018022385A publication Critical patent/JP2018022385A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, image processing method and image processing program capable of improving the identification accuracy of the texture.SOLUTION: An image processing apparatus includes: a conversion unit which generates a plurality of sub-bands with a wavelet coefficient as an element by performing multiple resolution analysis with wavelet transformation to an input image; a setting unit which hierarchically sets dot areas being a range of the element associated with one pixel of the input image in the sub-band on the basis of the redundancy of the wavelet transformation and the decomposition level being the frequency of repetition processing of the wavelet transformation; a derivation unit which drives a model parameter of the connection probability density function with the subset of the wavelet coefficient constituted by dividing the sub-band set with the dot area as a variable number; and an identification unit which identifies the texture of each pixel by obtaining the occurrence probability density of each pixel of the input image using the derived model parameter.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

従来、テクスチャの局所的な領域において、画素値の変化をマルコフ確率場(Markov Random Fields:MRF)を用いてモデル化することで、そのテクスチャを有する画像の領域をテクスチャごとに分割する手法が知られている。また、テクスチャを有する画像に対してウェーブレット変換することで得られるウェーブレット係数により構成される特徴空間を、ガウシアンMRF(Gaussian MRF;GMRF)を用いてモデル化する手法について研究が進められている。また、テクスチャを有する画像の解析手段として、ウェーブレットフレームを用いたウェーブレット変換を行って、画像信号のシフトに対して頑健なウェーブレット係数を得る手法についても研究が進められている。   Conventionally, there is known a technique for dividing a region of an image having a texture for each texture by modeling a change in pixel values using a Markov Random Fields (MRF) in a local region of the texture. It has been. In addition, research is being conducted on a technique for modeling a feature space composed of wavelet coefficients obtained by performing wavelet transform on an image having a texture using a Gaussian MRF (GMRF). Further, as a means for analyzing an image having a texture, research is also being conducted on a technique for obtaining a wavelet coefficient that is robust against a shift of an image signal by performing wavelet transform using a wavelet frame.

特開2005−352753号公報JP 2005-352753 A

しかしながら、従来の技術では、テクスチャの識別精度が十分でない場合があった。本発明は、このような事情を考慮してなされたものであり、テクスチャの識別精度を向上させることができる画像処理装置、画像処理方法、および画像処理プログラムを提供することである。   However, in the conventional technique, the texture identification accuracy may not be sufficient. The present invention has been made in consideration of such circumstances, and provides an image processing apparatus, an image processing method, and an image processing program capable of improving the texture identification accuracy.

上記目的を達成するため、本発明の一態様に係る画像処理装置は、入力画像に対してウェーブレット変換による多重解像度解析を行うことで、前記入力画像のウェーブレット係数を要素とするサブバンドを複数生成する変換部と、前記変換部により生成されたサブバンドにおいて、前記入力画像の一画素に対応付けるドットエリア(要素の範囲を示す領域)を、前記変換部による前記ウェーブレット変換の冗長性と、前記変換部による前記ウェーブレット変換の繰り返し処理の回数である分解レベルとに基づいて、階層的に設定する設定部と、前記設定部により前記ドットエリアが設定されたサブバンドを分割してウェーブレット係数の部分集合を構成することで、前記部分集合を変数とした結合確率密度関数のモデルパラメータを導出する導出部と、前記導出部により導出された前記モデルパラメータを用いて前記入力画像の各画素の生起確率密度を求めることで、前記入力画像の各画素のテクスチャを識別する識別部と、を備える。   To achieve the above object, an image processing apparatus according to an aspect of the present invention generates a plurality of subbands having wavelet coefficients of an input image as elements by performing multi-resolution analysis by wavelet transform on the input image. A conversion unit, and a dot area (region indicating an element range) associated with one pixel of the input image in the subband generated by the conversion unit, the redundancy of the wavelet transform by the conversion unit, and the conversion A setting unit that is set hierarchically based on a decomposition level that is the number of times the wavelet transform is repeated by the unit, and a subset of wavelet coefficients by dividing the subband in which the dot area is set by the setting unit To derive the model parameters of the joint probability density function with the subset as a variable And output unit, by using the model parameters derived by the deriving unit obtains the occurrence probability density of each pixel of the input image, and a recognition unit that identifies the texture of each pixel of the input image.

本発明の一態様によれば、テクスチャの識別精度を向上させることができる。   According to one embodiment of the present invention, texture identification accuracy can be improved.

実施形態における画像処理装置100の構成の一例を示す図である。It is a figure which shows an example of a structure of the image processing apparatus 100 in embodiment. ウェーブレットフレーム分解によってサブバンドが生成される様子を模式的に示す図である。It is a figure which shows typically a mode that a subband is produced | generated by wavelet frame decomposition | disassembly. ドットエリアDTの設定処理を模式的に示す図である。It is a figure which shows typically the setting process of the dot area DT. 部分集合Ukl^(j,s)の一例を示す図である。It is a figure which shows an example of the subset Ukl ^ (j, s). サンプルエリアAに対応したドットエリアを統合したエリアA^(j)の設定処理を模式的に示す図である。It is a figure which shows typically the setting process of area Ac ^ (j) which integrated the dot area corresponding to sample area Ac . 本実施形態における画像処理装置100の処理の流れを示すフローチャートのである。5 is a flowchart showing a flow of processing of the image processing apparatus 100 in the present embodiment. 実験に用いた入力画像の一例を示す図である。It is a figure which shows an example of the input image used for experiment. 実験に用いたBrodatzのテクスチャ画像を示す図である。It is a figure which shows the texture image of Brodaz used for experiment. 本提案手法と、第1従来手法および第2従来手法とのそれぞれにおけるクラスラベルの正識別率を比較した図である。It is the figure which compared the correct identification rate of the class label in each of this proposal method, and the 1st conventional method and the 2nd conventional method. 実験に使用した入力画像の一例を示す図である。It is a figure which shows an example of the input image used for experiment. 入力画像中の4つのテクスチャクラスの領域をそれぞれ異なる濃度値で表した図である。It is a figure showing the area | region of four texture classes in an input image with a different density value, respectively. 本提案手法において入力画像をクラスラベルごとに領域分割した一例を示す図である。It is a figure which shows an example which divided the area | region of the input image for every class label in this proposal technique. 第1従来手法において入力画像をクラスラベルごとに領域分割した一例を示す図である。It is a figure which shows an example which divided the area | region of the input image for every class label in the 1st conventional method. 第2従来手法において入力画像をクラスラベルごとに領域分割した一例を示す図である。It is a figure which shows an example which divided the area | region of the input image for every class label in the 2nd conventional method.

以下、図面を参照し、本発明の画像処理装置、画像処理方法、および画像処理プログラムの実施形態について説明する。   Hereinafter, embodiments of an image processing apparatus, an image processing method, and an image processing program of the present invention will be described with reference to the drawings.

図1は、実施形態における画像処理装置100の構成の一例を示す図である。本実施形態における画像処理装置100は、入力画像に対してウェーブレット変換を行い、入力画像のテクスチャを識別する。テクスチャとは、例えば、入力画像のうち一部または全部に示される、物体の質感を表現した模様(明るさや色彩等の変化)である。また、入力画像は、ある画像の一部領域(例えば単一の画素や複数画素の集合)であってもよいし、全領域であってもよい。また、本実施形態において、入力画像を含む各種画像は、二次元格子状(例えばマトリクス状)に配置された画素に対して、一次元または多次元の画素値が対応付けられたデータであるものとする。例えば、画像がカメラなどにより生成されたディジタル画像である場合、画素値は、輝度、色相、明度、彩度の一部または全部であってよい。また、入力画像の画素値は、画像のウェーブレット係数、または当該ウェーブレット係数に基づく値と見做されてもよい。   FIG. 1 is a diagram illustrating an example of a configuration of an image processing apparatus 100 according to the embodiment. The image processing apparatus 100 according to the present embodiment performs wavelet transform on the input image and identifies the texture of the input image. The texture is, for example, a pattern (change in brightness, color, etc.) representing the texture of an object, which is shown in part or all of the input image. In addition, the input image may be a partial area of an image (for example, a single pixel or a set of a plurality of pixels) or an entire area. In the present embodiment, various images including an input image are data in which one-dimensional or multi-dimensional pixel values are associated with pixels arranged in a two-dimensional grid (for example, a matrix). And For example, when the image is a digital image generated by a camera or the like, the pixel value may be a part or all of luminance, hue, brightness, and saturation. The pixel value of the input image may be regarded as a wavelet coefficient of the image or a value based on the wavelet coefficient.

画像処理装置100は、例えば、制御部110と、記憶部130とを備える。制御部110は、例えば、ウェーブレット変換部112と、設定部114と、導出部116と、テクスチャ識別部118とを備える。制御部110は、例えばCPU(Central Processing Unit)等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、制御部110の構成要素の一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよい。   The image processing apparatus 100 includes a control unit 110 and a storage unit 130, for example. The control unit 110 includes, for example, a wavelet transform unit 112, a setting unit 114, a derivation unit 116, and a texture identification unit 118. The control unit 110 is realized by a processor such as a CPU (Central Processing Unit) executing a program stored in a program memory. Also, some or all of the components of the control unit 110 may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array).

記憶部130は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)、SDカード等の不揮発性の記憶媒体と、RAM(Random Access Memory)、レジスタ等の揮発性の記憶媒体とによって実現されてよい。記憶部130は、上述したプロセッサが実行するプログラムを格納する他、サンプルエリア情報132等を格納する。サンプルエリア情報132は、後述する導出部116の処理過程において利用される情報である。   The storage unit 130 includes, for example, a nonvolatile storage medium such as a ROM (Read Only Memory), a flash memory, an HDD (Hard Disk Drive), and an SD card, and a volatile storage medium such as a RAM (Random Access Memory) and a register. And may be realized. The storage unit 130 stores sample area information 132 and the like in addition to the program executed by the processor described above. The sample area information 132 is information used in the process of the derivation unit 116 described later.

[ウェーブレットフレーム分解処理]
ウェーブレット変換部112は、入力画像に対して冗長なウェーブレット変換を行う。すなわち、ウェーブレット変換部112は、入力画像に含まれる画素のうち、ある着目する画素(以下、着目画素と称する)と、その着目画素の近傍に位置する他の画素(以下、近傍画素と称する)とに対してウェーブレット変換を行い、その着目画素および近傍画素の画素範囲(以下、フレームと称する)の全体のウェーブレット係数を導出し、フレーム内の着目画素の位置に対応した要素に、フレームの全体のウェーブレット係数を対応付ける処理を行う。冗長なウェーブレット変換とは、ある着目画素に対するフレームと別の着目画素に対するフレームとが互いに重複する部分を一定以上生じさせることをいう。フレームの重複度合は、「冗長性」の一例である。以下、冗長なウェーブレット変換を「ウェーブレットフレーム分解」と称して説明する。ウェーブレットフレーム分解に用いるマザーウェーブレットは、例えば、Haarウェーブレットであってよいがこれに限定されず、他のマザーウェーブレットであってもよい。本実施形態では、一例として、ウェーブレットフレーム分解にHaarウェーブレットを用いるものとして説明する。
[Wavelet frame decomposition]
The wavelet transform unit 112 performs redundant wavelet transform on the input image. That is, the wavelet transform unit 112, among pixels included in the input image, a certain pixel of interest (hereinafter referred to as a pixel of interest) and another pixel located in the vicinity of the pixel of interest (hereinafter referred to as a neighborhood pixel). And the wavelet transform of the pixel range of the target pixel and neighboring pixels (hereinafter referred to as a frame) is derived, and the entire frame is converted into an element corresponding to the position of the target pixel in the frame. Perform processing to associate the wavelet coefficients. Redundant wavelet transform refers to generating a portion where a frame for a certain pixel of interest and a frame for another pixel of interest overlap each other more than a certain amount. The degree of frame overlap is an example of “redundancy”. Hereinafter, redundant wavelet transform will be described as “wavelet frame decomposition”. The mother wavelet used for wavelet frame decomposition may be, for example, a Haar wavelet, but is not limited thereto, and may be another mother wavelet. In the present embodiment, as an example, it is assumed that Haar wavelets are used for wavelet frame decomposition.

例えば、ウェーブレット変換部112は、入力画像の全画素のそれぞれの位置に対応する要素にウェーブレット係数が対応付けられたサブバンドを複数生成する。この場合、ウェーブレットフレーム分解時に入力画像の位置ずれが生じても、入力画像の全画素数分のウェーブレット係数が導出されるため、位置ずれに応じた分各ウェーブレット係数が対応付けられた要素の位置がずれるだけで、それらの変動の様子は変化しない。   For example, the wavelet transform unit 112 generates a plurality of subbands in which wavelet coefficients are associated with elements corresponding to the positions of all the pixels of the input image. In this case, even if a position shift of the input image occurs at the time of wavelet frame decomposition, wavelet coefficients corresponding to the total number of pixels of the input image are derived, so the position of the element associated with each wavelet coefficient corresponding to the position shift Just by shifting, the state of those changes does not change.

ウェーブレットフレーム分解を行うことで導出されるウェーブレット係数は、そのウェーブレット変換の多重解像度解析の特性上、列方向において低周波成分を有するものと、列方向において高周波成分を有するものと、行方向において低周波成分を有するものと、行方向において高周波成分を有するものに分類される。従って、ウェーブレット変換部112は、4種類のサブバンドを生成することになる。なお、本実施形態において、ウェーブレット変換部112は、入力画像に対してウェーブレットフレーム分解を行い、その結果として得られた1種類のサブバンド(図2の分解レベル−1のLL)に対して、さらにウェーブレットフレーム分解を行い、多重(2回以上)に分解されたサブバンドを生成してよい。このようにウェーブレットフレーム分解を繰り返す多重解像度解析によって、 |3J|+1枚のサブバンドが得られる。ここで、Jは、入力画像を多重にウェーブレットフレーム分解した全回数を表す値(以下、分解レベルと称する)である。本実施形態では分解レベルJは負値で表される。例えば、ウェーブレットフレーム分解が多重に2回行われた場合、分解レベルJは−2である。   Wavelet coefficients derived by performing wavelet frame decomposition have low-frequency components in the column direction, low-frequency components in the column direction, and low in the row direction due to the characteristics of the multi-resolution analysis of the wavelet transform. They are classified into those having a frequency component and those having a high frequency component in the row direction. Therefore, the wavelet transform unit 112 generates four types of subbands. In the present embodiment, the wavelet transform unit 112 performs wavelet frame decomposition on the input image, and with respect to one type of subband (LL of decomposition level-1 in FIG. 2) obtained as a result, Further, wavelet frame decomposition may be performed to generate multiple (two or more times) decomposed subbands. As described above, | 3J | +1 subbands are obtained by multi-resolution analysis that repeats wavelet frame decomposition. Here, J is a value (hereinafter referred to as a decomposition level) representing the total number of times that an input image has been subjected to multiple wavelet frame decomposition. In the present embodiment, the decomposition level J is represented by a negative value. For example, when wavelet frame decomposition is performed twice in multiple, the decomposition level J is −2.

以下、行方向において低周波成分を有すると共に、列方向において高周波成分を有する分解レベルjのウェーブレット係数を要素とするサブバンドを、その分解レベルと周波数成分とを組にして、サブバンド(j,LH)と称する。また、行方向において高周波成分を有すると共に、列方向において低周波成分を有す分解レベルjのウェーブレット係数を要素とするサブバンドをサブバンド(j,HL)と称する。また、行方向において高周波成分を有すると共に、列方向において高周波成分を有する分解レベルjのウェーブレット係数を要素とするサブバンドをサブバンド(j,HH)と称する。また、行方向において低周波成分を有すると共に、列方向において低周波成分を有する分解レベルjのウェーブレット係数を要素とするサブバンドをサブバンド(j,LL)と称する。   Hereinafter, subbands having wavelet coefficients of decomposition level j having low frequency components in the row direction and high frequency components in the column direction as sub-bands (j, LH). A subband having a wavelet coefficient at decomposition level j having a high frequency component in the row direction and a low frequency component in the column direction is referred to as a subband (j, HL). A subband having a wavelet coefficient of decomposition level j having a high frequency component in the row direction and having a high frequency component in the column direction is referred to as a subband (j, HH). A subband having a wavelet coefficient at decomposition level j having a low frequency component in the row direction and a low frequency component in the column direction is referred to as a subband (j, LL).

例えば、上述したHaarウェーブレットをマザーウェーブレットとして用いた場合、そのウェーブレットフレーム分解では、入力画像において、行方向をx、列方向をyとすると、入力画像の画素の座標(x,y)に対応する要素のウェーブレット係数は、以下の数式(1)ように表すことができる。   For example, when the Haar wavelet described above is used as a mother wavelet, in the wavelet frame decomposition, in the input image, if the row direction is x and the column direction is y, it corresponds to the pixel coordinates (x, y) of the input image. The wavelet coefficient of the element can be expressed as the following formula (1).

数式(1)におけるuxy^(J,LL)は、サブバンド(J,LL)におけるウェーブレット係数を表し、uxy^(j,s)は、サブバンド(j,s)におけるウェーブレット係数を表している。また、上記数式(1)により表されるウェーブレット係数は、Haarウェーブレットを用いる場合、下記の数式(2)および(3)によって導出される。 In formula (1), u xy ^ (J, LL) represents a wavelet coefficient in the subband (J, LL), and u xy ^ (j, s) represents a wavelet coefficient in the subband (j, s). ing. Moreover, the wavelet coefficient represented by the above mathematical formula (1) is derived by the following mathematical formulas (2) and (3) when using the Haar wavelet.

数式(2)および(3)に示すアスタリスク記号*は、低周波成分Lおよび高周波成分Hからなる集合の要素、すなわち*∈{L,H}を表している。なお、上記数式(2)および(3)は、下記の数式(4)および(5)を満たすものとする。   The asterisk symbol * shown in the mathematical expressions (2) and (3) represents an element of a set composed of the low frequency component L and the high frequency component H, that is, * ∈ {L, H}. In addition, the said numerical formula (2) and (3) shall satisfy | fill following numerical formula (4) and (5).

ここで、上記数式(2)、(3)、(4)、および(5)において、左辺の分解レベルがjであるとき、右辺のxy´およびx´yは、入力画像における画素の座標(x,y+2(|j|−1))および座標(x+2(|j|−1),y)を表すものとする。また、uxy^(0,LL)=uxyは、入力画像における画素の座標(x,y)に対応する画素値を表している。以下、入力画像の座標(x,y)に対応する画素または要素を、画素(x,y)または要素(x,y)と称する。 Here, in the above formulas (2), (3), (4), and (5), when the decomposition level on the left side is j, xy ′ and x′y on the right side are the coordinates of the pixel in the input image ( x, y + 2 (| j | -1) ) and coordinates (x + 2 (| j | -1) , y). Further, u xy ^ (0, LL) = u xy represents a pixel value corresponding to the pixel coordinates (x, y) in the input image. Hereinafter, a pixel or element corresponding to the coordinates (x, y) of the input image is referred to as a pixel (x, y) or an element (x, y).

図2は、ウェーブレットフレーム分解によってサブバンドが生成される様子を模式的に示す図である。図示のように、例えば、分解レベルj=−1では、合計4つのサブバンドが生成され、分解レベルj=−2では、分解レベルj=−1において生成されたサブバンドのうち、所定のサブバンド(例えば最も高周波成分が取り除かれたサブバンド(−1,LL))がさらに4つのサブバンドに変換される。従って、分解レベルj=−2では、分解レベルj=−1でのサブバンド(図示の例ではサブバンド(−1,LH)、サブバンド(−1,HL)、サブバンド(−1,HH))と、サブバンド(−1,LL)から変換された4つのサブバンドとの合計7つのサブバンドが生成される。   FIG. 2 is a diagram schematically illustrating how subbands are generated by wavelet frame decomposition. As illustrated, for example, a total of four subbands are generated at the decomposition level j = −1, and a predetermined subband is generated among the subbands generated at the decomposition level j = −1 at the decomposition level j = −2. The band (for example, the subband (−1, LL) from which the highest frequency component is removed) is further converted into four subbands. Therefore, at the decomposition level j = −2, the subbands at the decomposition level j = −1 (subband (−1, LH), subband (−1, HL), subband (−1, HH in the illustrated example) )) And four subbands converted from subband (-1, LL), a total of seven subbands are generated.

[ドットエリアの設定処理]
設定部114は、ウェーブレット変換部112により生成されたサブバンドにおいて、入力画像の一画素に対応付けるドットエリアDTを、ウェーブレットフレーム分解の冗長性と、サブバンドの分解レベルとに基づいて、階層的(分解レベルごと)に設定する。ドットエリアDTには、入力画像の一画素である着目画素の座標に対応した着目要素と、当該着目要素の近傍要素とが含まれる。
[Dot area setting process]
In the subband generated by the wavelet transform unit 112, the setting unit 114 hierarchically maps the dot area DT associated with one pixel of the input image based on the wavelet frame decomposition redundancy and the subband decomposition level. Set for each decomposition level. The dot area DT includes a target element corresponding to the coordinates of the target pixel that is one pixel of the input image and neighboring elements of the target element.

例えば、Haarウェーブレットを用いたウェーブレットフレーム分解が1回行われる場合、入力画像に含まれる画素(x,y)の画素値uxyは、分解レベル−1のサブバンドにおいて、4つの要素{(x,y)、(x−1,y)、(x,y−1)、(x−1,y−1)}のウェーブレット係数の導出に利用される。さらに、分解レベル−1のサブバンドをウェーブレットフレーム分解する場合、分解レベル−1のサブバンドにおける4つの要素{(x,y)、(x−1,y)、(x,y−1)、(x−1,y−1)}のそれぞれが、分解レベル−2のサブバンドに含まれる4つの異なる要素のウェーブレット係数の導出に利用される。すなわち、入力画像(分解レベル0)に含まれる着目画素(x,y)の画素値uxyは、分解レベル−2のサブバンドにおける16個の要素のウェーブレット係数の導出に利用される。 For example, when the wavelet frame decomposition using the Haar wavelet is performed once, the pixel value u xy of the pixel (x, y) included in the input image has four elements {(x , Y), (x−1, y), (x, y−1), (x−1, y−1)} are used to derive wavelet coefficients. Further, when the decomposition level-1 subband is subjected to wavelet frame decomposition, four elements {(x, y), (x-1, y), (x, y-1), Each of (x−1, y−1)} is used to derive wavelet coefficients of four different elements included in the decomposition level-2 subband. That is, the pixel value u xy of the pixel of interest (x, y) included in the input image (decomposition level 0) is used to derive wavelet coefficients of 16 elements in the subband of decomposition level-2.

本実施形態では、分解レベルに応じた入力画像の画素値uxyの上記のような重複利用を考慮して、例えば、サブバンドに対して、そのサブバンドの分解レベルjに基づく大きさ(要素数)を有するドットエリアDT^(j)が設定される。 In the present embodiment, in consideration of the above-described overlapping use of the pixel value u xy of the input image according to the decomposition level, for example, for a subband, a size (element based on the subband decomposition level j) A dot area DT ^ (j) having (number) is set.

図3は、ドットエリアDTの設定処理を模式的に示す図である。図中に示すDT^(−1)は、分解レベル−1のサブバンドに設定されるドットエリアを表している、また、DT^(−2)は、分解レベル−2のサブバンドに設定されるドットエリアを表している。例えば、設定部114は、ウェーブレットフレーム分解においてHaarウェーブレットがマザーウェーブレットとして用いられる場合、ある分解レベルjに応じて入力画像の画素(x,y)に対応するサブバンド内のドットエリアDT^(j)を、行方向および列方向のそれぞれの軸のマイナス方向に向かって(x,y)から2|j|×2|j|の要素数の範囲に拡大する。 FIG. 3 is a diagram schematically showing the dot area DT setting process. In the figure, DT ^ (-1) represents a dot area set in a subband of decomposition level-1, and DT ^ (-2) is set in a subband of decomposition level-2. This represents the dot area. For example, when the Haar wavelet is used as the mother wavelet in the wavelet frame decomposition, the setting unit 114 sets the dot area DT ^ (j in the subband corresponding to the pixel (x, y) of the input image according to a certain decomposition level j. ) Is expanded in the range of the number of elements from (x, y) to 2 | j | × 2 | j | in the minus direction of the respective axes in the row direction and the column direction.

本実施形態を適用しない場合、図示の例では、入力画像における画素(6,6)が着目画素であるため、分解レベル−1のサブバンドに設定されるドットエリアDT^(−1)は、入力画像における着目画素(6,6)の座標に対応した着目要素(6,6)のみの領域となる。すなわち、一画素に対して一要素が対応付けられる。これに対して、本実施形態では2|j|×2|j|の要素数の範囲に拡大するため、ドットエリアDT^(−1)は、入力画像における着目画素(6,6)の座標に対応した着目要素(6,6)と、この着目要素(6,6)に隣接する要素(5,6)および(6,5)と、要素(5,6)および(6,5)の双方に対して互いに隣接する要素(5,5)とを合わせた範囲の領域となる。また、分解レベル−2におけるサブバンドに設定されたドットエリアDT^(−2)は、合計16要素分(行方向の4要素×列方向の4要素)の範囲の領域となる。すなわち、分解レベルjのサブバンドに設定されるドットエリアDT^(j)に含まれる要素の数は、4|j|となる。これによって、入力画像の一画素に対して階層的に複数の要素が対応付けられることになる。なお、設定部114は、ウェーブレットフレーム分解にHaarウェーブレット以外の他のマザーウェーブレットが用いられた場合、その他のマザーウェーブレットによるフレームの大きさ(分解の冗長性)に基づいて、ドットエリアDTの大きさを更に拡大してもよい。 When this embodiment is not applied, in the illustrated example, since the pixel (6, 6) in the input image is the pixel of interest, the dot area DT ^ (-1) set in the subband of decomposition level-1 is This is an area of only the target element (6, 6) corresponding to the coordinates of the target pixel (6, 6) in the input image. That is, one element is associated with one pixel. On the other hand, in the present embodiment, the dot area DT ^ (-1) is the coordinate of the pixel of interest (6, 6) in the input image because it is expanded to the range of the number of elements of 2 | j | × 2 | j | Element (6, 6) corresponding to the element (5, 6) and (6, 5) adjacent to the element of interest (6, 6), and elements (5, 6) and (6, 5). It is a region in a range where elements (5, 5) adjacent to each other are combined. Also, the dot area DT ^ (-2) set in the subband at the separation level-2 is an area in a range of a total of 16 elements (4 elements in the row direction × 4 elements in the column direction). That is, the number of elements included in the dot area DT ^ (j) set in the subband of the decomposition level j is 4 | j | . As a result, a plurality of elements are hierarchically associated with one pixel of the input image. In addition, when a mother wavelet other than the Haar wavelet is used for wavelet frame decomposition, the setting unit 114 determines the size of the dot area DT based on the frame size (decomposition redundancy) of the other mother wavelet. May be further enlarged.

導出部116は、設定部114によってドットエリアDTが設定されたサブバンドの要素を部分集合に分割する。そして、導出部116は、分割した部分集合ごとに、GMRFモデルの局所条件付確率密度関数p(umknl^(j,s))のモデル式に用いるパラメータを導出する。 The deriving unit 116 divides the subband elements in which the dot area DT is set by the setting unit 114 into subsets. Then, the derivation unit 116 derives parameters used for the model expression of the local conditional probability density function p (u mknl ^ (j, s)) of the GMRF model for each divided subset.

[部分集合に分割する処理]
例えば、導出部116は、ドットエリアDT^(j)が設定された分解レベルjのサブバンド(j,s)のウェーブレット係数uxy^(j,s)を、当該ドットエリアDT^(j)に含まれる要素数と同数(例えば4|j|個)の部分集合Ukl^(j,s)に分割する。
[Process to divide into subsets]
For example, the derivation unit 116 converts the wavelet coefficient u xy ^ (j, s) of the subband (j, s) at the decomposition level j in which the dot area DT ^ (j) is set to the dot area DT ^ (j). Are divided into the same number (for example, 4 | j | ) of subsets U kl ^ (j, s).

図4は、部分集合Ukl^(j,s)の一例を示す図である。図示の例では、分解レベルj=−1の場合のサブバンド(−1,s)を4個の部分集合U00^(−1,s)からU11^(−1,s)に分割している。図中(a)から(d)の灰色のマスに示すように、それぞれの部分集合Ukl^(−1,s)に含まれる要素が、他の部分集合に含まれる要素と互いに重複しないように分割される。導出部116は、分解レベルがjの場合、基準となる要素(例えば四隅のいずれか)から(2|j|−1)置きに要素を抽出してそれぞれの部分集合を形成する。例えば、導出部116は、分解レベル−1のときには、基準となる要素から一つ置きに要素を抽出し、分解レベル−2のときには、基準となる要素から三つ置きに要素を抽出する。このように、導出部116は、部分集合Ukl^(j,s)同士で要素が重複しないように、分解レベルjに応じて集合形成時の要素の間引く間隔を決定してよい。例えば、分割対象のサブバンド(j,s)の分解レベルjが大きいほど(絶対値が大きいほど)、集合形成時の要素の間引く間隔を広くし、分解レベルjが小さいほど(絶対値が小さいほど)、集合形成時の要素の間引く間隔を狭くする傾向で、ドットエリアDT^(j)内の要素数と同数の部分集合Ukl^(j,s)を形成してよい。なお、部分集合Ukl^(j,s)に含まれる要素の全てが、他の部分集合に含まれる要素と互いに重複しないように分割される必要はなく、一部要素が互いに重複するように分割されてもよい。 FIG. 4 is a diagram illustrating an example of the subset U kl ^ (j, s). In the example shown in the figure, the subband (−1, s) when the decomposition level j = −1 is divided into four subsets U 00 ^ (− 1, s) to U 11 ^ (− 1, s). ing. As shown in the gray squares of (a) to (d) in the figure, the elements included in the respective subsets U kl ^ (− 1, s) do not overlap with the elements included in the other subsets. It is divided into. When the decomposition level is j, the deriving unit 116 extracts elements from the reference elements (for example, any one of the four corners) every (2 | j | -1) to form respective subsets. For example, the deriving unit 116 extracts every other element from the reference elements at the decomposition level-1, and extracts every third element from the reference elements at the decomposition level-2. As described above, the derivation unit 116 may determine an interval of thinning out elements at the time of forming a set according to the decomposition level j so that the elements do not overlap between the subsets U kl ^ (j, s). For example, the larger the decomposition level j of the sub-band (j, s) to be divided (the larger the absolute value), the wider the interval for thinning out elements at the time of forming a set, and the smaller the decomposition level j (the smaller the absolute value). However, the same number of subsets U kl ^ (j, s) as the number of elements in the dot area DT ^ (j) may be formed with a tendency to narrow the thinning-out interval at the time of forming the set. Note that it is not necessary to divide all elements included in the subset U kl ^ (j, s) so as not to overlap with elements included in other subsets, so that some elements overlap each other. It may be divided.

また、要素の間引く間隔は、マザーウェーブレットの種類に応じて変更されてよい。例えば、フレームの大きい(ウェーブレットフレーム分解時に重複させる画素数が多い)マザーウェーブレットほど、集合形成時の要素の間引く間隔を広くし、フレームの小さい(ウェーブレットフレーム分解時に重複させる画素数が少ない)マザーウェーブレットほど、集合形成時の要素の間引く間隔を狭くする傾向で、分解レベルjにおけるドットエリアDT^(j)に含まれる要素数と同数の部分集合Ukl^(j,s)を形成してよい。なお、ドットエリアDT^(j)に含まれる要素数と部分集合Ukl^(j,s)の数は必ずしも同じである必要はなく、相違していてもよい。 Further, the thinning-out interval of elements may be changed according to the type of mother wavelet. For example, a mother wavelet with a larger frame (a larger number of pixels to be duplicated when decomposing wavelet frames) has a wider interval for thinning out elements when forming a set, and a mother wavelet with a smaller frame (smaller number of pixels to be duplicated when decomposing wavelet frames) As the number of sub-sets U kl ^ (j, s) equal to the number of elements included in the dot area DT ^ (j) at the decomposition level j may be formed with a tendency to narrow the thinning-out interval at the time of forming the set. . Note that the number of elements included in the dot area DT ^ (j) and the number of the subsets U kl ^ (j, s) are not necessarily the same and may be different.

例えば、4|j|個に分割された部分集合Ukl^(j,s)のそれぞれは、以下の数式(6)によって表すことができる。 For example, each of the subsets U kl ^ (j, s) divided into 4 | j | pieces can be expressed by the following formula (6).

ここで、m=m・2|j|+k,n=n・2|j|+l,(m,n=0,1,…)である。部分集合Ukl^(j,s)内において、ある着目要素(m,n)の2次近傍、すなわち着目要素(m,n)をその周囲から取り囲む八つの近傍要素の集合をTkl^(j,s)とした場合、部分集合Ukl^(j,s)に対する確率密度関数p(umknl^(j,s))は、数式(7)、(8)のように表すことができる。これらの数式は、着目要素(m,n)の生起確率が、その近傍要素Tkl^(j,s)にのみ依存する局所条件付確率分布に従うことを表している。 Here, m k = m · 2 | j | + k, n l = n · 2 | j | + l, (m, n = 0, 1,...). Subset U kl ^ (j, s) in the, some element of interest (m k, n l) 2 order neighborhood of, i.e., a set of neighboring elements of eight surrounding the element of interest (m k, n l) from the periphery thereof When T kl ^ (j, s) is assumed, the probability density function p (u mknl ^ (j, s)) for the subset U kl ^ (j, s) is expressed by equations (7) and (8). Can be represented. These mathematical expressions indicate that the occurrence probability of the element of interest (m k , n l ) follows a local conditional probability distribution that depends only on its neighboring elements T kl ^ (j, s).

数式(7)、(8)において、μkl^(j,s)は、部分集合Ukl^(j,s)に含まれる全要素のウェーブレット係数の平均を表すパラメータである。また、(σkl^(j,s))は、部分集合Ukl^(j,s)に含まれる全要素のウェーブレット係数の分散を表すパラメータである。また、βkl,τ^(j,s)は、部分集合Ukl^(j,s)に含まれる要素間の相互作用を表すパラメータである。相互作用は、例えば、着目要素(m,n)が、近傍要素の集合Tkl^(j,s)のそれぞれの要素τから受ける作用を表している。 In Equations (7) and (8), μ kl ^ (j, s) is a parameter representing the average of the wavelet coefficients of all elements included in the subset U kl ^ (j, s). Further, (σ kl ^ (j, s)) 2 is a parameter representing the dispersion of wavelet coefficients of all elements included in the subset U kl ^ (j, s). Β kl, τ ^ (j, s) is a parameter representing an interaction between elements included in the subset U kl ^ (j, s). The interaction represents, for example, an action that the element of interest (m k , n l ) receives from each element τ of the set of neighboring elements T kl ^ (j, s).

[モデルパラメータの導出処理]
導出部116は、上述した数式(7)に示す平均μkl^(j,s)、分散(σkl^(j,s))、相互作用βkl,τ^(j,s)の三つのパラメータを、分割した例えば4|j|個の部分集合Ukl^(j,s)のそれぞれから導出する。以下、これらの三つのパラメータの組(μkl^(j,s)、(σkl^(j,s))、βkl,τ^(j,s))をまとめて一つのパラメータΘkl,c^(j,s)として扱う。
[Model parameter derivation process]
The deriving unit 116 calculates the average μ kl ^ (j, s), variance (σ kl ^ (j, s)) 2 , and interaction β kl, τ ^ (j, s) shown in Equation (7). One parameter is derived from each of, for example, 4 | j | subsets U kl ^ (j, s) divided. Hereinafter, a set of these three parameters (μ kl ^ (j, s), (σ kl ^ (j, s)) 2 , β kl, τ ^ (j, s)) is combined into one parameter Θ kl. , C ^ (j, s).

例えば、導出部116は、各部分集合Ukl^(j,s)を変数とする結合確率密度関数p(Ukl^(j,s))を想定し、この結合確率密度関数p(Ukl^(j,s))を疑似尤度関数(準尤度関数)に近似させ、疑似尤度関数に近似させた結合確率密度関数p(Ukl^(j,s))の最大化を図るようにしてパラメータΘkl,c^(j,s)を導出する。 For example, the derivation unit 116 assumes a joint probability density function p (U kl ^ (j, s)) having each subset U kl ^ (j, s) as a variable, and this combined probability density function p (U kl). ^ (J, s)) is approximated to a pseudo-likelihood function (quasi-likelihood function), and the joint probability density function p (U kl ^ (j, s)) approximated to the pseudo-likelihood function is maximized. In this way, the parameter Θ kl, c ^ (j, s) is derived.

[結合確率密度関数]
以下、パラメータΘkl,c^(j,s)の導出にあたり、その導出に用いる結合確率密度関数p(Ukl^(j,s))について説明する。導出部116は、各部分集合Ukl^(J,LL)と、各部分集合Ukl^(j,s)を互いに独立するものと仮定することで、各サブバンドから一つずつ選択した部分集合の組(U^(J,LL),…,U^(j,s),…,U^(−1,HH))=U(i=1,2,…,I)をI通りの組合せで構成する。ここで、U^(J,LL)∈{Ukl^(J,LL)}、U^(j,s)∈{Ukl^(j,s)}が成り立つものとする。また、Iは、例えば4|J|・Π(4|3j|)で表される。導出部116は、各サブバンド中の各部分集合を変数とする結合確率密度関数p(Ukl^(J,LL))およびp(Ukl^(j,s))をそれぞれ想定するとともに、各サブバンドから一つずつ選択した部分集合を変数とする当該の結合確率密度関数の総乗をとることで、I通りの結合確率密度関数p(U)を定義する。以下の数式(9)は、結合確率密度関数p(U)を表す定義式である。
[Binding probability density function]
Hereinafter, the joint probability density function p (U kl ^ (j, s)) used for derivation of the parameter Θ kl, c ^ (j, s) will be described. The derivation unit 116 assumes that each subset U kl ^ (J, LL) and each subset U kl ^ (j, s) are independent from each other, thereby selecting one part from each subband. A set of sets (U i ^ (J, LL),..., U i ^ (j, s),..., U i ^ (− 1, HH)) = U i (i = 1, 2,..., I) Is composed of I combinations. Here, U i ^ (J, LL) ∈ {U kl ^ (J, LL)} and U i ^ (j, s) ∈ {U kl ^ (j, s)} are established. In addition, I is represented by, for example, 4 | J | · j j (4 | 3j | ). The deriving unit 116 assumes joint probability density functions p (U kl ^ (J, LL)) and p (U kl ^ (j, s)) each having a subset in each subband as variables, By taking the sum of the relevant joint probability density functions with a subset selected from each subband as a variable, I kinds of joint probability density functions p (U i ) are defined. The following mathematical formula (9) is a defining formula representing the joint probability density function p (U i ).

各部分集合Ukl^(j,s)を変数とする結合確率密度関数p(Ukl^(j,s))は、例えば疑似尤度関数によって定義される。数式(10)は、結合確率密度関数p(Ukl^(j,s))の疑似尤度関数を表す。 The joint probability density function p (U kl ^ (j, s)) having each subset U kl ^ (j, s) as a variable is defined by a pseudo likelihood function, for example. Equation (10) represents a pseudo-likelihood function of the joint probability density function p (U kl ^ (j, s)).

[サンプルエリアの設定]
一方で、本実施形態において、ウェーブレットフレーム分解の対象となる入力画像には、テクスチャの識別クラス(以下、テクスチャクラスcと称する)が予め推定または指定されている画素の領域(以下、サンプルエリアAと称する)が設定される。例えば、入力画像において行方向x、列方向yで表される座標を指定することで、サンプルエリアAは設定されてよい。入力画像に対するサンプルエリアAの位置情報は、サンプルエリア情報132として記憶部130に予め記憶されていてよい。
[Sample area settings]
On the other hand, in the present embodiment, an input image to be subjected to wavelet frame decomposition has a pixel area (hereinafter referred to as sample area A) in which a texture identification class (hereinafter referred to as texture class c) is estimated or designated in advance. c )) is set. For example, the sample area Ac may be set by designating coordinates represented by the row direction x and the column direction y in the input image. Position information of the sample area A c with respect to the input image may be pre-stored in the storage unit 130 as a sample area information 132.

例えば、識別対象のテクスチャクラスcがC通り存在する場合、本実施形態では、テクスチャクラスc(c=1,2,…,C)のそれぞれに対してサンプルエリアAが設定される。 For example, when there are C texture classes c to be identified, in the present embodiment, a sample area Ac is set for each of the texture classes c (c = 1, 2,..., C).

なお、サンプルエリアAの範囲は、導出部116が設定してもよい。例えば、導出部116は、上述したGMRFモデルと分割統合法を適用して、入力画像をいくつかの小領域に粗く領域分割し、それらの小領域から導出したモデルパラメータを使って、それらの小領域を統合した領域にサンプルエリアAを適応的に設定してもよい。分割統合法とは、1枚の画像を同じような特徴を持つ複数の領域に分割する方法であり、例えば、先行技術文献に記載された方法などに基づいて行われてよい。 The range of sample area A c is deriving unit 116 may set. For example, the derivation unit 116 applies the above-described GMRF model and the division and integration method to roughly divide the input image into several small regions, and uses the model parameters derived from these small regions to calculate those small values. The sample area Ac may be set adaptively in a region where the regions are integrated. The division integration method is a method of dividing one image into a plurality of regions having similar characteristics, and may be performed based on, for example, a method described in a prior art document.

サンプルエリアAに対応する各サブバンド内の領域を、サンプルエリアA^(j)と称する。サンプルエリアA^(j)は、入力画像のサンプルエリアAの画素に対応するドットエリアDT^(j)を統合して設定される領域であるため、サンプルエリアAよりも領域の範囲が拡大する。図5は、サンプルエリアAに対応したサンプルエリアA^(j)の設定処理を模式的に示す図であり、サンプルエリアを構成する要素を灰色のマスで表している。図示のように、分解レベルj=−1のサンプルエリアA^(−1)は、サンプルエリアAに含まれる各画素に対応するドットエリアDT^(−1)内の要素の和集合に対応する範囲の領域である。分解レベルj=−2のサンプルエリアA^(−2)は、サンプルエリアAに含まれる各画素に対応するドットエリアDT^(−2)内の要素の和集合に対応する範囲の領域である。 The regions within each sub-band corresponding to the sample area A c, referred to as sample area A c ^ (j). Since the sample area A c ^ (j) is an area set by integrating the dot areas DT ^ (j) corresponding to the pixels of the sample area A c of the input image, the range of the area is larger than the sample area A c. Expands. 5, the setting processing of the sample corresponding to the sample area A c area A c ^ (j) is a diagram schematically showing, represent elements of the sample area in gray boxes. As shown in the figure, the sample area A c ^ (− 1) at the decomposition level j = −1 is a union of elements in the dot area DT ^ (− 1) corresponding to each pixel included in the sample area A c. It is the area of the corresponding range. Sample area A c (−2) at decomposition level j = −2 is an area in a range corresponding to the union of elements in dot area DT (−2) corresponding to each pixel included in sample area A c It is.

このような前提の下で、各分解レベルjのサブバンドにおいて、入力画像の着目画素(x,y)に対応するドットエリアDT^(j)内に含まれる全要素の集合を、Bxy^(j)と定義する。ここで、Bxy^(j)は、例えば{(x−b^(j),y−b^(j))|b^(j)∈{0,…,2|j|−1},b^(j)∈{0,…,2|j|−1}}である。入力画像の一部領域であるサンプルエリアAに対応したサブバンドのサンプルエリアA^(j)は、その分解レベルjにおいて、数式(11)のように定義される。 Under such a premise, a set of all elements included in the dot area DT ^ (j) corresponding to the pixel of interest (x, y) of the input image in each subband of decomposition level j is represented by Bxy ^. Define (j). Here, B xy ^ (j) is, for example, {(x−b 1 ^ (j), y−b 2 ^ (j)) | b 1 ^ (j) ∈ {0,..., 2 | j | − 1}, b 2 ^ (j) ε {0,..., 2 | j | -1}}. The subband sample area A c ^ (j) corresponding to the sample area A c which is a partial area of the input image is defined as the following equation (11) at the decomposition level j.

導出部116は、上記数式(11)により示した、分解レベルjに応じて拡大されたサンプルエリアA^(j)の要素となるウェーブレット係数の部分集合を用いて、最尤法によりパラメータΘkl,c^(j,s)を導出する。すなわち、導出部116は、数式(10)に示す結合確率密度関数p(Ukl^(j,s)|(m,n)∈A^(j))を最大化させることでそのパラメータΘkl,c^(j,s)の推定値を得る。これによって、導出部116は、導出したパラメータΘkl,c^(j,s)を上述した数式(9)に適用することで、サンプルエリアAに対する数式(9)の結合確率密度関数を得る。以下、サンプルエリアA^(j)のウェーブレット係数を用いて導出されたパラメータΘkl,c^(j,s)を、識別用モデルパラメータと称して説明する。識別用モデルパラメータは、サンプルエリア情報132の一部として記憶部130に記憶されてもよい。 The derivation unit 116 uses the subset of wavelet coefficients that are elements of the sample area A c ^ (j) expanded according to the decomposition level j shown by the above equation (11), and performs parameter Θ by the maximum likelihood method. Deriving kl, c ^ (j, s). That is, the derivation unit 116 maximizes the joint probability density function p (U kl ^ (j, s) | (m k , n l ) ∈A c ^ (j)) shown in Equation (10). Obtain an estimate of the parameter Θ kl, c ^ (j, s). Accordingly, the derivation unit 116 applies the derived parameter Θ kl, c ^ (j, s) to the above-described equation (9), thereby obtaining the joint probability density function of the equation (9) for the sample area A c . . Hereinafter, the parameter Θ kl, c ^ (j, s) derived using the wavelet coefficients of the sample area A c ^ (j) will be referred to as an identification model parameter. The identification model parameter may be stored in the storage unit 130 as part of the sample area information 132.

例えば、ある画素がテクスチャクラスc=1に属する場合には、そのテクスチャクラスc=1のサンプルエリアAc=1から導出(推定)される識別のためのパラメータΘkl,c=1^(j,s)を用いて計算される当該画素の生起確率密度の値(後述の数式(12)の値)は、他のテクスチャクラスc≒1のサンプルエリアAc≒1から導出(推定)される識別のためのパラメータの組を用いて同様に計算される当該画素の生起確率密度の値に比して大きくなる。 For example, when a certain pixel belongs to the texture class c = 1, the identification parameter Θ kl, c = 1 ^ (j derived (estimated) from the sample area A c = 1 of the texture class c = 1 , s) values of the probability density of the pixels is calculated using the value of (below in equation (12)) is derived from the sample area a c ≒ 1 other texture class c ≒ 1 (estimated) It becomes larger than the value of the occurrence probability density of the pixel calculated in the same manner using a set of parameters for identification.

[テクスチャの識別処理]
テクスチャ識別部118は、導出部116により導出されたパラメータを用いて計算される各画素の生起確率密度に基づいて、入力画像の当該画素のテクスチャクラスcを識別する。例えば、テクスチャ識別部118は、サンプルエリアAごとに導出されたパラメータの組Θi,cを用いて、識別対象である着目画素(x,y)の生起確率密度の値(テクスチャクラスcに関する当該画素の生起確率密度)をテクスチャクラスcごとに計算し、最も生起確率密度が大きくなったパラメータの組Θi,cを特定する。そして、テクスチャ識別部118は、特定したパラメータの組Θi,cに対応したテクスチャクラスcを、着目画素(x,y)のテクスチャクラスに決定する。着目画素(x,y)のテクスチャクラスの決定に応じて、当該テクスチャクラスのクラスラベルwxyを付与する。各テクスチャクラスのクラスラベルは、例えば導出部116によって導出されたパラメータΘkl,c^(j,s)と対応付けられて、サンプルエリア情報132の一部として記憶部130に記憶されてもよい。
[Texture identification processing]
The texture identification unit 118 identifies the texture class c of the pixel of the input image based on the occurrence probability density of each pixel calculated using the parameters derived by the derivation unit 116. For example, the texture identification unit 118 uses the parameter set Θ i, c derived for each sample area A c to determine the occurrence probability density value (related to the texture class c) of the pixel of interest (x, y) to be identified. The occurrence probability density of the pixel) is calculated for each texture class c, and the parameter set Θ i, c having the highest occurrence probability density is specified. Then, the texture identification unit 118 determines the texture class c corresponding to the specified parameter set Θ i, c as the texture class of the pixel of interest (x, y). Depending on the determination of the texture class of the pixel of interest (x, y), the class label w xy of the texture class is assigned . The class label of each texture class may be associated with the parameter Θ kl, c ^ (j, s) derived by the deriving unit 116 and stored in the storage unit 130 as a part of the sample area information 132, for example. .

例えば、あるテクスチャクラスcに対しての部分集合Uに関するモデルパラメータの組をΘi,cと表現した場合、Θi,c=(Θi,c^(J,LL),…,Θi,c^(−1,HH))と表すことができる。ここで、Θi,c^(J,LL)∈{Θkl,c^(J,LL)}、およびΘi,c^(j,s)∈{Θkl,c^(j,s)}とする。 For example, when expressed as a set of theta i, c of the model parameters for a subset U i with respect to a certain texture class c, Θ i, c = ( Θ i, c ^ (J, LL), ..., Θ i , C ^ (-1, HH)). Where Θ i, c ^ (J, LL) ∈ {Θ kl, c ^ (J, LL)} and Θ i, c ^ (j, s) ∈ {Θ kl, c ^ (j, s) }.

上述したようにモデルパラメータの組を表現した場合、着目画素(x,y)のクラスラベルwxyは、パラメータの組Θi,cを用いた数式(12)に示す当該画素のドットエリアの要素を変数とする確率密度関数の総乗によって定義される結合確率密度関数の値(着目画素の生起確率密度)に基づいて、数式(13)により決定される。 When the set of model parameters is expressed as described above, the class label w xy of the pixel of interest (x, y) is the element of the dot area of the pixel shown in Equation (12) using the parameter set Θ i, c Based on the value of the combined probability density function (occurrence probability density of the pixel of interest) defined by the square of the probability density function with σ as a variable, it is determined by Equation (13).

数式(12)において、εおよびεは、最大の分解レベルJと、ある分解レベルjとのそれぞれに関する結合確率密度に対する重みを表す係数である。数式(12)では、分解レベルjに応じて拡大されたドットエリアDT^(j)に含まれる全ての要素のウェーブレット係数を用いることで、クラスラベルが周囲の画素と異なる孤立した画素(孤立点)が発生してしまうのを抑制する効果がある。 In Equation (12), ε J and ε j are coefficients representing weights for the joint probability density for each of the maximum decomposition level J and a certain decomposition level j. In Expression (12), by using the wavelet coefficients of all the elements included in the dot area DT ^ (j) expanded according to the decomposition level j, an isolated pixel (isolated point) whose class label is different from the surrounding pixels. ) Is suppressed.

なお、テクスチャ識別部118は、記憶部130にあらかじめ記憶された識別用モデルパラメータを用いて計算される着目画素の生起確率密度に基づいて、入力画像の当該画素のテクスチャクラスcを識別してもよい。   The texture identification unit 118 may identify the texture class c of the pixel of the input image based on the occurrence probability density of the pixel of interest calculated using the identification model parameter stored in advance in the storage unit 130. Good.

図6は、本実施形態における画像処理装置100の処理の流れを示すフローチャートである。本フローチャートの処理は、例えば所定の周期で繰り返し行われてよい。   FIG. 6 is a flowchart showing a processing flow of the image processing apparatus 100 according to the present embodiment. The processing of this flowchart may be repeatedly performed at a predetermined cycle, for example.

まず、ウェーブレット変換部112は、ウェーブレットフレーム分解の処理対象を設定する(ステップS100)。例えば、ウェーブレット変換部112は、カメラなどにより生成されたディジタル画像を処理対象に設定する。このディジタル画像は、記憶部130に予め記憶されていてもよいし、処理開始時に所定のインターフェース(不図示)を介して取得されてもよい。   First, the wavelet transform unit 112 sets a processing target for wavelet frame decomposition (step S100). For example, the wavelet transform unit 112 sets a digital image generated by a camera or the like as a processing target. This digital image may be stored in advance in the storage unit 130 or may be acquired via a predetermined interface (not shown) at the start of processing.

次に、ウェーブレット変換部112は、設定した処理対象に対してウェーブレットフレーム分解を行い(ステップS102)、|3J|+1枚のサブバンドを生成する(ステップS104)。   Next, the wavelet transform unit 112 performs wavelet frame decomposition on the set processing target (step S102), and generates | 3J | +1 subbands (step S104).

次に、設定部114は、ウェーブレット変換部112により生成された|3J|+1枚のサブバンドのそれぞれについて、入力画像の一画素に対応付けるドットエリアDT^(j)を設定する(ステップS106)。   Next, the setting unit 114 sets a dot area DT ^ (j) associated with one pixel of the input image for each of | 3J | +1 subbands generated by the wavelet transform unit 112 (step S106).

次に、導出部116は、設定部114によってドットエリアDT^(j)が設定されたサブバンド内の要素を、ドットエリアDT^(j)内の要素数と同数(例えば4|j|個)の部分集合Ukl^(j,s)に分割する(ステップS108)。 Next, the derivation unit 116 has the same number of elements in the subband in which the dot area DT ^ (j) is set by the setting unit 114 as the number of elements in the dot area DT ^ (j) (for example, 4 | j | ) To a subset U kl ^ (j, s) (step S108).

次に、導出部116は、分割した部分集合Ukl^(j,s)のそれぞれについて、サンプルエリアA^(j)の要素からモデルパラメータΘkl,c^(j,s)を導出する(ステップS110)。 Next, the deriving unit 116 derives the model parameter Θ kl, c ^ (j, s) from the elements of the sample area A c ^ (j) for each of the divided subsets U kl ^ (j, s). (Step S110).

次に、導出部116は、I通り存在する部分集合の組Uを変数とする結合確率密度関数p(U)のパラメータの組Θi,cを設定する(ステップS112)。 Next, the deriving unit 116 sets a set of parameters Θ i, c of the joint probability density function p (U i ) with a set of I sets of subsets U i as variables (step S112).

次に、テクスチャ識別部118は、導出部116により導出された結合確率密度関数p(U)のパラメータの組Θi,cを用いた数式(13)に基づいて、着目画素(x,y)の生起確率密度から当該画素のテクスチャクラスcを識別する(ステップS114)。対象とするすべての画素の識別によって、本フローチャートの処理を終了する。 Next, the texture identification unit 118 determines the pixel of interest (x, y) based on Expression (13) using the parameter set Θ i, c of the joint probability density function p (U i ) derived by the derivation unit 116. ) To identify the texture class c of the pixel (step S114). The processing of this flowchart is terminated by identifying all the target pixels.

[検証例]
本願の出願人は、以下の実験を行い、入力画像のテクスチャの識別精度について検証を行った。図7は、実験に用いた入力画像の一例を示す図である。図示のように、実験に用いた入力画像は、4種類のテクスチャを有し、例えば、384×384画素の8bitグレーススケールで表されている。また、図示のように、テクスチャが異なる領域ごとにサンプルエリアAを設定した。図8は、実験に用いたBrodatzのテクスチャ画像を示す図である。図示の画像は、南カルフォルニア大学の画像データベースサイトより入手したものであり、13枚のBrodatzのテクスチャ画像を組み合わせて715枚の入力画像を用意した。なお、これらのテクスチャ画像は、平均輝度値が同レベルになるように調整されたものである。
[Verification example]
The applicant of the present application conducted the following experiment, and verified the identification accuracy of the texture of the input image. FIG. 7 is a diagram illustrating an example of an input image used in the experiment. As shown in the figure, the input image used in the experiment has four types of textures, and is represented by, for example, an 8-bit grace scale of 384 × 384 pixels. Further, as shown in the figure, a sample area Ac is set for each region having a different texture. FIG. 8 is a diagram showing a Brodazz texture image used in the experiment. The illustrated image was obtained from the Southern California University image database site, and 715 input images were prepared by combining 13 Brodazz texture images. Note that these texture images are adjusted so that the average luminance value is the same level.

本実施形態において提案する識別手法、および従来の識別手法では、分解レベルごとに各サブバンドのモデルパラメータΘkl,c^(j,s)の添え字klを統一した上でクラスラベルを決定した。従来の識別手法とは、例えば、本実施形態におけるテクスチャの識別手法においてドットエリアDTの拡大を行わないもの(以下、第1従来手法と称する)と、冗長性のないサブバンドのウェーブレット係数から単一のGMRFモデルを導出して生起確率密度が最大となるクラスに各画素を識別する方法(以下、第2従来手法と称する)とを含む。第2従来手法は、例えば参考文献1に記載された手法に基づくものである。なお、第2従来手法ではドットエリアの拡大とサブバンドの要素の分割は行われない。
[参考文献1]ヌリシラジ・マハダド,高尾伸照,野田秀樹:“ウェーブレット特徴空間でMRFモデルを用いたテクスチャ認識”,信学論D‐II, J83‐D‐II,10,pp.1995‐2002 (2000)
In the identification method proposed in this embodiment and the conventional identification method, the class label is determined after unifying the subscript kl of the model parameter Θ kl, c ^ (j, s) of each subband for each decomposition level. . The conventional identification method is, for example, a method that does not enlarge the dot area DT in the texture identification method in the present embodiment (hereinafter referred to as the first conventional method) and a subband wavelet coefficient that has no redundancy. And a method of deriving one GMRF model and identifying each pixel in a class having the highest occurrence probability density (hereinafter referred to as a second conventional method). The second conventional method is based on the method described in Reference Document 1, for example. In the second conventional method, the dot area is not enlarged and the subband elements are not divided.
[Reference 1] Nurishiraji Mahadad, Nobuaki Takao, Hideki Noda: "Texture recognition using MRF model in wavelet feature space", IEICE D-II, J83-D-II, 10, pp.1995-2002 (2000)

例えば、モデルパラメータΘkl,c^(j,s)の添え字klを統一した場合、j>Jのとき数式(14)が成り立つ。 For example, when the subscripts kl of the model parameters Θ kl, c ^ (j, s) are unified, Equation (14) holds when j> J.

また、モデルパラメータΘkl,c^(j,s)の添え字klを統一した場合、j=Jのとき数式(15)が成り立つ。 Further, when the subscripts kl of the model parameters Θ kl, c ^ (j, s) are unified, Equation (15) is established when j = J.

上記数式(14)、(15)のもとで、クラスラベルを求める際のモデルパラメータの組合せをΠ(4|j|)通りに制限した。ただし、上述したようにk,l∈{0,1,…,2|j|−1}である。また、本提案手法では、クラスラベルの決定において、数式(12)の対数をとったln(p(uxy|Θi,c))を用いて、εを下記数式(16)とした。これによって、計算時にアンダーフローなどの計算誤差が生じてしまうのを抑制することができる。 Based on the above formulas (14) and (15), combinations of model parameters for obtaining class labels are limited to Π j (4 | j | ). However, as described above, k, lε {0, 1,..., 2 | j | −1}. Further, in the proposed method, ε j is set to the following formula (16) using ln (p (u xy | Θ i, c )) which is a logarithm of the formula (12) in the determination of the class label. Thereby, it is possible to suppress the occurrence of calculation errors such as underflow during the calculation.

なお、εについては数式(16)のjをJに置き換えたものを用いた。この場合、数式(12)の対数は、数式(17)のように表すことができる。 As for ε J , a value obtained by replacing j in Equation (16) with J was used. In this case, the logarithm of Expression (12) can be expressed as Expression (17).

いずれの手法においても、入力画像の各画素に対して四つのクラスラベルのうち、いずれかのラベルを付与することで実験画像の領域を分割した。また、分解レベルについては、−2までと、−3までの2通りの場合について検証した。なお、膨張収縮などの後処理によるクラスラベルの修正は行わないものとした。   In any method, the region of the experimental image is divided by assigning one of the four class labels to each pixel of the input image. Moreover, about the decomposition | disassembly level, it verified about two cases to -2 and -3. The class label was not corrected by post-processing such as expansion and contraction.

図9は、本提案手法と、第1従来手法および第2従来手法とのそれぞれにおけるクラスラベルの正識別率を比較した図である。正識別率とは、1枚の入力画像において、クラスラベルが正しく付与された画素数の割合である。図中「最高」は、全715枚中の入力画像のうち、最も正識別率の高くなった入力画像の値を表し、「最低」は、全715枚中の入力画像のうち、最も正識別率の低くなった入力画像の値を表し、「平均」は、全入力画像の正識別率の平均を表している。図示のように、いずれの結果においても、本提案手法が最もよい正識別率であった。また、分解レベルが−2よりも−3までとした場合の方が、より正識別率の平均が高くなった。一方、第2従来手法では、分解レベルによる正識別率の平均に差が比較的生じなかった。   FIG. 9 is a diagram comparing the correct classification rates of class labels in the proposed method, the first conventional method, and the second conventional method. The correct identification rate is a ratio of the number of pixels to which a class label is correctly assigned in one input image. In the figure, “highest” indicates the value of the input image having the highest positive identification rate among the input images in all 715 images, and “lowest” indicates the most positive identification in the input images in all 715 images. The value of the input image having a low rate is represented, and “average” represents the average of the correct identification rates of all input images. As shown in the figure, the proposed method has the best correct recognition rate in any result. Further, when the decomposition level was set to -3 rather than -2, the average positive identification rate was higher. On the other hand, in the second conventional method, there is relatively no difference in the average of the positive identification rates depending on the decomposition level.

ここで、J=−3での本提案手法の結果において、正識別率が最高となった入力画像(No.413)と、正識別率が最低となった入力画像(No.364)とを、それぞれ図10(a)および図10(b)に示す。図11は、入力画像中の4つのテクスチャクラスの領域をそれぞれ異なる濃度値で表した図である。なお、図11は、正識別率100%の場合の領域分割結果を表している。図10に示す入力画像(No.413)および入力画像(No.364)に対して、J=−3の各手法により付与された4種類のクラスラベルを、図11に示すように4段階の濃度値で表した場合、それぞれの画像は以下のようになる。   Here, in the result of the proposed method with J = −3, an input image (No. 413) having the highest correct identification rate and an input image (No. 364) having the lowest correct identification rate are obtained. 10 (a) and 10 (b), respectively. FIG. 11 is a diagram in which four texture class regions in the input image are represented by different density values. FIG. 11 shows the result of area division when the correct identification rate is 100%. The four types of class labels assigned by the methods of J = -3 to the input image (No. 413) and the input image (No. 364) shown in FIG. When represented by density values, each image is as follows.

図12は、本提案手法において入力画像をクラスラベルごとに領域分割した一例を示す図である。図13は、第1従来手法において入力画像をクラスラベルごとに領域分割した一例を示す図である。図14は、第2従来手法において入力画像をクラスラベルごとに領域分割した一例を示す図である。   FIG. 12 is a diagram showing an example in which the input image is divided into regions for each class label in the proposed method. FIG. 13 is a diagram illustrating an example in which an input image is divided into regions for each class label in the first conventional method. FIG. 14 is a diagram showing an example in which an input image is divided into regions for each class label in the second conventional method.

図12および図13に示すように、ドットエリアDTを拡大する本提案手法の方が、第1従来手法に比べてより孤立点の発生が抑えられており、各分割領域に纏まりがあることがわかる。特に、画像No.413に対する本提案手法の結果(図12(a))では、第1従来手法の結果(図13(a))に比べて4つの領域がより明確に分割されている。一方、図10(b)に示すNo.364の入力画像は、図中左上と右下の領域、および右上と左下の領域のそれぞれにおいて、空間周波数の分布に類似性があるものと考えられる。そのため、図12(b)に示す画像No.364に対する本提案手法の結果では、それらの領域の組合せに概ね合致した2グループへ多くの画素が分類され、他の手法に比して高くなるもののNo.413に対する本提案手法の結果(図12(a))と比べて正識別率が低くなった。第1従来手法の結果(図13(b))についても同様の傾向が見られる。なお、第2従来手法では、No.413およびNo.364のどちらの入力画像に対してもテクスチャごとの分割精度が他の手法と比べて相対的に低い結果となった。   As shown in FIGS. 12 and 13, the proposed method for enlarging the dot area DT has fewer isolated points than the first conventional method, and each divided region may be grouped. Recognize. In particular, image no. In the result of the proposed method for 413 (FIG. 12A), the four areas are more clearly divided than the result of the first conventional method (FIG. 13A). On the other hand, No. 1 shown in FIG. The input image 364 is considered to have similar spatial frequency distributions in the upper left and lower right regions and the upper right and lower left regions in the figure. Therefore, the image No. 1 shown in FIG. In the result of the proposed method for 364, many pixels are classified into two groups that almost match the combination of these regions, and the number is higher than that of the other methods. Compared with the result of the proposed method for 413 (FIG. 12A), the correct identification rate was lower. A similar tendency can be seen for the result of the first conventional method (FIG. 13B). In the second conventional method, no. 413 and no. For both input images of 364, the division accuracy for each texture was relatively low compared to other methods.

以上説明した実施形態によれば、入力画像に対してウェーブレットフレーム分解を行うことで、入力画像のウェーブレット係数を要素とするサブバンドを複数生成するウェーブレット変換部112と、ウェーブレット変換部112により生成されたサブバンドにおいて、入力画像の一画素に対応付けるドットエリアDTを、ウェーブレットフレーム分解の冗長性と、ウェーブレットフレーム分解の繰り返し処理の回数である分解レベルとに基づいて、階層的に設定する設定部114と、設定部114によりドットエリアDTが設定されたサブバンドを分割してウェーブレット係数の部分集合を構成することで、前記部分集合を変数とした結合確率密度関数のモデルパラメータを導出する導出部116と、導出部116により導出されたモデルパラメータの組を用いて、入力画像の各画素の生起確率密度を求めることで、各画素のテクスチャを識別するテクスチャ識別部118とを備えることにより、入力画像の画素にクラスラベルを付与してテクスチャを識別する際に、孤立点の発生を抑制することができる。この結果、テクスチャの識別精度を向上させることができる。   According to the embodiment described above, by performing wavelet frame decomposition on the input image, the wavelet transform unit 112 that generates a plurality of subbands having the wavelet coefficients of the input image as elements, and the wavelet transform unit 112 generate the subbands. In the subband, a setting unit 114 that hierarchically sets the dot area DT associated with one pixel of the input image based on the redundancy of the wavelet frame decomposition and the decomposition level that is the number of repetitions of the wavelet frame decomposition. And a derivation unit 116 for deriving a model parameter of a joint probability density function using the subset as a variable by dividing the subband in which the dot area DT is set by the setting unit 114 to form a subset of the wavelet coefficients. And the model derived by the deriving unit 116 A texture identification unit 118 that identifies the texture of each pixel by determining the occurrence probability density of each pixel of the input image using a set of parameters, and thereby assigns a class label to the pixel of the input image to provide a texture. The occurrence of isolated points can be suppressed when identifying. As a result, texture identification accuracy can be improved.

また、上述した実施形態によれば、クラスラベルの識別の際に、ウェーブレットフレーム分解時に重複させる画素数(冗長性)や、ウェーブレットフレーム分解の処理回数(分解レベル)に基づいてドットエリアDTを拡大することで、拡大したドットエリアDT内の全要素のウェーブレット係数を入力画像における一画素に対応付けるため、孤立点の発生をさらに抑制することができる。   Further, according to the above-described embodiment, the dot area DT is enlarged based on the number of pixels (redundancy) to be overlapped at the time of wavelet frame decomposition and the number of wavelet frame decomposition processes (decomposition level) when class labels are identified. Thus, since the wavelet coefficients of all the elements in the enlarged dot area DT are associated with one pixel in the input image, the generation of isolated points can be further suppressed.

また、上述した実施形態によれば、本提案手法によってテクスチャが識別された画像に対しては、膨張収縮などの後処理によるクラスラベルの修正を不要とすることができる。この結果、上述した実施形態において示した提案手法をテクスチャクラスが3以上の場合にも容易に適用することができる。   Further, according to the above-described embodiment, it is possible to eliminate the need for class label correction by post-processing such as expansion and contraction for an image whose texture is identified by the proposed method. As a result, the proposed method shown in the above-described embodiment can be easily applied even when the texture class is 3 or more.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

100‥画像処理装置、110…制御部、112…ウェーブレット変換部、114…設定部、116…導出部、118…テクスチャ識別部、130…記憶部、132…サンプルエリア情報 DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus 110 ... Control part 112 ... Wavelet transformation part 114 ... Setting part 116 ... Derivation part 118 ... Texture identification part 130 ... Storage part 132 ... Sample area information

Claims (16)

入力画像に対してウェーブレット変換による多重解像度解析を行うことで、前記入力画像のウェーブレット係数を要素とするサブバンドを複数生成する変換部と、
前記変換部により生成されたサブバンドにおいて、前記入力画像の一画素に対応付ける前記要素の範囲であるドットエリアを、前記変換部による前記ウェーブレット変換の冗長性と、前記変換部による前記ウェーブレット変換の繰り返し処理の回数である分解レベルとに基づいて、階層的に設定する設定部と、
前記設定部により前記ドットエリアが設定されたサブバンドを分割してウェーブレット係数の部分集合を構成することで、前記部分集合を変数とした結合確率密度関数のモデルパラメータを導出する導出部と、
前記導出部により導出された前記モデルパラメータを用いて前記入力画像の各画素の生起確率密度を求めることで、前記入力画像の各画素のテクスチャを識別する識別部と、
を備える画像処理装置。
By performing multi-resolution analysis by wavelet transform on the input image, a conversion unit that generates a plurality of subbands having wavelet coefficients of the input image as elements, and
In the subband generated by the conversion unit, the dot area that is the range of the element corresponding to one pixel of the input image is set to the redundancy of the wavelet conversion by the conversion unit, and the repetition of the wavelet conversion by the conversion unit. Based on the decomposition level that is the number of times of processing, a setting unit that sets hierarchically,
A derivation unit for deriving a model parameter of a joint probability density function using the subset as a variable by dividing the subband in which the dot area is set by the setting unit to form a subset of wavelet coefficients;
An identification unit for identifying the texture of each pixel of the input image by obtaining the occurrence probability density of each pixel of the input image using the model parameter derived by the deriving unit;
An image processing apparatus comprising:
前記設定部は、前記サブバンドにおける要素であって、前記入力画像の一画素の座標に対応する着目要素と、前記着目要素の近傍要素とを含む前記ドットエリアを設定する、
請求項1に記載の画像処理装置。
The setting unit is an element in the subband, and sets the dot area including a target element corresponding to coordinates of one pixel of the input image and a neighboring element of the target element.
The image processing apparatus according to claim 1.
前記設定部は、前記分解レベルが大きくなるほど、前記近傍要素の数を増やして、前記ドットエリアを大きくする、
請求項2に記載の画像処理装置。
The setting unit increases the number of the neighboring elements and increases the dot area as the decomposition level increases.
The image processing apparatus according to claim 2.
前記設定部は、前記サブバンドにおける前記着目要素を基準に、前記サブバンドにおける二次元の各軸の一方向に、前記近傍要素を増やしていく、
請求項3に記載の画像処理装置。
The setting unit increases the neighboring elements in one direction of each of the two-dimensional axes in the subband based on the element of interest in the subband.
The image processing apparatus according to claim 3.
前記近傍要素は、2を底とし、2と前記分解レベルの値との積を冪指数とした値から、前記着目要素の数を減算した値に相当する数の要素を含む、
請求項3または4に記載の画像処理装置。
The neighboring elements include a number of elements corresponding to a value obtained by subtracting the number of the elements of interest from a value obtained by subtracting the number of the elements of interest from a value having a base of 2 and a product of 2 and the value of the decomposition level as a power index.
The image processing apparatus according to claim 3 or 4.
前記変換部は、
画素同士の画素値の変化を、前記入力画像の二次元の軸方向のそれぞれに関して周波数成分を有するウェーブレット係数に変換し、
前記軸方向の一方向において低周波成分を有し、前記軸方向の他方向において高周波成分を有するウェーブレット係数が前記画素に対応付けられた第1のサブバンドと、前記軸方向の一方向において高周波成分を有し、前記軸方向の他方向において低周波成分を有するウェーブレット係数が前記画素に対応付けられた第2のサブバンドと、前記軸方向の双方向において高周波成分を有するウェーブレット係数が前記画素に対応付けられた第3のサブバンドと、前記軸方向の双方向において低周波成分を有するウェーブレット係数が前記画素に対応付けられた第4のサブバンドと、を生成する、
請求項1から5のうちいずれか1項に記載の画像処理装置。
The converter is
The change in pixel value between pixels is converted into a wavelet coefficient having a frequency component for each of the two-dimensional axial directions of the input image,
A wavelet coefficient having a low frequency component in one direction of the axial direction and a high frequency component in the other direction of the axial direction has a first subband associated with the pixel, and a high frequency in the one direction of the axial direction. A second subband having a component and a wavelet coefficient having a low frequency component in the other direction of the axial direction associated with the pixel, and a wavelet coefficient having a high frequency component in the bidirectional direction of the axial direction. And a fourth subband in which a wavelet coefficient having a low frequency component in both directions in the axial direction is associated with the pixel.
The image processing apparatus according to claim 1.
前記導出部は、前記変換部により生成された少なくとも一つの前記サブバンドを、前記変換部による前記ウェーブレット変換の繰り返し処理の回数である分解レベルに応じた数の部分集合に分割し、前記分割した部分集合を変数とした結合確率密度関数のモデルパラメータを導出する、
請求項1から6のうちいずれか1項に記載の画像処理装置。
The derivation unit divides at least one of the subbands generated by the conversion unit into a subset of a number corresponding to a decomposition level that is the number of repetitions of the wavelet transform by the conversion unit, and the divided Deriving model parameters of the joint probability density function with a subset as a variable,
The image processing apparatus according to claim 1.
前記モデルパラメータは、前記導出部により分割された前記部分集合の要素となるウェーブレット係数の平均、分散、および要素間の相互作用を含む、
請求項1から7のうちいずれか1項に記載の画像処理装置。
The model parameters include mean, variance, and interaction between elements of wavelet coefficients that are elements of the subset divided by the derivation unit.
The image processing apparatus according to claim 1.
前記モデルパラメータは、記憶部に記憶されたモデルパラメータを含む、
請求項1から8のうちいずれか1項に記載の画像処理装置。
The model parameter includes a model parameter stored in a storage unit,
The image processing apparatus according to claim 1.
前記部分集合を変数とする前記結合確率密度関数は、前記部分集合の一要素を変数とする関数であって前記モデルパラメータによって定義される確率密度関数の総乗で近似される、
請求項1から9のうちいずれか1項に記載の画像処理装置。
The joint probability density function having the subset as a variable is a function having a variable of one element of the subset, and approximated by the power of the probability density function defined by the model parameter.
The image processing apparatus according to claim 1.
前記部分集合を変数とする前記結合確率密度関数は、二つ以上の前記結合確率密度関数の総乗をとることで、前記部分集合の組を変数とする結合確率密度関数となる、
請求項1から10のうちいずれか1項に記載の画像処理装置。
The joint probability density function with the subset as a variable is a joint probability density function with the subset set as a variable by taking the sum of two or more of the joint probability density functions.
The image processing apparatus according to claim 1.
前記識別部は、前記導出部により導出されたモデルパラメータをもつ前記結合確率密度関数の変数である前記部分集合に替えて、前記入力画像の一画素に対応する前記ドットエリアに含まれるウェーブレット係数であって前記部分集合が属するサブバンドと同じ種類のサブバンドに属する前記ウェーブレット係数の集合を、前記結合確率密度関数の変数とすることで、前記一画素に関する生起確率密度を計算し、前記一画素のテクスチャを識別する、
請求項1から11のうちいずれか1項に記載の画像処理装置。
The identification unit is a wavelet coefficient included in the dot area corresponding to one pixel of the input image instead of the subset which is a variable of the joint probability density function having the model parameter derived by the derivation unit. The set of wavelet coefficients belonging to the same type of subband as the subband to which the subset belongs is used as a variable of the joint probability density function to calculate the occurrence probability density for the one pixel, and the one pixel Identify the texture of the
The image processing apparatus according to claim 1.
前記変換部は、テクスチャが指定された画素を含む入力画像に対してウェーブレット変換による多重解像度解析を行うことで、前記入力画像のウェーブレット係数を要素とするサブバンドを複数生成し、
前記設定部は、前記変換部により生成されたサブバンドにおいて、前記テクスチャが指定された画素に対応付ける前記要素の範囲であるドットエリアを、前記変換部による前記ウェーブレット変換の冗長性と、前記変換部による前記ウェーブレット変換の繰り返し処理の回数である分解レベルとに基づいて階層的に設定し、
前記導出部は、前記設定部により前記ドットエリアが設定されたサブバンドであって、前記テクスチャが指定された画素を含む前記入力画像のサブバンドを分割してウェーブレット係数の部分集合を構成することで、前記部分集合を変数とした結合確率密度関数のモデルパラメータを導出し、前記導出したモデルパラメータを、前記テクスチャが指定された画素の前記テクスチャの種類に対応付けて記憶部に記憶させる、
請求項1から12のうちいずれか1項に記載の画像処理装置。
The transform unit generates a plurality of subbands having the wavelet coefficients of the input image as elements by performing multi-resolution analysis by wavelet transform on an input image including pixels for which a texture is designated,
In the subband generated by the conversion unit, the setting unit sets a dot area that is a range of the element to be associated with a pixel for which the texture is designated, and the redundancy of the wavelet transform by the conversion unit, and the conversion unit Hierarchically set based on the decomposition level that is the number of iterations of the wavelet transform by
The derivation unit is a subband in which the dot area is set by the setting unit, and forms a subset of wavelet coefficients by dividing the subband of the input image including pixels in which the texture is specified. Then, a model parameter of a joint probability density function with the subset as a variable is derived, and the derived model parameter is stored in the storage unit in association with the texture type of the pixel for which the texture is specified.
The image processing apparatus according to claim 1.
前記導出部は、テクスチャが指定された画素を含む前記入力画像のサブバンドを分割した前記部分集合の要素のうち、前記テクスチャが指定された画素に対応付けられた前記ドットエリアに含まれる要素の集合を変数とした結合確率密度関数のモデルパラメータを導出する、
請求項13に記載の画像処理装置。
The derivation unit includes: an element included in the dot area associated with the pixel for which the texture is designated among elements of the subset obtained by dividing the subband of the input image including the pixel for which the texture is designated. Deriving model parameters of joint probability density function with set as variable,
The image processing apparatus according to claim 13.
コンピュータが、
入力画像に対してウェーブレット変換による多重解像度解析を行うことで、前記入力画像のウェーブレット係数を要素とするサブバンドを複数生成し、
前記生成したサブバンドにおいて、前記入力画像の一画素に対応付ける前記要素の範囲であるドットエリアを、前記ウェーブレット変換の冗長性と、前記ウェーブレット変換の繰り返し処理の回数である分解レベルとに基づいて、階層的に設定し、
前記ドットエリアを設定したサブバンドを分割してウェーブレット係数の部分集合を構成することで、前記部分集合を変数とした結合確率密度関数のモデルパラメータを導出し、
前記導出したモデルパラメータを用いて前記入力画像の各画素の生起確率密度を求めることで、前記入力画像の各画素のテクスチャを識別する、
画像処理方法。
Computer
By performing multi-resolution analysis by wavelet transform on the input image, a plurality of subbands having the wavelet coefficients of the input image as elements are generated,
In the generated subband, the dot area that is a range of the element corresponding to one pixel of the input image is based on the redundancy of the wavelet transform and the decomposition level that is the number of repetitions of the wavelet transform. Set hierarchically,
By dividing the sub-band in which the dot area is set to form a subset of wavelet coefficients, a model parameter of a joint probability density function with the subset as a variable is derived,
Identifying the texture of each pixel of the input image by determining the occurrence probability density of each pixel of the input image using the derived model parameter;
Image processing method.
コンピュータに、
入力画像に対してウェーブレット変換による多重解像度解析を行わせることで、前記入力画像のウェーブレット係数を要素とするサブバンドを複数生成させ、
前記生成させたサブバンドにおいて、前記入力画像の一画素に対応付ける前記要素の範囲であるドットエリアを、前記ウェーブレット変換の冗長性と、前記ウェーブレット変換の繰り返し処理の回数である分解レベルとに基づいて、階層的に設定させ、
前記ドットエリアを設定させたサブバンドを分割してウェーブレット係数の部分集合を構成させることで、前記部分集合を変数とした結合確率密度関数のモデルパラメータを導出させ、
前記導出させたモデルパラメータを用いて前記入力画像の各画素の生起確率密度を求めさせることで、前記入力画像の各画素のテクスチャを識別させる、
画像処理プログラム。
On the computer,
By performing multi-resolution analysis by wavelet transform on the input image, a plurality of subbands having the wavelet coefficients of the input image as elements are generated,
In the generated subband, a dot area that is a range of the element corresponding to one pixel of the input image is determined based on the redundancy of the wavelet transform and the decomposition level that is the number of repetitions of the wavelet transform. , Set hierarchically,
By dividing the sub-band in which the dot area is set and forming a subset of wavelet coefficients, the model parameter of the joint probability density function with the subset as a variable is derived,
By identifying the occurrence probability density of each pixel of the input image using the derived model parameter, the texture of each pixel of the input image is identified.
Image processing program.
JP2016153877A 2016-08-04 2016-08-04 Image processing apparatus, image processing method and image processing program Pending JP2018022385A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016153877A JP2018022385A (en) 2016-08-04 2016-08-04 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016153877A JP2018022385A (en) 2016-08-04 2016-08-04 Image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2018022385A true JP2018022385A (en) 2018-02-08

Family

ID=61164603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016153877A Pending JP2018022385A (en) 2016-08-04 2016-08-04 Image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2018022385A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112862875A (en) * 2021-01-18 2021-05-28 中国科学院自动化研究所 Rain removing method, system and equipment for rain chart based on selective mechanism attention mechanism
CN116757646A (en) * 2023-08-15 2023-09-15 成都市青羊大数据有限责任公司 Comprehensive management system for teaching

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112862875A (en) * 2021-01-18 2021-05-28 中国科学院自动化研究所 Rain removing method, system and equipment for rain chart based on selective mechanism attention mechanism
CN112862875B (en) * 2021-01-18 2022-02-15 中国科学院自动化研究所 Rain removing method, system and equipment for rain chart based on selective mechanism attention mechanism
CN116757646A (en) * 2023-08-15 2023-09-15 成都市青羊大数据有限责任公司 Comprehensive management system for teaching
CN116757646B (en) * 2023-08-15 2023-11-10 成都市青羊大数据有限责任公司 Comprehensive management system for teaching

Similar Documents

Publication Publication Date Title
Wang et al. Optimized feature extraction for learning-based image steganalysis
CN108805023B (en) Image detection method, device, computer equipment and storage medium
US10216889B2 (en) IC layout pattern matching and classification system and method
US9697583B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US11017269B2 (en) System and method for optimization of deep learning architecture
Zhang et al. Blind image quality assessment with improved natural scene statistics model
US9563939B2 (en) De-noising system for remote images of ground buildings using spectrum constraints and de-noising method thereof
JP2009020613A (en) Image processing program, image processing method, and image processor
CN112651274B (en) Road obstacle detection device, road obstacle detection method, and recording medium
CN116071300A (en) Cell nucleus segmentation method based on context feature fusion and related equipment
Ahmed et al. PIQI: perceptual image quality index based on ensemble of Gaussian process regression
JP2018022385A (en) Image processing apparatus, image processing method and image processing program
CN114494786A (en) Fine-grained image classification method based on multilayer coordination convolutional neural network
US20180218487A1 (en) Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium
Abdulqader et al. Plain, edge, and texture detection based on orthogonal moment
Dhar et al. Interval type-2 fuzzy set and human vision based multi-scale geometric analysis for text-graphics segmentation
CN112801883A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
Razlighi et al. Spatial mutual information as similarity measure for 3-D brain image registration
US8879863B1 (en) Method for determining noise level
CN108665434B (en) Image synthesis method and device
JP2011070595A (en) Image processing apparatus, image processing method and image processing program
KR102466156B1 (en) Method for Computing Convolutional neural network
CN116452912B (en) Training method, target detection method, medium and electronic equipment
CN110378832B (en) Watermark embedding method and device and electronic equipment
JP2004086539A (en) Image dividing method and device and its program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915