JP2015132970A - Texture detection device, texture detection method and texture detection program - Google Patents

Texture detection device, texture detection method and texture detection program Download PDF

Info

Publication number
JP2015132970A
JP2015132970A JP2014003918A JP2014003918A JP2015132970A JP 2015132970 A JP2015132970 A JP 2015132970A JP 2014003918 A JP2014003918 A JP 2014003918A JP 2014003918 A JP2014003918 A JP 2014003918A JP 2015132970 A JP2015132970 A JP 2015132970A
Authority
JP
Japan
Prior art keywords
pixel
texture
probability
feature amount
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014003918A
Other languages
Japanese (ja)
Inventor
智史 堀内
Tomoji Horiuchi
智史 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2014003918A priority Critical patent/JP2015132970A/en
Publication of JP2015132970A publication Critical patent/JP2015132970A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a texture detection device, a texture detection method and a texture detection program that can accurately detect an arbitrary texture.SOLUTION: A texture detection device comprises: a variation calculation unit 110 that calculates the amount of a pixel pattern variation feature indicative of a variation of a pixel value between a pixel of attention included in an input image and a vicinity pixel arranged in the vicinity of the pixel of attention for each pixel of attention; a contrast calculation unit 120 that calculates the amount of a contrast feature indicative of the amount of contrast of the pixel of attention and the vicinity pixel for each pixel of attention on the basis of the pixel value of the pixel of attention and the vicinity pixel; and a probability calculation unit 130 that calculates a texture probability indicative of a probability of the pixel of attention being a texture on the basis of the amount of a pixel pattern variation feature and the amount of a contrast feature.

Description

本発明はテクスチャ検出装置、テクスチャ検出方法及びテクスチャ検出プログラムに関する。   The present invention relates to a texture detection apparatus, a texture detection method, and a texture detection program.

画像処理技術の一つに、入力画像の中からテクスチャを検出するテクスチャ検出技術がある。例えば、入力画像に対してノイズリダクション処理を行う際に、テクスチャ検出技術を用いてテクスチャ領域を検出し、テクスチャ領域におけるノイズリダクション処理の強度を抑制することで、入力画像に対するノイズリダクション処理を解像感を損なうことなく適切に行うことができる。非特許文献1には、画像をバイナリコード化した局所特徴量を利用してテクスチャを検出する技術が開示されている。   One image processing technique is a texture detection technique for detecting a texture from an input image. For example, when performing noise reduction processing on an input image, the texture detection technology is used to detect the texture region, and the noise reduction processing on the input image is suppressed by suppressing the strength of the noise reduction processing in the texture region. This can be done appropriately without detracting from the feeling. Non-Patent Document 1 discloses a technique for detecting a texture using a local feature amount obtained by binary-coding an image.

Robert M. Haralick, Texture Features for Image Classification (1973)Robert M. Haralick, Texture Features for Image Classification (1973)

非特許文献1に係る技術では、入力画像を複数のブロックに分割し、ブロック毎にブロック内の各画素に対して局所特徴量を算出し、算出した局所特徴量のヒストグラムを生成している。この生成したヒストグラムは各ブロックの特徴に対応している。例えば、画像データベースから類似画像を検索するような場合には、各々の画像から生成されたヒストグラム同士を比較することで、類似画像を検索することができる。   In the technique according to Non-Patent Document 1, an input image is divided into a plurality of blocks, a local feature amount is calculated for each pixel in the block for each block, and a histogram of the calculated local feature amount is generated. The generated histogram corresponds to the feature of each block. For example, when searching for similar images from the image database, similar images can be searched by comparing histograms generated from the images.

しかしながら、この局所特徴量のヒストグラムは、それ自体がテクスチャらしさを表しているわけではない。非特許文献1に係る技術を用いてテクスチャを検出するには、検出するテクスチャに対応したヒストグラムの情報を事前にデータベースに蓄積する必要がある。このため、事前にデータベースに蓄積されていないテクスチャについては、検出することができないという問題があった。   However, this local feature amount histogram itself does not represent the texture-likeness. In order to detect a texture using the technique according to Non-Patent Document 1, it is necessary to store in advance a histogram of information corresponding to the texture to be detected in a database. For this reason, there is a problem that textures that are not accumulated in the database in advance cannot be detected.

上記課題に鑑み本発明の目的は、任意のテクスチャを精度よく検出することが可能なテクスチャ検出装置、テクスチャ検出方法及びテクスチャ検出プログラムを提供することである。   In view of the above problems, an object of the present invention is to provide a texture detection apparatus, a texture detection method, and a texture detection program that can detect an arbitrary texture with high accuracy.

本発明に係るテクスチャ検出装置は、入力画像に含まれる注目画素及び前記注目画素の近傍に配置されている近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を前記注目画素毎に算出するばらつき算出部と、前記注目画素及び前記近傍画素の画素値に基づいて、前記注目画素及び前記近傍画素のコントラスト量を示すコントラスト特徴量を前記注目画素毎に算出するコントラスト算出部と、前記画素パターンばらつき特徴量と前記コントラスト特徴量とに基づいて、前記注目画素がテクスチャである確率を示すテクスチャ確率を算出する確率算出部とを備えるものである。この構成により、任意のテクスチャを精度よく検出することができる。   The texture detection device according to the present invention is a variation that calculates, for each pixel of interest, a pixel pattern variation feature amount indicating variation in pixel values of a target pixel included in an input image and neighboring pixels arranged in the vicinity of the target pixel. A calculation unit; a contrast calculation unit that calculates a contrast feature amount indicating a contrast amount between the target pixel and the neighboring pixel based on pixel values of the target pixel and the neighboring pixel; and the pixel pattern variation And a probability calculating unit that calculates a texture probability indicating a probability that the target pixel is a texture based on the feature amount and the contrast feature amount. With this configuration, an arbitrary texture can be detected with high accuracy.

本発明に係るテクスチャ検出方法は、入力画像に含まれる注目画素及び前記注目画素の近傍に配置されている近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を前記注目画素毎に算出するステップと、前記注目画素及び前記近傍画素の画素値に基づいて、前記注目画素及び前記近傍画素のコントラスト量を示すコントラスト特徴量を前記注目画素毎に算出するステップと、前記画素パターンばらつき特徴量と前記コントラスト特徴量とに基づいて、前記注目画素がテクスチャである確率を示すテクスチャ確率を算出するステップとを有するものである。これにより、任意のテクスチャを精度よく検出することができる。   The texture detection method according to the present invention includes a step of calculating, for each pixel of interest, a pixel pattern variation feature amount indicating variation in pixel values of a pixel of interest included in the input image and neighboring pixels arranged in the vicinity of the pixel of interest. Calculating a contrast feature amount indicating the contrast amount of the target pixel and the neighboring pixel for each target pixel based on pixel values of the target pixel and the neighboring pixel; and the pixel pattern variation feature amount and the And calculating a texture probability indicating the probability that the pixel of interest is a texture based on the contrast feature amount. Thereby, an arbitrary texture can be detected with high accuracy.

本発明に係るテクスチャ検出プログラムは、コンピュータに、入力画像に含まれる注目画素及び前記注目画素の近傍に配置されている近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を前記注目画素毎に算出する手順と、前記注目画素及び前記近傍画素の画素値に基づいて、前記注目画素及び前記近傍画素のコントラスト量を示すコントラスト特徴量を前記注目画素毎に算出する手順と、前記画素パターンばらつき特徴量と前記コントラスト特徴量とに基づいて、前記注目画素がテクスチャである確率を示すテクスチャ確率を算出する手順とを実行させるためのものである。これにより、任意のテクスチャを精度よく検出することができる。   The texture detection program according to the present invention provides a computer with a pixel pattern variation feature amount indicating a variation in pixel values of a target pixel included in an input image and a neighboring pixel arranged in the vicinity of the target pixel for each target pixel. A procedure for calculating, for each pixel of interest, a procedure for calculating a contrast feature amount indicating a contrast amount of the pixel of interest and the neighboring pixels based on pixel values of the pixel of interest and the neighboring pixels, and a pixel pattern variation feature And a procedure for calculating a texture probability indicating a probability that the pixel of interest is a texture based on the amount and the contrast feature amount. Thereby, an arbitrary texture can be detected with high accuracy.

本発明により、任意のテクスチャを精度よく検出することが可能なテクスチャ検出装置、テクスチャ検出方法及びテクスチャ検出プログラムを提供することができる。   According to the present invention, it is possible to provide a texture detection apparatus, a texture detection method, and a texture detection program that can detect an arbitrary texture with high accuracy.

実施の形態1に係るテクスチャ検出装置100の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a texture detection apparatus 100 according to Embodiment 1. FIG. 実施の形態1に係るテクスチャ検出装置100が特徴量を算出するときの局所領域の例を示す図である。It is a figure which shows the example of a local area | region when the texture detection apparatus 100 which concerns on Embodiment 1 calculates a feature-value. 実施の形態1に係る画素パターンばらつき算出部110の概略構成を示すブロック図である。3 is a block diagram illustrating a schematic configuration of a pixel pattern variation calculating unit 110 according to Embodiment 1. FIG. 実施の形態1に係る非平坦度算出部111が非平坦度を算出するときの局所領域の注目画素と近傍画素との配置を示す図である。It is a figure which shows arrangement | positioning with the attention pixel and local pixel of a local area | region when the non-flatness calculation part 111 which concerns on Embodiment 1 calculates non-flatness. 実施の形態1に係る非平坦度算出部111がしきい値を適応的に求めるときの関数を示す図である。It is a figure which shows a function when the non-flatness calculation part 111 which concerns on Embodiment 1 calculates | requires a threshold value adaptively. 実施の形態1に係る符号変化度算出部112が符号変化度を算出するときに用いる局所領域内の画素配置及び符号反転の例を示す図である。6 is a diagram illustrating an example of pixel arrangement and sign inversion in a local region used when the code change degree calculation unit 112 according to Embodiment 1 calculates a code change degree. FIG. 実施の形態1に係る符号変化度変換部113が符号変化度を変換するときに用いる関数を示す図である。6 is a diagram illustrating a function used when the code change degree conversion unit 113 according to Embodiment 1 converts a code change degree. FIG. 実施の形態1に係るテクスチャ確率算出部130がテクスチャ確率を算出するときの局所領域を示す図である。It is a figure which shows a local area | region when the texture probability calculation part 130 which concerns on Embodiment 1 calculates a texture probability. 実施の形態1に係るテクスチャ確率算出部130が重み係数を算出するときに用いる関数を示す図である。It is a figure which shows the function used when the texture probability calculation part 130 which concerns on Embodiment 1 calculates a weighting coefficient. 実施の形態1のテクスチャ確率算出部130がstを算出するときのmeanCとCvdとの関係を示す図である。It is a figure which shows the relationship between meanC and Cvd when the texture probability calculation part 130 of Embodiment 1 calculates st. 実施の形態2に係るテクスチャ検出装置200の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the texture detection apparatus 200 which concerns on Embodiment 2. FIG. 実施の形態2に係るテクスチャ検出装置200が算出した補正テクスチャ確率を示す図である。It is a figure which shows the correction | amendment texture probability computed by the texture detection apparatus 200 which concerns on Embodiment 2. FIG. 実施の形態2に係るフラット排除部220が入力したテクスチャ確率、フラット確率と、算出した補正テクスチャ確率との関係を示す図である。It is a figure which shows the relationship between the texture probability and flat probability which the flat exclusion part 220 which concerns on Embodiment 2 input, and the calculated correction | amendment texture probability. 実施の形態2に係るフラット排除部220が重み係数を算出するときに用いる関数を示す図である。It is a figure which shows the function used when the flat exclusion part 220 which concerns on Embodiment 2 calculates a weighting coefficient. 実施の形態3に係るテクスチャ検出装置300の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the texture detection apparatus 300 which concerns on Embodiment 3. FIG. 実施の形態3に係る非テクスチャ係数算出部330が非テクスチャ係数を算出する拡張局所領域を示す図である。It is a figure which shows the expansion local area | region where the non-texture coefficient calculation part 330 which concerns on Embodiment 3 calculates a non-texture coefficient. 実施の形態3に係る非テクスチャ係数算出部330の概略構成を示すブロック図である。10 is a block diagram illustrating a schematic configuration of a non-texture coefficient calculation unit 330 according to Embodiment 3. FIG. 実施の形態3に係る方向毎エッジ・フラット積算部331がカウント値を求めるときの放射状の方向を示す図である。It is a figure which shows the radial direction when the edge flat flat integration part 331 which concerns on Embodiment 3 calculates | requires a count value. 実施の形態3に係る領域毎エッジ積算部332がエッジネスをカウントする8方向の小領域(0〜8)を示す図である。It is a figure which shows the small area | region (0-8) of 8 directions which the edge integration part 332 for every area | region which concerns on Embodiment 3 counts edgeness. 実施の形態3に係る非テクスチャ係数1算出部334が検出するノイズを示す図である。It is a figure which shows the noise which the non-texture coefficient 1 calculation part 334 which concerns on Embodiment 3 detects. 実施の形態3に係る非テクスチャ係数1算出部334がedge_sumを算出する隣接する3方向とflat_sumを算出する隣接する3方向とを示す図である。It is a figure which shows the 3 adjacent directions where the non-texture coefficient 1 calculation part 334 which concerns on Embodiment 3 calculates edge_sum, and the 3 adjacent directions which calculate flat_sum. 実施の形態3に係る非テクスチャ係数1算出部334が重み係数を算出するときに用いる関数を示す図である。It is a figure which shows the function used when the non-texture coefficient 1 calculation part 334 which concerns on Embodiment 3 calculates a weighting coefficient. 実施の形態3に係る非テクスチャ係数2算出部335が検出するノイズを示す図である。It is a figure which shows the noise which the non-texture coefficient 2 calculation part 335 which concerns on Embodiment 3 detects. 実施の形態3に係る非テクスチャ係数2算出部335が重み係数を算出するときに用いる関数を示す図である。It is a figure which shows the function used when the non-texture coefficient 2 calculation part 335 which concerns on Embodiment 3 calculates a weighting coefficient. 実施の形態3に係る非テクスチャ係数3算出部336が検出するノイズを示す図である。It is a figure which shows the noise which the non-texture coefficient 3 calculation part 336 which concerns on Embodiment 3 detects. 実施の形態3に係る非テクスチャ係数2算出部335が重み係数を算出するときに用いる関数を示す図である。It is a figure which shows the function used when the non-texture coefficient 2 calculation part 335 which concerns on Embodiment 3 calculates a weighting coefficient.

以下、図面を参照して本発明の各実施の形態について説明する。
(発明の実施の形態1)
本実施の形態1に係るテクスチャ検出装置は、入力画像の画素パターンのばらつき及びコントラストの2つの特徴から入力画像の画素毎にテクスチャ確率を求めるものであり、少ない回路規模・メモリ量で高精度なテクスチャ検出を実現することができるものである。
図1は、本実施の形態1に係るテクスチャ検出装置100の概略構成を示すブロック図である。テクスチャ検出装置100は、画素パターンばらつき算出部110、コントラスト算出部120、テクスチャ確率算出部130などを備えており、入力画像101を入力し、入力画像101の画素毎にテクスチャ確率102を算出して出力する。
Embodiments of the present invention will be described below with reference to the drawings.
(Embodiment 1 of the invention)
The texture detection apparatus according to the first embodiment obtains a texture probability for each pixel of an input image from two characteristics of pixel pattern variation and contrast of the input image, and is highly accurate with a small circuit scale and memory amount. Texture detection can be realized.
FIG. 1 is a block diagram showing a schematic configuration of the texture detection apparatus 100 according to the first embodiment. The texture detection apparatus 100 includes a pixel pattern variation calculation unit 110, a contrast calculation unit 120, a texture probability calculation unit 130, and the like. The texture detection device 100 inputs the input image 101 and calculates the texture probability 102 for each pixel of the input image 101. Output.

画素パターンばらつき算出部110は、入力画像101の画素毎に当該画素及び近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を算出する。コントラスト算出部120は、入力画像101の画素毎に当該画素及び近傍画素のコントラスト量を示すコントラスト特徴量を算出する。画素パターンばらつき算出部110及びコントラスト算出部120は、注目画素と、注目画素を中心とする3×3画素の局所領域内の近傍画素とを用いて各特徴量を算出する。   The pixel pattern variation calculation unit 110 calculates, for each pixel of the input image 101, a pixel pattern variation feature amount indicating variation in pixel values of the pixel and the neighboring pixels. The contrast calculation unit 120 calculates a contrast feature amount indicating the contrast amount of the pixel and neighboring pixels for each pixel of the input image 101. The pixel pattern variation calculation unit 110 and the contrast calculation unit 120 calculate each feature amount using the target pixel and neighboring pixels in a local region of 3 × 3 pixels centering on the target pixel.

図2は、本実施の形態1に係るテクスチャ検出装置100が特徴量を算出するときの局所領域の例を示す図である。図2の左図は3×3画素の局所領域における注目画素(C)及び近傍画素(0〜7)の配置を示し、図2の右図は5×5画素の局所領域の注目画素及び近傍画素の配置を示している。
図2に示すように、局所領域の範囲は、3×3画素以外の範囲、例えば、5×5画素の範囲であっても良い。また、テクスチャ検出装置100は、3×3画素、5×5画素などの複数の局所領域で算出した特徴量を加算することで組み合わせて特徴量としても良い。
FIG. 2 is a diagram illustrating an example of a local region when the texture detection apparatus 100 according to the first embodiment calculates a feature amount. The left figure of FIG. 2 shows the arrangement of the pixel of interest (C) and the neighboring pixels (0 to 7) in the 3 × 3 pixel local area, and the right figure of FIG. 2 shows the pixel of interest and the neighborhood of the 5 × 5 pixel local area. The arrangement of pixels is shown.
As shown in FIG. 2, the range of the local region may be a range other than 3 × 3 pixels, for example, a range of 5 × 5 pixels. Further, the texture detection apparatus 100 may combine the feature amounts calculated in a plurality of local regions such as 3 × 3 pixels and 5 × 5 pixels to combine them into feature amounts.

テクスチャ確率算出部130は、注目画素を中心とする一定範囲の領域、例えば、幅9画素、高さ5画素の範囲の領域における画素パターンばらつき特徴量及びコントラスト特徴量に基づいて、当該注目画素がテクスチャである確率を示すテクスチャ確率102を算出して出力する。
なお、入力画像101は輝度のみでも良いし、色成分を含んでいても良い。色成分を含む場合には、テクスチャ検出装置100は、Y/U/Vなどの平面(プレーン)毎に処理を行うと良い。
The texture probability calculation unit 130 determines whether the target pixel is based on the pixel pattern variation feature amount and the contrast feature amount in a certain range region centered on the target pixel, for example, a region with a width of 9 pixels and a height of 5 pixels. A texture probability 102 indicating the probability of being a texture is calculated and output.
Note that the input image 101 may be only luminance or may include color components. When the color component is included, the texture detection apparatus 100 may perform processing for each plane (plane) such as Y / U / V.

また、テクスチャ検出装置100が実現する各構成要素は、例えば、コンピュータであるテクスチャ検出装置100が備える演算装置(図示せず)の制御によって、プログラムを実行させることによって実現できる。より具体的には、テクスチャ検出装置100は、記憶部(図示せず)に格納されたプログラムを主記憶装置(図示せず)にロードし、演算装置の制御によってプログラムを実行して実現する。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現しても良い   Moreover, each component which the texture detection apparatus 100 implement | achieves is realizable by making a program run by control of the arithmetic unit (not shown) with which the texture detection apparatus 100 which is a computer is provided, for example. More specifically, the texture detection device 100 is realized by loading a program stored in a storage unit (not shown) into a main storage device (not shown) and executing the program under the control of the arithmetic device. In addition, each component is not limited to being realized by software by a program, and may be realized by any combination of hardware, firmware, and software.

上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。   The above-described program can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included.

また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Further, the program may be supplied to the computer by various types of temporary computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

図3は、本実施の形態1に係る画素パターンばらつき算出部110の概略構成を示すブロック図である。画素パターンばらつき算出部110は、非平坦度算出部111、符号変化度算出部112、符号変化度変換部113、混合部114などを備えており、入力画像101を入力し、入力画像101の画素毎に画素パターンばらつき特徴量103を算出して出力する。
非平坦度算出部111は、入力画像101を入力し、入力画像101の画素毎に非平坦度を算出して出力する。一般に、画像がテクスチャであるならば、なんらかのパターンを有するので、当該画像における画素値は平坦ではない。非平坦度算出部111は、この平坦ではない画像特性を非平坦度として算出する。
FIG. 3 is a block diagram illustrating a schematic configuration of the pixel pattern variation calculation unit 110 according to the first embodiment. The pixel pattern variation calculation unit 110 includes a non-flatness calculation unit 111, a sign change degree calculation unit 112, a sign change degree conversion unit 113, a mixing unit 114, and the like. The pixel pattern variation feature quantity 103 is calculated and output for each time.
The non-flatness calculation unit 111 receives the input image 101, calculates non-flatness for each pixel of the input image 101, and outputs the non-flatness. In general, if an image is a texture, it has some pattern, so that pixel values in the image are not flat. The non-flatness calculation unit 111 calculates the image characteristics that are not flat as the non-flatness.

図4は、本実施の形態1に係る非平坦度算出部111が非平坦度を算出するときの局所領域の注目画素と近傍画素との配置を示す図である。
非平坦度算出部111は、図4に示す注目画素(gc)と近傍画素(gi、i=0〜3)について、式1を用いて非平坦度(NonFlatCount)を算出する。


このとき、しきい値(threshold)は固定値でも良いし、適応的に求めても良い。
FIG. 4 is a diagram illustrating the arrangement of the target pixel and the neighboring pixels in the local region when the non-flatness calculation unit 111 according to the first embodiment calculates the non-flatness.
The non-flatness calculation unit 111 calculates the non-flatness (NonFlatCount) for the target pixel (gc) and the neighboring pixels (gi, i = 0 to 3) shown in FIG.


At this time, the threshold value may be a fixed value or may be obtained adaptively.

図5は、本実施の形態1に係る非平坦度算出部111がしきい値を適応的に求めるときの関数を示す図である。横軸は近傍画素の平均輝度(meanY)を示し、縦軸は当該平均輝度に応じて定まるしきい値(threshold)を示している。
また、非平坦度算出部111は、3×3画素の局所領域の非平坦度(NonFlatCount3x3)と5×5画素の局所領域の非平坦度(NonFlatCount5x5)とを組み合わせて非平坦度(NonFlatCount)を算出するときには式2を用いる。


3×3画素の局所領域と5×5画素の局所領域の非平坦度を組み合わせたときの非平坦度(NonFlatCount)の最小値は0、最大値は8となる。
FIG. 5 is a diagram illustrating a function when the non-flatness calculation unit 111 according to the first embodiment adaptively obtains a threshold value. The horizontal axis represents the average luminance (meanY) of neighboring pixels, and the vertical axis represents the threshold value (threshold) determined according to the average luminance.
Further, the non-flatness calculation unit 111 combines the non-flatness (NonFlatCount3 × 3) of the local area of 3 × 3 pixels and the non-flatness (NonFlatCount5x5) of the local area of 5 × 5 pixels to obtain the nonflatness (NonFlatCount). Formula 2 is used when calculating.


The minimum value of the non-flatness (NonFlatCount) when combining the non-flatness of the 3 × 3 pixel local region and the 5 × 5 pixel local region is 0, and the maximum value is 8.

符号変化度算出部112は、入力画像101を入力し、入力画像101の画素毎に、当該画素周辺の画素値の増減の変化を示す符号変化度を算出して出力する。
図6は、本実施の形態1に係る符号変化度算出部112が符号変化度を算出するときに用いる局所領域内の画素配置及び符号反転の例を示す図である。
図6の下図に示すような画素値の増加・減少を符号反転とし、符号反転が発生するパターンを、符号変化度算出部112は式3を用いて符号変化度(SignChangeCount)として算出する。

The sign change degree calculation unit 112 receives the input image 101, calculates and outputs a sign change degree indicating a change in increase / decrease of pixel values around the pixel for each pixel of the input image 101.
FIG. 6 is a diagram illustrating an example of pixel arrangement and code inversion in a local region used when the code change degree calculation unit 112 according to the first embodiment calculates a code change degree.
The increase / decrease of the pixel value as shown in the lower diagram of FIG. 6 is defined as sign inversion, and the sign change calculation unit 112 calculates a pattern in which the sign inversion occurs as a sign change count (SignChangeCount) using Equation 3.

また、符号変化度算出部112は、3×3画素の局所領域の符号変化度(SignChangeCount3x3)と5×5画素の局所領域の符号変化度(SignChangeCount 5x5)とを組み合わせて符号変化度(SignChangeCount)を算出するときには式4を用いる。


3×3画素の局所領域と5×5画素の局所領域の符号変化度を組み合わせたときの符号変化度(SignChangeCount)の最小値は0、最大値は16となる。
Further, the sign change degree calculation unit 112 combines the sign change degree (SignChangeCount 3 × 3) of the local area of 3 × 3 pixels and the sign change degree (SignChangeCount 5 × 5) of the local area of 5 × 5 pixels. Equation 4 is used when calculating.


The minimum value of the sign change count (SignChangeCount) when the sign change rate of the local area of 3 × 3 pixels and the local area of 5 × 5 pixels is combined is 0, and the maximum value is 16.

符号変化度変換部113は、符号変化度を入力し、変換符号変化度を出力する。符号変化度算出部112が算出する符号変化度は、符号変化が多いほど高い値となる。統計的にみて、符号変化度が適切な大きさのときは、当該画素がテクスチャである可能性が高いが、符号変化度が大きすぎるときは、当該画素はテクスチャではなくノイズである可能性が高い。そこで、符号変化度変換部113は、符号変化度が実際のテクスチャが示す符号変化度付近であるときに、変換符号変化度がピークとなるように符号変化度を変換することで、ノイズの誤検出を抑制する。
図7は、本実施の形態1に係る符号変化度変換部113が符号変化度を変換するときに用いる関数を示す図である。横軸に符号変化度(SignChangeCount)を示し、縦軸に変換符号変化度(SignChangeLevel)を示している。
The code change degree conversion unit 113 receives the code change degree and outputs the converted code change degree. The code change degree calculated by the code change degree calculation unit 112 increases as the code change increases. Statistically, when the degree of sign change is appropriate, the pixel is likely to be textured, but when the degree of sign change is too large, the pixel may be noise instead of texture. high. Therefore, the code change degree conversion unit 113 converts the code change degree so that the conversion code change degree reaches a peak when the code change degree is close to the code change degree indicated by the actual texture, so that a noise error is generated. Suppress detection.
FIG. 7 is a diagram illustrating functions used when the code change degree conversion unit 113 according to the first embodiment converts the code change degree. The horizontal axis represents the sign change degree (SignChangeCount), and the vertical axis represents the conversion sign change degree (SignChangeLevel).

混合部114は、非平坦度と変換符号変化度とを入力し、画素毎に画素パターンばらつき特徴量103を算出して出力する。混合部114は、式5を用いて非平坦度(NonFlatCount)と変換符号変化度(SignChangeLevel)とのAND値を求めて混合する。混合部114は、乗算によって値が線形でなくなるので、後の計算を簡単にするために平方根をとる。


画素パターンばらつき算出部110は、このようにして入力画像101から画素パターンばらつき特徴量103を算出して出力する。
The mixing unit 114 receives the non-flatness and the conversion code change degree, and calculates and outputs the pixel pattern variation feature quantity 103 for each pixel. The mixing unit 114 obtains and mixes the AND value of the non-flatness (NonFlatCount) and the conversion code change degree (SignChangeLevel) using Expression 5. Since the value becomes non-linear by multiplication, the mixing unit 114 takes a square root to simplify subsequent calculations.


In this way, the pixel pattern variation calculation unit 110 calculates the pixel pattern variation feature amount 103 from the input image 101 and outputs it.

一方、コントラスト算出部120は、入力画像101を入力し、入力画像101の画素毎にコントラスト特徴量を算出して出力する。
コントラスト算出部120は、コントラスト(C)を式6のように算出する。ここでImax とImin はそれぞれ3×3画素の局所領域内の画素値の最大値と最小値である。

On the other hand, the contrast calculation unit 120 receives the input image 101, calculates a contrast feature amount for each pixel of the input image 101, and outputs it.
The contrast calculation unit 120 calculates the contrast (C) as shown in Equation 6. Here, Imax and Imin are the maximum value and the minimum value of the pixel values in the local area of 3 × 3 pixels, respectively.

また、コントラスト算出部120は、後の計算を簡単にするために、式7のようにコントラストの値が画像の明るさに対して線形変化するように対数をとってコントラスト特徴量とする。

In addition, in order to simplify subsequent calculations, the contrast calculation unit 120 takes the logarithm so that the contrast value linearly changes with respect to the brightness of the image as shown in Expression 7, and sets the contrast feature amount.

テクスチャ確率算出部130は、画素パターンばらつき特徴量とコントラスト特徴量とを入力し、画素毎にテクスチャ確率を算出して出力する。
テクスチャ確率算出部130は、注目画素を中心とする一定範囲の局所領域の画素パターンばらつき特徴量及びコントラスト特徴量の平均値を求め、当該領域内の画素のうち、画素パターンばらつき特徴量及びコントラスト特徴量がこの平均値からそれぞれ所定範囲内にある画素の画素パターンばらつき特徴量及びコントラスト特徴量を重み係数に変換し、これらの重み係数を乗算した上で、当該領域内で積算してテクスチャ確率102を算出する。
The texture probability calculation unit 130 receives the pixel pattern variation feature amount and the contrast feature amount, calculates a texture probability for each pixel, and outputs it.
The texture probability calculation unit 130 obtains an average value of the pixel pattern variation feature amount and the contrast feature amount in the local region in a certain range centered on the target pixel, and among the pixels in the region, the pixel pattern variation feature amount and the contrast feature The pixel pattern variation feature amount and the contrast feature amount of the pixels whose amounts are within a predetermined range from the average value are converted into weighting factors, multiplied by these weighting factors, and then integrated in the region to obtain the texture probability 102 Is calculated.

図8は、本実施の形態1に係るテクスチャ確率算出部130がテクスチャ確率を算出するときの局所領域を示す図である。
テクスチャ確率算出部130は、図8に示すように、注目画素を中心とする幅W画素、高さH画素の局所領域内の画素パターンばらつき特徴量とコントラスト特徴量とを用いて、注目画素のテクスチャ確率を計算する。本実施の形態1では、局所領域の幅Wを9画素、高さHを5画素とする。
FIG. 8 is a diagram illustrating a local region when the texture probability calculation unit 130 according to the first embodiment calculates a texture probability.
As shown in FIG. 8, the texture probability calculation unit 130 uses the pixel pattern variation feature amount and the contrast feature amount in the local area of the width W pixel and the height H pixel centered on the pixel of interest to calculate the pixel of interest. Calculate the texture probability. In the first embodiment, the local area has a width W of 9 pixels and a height H of 5 pixels.

テクスチャ確率算出部130は、式8を用いてtexture_countを求める。


ここで、Cw、Dwは、局所領域内の各画素のコントラスト特徴量(Contrast)、画素パターンばらつき特徴量(Dispersion)の値を、関数により重み係数に変換した値である。
The texture probability calculation unit 130 obtains texture_count using Equation 8.


Here, Cw and Dw are values obtained by converting the values of the contrast feature amount (Contrast) and the pixel pattern variation feature amount (Dispersion) of each pixel in the local region into weighting coefficients using a function.

図9は、本実施の形態1に係るテクスチャ確率算出部130が重み係数を算出するときに用いる関数を示す図である。図9の左図は、コントラスト特徴量に係る重み係数(Cw)を算出するときの関数であり、横軸にコントラスト特徴量(Contrast)を、縦軸にコントラスト特徴量に係る重み係数(Cw)を示している。図9の右図は、画素パターンばらつき特徴量に係る重み係数(Dw)を算出するときの関数であり、横軸に画素パターンばらつき特徴量(Dispersion)を、縦軸に画素パターンばらつき特徴量に係る重み係数(Dw)を示している。テクスチャ確率算出部130は、コントラスト特徴量や画素パターンばらつき特徴量が小さいときに当該画素がテクスチャである可能性が低いので重み係数を下げるようにする。   FIG. 9 is a diagram illustrating a function used when the texture probability calculation unit 130 according to the first embodiment calculates a weighting factor. The left figure of FIG. 9 is a function for calculating the weighting coefficient (Cw) related to the contrast feature quantity, the horizontal axis represents the contrast feature quantity (Contrast), and the vertical axis represents the weighting coefficient (Cw) related to the contrast feature quantity. Is shown. The right diagram in FIG. 9 is a function for calculating the weighting coefficient (Dw) related to the pixel pattern variation feature amount, where the horizontal axis represents the pixel pattern variation feature amount (Dispersion) and the vertical axis represents the pixel pattern variation feature amount. The weighting coefficient (Dw) is shown. The texture probability calculation unit 130 decreases the weighting coefficient because the possibility that the pixel is texture is low when the contrast feature amount or the pixel pattern variation feature amount is small.

meanC、 meanDは、それぞれ、局所領域内におけるコントラスト特徴量、画素パターンばらつき特徴量の平均値である。Cvd、 Dvdはしきい値で、ここでは定数を用いているが、meanC、meanDに応じて適応的に定めても良い。
stは、コントラスト特徴量と局所領域内の平均値との差分絶対値がCvd以下で、かつ、画素パターンばらつき特徴量と局所領域内の平均値との差分絶対値がDvd以下であるときに真値1となる。そして、この条件を満たす画素のCw ×Dwの値を積算してtexture_countを求める。
meanC and meanD are average values of the contrast feature amount and the pixel pattern variation feature amount in the local region, respectively. Cvd and Dvd are threshold values, and constants are used here, but they may be determined adaptively according to meanC and meanD.
st is true when the difference absolute value between the contrast feature quantity and the average value in the local area is Cvd or less, and the difference absolute value between the pixel pattern variation feature quantity and the average value in the local area is less than Dvd. The value is 1. Then, texture_count is obtained by integrating the Cw × Dw values of the pixels that satisfy this condition.

図10は、本実施の形態1のテクスチャ確率算出部130がstを算出するときのmeanCとCvdとの関係を示す図である。
局所領域内の各画素のコントラスト特徴量及び画素パターンばらつき特徴量の大きさが一定であるときは、当該画素がテクスチャである可能性が高い。反対に、コントラスト特徴量及び画素パターンばらつき特徴量の大きさが平均値から離れた外れ値であるときは、当該画素がノイズやエッジなどである可能性が高い。テクスチャ確率算出部130は、ある局所領域内の画素のうち、画素パターンばらつき特徴量及びコントラスト特徴量が平均値から一定の範囲内にある画素のコントラスト特徴量及び画素パターンばらつき特徴量を用いることにより、局所領域内に外れ値を有する画素が多いほど注目画素のテクスチャ確率が低くなり、局所領域内に平均値に近い画素が多いほど注目画素のテクスチャ確率が高くなるようにする。
FIG. 10 is a diagram illustrating the relationship between meanC and Cvd when the texture probability calculation unit 130 of the first embodiment calculates st.
When the contrast feature amount and the pixel pattern variation feature amount of each pixel in the local region are constant, there is a high possibility that the pixel is a texture. On the other hand, when the magnitudes of the contrast feature quantity and the pixel pattern variation feature quantity are outliers away from the average value, there is a high possibility that the pixel is noise or an edge. The texture probability calculation unit 130 uses the contrast feature amount and the pixel pattern variation feature amount of pixels in which the pixel pattern variation feature amount and the contrast feature amount are within a certain range from the average value among the pixels in a certain local region. As the number of pixels having outliers in the local area increases, the texture probability of the target pixel decreases, and as the number of pixels close to the average value in the local area increases, the texture probability of the target pixel increases.

最後に、テクスチャ確率算出部130は、式9を用いてtexture_countを局所領域内の画素数で正規化して注目画素のテクスチャ確率を算出する。テクスチャ確率は実数で0〜1.0の範囲の値をとる。

Finally, the texture probability calculation unit 130 calculates the texture probability of the target pixel by normalizing texture_count with the number of pixels in the local region using Equation 9. The texture probability takes a value in the range of 0 to 1.0 as a real number.

以上、説明したように、本実施の形態1に係るテクスチャ検出装置100は、入力画像に含まれる注目画素及び注目画素の近傍に配置されている近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を注目画素毎に算出するばらつき算出部110と、注目画素及び近傍画素の画素値に基づいて、注目画素及び近傍画素のコントラスト量を示すコントラスト特徴量を注目画素毎に算出するコントラスト算出部120と、画素パターンばらつき特徴量とコントラスト特徴量とに基づいて、注目画素がテクスチャである確率を示すテクスチャ確率を算出する確率算出部130とを備えるものである。この構成により、任意のテクスチャを精度よく検出することができる。   As described above, the texture detection apparatus 100 according to the first embodiment has the pixel pattern variation feature indicating the variation in pixel values of the target pixel included in the input image and the neighboring pixels arranged in the vicinity of the target pixel. A variation calculation unit 110 that calculates the amount for each target pixel, and a contrast calculation unit 120 that calculates a contrast feature amount indicating the contrast amount of the target pixel and the neighboring pixel for each target pixel based on the pixel values of the target pixel and the neighboring pixel. And a probability calculation unit 130 that calculates a texture probability indicating the probability that the target pixel is a texture based on the pixel pattern variation feature amount and the contrast feature amount. With this configuration, an arbitrary texture can be detected with high accuracy.

また、本実施の形態1に係るテクスチャ検出装置100の確率算出部130は、注目画素を中心とする所定範囲の領域の画素パターンばらつき特徴量及びコントラスト特徴量の平均値を求め、領域内の画素のうち、画素パターンばらつき特徴量及びコントラスト特徴量が平均値から所定範囲内にある画素の画素パターンばらつき特徴量及びコントラスト特徴量に基づいて、テクスチャ確率を算出するものである。この構成により、テクスチャである可能性が高い画素を用いて、任意のテクスチャを更に精度よく検出することができる。   In addition, the probability calculation unit 130 of the texture detection apparatus 100 according to the first embodiment obtains the average value of the pixel pattern variation feature amount and the contrast feature amount in a predetermined range area centered on the target pixel, and the pixels in the area Among them, the texture probability is calculated based on the pixel pattern variation feature amount and the contrast feature amount of pixels whose pixel pattern variation feature amount and contrast feature amount are within a predetermined range from the average value. With this configuration, an arbitrary texture can be detected with higher accuracy using pixels that are highly likely to be textures.

また、本実施の形態1に係るテクスチャ検出装置100のばらつき算出部110は、注目画素及び近傍画素の画素値の非平坦性を示す非平坦度を算出する非平坦度算出部111と、注目画素及び近傍画素の画素値の増減の変化を示す符合変化度を算出する符合変化度算出部112と、非平坦度と、符号変化度とに基づいて、画素パターンばらつき特徴量を算出する混合部114とを備えるものである。この構成により、任意のテクスチャを更に精度よく検出することができる。   In addition, the variation calculation unit 110 of the texture detection apparatus 100 according to Embodiment 1 includes a non-flatness calculation unit 111 that calculates non-flatness indicating non-flatness of pixel values of the target pixel and neighboring pixels, and the target pixel. And a sign change degree calculation unit 112 that calculates a sign change degree indicating a change in increase / decrease in pixel values of neighboring pixels, and a mixing part 114 that calculates a pixel pattern variation feature amount based on the non-flatness and the sign change degree. Are provided. With this configuration, an arbitrary texture can be detected with higher accuracy.

(発明の実施の形態2)
本実施の形態2に係るテクスチャ検出装置は、入力画像中の平坦な領域とテクスチャ領域との境界付近にある画素のテクスチャ確率の算出精度を飛躍的に向上させるものである。
図11は、本実施の形態2に係るテクスチャ検出装置200の概略構成を示すブロック図である。
テクスチャ検出装置200は、画素パターンばらつき算出部110、コントラスト算出部120、テクスチャ確率算出部130、フラット確率算出部210、フラット排除部220などを備えており、入力画像101を入力し、テクスチャ確率102を出力する。
(Embodiment 2 of the invention)
The texture detection apparatus according to the second embodiment dramatically improves the accuracy of calculating the texture probability of pixels near the boundary between the flat area and the texture area in the input image.
FIG. 11 is a block diagram showing a schematic configuration of the texture detection apparatus 200 according to the second embodiment.
The texture detection apparatus 200 includes a pixel pattern variation calculation unit 110, a contrast calculation unit 120, a texture probability calculation unit 130, a flat probability calculation unit 210, a flat exclusion unit 220, and the like. Is output.

本実施の形態2に係るテクスチャ検出装置200は、図1に示した実施の形態1に係るテクスチャ検出装置100に、フラット確率算出部210及びフラット排除部220を更に備えるものである。本実施の形態2に係る画素パターンばらつき算出部110、コントラスト算出部120及びテクスチャ確率算出部130は、実施の形態1に係るものと同様の構成を有して同様の動作をするものであり、詳細な説明は省略する。   The texture detection apparatus 200 according to the second embodiment includes the flat probability calculation unit 210 and the flat exclusion unit 220 in addition to the texture detection apparatus 100 according to the first embodiment shown in FIG. The pixel pattern variation calculation unit 110, the contrast calculation unit 120, and the texture probability calculation unit 130 according to the second embodiment have the same configuration as that according to the first embodiment and perform the same operation. Detailed description is omitted.

フラット確率算出部210は、画素パターンばらつき特徴量とコントラスト特徴量とを入力し、画素毎にフラット確率を算出して出力する。
フラット確率算出部210は、テクスチャ確率算出部130と同様に、注目画素を中心とする幅W画素、高さH画素の局所領域内の画素パターンばらつき特徴量(Dispersion)とコントラスト特徴量(Contrast)とについて式10を用いて当該注目画素のフラット確率を算出する。


ここで、thFlatC、thFlatDはしきい値であり、画像が平坦であるか否かを判断するために用いる。
The flat probability calculation unit 210 receives the pixel pattern variation feature amount and the contrast feature amount, calculates a flat probability for each pixel, and outputs it.
Similar to the texture probability calculation unit 130, the flat probability calculation unit 210 has a pixel pattern variation feature value (Dispersion) and a contrast feature value (Contrast) in a local area having a width W pixel and a height H pixel centered on the target pixel. The flat probability of the target pixel is calculated using Equation 10 for and.


Here, thFlatC and thFlatD are threshold values and are used to determine whether or not the image is flat.

フラット排除部220は、テクスチャ確率とフラット確率とを入力し、画素毎の補正テクスチャ確率を算出して出力する。
図12は、本実施の形態2に係るテクスチャ検出装置200が算出した補正テクスチャ確率を示す図である。図12の左図は入力画像であり、左部分には背景である空が写っており、右部分には被写体である木が写っている。図12の中央図はフラット排除をしないときの各画素のテクスチャ確率を示し、図12の右図はフラット排除をしたときの各画素のテクスチャ確率、つまり、補正テクスチャ確率を示す。図12の中央図及び右図において、黒い領域はテクスチャ確率の低い領域、白い領域はテクスチャ確率の高い領域である。
The flat exclusion unit 220 receives the texture probability and the flat probability, calculates a corrected texture probability for each pixel, and outputs it.
FIG. 12 is a diagram showing the corrected texture probability calculated by the texture detection apparatus 200 according to the second embodiment. The left figure of FIG. 12 is an input image, the sky which is the background is shown in the left part, and the tree which is the subject is shown in the right part. The center diagram of FIG. 12 shows the texture probability of each pixel when flat exclusion is not performed, and the right diagram of FIG. 12 shows the texture probability of each pixel when flat exclusion is performed, that is, the corrected texture probability. In the central view and the right view of FIG. 12, the black region is a region having a low texture probability, and the white region is a region having a high texture probability.

図12の中央図に示すように、平坦領域とテクスチャ領域との境界付近では、ひとつの局所領域内に平坦領域とテクスチャ領域とが混在するため、境界付近のテクスチャ確率が正しく算出できない。
そこで、フラット排除部220は、式11を用いて、テクスチャ確率が一定以上あるが、フラット確率も一定以上である場合に、フラット確率に基づいた重み係数を乗じることでテクスチャ確率を補正する。

As shown in the center diagram of FIG. 12, near the boundary between the flat region and the texture region, the flat region and the texture region are mixed in one local region, so the texture probability near the boundary cannot be calculated correctly.
Therefore, the flat exclusion unit 220 corrects the texture probability by multiplying a weighting factor based on the flat probability when the texture probability is equal to or greater than a certain value using Equation 11 but the flat probability is also equal to or greater than a certain value.

図13は、本実施の形態2に係るフラット排除部220が入力した画素毎のテクスチャ確率、フラット確率と、算出した補正テクスチャ確率との関係を示す図である。横軸が図12の左図に示す入力画像の図左下を原点としたときの、ある画素のx座標の値(Location)を示し、縦軸が当該画素におけるテクスチャ確率(Texture)、フラット確率(Texture)及び補正テクスチャ確率(Flat Rejected Texture)の値(Probability)を示す。入力画像の左部分(Location小の部分)は背景でありフラット確率が高く、テクスチャ確率は低くなっており、入力画像の右部分(Location大の部分)は被写体でありフラット確率が低く、テクスチャ確率は高くなっている。また、入力画像の中央部分(Location中の部分)は背景と被写体との境界領域であり、フラット確率、テクスチャ確率はそれぞれ中程度となっている。   FIG. 13 is a diagram illustrating the relationship between the texture probability and flat probability for each pixel input by the flat exclusion unit 220 according to the second embodiment, and the calculated corrected texture probability. The horizontal axis indicates the x-coordinate value (Location) of a pixel when the lower left of the input image shown in the left diagram of FIG. 12 is the origin, and the vertical axis indicates the texture probability (Texture) and flat probability ( Indicates the value (Probability) of the (Texture) and the corrected texture probability (Flat Rejected Texture). The left part of the input image (the small part of the location) is the background and has a high flat probability, and the texture probability is low. The right part of the input image (the large part of the location) is the subject and the flat probability is low, and the texture probability. Is getting higher. Further, the central portion (portion in the location) of the input image is a boundary region between the background and the subject, and the flat probability and the texture probability are respectively medium.

フラット排除部220は、テクスチャ確率(Texture)が一定以上であり、フラット確率(Flat)も一定以上である範囲(Border of Flat/Texture)において、補正テクスチャ確率を求める。
図14は、本実施の形態2に係るフラット排除部220が重み係数を算出するときに用いる関数を示す図である。横軸はフラット確率(FlatProbability)を示し、縦軸は重み係数(FlatRejectWeight)を示す。
このように、テクスチャ検出装置200は、フラット確率を用いてテクスチャ確率を補正することで、平坦領域とテクスチャ領域との境界付近のテクスチャ確率を正しく算出することができる。
The flat exclusion unit 220 obtains a corrected texture probability in a range (Border of Flat / Texture) in which the texture probability (Texture) is equal to or greater than a certain value and the flat probability (Flat) is also equal to or greater than a certain value.
FIG. 14 is a diagram illustrating a function used when the flat exclusion unit 220 according to the second embodiment calculates a weighting factor. The horizontal axis represents the flat probability (FlatProbability), and the vertical axis represents the weighting coefficient (FlatRejectWeight).
In this way, the texture detection apparatus 200 can correctly calculate the texture probability near the boundary between the flat region and the texture region by correcting the texture probability using the flat probability.

以上、説明したように、本実施の形態2に係るテクスチャ検出装置200は、注目画素を中心とする所定範囲の領域内の画素のうち、画素パターンばらつき特徴量及びコントラスト特徴量が所定のしきい値以下の画素の数に基づいて、注目画素のフラット確率を算出するフラット確率算出部210と、テクスチャ確率及びフラット確率が所定値以上であるときに、フラット確率に基づいて、テクスチャ確率を補正するフラット排除部220とを更に備えるものである。この構成により、フラット領域とテクスチャ領域との境界付近にある画素のテクスチャ確率の算出精度を飛躍的に向上させることができる。   As described above, the texture detection apparatus 200 according to the second embodiment has a pixel pattern variation feature amount and a contrast feature amount having a predetermined threshold among pixels in a predetermined range centered on the target pixel. The flat probability calculation unit 210 that calculates the flat probability of the target pixel based on the number of pixels that are equal to or less than the value, and corrects the texture probability based on the flat probability when the texture probability and the flat probability are equal to or greater than a predetermined value. A flat exclusion unit 220 is further provided. With this configuration, it is possible to dramatically improve the accuracy of calculating the texture probability of pixels near the boundary between the flat region and the texture region.

(発明の実施の形態3)
本実施の形態3に係るテクスチャ検出装置も、フラット領域とテクスチャ領域との境界付近にある画素のテクスチャ確率の算出精度を飛躍的に向上させるものである。
図15は、本実施の形態3に係るテクスチャ検出装置300の概略構成を示すブロック図である。
テクスチャ検出装置300は、画素パターンばらつき算出部110、コントラスト算出部120、テクスチャ確率算出部130、エッジ算出部310、フラット算出部320、非テクスチャ係数算出部330、非テクスチャ排除部340などを備えており、入力画像101を入力し、テクスチャ確率102を出力する。
(Embodiment 3 of the invention)
The texture detection apparatus according to the third embodiment also dramatically improves the accuracy of calculating the texture probability of pixels near the boundary between the flat area and the texture area.
FIG. 15 is a block diagram showing a schematic configuration of texture detection apparatus 300 according to the third embodiment.
The texture detection apparatus 300 includes a pixel pattern variation calculation unit 110, a contrast calculation unit 120, a texture probability calculation unit 130, an edge calculation unit 310, a flat calculation unit 320, a non-texture coefficient calculation unit 330, a non-texture exclusion unit 340, and the like. The input image 101 is input, and the texture probability 102 is output.

本実施の形態3に係るテクスチャ検出装置300は、図1に示した実施の形態1に係るテクスチャ検出装置100に、エッジ算出部310、フラット算出部320、非テクスチャ係数算出部330及び非テクスチャ排除部340を更に備えるものである。本実施の形態3に係る画素パターンばらつき算出部110、コントラスト算出部120及びテクスチャ確率算出部130は、実施の形態1に係るものと同様の構成を有して同様の動作をするものであり、詳細な説明は省略する。   The texture detection apparatus 300 according to the third embodiment is the same as the texture detection apparatus 100 according to the first embodiment shown in FIG. 1 except for the edge calculation unit 310, the flat calculation unit 320, the non-texture coefficient calculation unit 330, and the non-texture removal. A part 340 is further provided. The pixel pattern variation calculation unit 110, the contrast calculation unit 120, and the texture probability calculation unit 130 according to the third embodiment have the same configuration as that according to the first embodiment and perform the same operation. Detailed description is omitted.

エッジ算出部310は、入力画像101を入力し、微分フィルタやソーベルフィルタなどにより入力画像101中のエッジを検出して、エッジ画像を出力する。このとき、ハードウェアパイプラインを削減し、また、後の計算を簡単にするために、検出結果をしきい値により二値化して入力画像101の画素毎のエッジネスとする。
フラット算出部320は、各画素のコントラスト特徴量(Contrast)と画素パターンばらつき特徴量(Dispersion)とを用いて、式12によりフラットネス(sf)を二値で求め、入力画像101の画素毎にフラットかどうかを検出する。


ここで、thFlatC、thFlatDはしきい値である。
The edge calculation unit 310 receives the input image 101, detects an edge in the input image 101 using a differential filter, a Sobel filter, or the like, and outputs an edge image. At this time, in order to reduce the hardware pipeline and simplify subsequent calculations, the detection result is binarized by a threshold value to obtain edgeness for each pixel of the input image 101.
The flat calculation unit 320 uses the contrast feature value (Contrast) and the pixel pattern variation feature value (Dispersion) of each pixel to obtain a flatness (sf) as a binary value using Equation 12, and for each pixel of the input image 101. Detect if flat.


Here, thFlatC and thFlatD are threshold values.

非テクスチャ係数算出部330は、エッジネスとフラットネスとを入力し、各画素がテクスチャではない可能性に基づいて重み係数である非テクスチャ係数を算出して出力する。非テクスチャ係数算出部330は、拡張局所領域を用いて、非テクスチャ係数を算出する。
図16は、本実施の形態3に係る非テクスチャ係数算出部330が非テクスチャ係数を算出する拡張局所領域を示す図である。拡張局所領域(Dilation region)は、注目画素を中心とする、テクスチャ確率算出部130が用いた局所領域(Texture prob. calc window)よりも広い範囲の領域である。本実施の形態3では、拡張局所領域の大きさを縦27画素、横27画素とする。
The non-texture coefficient calculation unit 330 receives the edgeness and flatness, calculates and outputs a non-texture coefficient that is a weighting coefficient based on the possibility that each pixel is not a texture. The non-texture coefficient calculation unit 330 calculates a non-texture coefficient using the extended local region.
FIG. 16 is a diagram illustrating an extended local region where the non-texture coefficient calculation unit 330 according to the third embodiment calculates a non-texture coefficient. The extended local region (Dilation region) is a region having a wider range than the local region (Texture prob. Calc window) used by the texture probability calculation unit 130 with the pixel of interest at the center. In the third embodiment, the size of the extended local area is 27 pixels vertically and 27 pixels horizontally.

非テクスチャ係数算出部330は、注目画素のエッジネスが真値1のときには、注目画素はテクスチャではないとして、テクスチャ確率を変化させないように非テクスチャ係数として最大値の1.0を出力する。非テクスチャ係数算出部330は、注目画素のエッジネスが0のときに、非テクスチャ係数を求める。   The non-texture coefficient calculation unit 330 outputs a maximum value of 1.0 as the non-texture coefficient so as not to change the texture probability, assuming that the target pixel is not a texture when the edgeness of the target pixel is a true value 1. The non-texture coefficient calculation unit 330 obtains a non-texture coefficient when the edgeness of the target pixel is zero.

図17は、本実施の形態3に係る非テクスチャ係数算出部330の概略構成を示すブロック図である。
非テクスチャ係数算出部330は、方向毎エッジ・フラット積算部331、領域毎エッジ積算部332、エッジ・フラット方向積算部333、非テクスチャ係数1算出部334、非テクスチャ係数2算出部335、非テクスチャ係数3算出部336、非テクスチャ係数合成部337などを備えており、エッジネス104とフラットネス105とを入力し、非テクスチャ係数106を算出して出力する。
FIG. 17 is a block diagram illustrating a schematic configuration of the non-texture coefficient calculation unit 330 according to the third embodiment.
The non-texture coefficient calculation unit 330 includes an edge / flat integration unit 331 for each direction, an edge integration unit 332 for each region, an edge / flat direction integration unit 333, a non-texture coefficient 1 calculation unit 334, a non-texture coefficient 2 calculation unit 335, a non-texture A coefficient 3 calculation unit 336, a non-texture coefficient synthesis unit 337, and the like are provided. The edgeness 104 and the flatness 105 are input, and the non-texture coefficient 106 is calculated and output.

方向毎エッジ・フラット積算部331は、注目画素から拡張局所領域の周辺部に向かって放射状の8方向に、以下の値を求める。放射状の方向は、4方向や16方向などとしても良い。
(1)エッジネスが真の画素のカウント値 edge_cnt
(2)フラットネスが真の画素のカウント値 flat_cnt
(3)エッジに行きつくまでのフラットネスが真の画素のカウント値 flat_to_edge_cnt
The edge / flat integration unit 331 for each direction obtains the following values in eight radial directions from the target pixel toward the periphery of the extended local region. The radial direction may be 4 directions or 16 directions.
(1) Count value for pixels with true edgeness edge_cnt
(2) Count value for pixels with true flatness flat_cnt
(3) Count value of pixels with flatness until reaching the edge flat_to_edge_cnt

図18は、本実施の形態3に係る方向毎エッジ・フラット積算部331が各カウント値を求めるときの放射状の方向を示す図である。外側の大きな正方形が拡張局所領域を示し、内側の小さな長方形が局所領域を示す。図18では、放射状の8方向(d0〜d7)を示している。
方向毎エッジ・フラット積算部331は各カウント値の算出式として式13を用いる。


ここで、mは画素の位置、E[m]はmにおける画素のエッジネスの値、F[m]はmにおける画素のフラットネスの値である。
FIG. 18 is a diagram showing radial directions when the edge-to-direction edge / flat integration unit 331 according to the third embodiment obtains each count value. The outer large square indicates the extended local area, and the inner small rectangle indicates the local area. FIG. 18 shows eight radial directions (d0 to d7).
The direction-by-direction edge / flat integration unit 331 uses Expression 13 as a calculation expression for each count value.


Here, m is the position of the pixel, E [m] is the value of the edgeness of the pixel at m, and F [m] is the value of the flatness of the pixel at m.

領域毎エッジ積算部332は、方向毎エッジ・フラット積算部331で求める「エッジネスが真の画素のカウント値edge_cnt」が拡張局所領域の周辺部でエッジネスのカウントもれを生じ易いことに対応し、8方向の小領域内でエッジネスをedge_cnt2としてカウントし、複雑な境界形状に対応する。なお、エッジネスと異なりフラットネスは面で分布しているので放射状の8方向でもカウントもれは生じにくいため、領域毎エッジ積算部332は、エッジネスのみ領域毎のカウントを実施する。   The edge integration unit 332 for each area corresponds to the fact that the “edge value true_count value edge_cnt” obtained by the edge / flat integration unit 331 for each direction is likely to cause an edgeness count leak in the peripheral part of the extended local region, Edgeness is counted as edge_cnt2 in a small area in 8 directions, and corresponds to a complicated boundary shape. Unlike flatness, flatness is distributed on the surface unlike edgeness, and therefore, it is difficult for count deviation to occur even in the eight radial directions. Therefore, the edge-by-area integration unit 332 counts only the edgeness for each area.

図19は、本実施の形態3に係る領域毎エッジ積算部332がエッジネスをカウントする8方向の小領域(0〜8)を示す図である。
領域毎エッジ積算部332は、式14を用いてedge_cnt2を算出する。


ここで、kは各小領域の各画素の位置である。
FIG. 19 is a diagram illustrating small areas (0 to 8) in eight directions in which the edge-by-area integration unit 332 according to the third embodiment counts the edgeness.
The per-region edge accumulating unit 332 calculates edge_cnt2 using Equation 14.


Here, k is the position of each pixel in each small area.

エッジ・フラット方向積算部333は、方向毎エッジ・フラット積算部331で算出した8方向の「エッジネスが真の画素のカウント値edge_cnt」及び「フラットネスが真の画素のカウント値flat_cnt」のそれぞれについて、式15を用いて値がしきい値を超えている方向の数を積算し、edge_dircnt、flat_dircntとする。edge_dircnt、flat_dircntはそれぞれ0〜8の範囲の値となる。


ここで、thEdgeCnt、thFlatCntはしきい値であり、これらのしきい値として例えば5を用いる。
The edge / flat direction accumulating unit 333 calculates the “count value edge_cnt of pixels with true edgeness” and “count value flat_cnt of pixels with true flatness” in the eight directions calculated by the edge / flat accumulator 331 for each direction. , The numbers in the direction in which the value exceeds the threshold value are added using equation 15 to obtain edge_dircnt and flat_dircnt. edge_dircnt and flat_dircnt each have a value in the range of 0 to 8.


Here, thEdgeCnt and thFlatCnt are threshold values, and for example, 5 is used as these threshold values.

非テクスチャ係数1算出部334は、注目画素を中心としたときの対称方向におけるエッジネス及びフラットネスの値を調べる。注目画素を中心としたときの注目画素近傍の一方の方向にエッジがあり、対称となる他の方向にフラット領域があるときは、注目画素はテクスチャではなくノイズである可能性が高い。
図20は、本実施の形態3に係る非テクスチャ係数1算出部334が検出するノイズを示す図である。図中、左上方向にエッジがあり、右下方向にフラット領域があることから、この注目画素はノイズである可能性が高い。
The non-texture coefficient 1 calculation unit 334 checks the values of edgeness and flatness in the symmetric direction with the target pixel as the center. When there is an edge in one direction near the target pixel when the target pixel is the center and there is a flat region in the other symmetric direction, the target pixel is likely to be noise rather than texture.
FIG. 20 is a diagram illustrating noise detected by the non-texture coefficient 1 calculation unit 334 according to the third embodiment. In the figure, since there is an edge in the upper left direction and there is a flat region in the lower right direction, there is a high possibility that this target pixel is noise.

非テクスチャ係数1算出部334は、算出値の安定性を確保するために、式16を用いて、隣接する3方向についてedge_cnt+edge_cnt2の積算値をedge_sumとして算出し、エッジと対称となる隣接する3方向についてflat_to_edge_cntの積算値をflat_sumとして算出する。

The non-texture coefficient 1 calculation unit 334 calculates the integrated value of edge_cnt + edge_cnt2 as edge_sum for the three adjacent directions using Equation 16 in order to ensure the stability of the calculated value, and is adjacent to the edge symmetrical to the edge The integrated value of flat_to_edge_cnt for the three directions is calculated as flat_sum.

図21は、本実施の形態3に係る非テクスチャ係数1算出部334がedge_sumを算出する隣接する3方向とflat_sumを算出する隣接する3方向とを示す図である。方向(d)が0のときは、注目画素に対して、左、左上、上の隣接する3方向でedge_sumを算出し、右、右下、下の隣接する3方向でflat_sumを算出することを示している。
非テクスチャ係数1算出部334は、算出したedge_sum及びflat_sumについて、関数により重み係数に変換して乗算し、wtを各方向について求める。
FIG. 21 is a diagram illustrating three adjacent directions in which the non-texture coefficient 1 calculation unit 334 according to the third embodiment calculates edge_sum and three adjacent directions in which flat_sum is calculated. When the direction (d) is 0, edge_sum is calculated in the three adjacent directions on the left, upper left, and upper for the target pixel, and flat_sum is calculated in the three adjacent directions on the right, lower right, and lower. Show.
The non-texture coefficient 1 calculation unit 334 converts the calculated edge_sum and flat_sum into weighting coefficients by a function and multiplies them to obtain wt for each direction.

図22は、本実施の形態3に係る非テクスチャ係数1算出部334が重み係数を算出するときに用いる関数を示す図である。左図の横軸はedge_sumを示し、縦軸は重み係数を示す。右図の横軸はflat_sumを示し、縦軸は重み係数を示す。
非テクスチャ係数1算出部334は、方向0〜7のwtの最大値を非テクスチャ係数1(Weight1)とする。
FIG. 22 is a diagram illustrating a function used when the non-texture coefficient 1 calculation unit 334 according to the third embodiment calculates a weight coefficient. The horizontal axis of the left figure shows edge_sum, and the vertical axis shows the weighting factor. The horizontal axis of the right figure shows flat_sum, and the vertical axis shows the weighting factor.
The non-texture coefficient 1 calculation unit 334 sets the maximum value of wt in directions 0 to 7 as non-texture coefficient 1 (Weight 1).

なお、非テクスチャ係数1算出部334はflat_sumを算出するときに、「フラットネスが真の画素のカウント値flat_cnt」ではなく「エッジに行きつくまでのフラットネスが真の画素のカウント値flat_to_edge_cnt」を用いるが、フラット側にエッジが存在する場合には注目画素がエッジで囲まれている可能性があり、特徴が異なるためである。   Note that the non-texture coefficient 1 calculation unit 334 uses “count value flat_to_edge_cnt of pixels whose flatness until reaching the edge is true” instead of “count value flat_cnt of pixels where the flatness is true” when calculating flat_sum. However, when the edge exists on the flat side, the target pixel may be surrounded by the edge, and the feature is different.

非テクスチャ係数2算出部335は、注目画素がエッジに囲まれているときに、当該注目画素がテクスチャではなくノイズである可能性が高いことから重みを高くする。
図23は、本実施の形態3に係る非テクスチャ係数2算出部335が検出するノイズを示す図である。図中、左上方向及び右下方向にエッジがあることから、この注目画素はノイズである可能性が高い。
非テクスチャ係数2算出部335は、式17を用いて非テクスチャ係数2(Weight2)を算出する。


図24は、本実施の形態3に係る非テクスチャ係数2算出部335が重み係数を算出するときに用いる関数を示す図である。横軸はedge_dircntを示し、縦軸は非テクスチャ係数2を示す。
The non-texture coefficient 2 calculation unit 335 increases the weight when the target pixel is surrounded by an edge because there is a high possibility that the target pixel is not texture but noise.
FIG. 23 is a diagram illustrating noise detected by the non-texture coefficient 2 calculation unit 335 according to the third embodiment. In the figure, since there are edges in the upper left direction and the lower right direction, this pixel of interest is highly likely to be noise.
The non-texture coefficient 2 calculation unit 335 calculates the non-texture coefficient 2 (Weight2) using Expression 17.


FIG. 24 is a diagram illustrating a function used when the non-texture coefficient 2 calculation unit 335 according to the third embodiment calculates a weight coefficient. The horizontal axis represents edge_dircnt, and the vertical axis represents non-texture coefficient 2.

非テクスチャ係数3算出部336は、注目画素がフラット領域に囲まれているときに、当該注目画素がテクスチャではなくノイズである可能性が高いことから重みを高くする。
図25は、本実施の形態3に係る非テクスチャ係数3算出部336が検出するノイズを示す図である。図中、左上方向及び右下方向にフラット領域があることから、この注目画素はノイズである可能性が高い。
When the target pixel is surrounded by a flat region, the non-texture coefficient 3 calculation unit 336 increases the weight because there is a high possibility that the target pixel is not texture but noise.
FIG. 25 is a diagram illustrating noise detected by the non-texture coefficient 3 calculation unit 336 according to the third embodiment. In the figure, since there are flat regions in the upper left direction and the lower right direction, there is a high possibility that this target pixel is noise.

非テクスチャ係数3算出部336は、式18を用いて非テクスチャ係数3(Weight3)を算出する。


図26は、本実施の形態3に係る非テクスチャ係数3算出部336が重み係数を算出するときの関数を示す図である。横軸はflat_dircntを示し、縦軸は非テクスチャ係数3を示す。
The non-texture coefficient 3 calculation unit 336 calculates the non-texture coefficient 3 (Weight 3) using Expression 18.


FIG. 26 is a diagram illustrating a function when the non-texture coefficient 3 calculation unit 336 according to the third embodiment calculates a weight coefficient. The horizontal axis represents flat_dircnt, and the vertical axis represents non-texture coefficient 3.

非テクスチャ係数合成部337は、非テクスチャ係数1〜3について式19を用いて非テクスチャ係数を算出する。


このようにして、非テクスチャ係数算出部330は非テクスチャ係数を算出する。
非テクスチャ排除部340は、テクスチャ確率算出部130が算出したテクスチャ確率に対して、非テクスチャ係数算出部330が算出した非テクスチャ係数を乗じることにより、テクスチャ確率を補正する。
このように、テクスチャ検出装置300は、非テクスチャ係数を用いてテクスチャ確率を補正することで、平坦領域とテクスチャ領域との境界付近にある画素のテクスチャ確率を正しく算出することができる。
The non-texture coefficient synthesizing unit 337 calculates the non-texture coefficient using the equation 19 for the non-texture coefficients 1 to 3.


In this way, the non-texture coefficient calculation unit 330 calculates the non-texture coefficient.
The non-texture removal unit 340 corrects the texture probability by multiplying the texture probability calculated by the texture probability calculation unit 130 by the non-texture coefficient calculated by the non-texture coefficient calculation unit 330.
As described above, the texture detection apparatus 300 can correctly calculate the texture probability of pixels near the boundary between the flat region and the texture region by correcting the texture probability using the non-texture coefficient.

以上、説明したように、本実施の形態3に係るテクスチャ検出装置300は、注目画素のエッジネスを算出するエッジ算出部310と、画素パターンばらつき特徴量及びコントラスト特徴量と所定のしきい値とを比較して、注目画素のフラットネスを算出するフラット算出部320と、注目画素を中心とする所定範囲の領域内で、注目画素を中心とする複数の方向における画素のエッジネス及びフラットネスに基づいて、注目画素の非テクスチャ係数を算出する非テクスチャ係数算出部330と、非テクスチャ係数に基づいてテクスチャ確率を補正する非テクスチャ排除部340とを更に備えるものである。この構成により、フラット領域とテクスチャ領域との境界付近にある画素のテクスチャ確率の算出精度を飛躍的に向上させることができる。   As described above, the texture detection apparatus 300 according to the third embodiment includes the edge calculation unit 310 that calculates the edgeness of the pixel of interest, the pixel pattern variation feature amount, the contrast feature amount, and a predetermined threshold value. In comparison, based on the flatness calculation unit 320 that calculates the flatness of the target pixel, and the edgeness and flatness of the pixel in a plurality of directions centered on the target pixel within a predetermined range centered on the target pixel The image processing apparatus further includes a non-texture coefficient calculation unit 330 that calculates the non-texture coefficient of the pixel of interest, and a non-texture exclusion unit 340 that corrects the texture probability based on the non-texture coefficient. With this configuration, it is possible to dramatically improve the accuracy of calculating the texture probability of pixels near the boundary between the flat region and the texture region.

100、200、300 テクスチャ検出装置
110 画素パターンばらつき算出部
111 非平坦度算出部
112 符号変化度算出部
114 混合部
120 コントラスト算出部
130 テクスチャ確率算出部
210 フラット確率算出部
220 フラット排除部
310 エッジ算出部
320 フラット算出部
330 非テクスチャ係数算出部
340 非テクスチャ排除部
100, 200, 300 Texture detection device 110 Pixel pattern variation calculation unit 111 Non-flatness calculation unit 112 Sign change degree calculation unit 114 Mixing unit 120 Contrast calculation unit 130 Texture probability calculation unit 210 Flat probability calculation unit 220 Flat exclusion unit 310 Edge calculation Unit 320 flat calculation unit 330 non-texture coefficient calculation unit 340 non-texture exclusion unit

Claims (7)

入力画像に含まれる注目画素及び前記注目画素の近傍に配置されている近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を前記注目画素毎に算出するばらつき算出部と、
前記注目画素及び前記近傍画素の画素値に基づいて、前記注目画素及び前記近傍画素のコントラスト量を示すコントラスト特徴量を前記注目画素毎に算出するコントラスト算出部と、
前記画素パターンばらつき特徴量と前記コントラスト特徴量とに基づいて、前記注目画素がテクスチャである確率を示すテクスチャ確率を算出する確率算出部と
を備えるテクスチャ検出装置。
A variation calculation unit that calculates, for each pixel of interest, a pixel pattern variation feature amount indicating variation in pixel values of a pixel of interest included in the input image and neighboring pixels arranged in the vicinity of the pixel of interest;
A contrast calculation unit that calculates a contrast feature amount indicating a contrast amount of the target pixel and the neighboring pixel for each target pixel based on pixel values of the target pixel and the neighboring pixel;
A texture detection device comprising: a probability calculation unit that calculates a texture probability indicating a probability that the target pixel is a texture based on the pixel pattern variation feature value and the contrast feature value.
前記確率算出部は、
前記注目画素を中心とする所定範囲の領域の前記画素パターンばらつき特徴量及び前記コントラスト特徴量の平均値を求め、
前記領域内の画素のうち、前記画素パターンばらつき特徴量及び前記コントラスト特徴量が前記平均値から所定範囲内にある画素の前記画素パターンばらつき特徴量及び前記コントラスト特徴量に基づいて、前記テクスチャ確率を算出する
請求項1記載のテクスチャ検出装置。
The probability calculating unit
Obtain an average value of the pixel pattern variation feature amount and the contrast feature amount in a predetermined range area centered on the target pixel,
Based on the pixel pattern variation feature amount and the contrast feature amount of pixels in which the pixel pattern variation feature amount and the contrast feature amount are within a predetermined range from the average value among the pixels in the region, the texture probability is calculated. The texture detection device according to claim 1 to calculate.
前記ばらつき算出部は、
前記注目画素及び前記近傍画素の画素値の非平坦性を示す非平坦度を算出する非平坦度算出部と、
前記注目画素及び前記近傍画素の画素値の増減の変化を示す符合変化度を算出する符合変化度算出部と、
前記非平坦度と、前記符号変化度とに基づいて、前記画素パターンばらつき特徴量を算出する混合部と
を備える請求項1または請求項2記載のテクスチャ検出装置。
The variation calculation unit
A non-flatness calculating unit that calculates non-flatness indicating non-flatness of pixel values of the target pixel and the neighboring pixels;
A sign change degree calculation unit for calculating a sign change degree indicating a change in increase / decrease in pixel values of the target pixel and the neighboring pixels;
The texture detection device according to claim 1, further comprising: a mixing unit that calculates the pixel pattern variation feature quantity based on the non-flatness and the sign change degree.
前記注目画素を中心とする所定範囲の領域内の画素のうち、前記画素パターンばらつき特徴量及び前記コントラスト特徴量が所定のしきい値以下の画素の数に基づいて、前記注目画素のフラット確率を算出するフラット確率算出部と、
前記テクスチャ確率及び前記フラット確率が所定値以上であるときに、前記フラット確率に基づいて、前記テクスチャ確率を補正するフラット排除部と
を更に備える請求項1乃至請求項3のいずれか1項に記載のテクスチャ検出装置。
Based on the number of pixels in which the pixel pattern variation feature amount and the contrast feature amount are equal to or less than a predetermined threshold among the pixels within a predetermined range centered on the target pixel, the flat probability of the target pixel is determined. A flat probability calculation unit for calculating;
The flat exclusion part which correct | amends the said texture probability based on the said flat probability when the said texture probability and the said flat probability are more than predetermined value. Texture detection device.
前記注目画素のエッジネスを算出するエッジ算出部と、
前記画素パターンばらつき特徴量及び前記コントラスト特徴量と所定のしきい値とを比較して、前記注目画素のフラットネスを算出するフラット算出部と、
前記注目画素を中心とする所定範囲の領域内で、前記注目画素を中心とする複数の方向における画素の前記エッジネス及び前記フラットネスに基づいて、前記注目画素の非テクスチャ係数を算出する非テクスチャ係数算出部と、
前記非テクスチャ係数に基づいて前記テクスチャ確率を補正する非テクスチャ排除部と
を更に備える請求項1乃至請求項3のいずれか1項に記載のテクスチャ検出装置。
An edge calculation unit for calculating an edgeness of the target pixel;
A flat calculation unit that calculates the flatness of the pixel of interest by comparing the pixel pattern variation feature amount and the contrast feature amount with a predetermined threshold;
A non-texture coefficient that calculates a non-texture coefficient of the target pixel based on the edgeness and flatness of the pixel in a plurality of directions centered on the target pixel within an area of a predetermined range centered on the target pixel A calculation unit;
The texture detection apparatus according to any one of claims 1 to 3, further comprising: a non-texture rejection unit that corrects the texture probability based on the non-texture coefficient.
入力画像に含まれる注目画素及び前記注目画素の近傍に配置されている近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を前記注目画素毎に算出するステップと、
前記注目画素及び前記近傍画素の画素値に基づいて、前記注目画素及び前記近傍画素のコントラスト量を示すコントラスト特徴量を前記注目画素毎に算出するステップと、
前記画素パターンばらつき特徴量と前記コントラスト特徴量とに基づいて、前記注目画素がテクスチャである確率を示すテクスチャ確率を算出するステップと
を有するテクスチャ検出方法。
Calculating a pixel pattern variation feature amount indicating a variation in pixel values of a target pixel included in an input image and a neighboring pixel arranged in the vicinity of the target pixel for each target pixel;
Calculating a contrast feature amount indicating a contrast amount of the target pixel and the neighboring pixel for each target pixel based on pixel values of the target pixel and the neighboring pixel;
A texture detection method comprising: calculating a texture probability indicating a probability that the target pixel is a texture based on the pixel pattern variation feature amount and the contrast feature amount.
コンピュータに、
入力画像に含まれる注目画素及び前記注目画素の近傍に配置されている近傍画素の画素値のばらつきを示す画素パターンばらつき特徴量を前記注目画素毎に算出する手順と、
前記注目画素及び前記近傍画素の画素値に基づいて、前記注目画素及び前記近傍画素のコントラスト量を示すコントラスト特徴量を前記注目画素毎に算出する手順と、
前記画素パターンばらつき特徴量と前記コントラスト特徴量とに基づいて、前記注目画素がテクスチャである確率を示すテクスチャ確率を算出する手順と
を実行させるためのテクスチャ検出プログラム。
On the computer,
A procedure for calculating, for each pixel of interest, a pixel pattern variation feature amount indicating variation in pixel values of the pixel of interest included in the input image and neighboring pixels arranged in the vicinity of the pixel of interest;
A procedure for calculating a contrast feature amount indicating a contrast amount of the target pixel and the neighboring pixel for each target pixel based on pixel values of the target pixel and the neighboring pixel;
A texture detection program for executing a procedure for calculating a texture probability indicating a probability that the target pixel is a texture based on the pixel pattern variation feature amount and the contrast feature amount.
JP2014003918A 2014-01-14 2014-01-14 Texture detection device, texture detection method and texture detection program Pending JP2015132970A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014003918A JP2015132970A (en) 2014-01-14 2014-01-14 Texture detection device, texture detection method and texture detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014003918A JP2015132970A (en) 2014-01-14 2014-01-14 Texture detection device, texture detection method and texture detection program

Publications (1)

Publication Number Publication Date
JP2015132970A true JP2015132970A (en) 2015-07-23

Family

ID=53900118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014003918A Pending JP2015132970A (en) 2014-01-14 2014-01-14 Texture detection device, texture detection method and texture detection program

Country Status (1)

Country Link
JP (1) JP2015132970A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08184409A (en) * 1995-01-05 1996-07-16 Mitsubishi Electric Corp Image target detector
JP2000216977A (en) * 1999-01-22 2000-08-04 Sony Corp Method for detecting accompanied information and its device and data recorder and data reproducing device
JP2004523988A (en) * 2001-03-28 2004-08-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Grassland detection method based on automatic segmentation of real-time video
JP2013101558A (en) * 2011-11-09 2013-05-23 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processing apparatus and image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08184409A (en) * 1995-01-05 1996-07-16 Mitsubishi Electric Corp Image target detector
JP2000216977A (en) * 1999-01-22 2000-08-04 Sony Corp Method for detecting accompanied information and its device and data recorder and data reproducing device
JP2004523988A (en) * 2001-03-28 2004-08-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Grassland detection method based on automatic segmentation of real-time video
JP2013101558A (en) * 2011-11-09 2013-05-23 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processing apparatus and image processing program

Similar Documents

Publication Publication Date Title
US10257428B2 (en) Image processing apparatus and image processing method that adjust, based on a target object distance, at least one of brightness of emitted pattern light and an exposure amount
US20230215029A1 (en) Depth acquisition device and depth acquisition method
US10748023B2 (en) Region-of-interest detection apparatus, region-of-interest detection method, and recording medium
KR102211592B1 (en) Electronic device for processing image and method thereof
JP6623832B2 (en) Image correction apparatus, image correction method, and computer program for image correction
CN111968144A (en) Image edge point acquisition method and device
JP6128987B2 (en) Image processing apparatus, image processing method, and image processing program
US20180122056A1 (en) Image processing device, image processing method, program, recording medium recording the program, image capture device and image recording/reproduction device
JPWO2010050412A1 (en) Calibration index determination device, calibration device, calibration performance evaluation device, system, method, and program
US9135689B2 (en) Apparatus and method for performing detail enhancement
US20130259373A1 (en) Image processing device capable of determining types of images accurately
JP2017091231A (en) Image processing device, image processing method, and image processing program
JPWO2013161838A1 (en) Image processing method and image processing apparatus
JP2015132970A (en) Texture detection device, texture detection method and texture detection program
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP6855938B2 (en) Distance measuring device, distance measuring method and distance measuring program
US11403736B2 (en) Image processing apparatus to reduce noise in an image
JP2016032265A (en) Image processing system
JP2013182416A (en) Feature amount extraction device, feature amount extraction method, and feature amount extraction program
KR101535196B1 (en) Apparatus and Method of Image Segmentation based on the Texture Characteristics
US20230393080A1 (en) Image processing apparatus, image processing method, and storage medium
JP2015036913A (en) Device, method and program for processing image
US11636576B2 (en) Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium
US20230328365A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
US20240119569A1 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180731