JP2009136655A - Image processing device, image processing method, and image processing program - Google Patents
Image processing device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2009136655A JP2009136655A JP2008040179A JP2008040179A JP2009136655A JP 2009136655 A JP2009136655 A JP 2009136655A JP 2008040179 A JP2008040179 A JP 2008040179A JP 2008040179 A JP2008040179 A JP 2008040179A JP 2009136655 A JP2009136655 A JP 2009136655A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frequency
- image processing
- value
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/041—Capsule endoscopes for imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/168—Segmentation; Edge detection involving transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/42—Analysis of texture based on statistical description of texture using transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20052—Discrete cosine transform [DCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30092—Stomach; Gastric
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は、各画像の所定範囲の画像部分に撮像された領域の種別を判別する処理を行う画像処理装置、画像処理方法および画像処理プログラムに関するものである。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program for performing processing for determining the type of an area captured in an image portion of a predetermined range of each image.
従来、画像の領域判別を行う技術は、画像内の主要対象物を背景等と分離するために用いるなど応用範囲が広く、様々な方法が提案されている。なかでも、所定範囲の画素の集合の特徴量をもとに画像の領域判別を行う方法は、画素単位の特徴量をもとに領域判別を行う方法に比べ、情報量が多い分、分割精度の向上が期待できる。 2. Description of the Related Art Conventionally, a technique for discriminating an area of an image has a wide range of applications such as use for separating a main object in an image from a background, and various methods have been proposed. In particular, the method for determining the area of an image based on the feature amount of a set of pixels in a predetermined range has a larger amount of information than the method for determining the area based on a feature amount in units of pixels. Improvement can be expected.
ここで、画素の集合の特徴量として代表的なものにテクスチャの特徴量がある。テクスチャとは、繰り返しの画素値パターンである。一般に、画像処理装置では、テクスチャの特徴量を扱うために、2次元フーリエ変換や同時生起行列などによる数値化処理を行っている(例えば、非特許文献1参照)。 Here, a representative feature amount of a set of pixels is a texture feature amount. A texture is a repeated pixel value pattern. In general, an image processing apparatus performs numerical processing by two-dimensional Fourier transform, a co-occurrence matrix, or the like in order to handle a texture feature amount (see, for example, Non-Patent Document 1).
ところで、従来の画像処理装置では、2次元フーリエ変換や同時生起行列による演算にかかる計算負荷が非常に大きいため、テクスチャの特徴量に基づく領域判別を高速に行うことができないという問題があった。 By the way, the conventional image processing apparatus has a problem that it cannot perform region discrimination based on the texture feature amount at a high speed because the calculation load for the calculation by the two-dimensional Fourier transform and the co-occurrence matrix is very large.
本発明は、上記に鑑みてなされたものであって、処理対象画像に撮像された領域の種別の判別を高速に行うことができる画像処理装置を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus that can quickly determine the type of an area captured in a processing target image.
上述した課題を解決し、目的を達成するために、本発明のある態様にかかる画像処理装置は、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得部と、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成部と、前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する領域判別部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an image processing apparatus according to an aspect of the present invention provides a frequency representing a plurality of frequency components of an image portion of a predetermined range included in the target image. An acquisition unit for acquiring information, and a power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and the frequency information is calculated based on the power value. A feature amount generation unit that generates a feature amount indicating the feature of the associated image portion; and an area determination unit that determines a type of an area captured in the image portion based on the feature amount. Features.
この態様によれば、周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を算出してパワー値をもとに各画像部分の特徴量を生成するため、各パワー値が対応する画像部分の特徴量が簡易な処理で得られる。そのため、処理対象画像に撮像された領域の種別の判別を高速に行うことができるという効果を奏する。 According to this aspect, the power value indicating the intensity of one frequency component among the plurality of frequency components represented by the frequency information is calculated, and the feature amount of each image portion is generated based on the power value. Can be obtained by a simple process. Therefore, there is an effect that the type of the region captured in the processing target image can be determined at high speed.
本発明の別の態様にかかる画像処理方法は、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、を備えることを特徴とする。 An image processing method according to another aspect of the present invention includes an acquisition step of acquiring frequency information representing a plurality of frequency components of an image portion of a predetermined range included in a target image, and the frequency information represents A power value indicating the intensity of one frequency component among a plurality of frequency components is calculated for each predetermined frequency band, and a feature amount indicating a feature of an image portion associated with the frequency information based on the power value is calculated. A feature amount generating step to be generated; and a determination step of determining a type of a region imaged in the image portion based on the feature amount.
本発明のさらに別の態様にかかる画像処理プログラムは、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、前記特徴量をもとに前記画像部分に撮像された領域を判別する判別ステップと、をコンピュータに発揮させることを特徴とする。 An image processing program according to still another aspect of the present invention includes an acquisition step of acquiring frequency information representing a plurality of frequency components of an image portion of a predetermined range included in a target image, and the frequency information A power value indicating the intensity of one frequency component among a plurality of frequency components to be expressed is calculated for each predetermined frequency band, and a feature amount indicating a feature of an image portion associated with the frequency information based on the power value And a determination step of determining a region captured in the image portion based on the feature amount.
なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、記録媒体などの間で変換したものもまた、本発明の別の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a representation of the present invention converted between a system, a recording medium, etc. are also effective as another aspect of the present invention.
本発明によれば、領域判別を高速に行うことができる技術を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can perform area | region discrimination | determination at high speed can be provided.
以下、添付図面を参照しつつ本発明にかかる画像処理装置の好適な実施の形態について説明する。各実施の形態や各変形例における画像処理装置として、カプセル型内視鏡によって撮像され、DCT符号化によって圧縮処理された体内画像を処理対象画像とする画像処理装置を例に説明する。ただし、本発明にかかる画像処理装置が処理可能な画像は、DCT符号化によって圧縮処理された体内画像に限定されるものではない。また、本実施の形態によって本発明が限定されるものではない。なお、図面の記載において同一部分または相当する部分には同一の符号を付している。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of an image processing apparatus according to the invention will be described with reference to the accompanying drawings. As an image processing apparatus in each embodiment and each modification, an image processing apparatus that uses an in-vivo image captured by a capsule endoscope and compressed by DCT encoding as a processing target image will be described as an example. However, the image that can be processed by the image processing apparatus according to the present invention is not limited to the in-vivo image compressed by DCT encoding. Further, the present invention is not limited by the present embodiment. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals.
ここで、カプセル型内視鏡を用いて体内画像を撮像して記憶するシステムについて説明する。カプセル型内視鏡は、撮像装置およびデータ送信装置を備え、被検体に飲み込まれた後、自然排出されるまでの間、胃、小腸、大腸などの管状臓器内を各臓器の蠕動運動などによって移動しながら所定の撮像レートで体内画像の撮像を行うとともに、撮像した体内画像の画像データを被検体の体外に設置された受信装置に順次送信する。カプセル型内視鏡が被検体内で撮像する体内画像の枚数は、撮像レート(通常、2〜4frame/sec)と、カプセル型内視鏡の被検体内滞在時間(通常、8時間=2880sec)とを乗算することによって示され、概ね6〜12万枚程度という大量な枚数になる。このため、カプセル型内視鏡が撮像した体内画像は、通常、DCT符号化を用いて圧縮処理され、受信装置が備える携帯型記憶媒体に記憶される。 Here, a system that captures and stores an in-vivo image using a capsule endoscope will be described. Capsule endoscopes are equipped with an imaging device and a data transmission device. After being swallowed by a subject and before being spontaneously discharged, the capsule endoscope is moved through a tubular organ such as the stomach, small intestine, large intestine, etc. In-vivo images are captured at a predetermined imaging rate while moving, and image data of the captured in-vivo images are sequentially transmitted to a receiving device installed outside the body of the subject. The number of in-vivo images that the capsule endoscope captures in the subject includes the imaging rate (usually 2 to 4 frames / sec) and the stay time in the subject of the capsule endoscope (usually 8 hours = 2880 sec). It is shown by multiplying and becomes a large number of sheets of about 6 to 120,000 sheets. For this reason, the in-vivo image captured by the capsule endoscope is normally compressed using DCT encoding and stored in a portable storage medium included in the receiving device.
(実施の形態1)
本実施の形態1にかかる画像処理装置について、図1を参照して説明する。図1は、本実施の形態1にかかる画像処理装置1の概略構成を示すブロック図である。画像処理装置1は、各種情報を入力する入力部10、体内画像を含む各種情報を記憶する記憶部20、各種情報を出力する出力部30および画像処理装置1の各部の動作を制御する制御部40を備える。さらに、画像処理装置1は、体内画像を処理して体内画像の各画像部分に撮像された領域の種別を判別する領域判別処理を行う画像処理部50を備える。
(Embodiment 1)
The image processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a schematic configuration of the
入力部10は、キーボード、マウスおよびデータ通信インターフェイスなどによって実現され、観察者から直接に各種情報の入力を受け付けるとともに、各種メモリカード、CD、DVDなどの携帯型記憶媒体から体内画像の画像情報の入力を受け付ける。
The
記憶部20は、ハードディスク、ROMおよびRAMなどによって実現され、制御部40が実行させる各種処理プログラム、処理結果などの各種情報を記憶する。また、記憶部20は、DCT符号化によって圧縮処理された体内画像の圧縮データおよび画像処理部50で復号化処理されて復元された体内画像の復元データを記憶する体内画像記憶部21と、画像処理部50で行う領域判定処理に用いる閾値を記憶する閾値記憶部22とを備える。
The
出力部30は、液晶ディスプレイなどよって実現され、画像処理部50で行われた領域判別処理の結果および体内画像などの各種情報を表示する。また、出力部30は、観察者に対して各種処理情報の入力を依頼するGUI(Graphical User Interface)画面を表示する。
The
制御部40は、CPUによって実現され、記憶部20に記憶された各種処理プログラムを実行することで、画像処理装置1が備える各部の処理および動作を制御する。特に、制御部40は、画像処理プログラムを実行することで、画像処理部50に領域判別処理を行わせるとともに、出力部30に領域判別処理の結果を表示させる。
The
画像処理部50は、例えばCPUによって実現され、DCT係数取得部51、DCT特徴量生成部52および領域判別部53を備え、体内画像記憶部21に記憶された体内画像に対して画像処理を行う。
The
DCT係数取得部51は、周波数情報を取得する取得部に対応し、所定範囲の画像部分の周波数情報として、DCT符号化方式によって圧縮処理された体内画像の圧縮データの復号化処理の際に算出されるDCT係数を取得する。なお、制御部40は、出力部30に体内画像を表示させる場合、DCT係数取得部51を制御して圧縮画像を復元処理させて体内画像の原画像を取得する。
The DCT
ここで、DCT係数を説明する。DCT係数は、8×8画素の画像部分ごとに離散コサイン変換して得られる周波数情報であり、各画像部分の周波数成分などを示している。(以下、8×8画素の画像部分を画素ブロックと呼ぶ。)各画素ブロックのDCT係数は、8×8マトリクスで示される64個の係数の集合である。図2に示すように、DCT係数の8×8マトリクスは、DC(直流)成分を示す値およびAC(交流)成分を示す63個の値によって構成され、DC成分は、8×8マトリクスの左上角に配置され、AC成分は、そのほかの部分に配置される。図3に示すように、8×8マトリクス内の左上から右下に向かって、低周波な周波数特性を示すAC成分から高周波な周波数特性を有するAC成分が、順に配置されている。また、JPEGによる処理では、画素ブロックごとに、輝度成分(Y値)のDCT係数および色差成分(U値、V値)の2つのDCT係数の合計3つのDCT係数が算出され、各々のDCT係数のDC成分は、画素ブロックの平均輝度または平均色差に相当する値を示す。 Here, the DCT coefficient will be described. The DCT coefficient is frequency information obtained by discrete cosine transform for each image portion of 8 × 8 pixels, and indicates a frequency component of each image portion. (Hereinafter, the image portion of 8 × 8 pixels is referred to as a pixel block.) The DCT coefficient of each pixel block is a set of 64 coefficients represented by an 8 × 8 matrix. As shown in FIG. 2, the 8 × 8 matrix of DCT coefficients is configured by values indicating a DC (direct current) component and 63 values indicating an AC (alternating current) component, and the DC component is the upper left of the 8 × 8 matrix. Arranged in the corner, the AC component is arranged in the other part. As shown in FIG. 3, from the upper left to the lower right in the 8 × 8 matrix, AC components having low-frequency frequency characteristics to AC components having high-frequency frequency characteristics are arranged in order. In JPEG processing, for each pixel block, a total of three DCT coefficients of a DCT coefficient of a luminance component (Y value) and two DCT coefficients of a color difference component (U value, V value) are calculated, and each DCT coefficient is calculated. The DC component indicates a value corresponding to the average luminance or average color difference of the pixel block.
DCT特徴量生成部52は、各画像部分の特徴量を生成する特徴量生成部に対応し、周波数情報が表す複数の周波数成分のうちの一の周波数成分のパワー値として、所定の周波数帯域ごとにDCT係数のAC成分のパワー値を算出し、このパワー値をもとに各画素ブロックの特徴を示す特徴量であるDCT特徴量を生成する。なお、パワー値とは、各周波数成分の強度を示す情報であり、本実施の形態1では各周波数帯域のAC成分の強度を示し、テクスチャの方向性を示す情報は含まない。図4は、各AC成分が属する周波数帯域および各周波数帯域のパワー値を示す図である。図4では、同一の周波数帯域に属するAC成分のマトリクスに、同一の数字が割り当ててある。図4に示すように、AC成分は、14つの周波数帯域H1〜H14の各周波数帯域に属するAC成分ごとに、具体的には、8×8マトリクスの左下角と右上角とを結ぶ対角線に平行な14つの線上にそれぞれ配置されたAC成分ごとに分類される。なお、実施の形態では、14個の周波数帯域に分けた場合を説明するが、これに限られず、他の例として、任意の数の帯域に分けてもよい。図4において、左上の「1」と示されたAC成分が属する周波数帯域が、最低周波数帯域である周波数帯域H1であり、右下の「14」と示されたAC成分が属する周波数帯域が、最高周波数帯域である周波数帯域H14である。DCT特徴量生成部52は、画素ブロックごとに、周波数帯域H1〜H14のAC成分のパワー値F1〜F14を算出し、パワー値F1〜F14をもとにDCT特徴量を生成する。
The DCT feature
領域判別部53は、各画素ブロックのDCT特徴量をもとに各画素ブロックに撮像された領域の種別を判別する。領域判別部53は、各画素ブロックに撮像された体内領域のうち、例えば泡領域、病変領域、出血領域、粘膜領域、粘液領域または便などの内容物領域などの領域の種別を判別する。
The
各画素ブロックは、撮像された領域が例えば病変領域、出血領域、粘膜領域、粘液領域または内容物領域であるかによって、各々、色味およびテクスチャが異なる。また、内容物および体内の水分によって生じた泡領域が撮像された画像部分は、撮像時の照明光の反射などによって他の領域と比較してエッジの情報が多く含まれ、粘膜領域など泡領域以外のその他の領域が撮像された画像部分とは輝度の分布が異なり、周波数分布が異なる。DCT特徴量は、輝度情報および色差情報を含むDCT係数のAC成分をもとに生成されるため、領域判別部53は、DCT特徴量を用いて、各画素ブロックに撮像された領域を判別できる。
Each pixel block has a different color and texture depending on whether the imaged area is, for example, a lesion area, a bleeding area, a mucosal area, a mucus area, or a contents area. In addition, the image part in which the bubble area caused by the contents and moisture in the body is imaged contains more edge information than other areas due to the reflection of illumination light at the time of imaging, and the bubble area such as the mucous membrane area The brightness distribution and the frequency distribution are different from the image portion in which other areas other than the image area are captured. Since the DCT feature amount is generated based on the AC component of the DCT coefficient including luminance information and color difference information, the
図5は、画像処理装置1が行う画像処理手順を示すフローチャートである。図5に示すように、まず制御部40は、体内画像記憶部21に記憶されている体内画像の圧縮データを読み込み(ステップS101)、DCT係数取得部51に圧縮データを復号化させて各画素ブロックのDCT係数を取得する(ステップS102)。その後、制御部40は、DCT特徴量生成部52を制御して各画素ブロックのDCT特徴量を生成する処理を行い(ステップS103)、領域判別部53を制御して各画素ブロックに撮像された領域の種別を判別する処理を行う(ステップS104)。その後、制御部40は、出力部30に領域判別処理の結果を出力する(ステップS105)。ステップS101〜S105の処理によって、制御部40は、体内画像の各画像部分に撮像された領域を判別し、体内画像の観察者に対して領域判別処理の結果を提示する。
FIG. 5 is a flowchart illustrating an image processing procedure performed by the
図6は、ステップS103の処理において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図6に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS201)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として周波数帯域ごとに値が0となるAC成分の個数を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS202)。なお、この場合、パワー値が小さいほどAC成分の強度が大きいことを示し、パワー値が大きいほどAC成分の強度が小さいことを示す。ステップS201〜S202の処理によって、DCT特徴量算出部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
FIG. 6 is a flowchart showing a procedure of processing performed by the DCT feature
なお、DCT特徴量生成部52は、Y値、U値およびV値のすべてのDCT係数のAC成分の値を取得してDCT特徴量を生成してもよく、Y値、U値またはV値のいずれか一つのDCT係数のAC成分の値を取得してDCT特徴量を生成してもよい。例えば、泡領域を判別する場合、泡領域は輝度成分に特徴があるので、DCT特徴量生成部52は、Y値のDCT係数のAC成分のみを用いてDCT特徴量を生成してもよい。また、DCT特徴量生成部52は、全周波数帯域H1〜H14のパワー値F1〜F14の集合ではなく、所定の周波数帯域のパワー値の集合をDCT特徴量としてもよい。
Note that the DCT feature
図7は、ステップS104において領域判別部53が行う領域判別処理の手順を示すフローチャートである。図7に示すように、領域判別部53は、制御部40の制御のもと、画像全体の各画素ブロックのDCT特徴量を取得する(ステップS301)。その後、領域判別部53は、DCT特徴量のうち、所定の周波数帯域のパワー値と閾値とを比較して比較結果をもとに各画素ブロックに撮像された領域の種別を判別する(ステップS302)。なお、閾値および閾値と比較するパワー値の周波数帯域については、判別する領域ごとに、予め閾値記憶部22に記憶されている。ステップS301〜S302の処理によって、領域判別部53は、DCT特徴量をもとに各画素ブロックに撮像された領域の種別を判別する。
FIG. 7 is a flowchart showing the procedure of the area determination process performed by the
図8は、泡領域および泡領域以外のその他の領域が撮像された画素ブロックのY値のDCT係数について、周波数帯域H1〜H14ごとに、値が0となるAC成分の割合を模式的に示す図である。なお、その他の領域は、病変領域、出血領域、粘膜領域、内容物領域および粘液領域などである。 FIG. 8 schematically shows the ratio of the AC component having a value of 0 for each frequency band H1 to H14 with respect to the DCT coefficient of the Y value of the pixel block in which the bubble region and other regions other than the bubble region are imaged. FIG. The other areas are a lesion area, a bleeding area, a mucosa area, a contents area, a mucus area, and the like.
図8に示すように、泡領域およびその他の領域ともに、高周波帯域になるほど値が0であるAC成分が含まれる割合が高くなる。しかし、泡領域は、エッジ成分を多く含むため、その他の領域と比較して周波数帯域H3〜H8で、値が0であるAC成分が含まれる割合が低くなる。このため、周波数帯域H3〜H8で、泡領域のパワー値は、その他の領域のパワー値と比較して小さくなる。領域判定部53は、泡領域の判別を行う場合、パワー値F3〜F8のうち予め定められた周波数帯域のパワー値と、泡領域を判別するための閾値とを比較して、パワー値が閾値より小さい場合、DCT特徴量が対応する画素ブロックに撮像された領域を泡領域と判別する。
As shown in FIG. 8, in both the bubble region and other regions, the ratio of the AC component having a value of 0 increases as the frequency band is increased. However, since the bubble region includes a lot of edge components, the ratio of the AC component having a value of 0 in the frequency bands H3 to H8 is lower than that in the other regions. For this reason, in the frequency bands H3 to H8, the power value of the bubble region is smaller than the power values of the other regions. When determining the bubble region, the
泡領域に限らず、各画素ブロックに撮像された領域によってパワー値の分布は異なるので、領域判別部53は、パワー値の分布に応じて設定された閾値を用いて各画素ブロックに撮像された領域の種別を判定する処理を行う。なお、領域判別部53が閾値と比較するパワー値の周波数帯域についても、パワー値の分布に応じて予め設定される。
Since the distribution of the power value differs depending on the area captured in each pixel block, not limited to the bubble area, the
なお、閾値は、判定する領域ごとに、1つであっても複数であってもよい。例えば、泡領域を判別する場合、領域判定部53は、パワー値F5を閾値と比較してパワー値F5が閾値よりも小さい場合に画素ブロックに撮像された領域が泡領域であると判別してもよく、パワー値F4およびF7を各々に対応する閾値と比較して両方のパワー値が各々の閾値よりも小さい場合に画素ブロックに撮像された領域が泡領域であると判定してもよい。
The threshold value may be one or plural for each area to be determined. For example, when determining a bubble region, the
本実施の形態1にかかる画像処理装置1は、DCT係数のAC成分のパワー値をもとに生成した特徴量をもとに領域判別処理を行うので、2次元フーリエ変換および同時生起行列などによる演算処理を用いて領域判別処理を行う従来の画像処理装置と比較し、高速に領域判別処理を行うことができる。
Since the
また、画像処理装置1は、DCT符号化方式によって圧縮処理された圧縮画像の復元処理が行われる際に算出されるDCT係数をもとに各画像部分の特徴量を生成するので、処理対象画像がDCT符号化方式によって圧縮処理されていた場合、従来の画像処理装置と比較して特徴量生成にかかる演算処理時間を短縮でき、さらに高速に判別処理を行うことができる。
Further, the
また、画像処理装置1は、DCT係数のAC成分を用いて生成したDCT特徴量をもとに領域判別処理を行うため、周波数情報および色差情報をもとに領域判別処理を行うことができるので、色味の分布が広く、色味が変化しやすい領域の判別も高精度に行うことができる。例えば、泡領域の色味の分布は広く、泡領域以外のその他の領域の色味の分布と重なるめ、色情報のみを特徴量として領域判別処理を行うとすると、泡領域を高精度で判別することが難しい場合があった。しかし、泡領域は、エッジ成分を多く含み、中周波から高周波なテクスチャを有し、他の領域と周波数成分を比較すると中周波帯域から高周波帯域のAC成分の値が大きいので、画像処理装置1は、中周波帯域から高周波帯域のAC成分を評価することによって、泡領域の判別処理を高精度に行うことができる。
Further, since the
さらに、画像処理装置1は、パワー値を用いて領域判別を行うので、符号化係数のAC成分の値をそのまま画素ブロックの特徴量として領域判別処理を行う場合と比較して精度良く行うことができる。AC成分はテクスチャの方向性の情報を含んでいるため、AC成分の値をそのまま画素ブロックの特徴量として領域判別を行うと、テクスチャの方向性の相違によって所定の領域を判別することが難しい場合がある。しかし、画像処理装置1は、テクスチャの方向性の情報を含まないパワー値の集合を特徴量として領域判別を行うので、高精度に領域判別を行うことができる。
Further, since the
なお、実施の形態1において、DCT特徴量生成部52は、パワー値F1〜F14とDC成分の値との集合をDCT特徴量としてもよい。この場合、領域判別部53は、例えば泡領域の判別を行う際、予め設定された閾値とY値のDC成分とを比較し、Y値のDC成分が閾値以上であれば画素ブロックに撮像された領域が泡領域である可能性があると判別してパワー値と閾値との比較する処理を行う。また、領域判別部53は、色に特性がある領域の判別を行う際は、U値またはV値のDC成分と閾値とを比較し、画素ブロックに撮像された領域が判別を所望する領域である可能性があると判別された後、パワー値と閾値とを比較する処理を行う。この場合、画像処理装置1は、パワー値に加えてDC成分を用いて領域判定処理を行うため、領域判定の精度が向上する。なお、パワー値による領域判定処理の後、DC成分により領域判別処理を行うとしてもよい。
In the first embodiment, the DCT feature
(変形例1)
ところで、実施の形態1では、周波数情報に含まれる一の周波数成分のパワー値として、DCT係数の各周波数帯域に属するAC成分のうち値が0となるAC成分の個数を算出したが、本変形例1では、パワー値として、値が所定範囲内であるAC成分の個数を算出する。
(Modification 1)
In the first embodiment, the number of AC components having a value of 0 among the AC components belonging to each frequency band of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. In Example 1, the number of AC components whose values are within a predetermined range is calculated as the power value.
本変形例1にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図9は、本変形例1にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図9に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS211)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、周波数帯域ごとに値が所定の範囲内に収まるAC成分の個数を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS212)。ステップS211〜S212の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
The image processing apparatus according to the first modification has the same configuration as the
なお、所定の範囲とは、0値を含み0値に近い値の範囲であり、例えばAC成分の値が−10以上、10以下となる範囲である。また、その範囲は実験によってその他の値に定められてもよい。値が所定の範囲内となるAC成分が含まれる割合は、図8に示した、値が0となるAC成分が含まれる割合の分布と同様であり、例えば値が0となるAC成分を含む割合の大きい周波数帯域では、0値近傍の値となるAC成分を含む割合も大きい。このため、本変形例1にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様に、領域判別処理を行うことができる。
Note that the predetermined range is a range of values including the 0 value and close to the 0 value, for example, a range in which the value of the AC component is −10 or more and 10 or less. Further, the range may be set to other values by experiment. The ratio of the AC component whose value falls within a predetermined range is the same as the distribution of the ratio of the AC component whose value is 0 shown in FIG. 8, for example, the AC component whose value is 0 is included. In a frequency band with a large ratio, a ratio including an AC component that is a value near zero is also large. For this reason, the image processing apparatus according to the first modification can perform the area determination process in the same manner as the
(変形例2)
また、実施の形態1および変形例1では、周波数情報に含まれる一の周波数成分のパワー値として、DCT係数のAC成分のうち所定の条件に当てはまるAC成分の個数を算出したが、本変形例2では、パワー値として各周波数帯域に属するAC成分の絶対値の平均値を算出する。
(Modification 2)
In
本変形例2にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図10は、本変形例2にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図10に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS221)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、周波数帯域ごとにAC成分の値の絶対値の平均値を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS222)。なお、この場合、パワー値が大きいほどAC成分の強度が大きいことを示し、パワー値が小さいほどAC成分の強度が小さいことを示す。ステップS221〜S222の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
The image processing apparatus according to the second modification has the same configuration as that of the
DCT係数のAC成分の値は、テクスチャの方向性によって正負両方の値を取りうる。このため、DCT特徴量生成部52は、AC成分の値を絶対値に変換して平均値を算出することによって、各周波数帯域H1〜H14のAC成分の強度の情報をパワー値として取得してDCT特徴量を生成する。
The value of the AC component of the DCT coefficient can take both positive and negative values depending on the directionality of the texture. For this reason, the DCT feature
図11は、泡領域および泡領域以外のその他の領域が撮像された画像部分のY値のDCT係数のAC成分について、周波数帯域H1〜H14の各々に属するAC成分の値の絶対値の平均値、すなわち本変形例2にかかるパワー値F1〜F14の分布を示す図である。図11に示すように、泡領域およびその他の領域ともに、高周波帯域になるほどパワー値は小さくなる。しかし、泡領域は、エッジ成分を多く含むため、周波数帯域H3〜H8でその他の領域と比較してパワー値が大きくなる。領域判定部53は、泡領域の判別を行う場合、パワー値F3〜F8のうち予め定められた周波数帯域のパワー値と、泡領域を判別するための閾値とを比較して、パワー値が閾値より大きい場合、DCT特徴量が対応する画素ブロックに撮像された領域を泡領域と判別する。
FIG. 11 shows the average value of the absolute values of the AC component values belonging to each of the frequency bands H1 to H14 with respect to the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged. That is, it is a figure which shows distribution of the power values F1-F14 concerning this
泡領域に限らず、撮像された領域によってパワー値の分布は異なるので、実施の形態1の場合と同様に、領域判定部53は、パワー値の分布に応じて予め設定された閾値を用いて各画素ブロックに撮像された領域を判定する処理を行う。このため、変形例2にかかる画像処理装置は、実施の形態1と同様に、領域判別処理を行うことができる。
Since the power value distribution varies depending on the imaged region, not limited to the bubble region, the
(変形例3)
また、変形例2では、周波数情報に含まれる一の周波数成分のパワー値としてDCT係数のAC成分の値の絶対値の平均値を算出したが、本変形例3では、パワー値としてAC成分の値の絶対値の平均値に周波数帯域ごとに重み付けをした値を算出する。
(Modification 3)
In the second modification, the average value of the AC component values of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. However, in the third modification, the AC value of the AC component is used as the power value. A value obtained by weighting the average absolute value of the values for each frequency band is calculated.
本変形例3にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図12は、本変形例3にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図12に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS231)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、各周波数帯域に属するAC成分の値の絶対値の平均値に各周波数帯域に応じて重み付けをした値を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS232)。なお、AC成分の値の絶対値は、属する周波数帯域が高周波帯域になるほど小さくなる傾向があるので、高周波帯域のAC成分の絶対値の平均値ほど、大きく重み付けを行う。ステップS231〜S232の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
The image processing apparatus according to the third modification has a configuration similar to that of the
本変形例3にかかる場合、ステップS104において、領域判別部53は、所定の複数のパワー値の平均値と閾値とを比較して比較結果をもとに各画素ブロックに撮像された領域を判別する。
In the case of the third modification, in step S104, the
ここで、本変形例3にかかるパワー値F1〜F14は、各周波数帯域のAC成分の値の絶対値の平均値をA1〜A14とし、各周波数帯域に応じた重みをW1〜W14とすると、下式(1)に示される。
F1=A1×W1,・・・,F14=A14×W14 ・・・(1)
Here, the power values F1 to F14 according to the third modification example are given by assuming that the average values of the AC component values in each frequency band are A1 to A14, and the weights corresponding to each frequency band are W1 to W14. It is shown in the following formula (1).
F1 = A1 × W1,..., F14 = A14 × W14 (1)
この場合、領域判別部53が閾値と比較する際に用いるパワー値の平均値Fは、閾値との比較に用いるパワー値の周波数帯域を周波数帯H3〜H8すると、下式(2)で示される。
F=(F3+F4+F5+F6+F7+F8)/6 ・・・(2)
In this case, the average value F of the power values used when the
F = (F3 + F4 + F5 + F6 + F7 + F8) / 6 (2)
図13は、泡領域および泡領域以外のその他の領域が撮像された画像部分のY値のDCT係数のAC成分をもとに算出した本変形例3にかかるパワー値の周波数帯域ごとの分布を示す図である。図13に示すように、例えば、泡領域以外のその他の領域を撮像した画像部分のパワー値が周波数帯域によらずほぼ一定となるように重み付けを行った場合、泡領域を撮像した画像部分のパワー値は、周波数帯域H3〜H8で、その他の領域のパワー値と比較して大きくなる。この場合、泡領域のパワー値F3〜F8の平均値BF3−8は、その他の領域のパワー値F3〜F8の平均値MF3−8よりも大きい。このため、領域判別部53は、例えばパワー値F3〜F8の平均値が予め設定した閾値と比較して大きい場合、画素ブロックに撮像された領域は泡領域であると判別する。
FIG. 13 shows the distribution of the power value for each frequency band according to the third modification calculated based on the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged. FIG. As shown in FIG. 13, for example, when weighting is performed so that the power value of an image portion obtained by imaging other regions other than the bubble region is substantially constant regardless of the frequency band, The power value is larger in the frequency bands H3 to H8 than the power values in other regions. In this case, the average value BF 3-8 of the power values F3 to F8 in the bubble region is larger than the average value MF 3-8 of the power values F3 to F8 in the other regions. For this reason, for example, when the average value of the power values F3 to F8 is larger than a preset threshold value, the
泡領域に限らず、撮像された領域によってパワー値の分布は異なるので、領域判定部53は、パワー値の分布に応じて設定された閾値と所定のパワー値の平均値とを比較して各画素ブロックに撮像された領域を判定する処理を行う。なお、本変形例3にかかる画像処理装置では、判別する領域に応じて、重み付けの程度、閾値との比較の際に用いるパワー値の周波数帯域および閾値が予め定められ、閾値記憶部22に記憶されている。
Since the distribution of power values differs depending on the imaged area, not limited to the bubble area, the
本変形例3にかかる画像処理装置は、AC成分の値の絶対値の加重平均値、すなわち複数の周波数帯域のAC成分の強度を反映した値と閾値とを比較した結果をもとに領域判定を行うので、1つの周波数帯域のパワー値と閾値とを比較して領域判別処理を行う場合と比較して、同程度の計算負荷で精度良く領域判別処理を行うことができる。 The image processing apparatus according to the third modification determines a region based on a result obtained by comparing a weighted average value of absolute values of AC component values, that is, a value reflecting the AC component intensity of a plurality of frequency bands with a threshold value. Therefore, the region determination process can be performed with high calculation load of the same degree as compared with the case where the region determination process is performed by comparing the power value of one frequency band and the threshold value.
なお、実施の形態1および変形例1〜3では、各々異なるパワー値を算出して各々異なるDCT特徴量を生成したが、本発明の実施の形態にかかる画像処理装置では、実施の形態1および変形例1〜3に記載した4種類のDCT特徴量のなかから、領域判別処理に用いるDCT特徴量を選択して設定するDCT特徴量設定部を備えるとしてもよい。 In the first embodiment and the first to third modifications, different power values are calculated to generate different DCT feature amounts. However, in the image processing apparatus according to the embodiment of the present invention, the first and A DCT feature value setting unit that selects and sets a DCT feature value used for region discrimination processing from the four types of DCT feature values described in the first to third modifications may be provided.
(実施の形態2)
ところで、実施の形態1では、パワー値と閾値との大小を比較することによって領域判別処理を行ったが、本実施の形態2では、特徴空間内でのパワー値の分布と教師データの分布とを比較することによって領域判定処理を行う。
(Embodiment 2)
In the first embodiment, the region determination process is performed by comparing the power value and the threshold value. In the second embodiment, the power value distribution and the teacher data distribution in the feature space are as follows. The region determination process is performed by comparing the two.
図14は、本実施の形態2にかかる画像処理装置2の概略構成を示す図である。画像処理装置2は、画像処理装置1が備えた記憶部20、制御部40および画像処理部50に替えて、記憶部60、制御部70および画像処理部80を備える。記憶部60は、記憶部20が備えた閾値記憶部22に替えて、教師データ記憶部62を備える。画像処理部80は、画像処理部50が備えた領域判別部53に替えて、領域判別部83を備える。制御部70は、制御部40と同様に、画像処理装置2の各部の処理および動作を制御する。なお、画像処理装置2のその他の構成は、画像処理装置1のその他の構成と同様である。
FIG. 14 is a diagram illustrating a schematic configuration of the
教師データ記憶部62は、教師データとして、画素ブロックに撮像された領域ごとに、複数のDCT特徴量をクラス分けして記憶している。領域判別部83は、各画素ブロックのDCT特徴量と教師データのDCT特徴量とをもとに、各画素ブロックの領域判別処理を行う。
The teacher
画像処理装置2が行う画像処理の手順は、画像処理装置1が行う画像処理の手順(図5:ステップS101〜S105)と同様であるが、ステップS104の領域判別処理が異なる。図15は、ステップS104において、領域判別部83が行う処理の手順を示すフローチャートである。図15に示すように、領域判別部83は、制御部70の制御のもと、画像全体の各画素ブロックのDCT特徴量を取得し(ステップS401)、教師データ記憶部62より教師データを読み込む(ステップS402)。その後、領域判定部83は、各画素ブロックのDCT特徴量および教師データのDCT特徴量をもとに、各画素ブロックに撮像された領域を判別する(ステップS403)。ステップS401〜S403の処理によって、領域判別部83は、DCT特徴量をもとに各画素ブロックに撮像された領域を判別する。
The procedure of the image processing performed by the
図16は、教師データの一例であり、特徴空間上で泡領域のDCT特徴量および粘膜領域のDCT特徴量の分布を示す図である。図16では、特徴空間は2次元であり、特徴空間の特徴軸として低周波帯域のパワー値と高周波帯域のパワー値が選択されている。低周波帯域のパワー値とは、例えばパワー値F4であり、高周波帯域のパワー値とは、例えばパワー値F7である。図16に示すパワー値とは、各周波数帯域のAC成分の絶対値の平均値であり、泡領域は、粘膜領域と比較して高周波帯域のパワー値が大きいことが分かる。 FIG. 16 is an example of teacher data, and is a diagram showing the distribution of the DCT feature value of the bubble region and the DCT feature value of the mucous membrane region in the feature space. In FIG. 16, the feature space is two-dimensional, and the power value in the low frequency band and the power value in the high frequency band are selected as the feature axis of the feature space. The power value in the low frequency band is, for example, the power value F4, and the power value in the high frequency band is, for example, the power value F7. The power value shown in FIG. 16 is an average value of absolute values of AC components in each frequency band, and it can be seen that the foam region has a higher power value in the high frequency band than the mucosal region.
なお、各周波数帯域のAC成分の絶対値の平均値に各周波数帯域に応じて重み付けした値をパワー値とした場合、所定の複数のパワー値の平均値を特徴軸とすることができる。例えば、図16に示す場合、低周波帯域のパワー値としてパワー値F3〜F5の平均値をとり、高周波帯域のパワー値としてパワー値F6〜F8の平均値をとり、各平均値を特徴軸としてもよい。また、図16では、特徴空間を2次元としたが、特徴空間は2次元に限られず、例えばパワー値F1〜F14の各々を特徴軸とすれば、最大で14次元の特徴空間とすることができる。さらに、特徴軸としてDC成分の値を追加してもよい。 When a value obtained by weighting the average value of the absolute values of the AC components in each frequency band according to each frequency band is used as the power value, the average value of a plurality of predetermined power values can be used as the feature axis. For example, in the case shown in FIG. 16, the average value of the power values F3 to F5 is taken as the power value in the low frequency band, the average value of the power values F6 to F8 is taken as the power value in the high frequency band, and each average value is taken as the feature axis. Also good. In FIG. 16, the feature space is two-dimensional. However, the feature space is not limited to two dimensions. For example, if each of the power values F1 to F14 is a feature axis, the feature space can be a maximum of 14 dimensions. it can. Furthermore, a DC component value may be added as a feature axis.
泡領域および粘膜領域に限られず、病変領域、出血領域などその他の領域についても各々、特徴空間上でのDCT特徴量の分布は異なるので、領域判別部83は、教師データを用いて各画素ブロックに撮像された領域の種別を判別する処理を行う。
Since the distribution of the DCT feature amount in the feature space is different for each of other regions such as a lesion region and a bleeding region, not limited to the bubble region and the mucous membrane region, the
ステップS403において、領域判別部53は、特徴空間上での、各画素ブロックのDCT特徴量と教師データのDCT特徴量の分布とをもとに、kNN(k-Nearest Neighbor Method)法および部分空間法などの公知の判別手法を用いて、各画素ブロックに撮像された領域を判別する。
In step S403, the
本実施の形態2にかかる画像処理装置2は、1領域につき複数のDCT特徴量を教師データとして記憶し、特徴空間上での教師データのDCT特徴量および各画素ブロックのDCT特徴量の分布をもとに各画素ブロックに撮像された領域を判別するので、例えば、被検体の個体差や撮像時の照明の具合などの影響によってDCT係数が変動しても、精度良く領域判別処理を行うことができる。
The
ところで、上記の実施形態および変形例では、DCT符号化による画像データの圧縮処理の一例としてJPEGをあげたが、DCT符号化による圧縮処理は、JPEGによる処理に限られず、MPEGなどによる処理も含まれる。特に、MPEGは、動画像データの圧縮処理であるが、JPEGと同様にDCT符号化処理によって圧縮処理を行っているので、本発明にかかる技術思想を適用できる。 In the above embodiment and modification, JPEG is used as an example of image data compression processing by DCT encoding. However, compression processing by DCT encoding is not limited to JPEG processing, and includes processing by MPEG and the like. It is. In particular, MPEG is a moving image data compression process, but since the compression process is performed by a DCT encoding process similar to JPEG, the technical idea according to the present invention can be applied.
また、上記の実施形態および変形例では、周波数情報としてDCT係数をあげたが、圧縮画像の復号化処理に伴って所定の画像部分ごとに周波数情報が算出される圧縮符号化手法であれば、本発明に係る技術思想を適用できるのである。例えば、領域判別部53は、DCT符号化以外の、既知である離散ウェーブレット変換(DWT)、離散フーリエ変換(DFT)、アダマール変換やラプラス変換などの周波数変換を用いた符号化方式によって算出された周波数情報(例えば、DCT符号化の変換方式であればDCT係数を、アダマール変換方式であれば、周波数変換の変換結果がこれに該当する。)であって、各画像部分の複数の周波数成分の情報を含む周波数情報をもとに生成された特徴量をもとに画像部分に撮像された領域の種別を判別してもよい。もちろん、所定範囲ごとに圧縮する圧縮符号化の手法であれば、上記に挙げた離散ウェーブレット変換などの例に限られないことは当業者に理解されることである。この場合でも、DCT符号化の場合と同様に、領域判別を高速に行うことができる。
Further, in the above embodiment and the modification, the DCT coefficient is given as the frequency information. However, if the compression encoding method is used for calculating the frequency information for each predetermined image portion in accordance with the decoding process of the compressed image, The technical idea according to the present invention can be applied. For example, the
近年、画像処理装置では、符号化圧縮処理によって原画像を圧縮して記憶することが一般化されているので、圧縮画像の復号化処理が行われる際に周波数情報が算出される場合、本実施の形態1などと同様に、領域判別処理にかかる時間をさらに短縮できる。 In recent years, in an image processing apparatus, since it is common to compress and store an original image by encoding and compression processing, when frequency information is calculated when decoding processing of a compressed image is performed, the present embodiment As in the first embodiment, the time required for the area determination process can be further shortened.
なお、周波数情報は、圧縮画像の復号化処理の際に算出される周波数情報に限られない。すなわち、本発明にかかる画像処理装置は、復号化処理の有無に関係なく、所定の周波数情報を算出する処理を行った後、領域判別処理を行うとしてもよい。 The frequency information is not limited to the frequency information calculated at the time of decoding the compressed image. That is, the image processing apparatus according to the present invention may perform the region determination process after performing the process of calculating the predetermined frequency information regardless of the presence or absence of the decoding process.
また、上記の実施形態および変形例にかかる画像処理装置が行う領域判別処理として、1枚の体内画像に対する領域判別処理を説明したが、体内画像が複数ある場合、一連の体内画像群の体内画像に対して順次、自動的に領域判別処理を行うこととしてもよい。 Further, as the area determination process performed by the image processing apparatus according to the above-described embodiment and the modification, the area determination process for one in-vivo image has been described. However, when there are a plurality of in-vivo images, the in-vivo images of a series of in-vivo image groups. Alternatively, the region determination process may be automatically performed sequentially.
また、上記の実施形態および変形例では、処理対象となる目的の画像を所定範囲、例えば8×8画素の画像部分ごとに圧縮する圧縮符号化の手法を説明したが、その範囲の大きさはこれに限定されるものではない。例えば、4×4画素の画像部分ごとに圧縮してもよいし、16×16画素の画像部分ごとに圧縮する手法であってもよい。一方、他の例では、画像部分を画像全体とみなして、画像全体を圧縮する圧縮符号化の手法であってもよい。 In the embodiment and the modification described above, the compression encoding technique for compressing the target image to be processed into a predetermined range, for example, every 8 × 8 pixel image portion, is described. It is not limited to this. For example, the compression may be performed for each 4 × 4 pixel image portion, or may be performed for each 16 × 16 pixel image portion. On the other hand, in another example, a compression encoding method may be used in which the image portion is regarded as the entire image and the entire image is compressed.
また、上記の実施形態および変形例では、DCT係数取得部51が圧縮画像の復号化処理を行ってDCT係数を取得する(算出する)こととしたが、別の変形例として、所定の周波数変換処理を行う他の外部装置(図示せず)からDCT係数などの周波数情報を取得するとしてもよい。
In the above-described embodiment and modification, the DCT
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.
1,2 画像処理装置
10 入力部
20,60 記憶部
21 体内画像記憶部
22 閾値記憶部
30 出力部
40,70 制御部
50,80 画像処理部
51 DCT係数取得部
52 DCT特徴量生成部
53,83 領域判別部
62 教師データ記憶部
F1〜F14 パワー値
H1〜H14 周波数領域
DESCRIPTION OF
Claims (19)
前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成部と、
前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する領域判別部と、
を備えることを特徴とする画像処理装置。 For an image portion of a predetermined range included in the target image, an acquisition unit that acquires frequency information representing a plurality of frequency components of the image portion;
A power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and a feature of an image portion associated with the frequency information based on the power value A feature amount generation unit for generating a feature amount indicating
An area discriminating unit for discriminating the type of the area captured in the image portion based on the feature amount;
An image processing apparatus comprising:
前記領域判別部は、前記教師データの前記特徴量および前記画像部分の前記特徴量をもとに前記画像部分に撮像された領域の種別を判別することを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。 A teacher data storage unit that stores teacher data that is a plurality of the feature quantities classified into different areas;
8. The region determination unit according to claim 1, wherein the region determination unit determines a type of a region captured in the image portion based on the feature amount of the teacher data and the feature amount of the image portion. The image processing apparatus according to claim 1.
前記一の周波数成分は、前記DCT係数のAC成分であることを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。 The frequency information is a DCT coefficient calculated when a decoding process of a compressed image compressed by the DCT encoding method is performed,
The image processing apparatus according to claim 1, wherein the one frequency component is an AC component of the DCT coefficient.
前記他の周波数成分は、前記DCT係数のDC成分であることを特徴とする請求項7に記載の画像処理装置。 The frequency information is a DCT coefficient calculated when a decoding process of a compressed image compressed by the DCT encoding method is performed,
The image processing apparatus according to claim 7, wherein the other frequency component is a DC component of the DCT coefficient.
前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、
前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、
を備えることを特徴とする画像処理方法。 An acquisition step of acquiring frequency information representing a plurality of frequency components of the image portion for a predetermined range of the image portion included in the target image;
A power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and a feature of an image portion associated with the frequency information based on the power value A feature amount generation step for generating a feature amount indicating
A determination step of determining a type of an area captured in the image portion based on the feature amount;
An image processing method comprising:
前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、
前記特徴量をもとに前記画像部分に撮像された領域を判別する判別ステップと、
をコンピュータに発揮させることを特徴とする画像処理プログラム。 An acquisition step of acquiring frequency information representing a plurality of frequency components of the image portion for a predetermined range of the image portion included in the target image;
A power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and a feature of an image portion associated with the frequency information based on the power value A feature amount generation step for generating a feature amount indicating
A determination step of determining a region imaged in the image portion based on the feature amount;
An image processing program for causing a computer to exhibit the above.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008040179A JP2009136655A (en) | 2008-02-21 | 2008-02-21 | Image processing device, image processing method, and image processing program |
PCT/JP2008/071047 WO2009104315A1 (en) | 2008-02-21 | 2008-11-19 | Image processing device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008040179A JP2009136655A (en) | 2008-02-21 | 2008-02-21 | Image processing device, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009136655A true JP2009136655A (en) | 2009-06-25 |
Family
ID=40867917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008040179A Pending JP2009136655A (en) | 2008-02-21 | 2008-02-21 | Image processing device, image processing method, and image processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2009136655A (en) |
WO (1) | WO2009104315A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102525381A (en) * | 2010-12-16 | 2012-07-04 | 奥林巴斯株式会社 | Image processing apparatus, image processing method and computer-readable recording device |
JP2014036698A (en) * | 2012-08-10 | 2014-02-27 | Olympus Corp | Image processor, image processing method, and image processing program |
JP2017517222A (en) * | 2014-03-28 | 2017-06-22 | ユニベルシテ・ドゥ・テクノロジー・ドゥ・トロワUniversite De Technologie De Troyes | System for identifying a photo camera model associated with a JPEG compressed image, and related methods implemented in such a system, its use and application |
CN107113395A (en) * | 2014-11-13 | 2017-08-29 | 三星电子株式会社 | For the method and apparatus for the metadata for generating the frequency characteristic information for including image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154527B (en) * | 2017-12-08 | 2020-06-12 | 东华大学 | Woven fabric texture characterization method based on stable learning dictionary |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06339019A (en) * | 1993-05-28 | 1994-12-06 | Nippon Telegr & Teleph Corp <Ntt> | Area separation system for document picture by discrete cosine transformation |
JP3189511B2 (en) * | 1993-07-22 | 2001-07-16 | ミノルタ株式会社 | Encoding device |
JP3733161B2 (en) * | 1995-08-01 | 2006-01-11 | キヤノン株式会社 | Image processing apparatus and method |
JP4520405B2 (en) * | 2005-12-28 | 2010-08-04 | オリンパスメディカルシステムズ株式会社 | Image processing apparatus and image processing method in the image processing apparatus |
JP4451460B2 (en) * | 2007-03-16 | 2010-04-14 | オリンパス株式会社 | Endoscopic diagnosis support device |
JP2007236956A (en) * | 2007-03-16 | 2007-09-20 | Olympus Corp | Endoscopic diagnosis support apparatus and endoscopic image processing method |
-
2008
- 2008-02-21 JP JP2008040179A patent/JP2009136655A/en active Pending
- 2008-11-19 WO PCT/JP2008/071047 patent/WO2009104315A1/en active Application Filing
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102525381A (en) * | 2010-12-16 | 2012-07-04 | 奥林巴斯株式会社 | Image processing apparatus, image processing method and computer-readable recording device |
JP2012125469A (en) * | 2010-12-16 | 2012-07-05 | Olympus Corp | Image processor, image processing method, and image processing program |
US8798344B2 (en) | 2010-12-16 | 2014-08-05 | Olympus Corporation | Image processing apparatus, image processing method and computer-readable recording device |
CN102525381B (en) * | 2010-12-16 | 2016-08-03 | 奥林巴斯株式会社 | The recording equipment of image processing apparatus, image processing method and embodied on computer readable |
JP2014036698A (en) * | 2012-08-10 | 2014-02-27 | Olympus Corp | Image processor, image processing method, and image processing program |
JP2017517222A (en) * | 2014-03-28 | 2017-06-22 | ユニベルシテ・ドゥ・テクノロジー・ドゥ・トロワUniversite De Technologie De Troyes | System for identifying a photo camera model associated with a JPEG compressed image, and related methods implemented in such a system, its use and application |
CN107113395A (en) * | 2014-11-13 | 2017-08-29 | 三星电子株式会社 | For the method and apparatus for the metadata for generating the frequency characteristic information for including image |
US10417766B2 (en) | 2014-11-13 | 2019-09-17 | Samsung Electronics Co., Ltd. | Method and device for generating metadata including frequency characteristic information of image |
CN107113395B (en) * | 2014-11-13 | 2020-11-24 | 三星电子株式会社 | Method and apparatus for generating metadata including frequency characteristic information of image |
Also Published As
Publication number | Publication date |
---|---|
WO2009104315A1 (en) | 2009-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4932588B2 (en) | Image processing apparatus and image processing program | |
JP2004201290A (en) | Image processing method, image processing device, image processing program, and record medium | |
JP2007295170A (en) | Device, program, and method for compression image | |
US9635212B2 (en) | Dynamic compression ratio selection | |
JP2006157910A (en) | Filtering method for removing blocking artifacts and apparatus therefor | |
EP2103134B1 (en) | System and method for reducing artifacts in images | |
JP5318256B2 (en) | High bit depth image compression | |
WO2009104315A1 (en) | Image processing device, image processing method, and image processing program | |
JP2007104678A (en) | Method of classifying images in connection with jpeg compression history | |
US20110262052A1 (en) | Image coding apparatus, control method thereof, and storage medium | |
US8588538B2 (en) | Image processing apparatus and method | |
JP6498858B2 (en) | Image coding method | |
Wu et al. | Low-complexity video compression for capsule endoscope based on compressed sensing theory | |
US20230133895A1 (en) | Image encoding apparatus and method for controlling the same and non-transitory computer-readable storage medium | |
US11803985B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2009142552A (en) | Image processor, image processing method, and image processing program | |
JP2001144932A (en) | Image processor and its method | |
US10728470B2 (en) | Image processing device, image processing method, and non-transitory computer readable medium storing image processing program | |
JP2009124300A (en) | Apparatus, method and program for jpeg encoding with watermark embedding, record medium recorded with the encoding program, and apparatus, method and program for detecting tampering of the jpeg image data with watermark embedding, record medium recorded with the detecting program | |
JP2009111821A (en) | Image encoding apparatus, image decoding apparatus, image data processing apparatus, image encoding method, and image decoding method | |
JP2004348293A (en) | Image quality computing device and method, program thereof, and recording medium | |
US8331709B2 (en) | Fixed buffer real-time image compression technique | |
JP4946801B2 (en) | Image management apparatus, image management program, and image management method | |
EP3151189B1 (en) | Method for determining a modifiable block | |
JP6531070B2 (en) | Image restoration method and image restoration apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090417 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090804 |