JP2009136655A - Image processing device, image processing method, and image processing program - Google Patents

Image processing device, image processing method, and image processing program Download PDF

Info

Publication number
JP2009136655A
JP2009136655A JP2008040179A JP2008040179A JP2009136655A JP 2009136655 A JP2009136655 A JP 2009136655A JP 2008040179 A JP2008040179 A JP 2008040179A JP 2008040179 A JP2008040179 A JP 2008040179A JP 2009136655 A JP2009136655 A JP 2009136655A
Authority
JP
Japan
Prior art keywords
image
frequency
image processing
value
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008040179A
Other languages
Japanese (ja)
Inventor
Makoto Kitamura
誠 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008040179A priority Critical patent/JP2009136655A/en
Priority to PCT/JP2008/071047 priority patent/WO2009104315A1/en
Publication of JP2009136655A publication Critical patent/JP2009136655A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/42Analysis of texture based on statistical description of texture using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device, an image processing method, and an image processing program which allow the speedy determnation of image areas to be processed. <P>SOLUTION: The image processing device includes: a DCT coefficient-obtaining part 51 which regarding the imaging areas in a predetermined range included in an interested image, obtains a DCT coefficient as frequency information representing a plurality of frequency components of the image areas; a generator for feature quantity of DCT 52 which calculates a power value representing the strength of an AC component of the DCT coefficient as a power value representing a strength of one frequency component out of a plurality of frequency components represented by the frequency information and which generates a feature quantity of DCT indicating a feature of the image areas to which each DCT coefficient correspond from this power value; and an area-determining part 53 which determines areas imaged in each imaging part based on the feature quantity of DCT. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、各画像の所定範囲の画像部分に撮像された領域の種別を判別する処理を行う画像処理装置、画像処理方法および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for performing processing for determining the type of an area captured in an image portion of a predetermined range of each image.

従来、画像の領域判別を行う技術は、画像内の主要対象物を背景等と分離するために用いるなど応用範囲が広く、様々な方法が提案されている。なかでも、所定範囲の画素の集合の特徴量をもとに画像の領域判別を行う方法は、画素単位の特徴量をもとに領域判別を行う方法に比べ、情報量が多い分、分割精度の向上が期待できる。   2. Description of the Related Art Conventionally, a technique for discriminating an area of an image has a wide range of applications such as use for separating a main object in an image from a background, and various methods have been proposed. In particular, the method for determining the area of an image based on the feature amount of a set of pixels in a predetermined range has a larger amount of information than the method for determining the area based on a feature amount in units of pixels. Improvement can be expected.

ここで、画素の集合の特徴量として代表的なものにテクスチャの特徴量がある。テクスチャとは、繰り返しの画素値パターンである。一般に、画像処理装置では、テクスチャの特徴量を扱うために、2次元フーリエ変換や同時生起行列などによる数値化処理を行っている(例えば、非特許文献1参照)。   Here, a representative feature amount of a set of pixels is a texture feature amount. A texture is a repeated pixel value pattern. In general, an image processing apparatus performs numerical processing by two-dimensional Fourier transform, a co-occurrence matrix, or the like in order to handle a texture feature amount (see, for example, Non-Patent Document 1).

ディジタル画像処理編集委員会、「ディジタル画像処理」、第二版、CG−ARTS協会、2006年3月、p.192−195Digital Image Processing Editorial Board, “Digital Image Processing”, Second Edition, CG-ARTS Association, March 2006, p.192-195

ところで、従来の画像処理装置では、2次元フーリエ変換や同時生起行列による演算にかかる計算負荷が非常に大きいため、テクスチャの特徴量に基づく領域判別を高速に行うことができないという問題があった。   By the way, the conventional image processing apparatus has a problem that it cannot perform region discrimination based on the texture feature amount at a high speed because the calculation load for the calculation by the two-dimensional Fourier transform and the co-occurrence matrix is very large.

本発明は、上記に鑑みてなされたものであって、処理対象画像に撮像された領域の種別の判別を高速に行うことができる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus that can quickly determine the type of an area captured in a processing target image.

上述した課題を解決し、目的を達成するために、本発明のある態様にかかる画像処理装置は、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得部と、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成部と、前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する領域判別部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to an aspect of the present invention provides a frequency representing a plurality of frequency components of an image portion of a predetermined range included in the target image. An acquisition unit for acquiring information, and a power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and the frequency information is calculated based on the power value. A feature amount generation unit that generates a feature amount indicating the feature of the associated image portion; and an area determination unit that determines a type of an area captured in the image portion based on the feature amount. Features.

この態様によれば、周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を算出してパワー値をもとに各画像部分の特徴量を生成するため、各パワー値が対応する画像部分の特徴量が簡易な処理で得られる。そのため、処理対象画像に撮像された領域の種別の判別を高速に行うことができるという効果を奏する。   According to this aspect, the power value indicating the intensity of one frequency component among the plurality of frequency components represented by the frequency information is calculated, and the feature amount of each image portion is generated based on the power value. Can be obtained by a simple process. Therefore, there is an effect that the type of the region captured in the processing target image can be determined at high speed.

本発明の別の態様にかかる画像処理方法は、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、を備えることを特徴とする。   An image processing method according to another aspect of the present invention includes an acquisition step of acquiring frequency information representing a plurality of frequency components of an image portion of a predetermined range included in a target image, and the frequency information represents A power value indicating the intensity of one frequency component among a plurality of frequency components is calculated for each predetermined frequency band, and a feature amount indicating a feature of an image portion associated with the frequency information based on the power value is calculated. A feature amount generating step to be generated; and a determination step of determining a type of a region imaged in the image portion based on the feature amount.

本発明のさらに別の態様にかかる画像処理プログラムは、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、前記特徴量をもとに前記画像部分に撮像された領域を判別する判別ステップと、をコンピュータに発揮させることを特徴とする。   An image processing program according to still another aspect of the present invention includes an acquisition step of acquiring frequency information representing a plurality of frequency components of an image portion of a predetermined range included in a target image, and the frequency information A power value indicating the intensity of one frequency component among a plurality of frequency components to be expressed is calculated for each predetermined frequency band, and a feature amount indicating a feature of an image portion associated with the frequency information based on the power value And a determination step of determining a region captured in the image portion based on the feature amount.

なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、記録媒体などの間で変換したものもまた、本発明の別の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a representation of the present invention converted between a system, a recording medium, etc. are also effective as another aspect of the present invention.

本発明によれば、領域判別を高速に行うことができる技術を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can perform area | region discrimination | determination at high speed can be provided.

以下、添付図面を参照しつつ本発明にかかる画像処理装置の好適な実施の形態について説明する。各実施の形態や各変形例における画像処理装置として、カプセル型内視鏡によって撮像され、DCT符号化によって圧縮処理された体内画像を処理対象画像とする画像処理装置を例に説明する。ただし、本発明にかかる画像処理装置が処理可能な画像は、DCT符号化によって圧縮処理された体内画像に限定されるものではない。また、本実施の形態によって本発明が限定されるものではない。なお、図面の記載において同一部分または相当する部分には同一の符号を付している。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of an image processing apparatus according to the invention will be described with reference to the accompanying drawings. As an image processing apparatus in each embodiment and each modification, an image processing apparatus that uses an in-vivo image captured by a capsule endoscope and compressed by DCT encoding as a processing target image will be described as an example. However, the image that can be processed by the image processing apparatus according to the present invention is not limited to the in-vivo image compressed by DCT encoding. Further, the present invention is not limited by the present embodiment. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals.

ここで、カプセル型内視鏡を用いて体内画像を撮像して記憶するシステムについて説明する。カプセル型内視鏡は、撮像装置およびデータ送信装置を備え、被検体に飲み込まれた後、自然排出されるまでの間、胃、小腸、大腸などの管状臓器内を各臓器の蠕動運動などによって移動しながら所定の撮像レートで体内画像の撮像を行うとともに、撮像した体内画像の画像データを被検体の体外に設置された受信装置に順次送信する。カプセル型内視鏡が被検体内で撮像する体内画像の枚数は、撮像レート(通常、2〜4frame/sec)と、カプセル型内視鏡の被検体内滞在時間(通常、8時間=2880sec)とを乗算することによって示され、概ね6〜12万枚程度という大量な枚数になる。このため、カプセル型内視鏡が撮像した体内画像は、通常、DCT符号化を用いて圧縮処理され、受信装置が備える携帯型記憶媒体に記憶される。   Here, a system that captures and stores an in-vivo image using a capsule endoscope will be described. Capsule endoscopes are equipped with an imaging device and a data transmission device. After being swallowed by a subject and before being spontaneously discharged, the capsule endoscope is moved through a tubular organ such as the stomach, small intestine, large intestine, etc. In-vivo images are captured at a predetermined imaging rate while moving, and image data of the captured in-vivo images are sequentially transmitted to a receiving device installed outside the body of the subject. The number of in-vivo images that the capsule endoscope captures in the subject includes the imaging rate (usually 2 to 4 frames / sec) and the stay time in the subject of the capsule endoscope (usually 8 hours = 2880 sec). It is shown by multiplying and becomes a large number of sheets of about 6 to 120,000 sheets. For this reason, the in-vivo image captured by the capsule endoscope is normally compressed using DCT encoding and stored in a portable storage medium included in the receiving device.

(実施の形態1)
本実施の形態1にかかる画像処理装置について、図1を参照して説明する。図1は、本実施の形態1にかかる画像処理装置1の概略構成を示すブロック図である。画像処理装置1は、各種情報を入力する入力部10、体内画像を含む各種情報を記憶する記憶部20、各種情報を出力する出力部30および画像処理装置1の各部の動作を制御する制御部40を備える。さらに、画像処理装置1は、体内画像を処理して体内画像の各画像部分に撮像された領域の種別を判別する領域判別処理を行う画像処理部50を備える。
(Embodiment 1)
The image processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a schematic configuration of the image processing apparatus 1 according to the first embodiment. The image processing apparatus 1 includes an input unit 10 that inputs various types of information, a storage unit 20 that stores various types of information including in-vivo images, an output unit 30 that outputs various types of information, and a control unit that controls the operation of each unit of the image processing apparatus 1. 40. Furthermore, the image processing apparatus 1 includes an image processing unit 50 that performs an area determination process for processing an in-vivo image and determining the type of the area captured in each image portion of the in-vivo image.

入力部10は、キーボード、マウスおよびデータ通信インターフェイスなどによって実現され、観察者から直接に各種情報の入力を受け付けるとともに、各種メモリカード、CD、DVDなどの携帯型記憶媒体から体内画像の画像情報の入力を受け付ける。   The input unit 10 is realized by a keyboard, a mouse, a data communication interface, and the like. The input unit 10 receives input of various information directly from an observer, and stores in-vivo image information from portable storage media such as various memory cards, CDs, and DVDs. Accept input.

記憶部20は、ハードディスク、ROMおよびRAMなどによって実現され、制御部40が実行させる各種処理プログラム、処理結果などの各種情報を記憶する。また、記憶部20は、DCT符号化によって圧縮処理された体内画像の圧縮データおよび画像処理部50で復号化処理されて復元された体内画像の復元データを記憶する体内画像記憶部21と、画像処理部50で行う領域判定処理に用いる閾値を記憶する閾値記憶部22とを備える。   The storage unit 20 is realized by a hard disk, a ROM, a RAM, and the like, and stores various information such as various processing programs executed by the control unit 40 and processing results. The storage unit 20 also stores in-vivo image storage unit 21 for storing in-vivo image compression data compressed by DCT encoding and in-vivo image restoration data decoded and restored by the image processing unit 50; And a threshold value storage unit 22 that stores a threshold value used in the area determination process performed by the processing unit 50.

出力部30は、液晶ディスプレイなどよって実現され、画像処理部50で行われた領域判別処理の結果および体内画像などの各種情報を表示する。また、出力部30は、観察者に対して各種処理情報の入力を依頼するGUI(Graphical User Interface)画面を表示する。   The output unit 30 is realized by a liquid crystal display or the like, and displays various information such as a result of the region discrimination process performed by the image processing unit 50 and an in-vivo image. The output unit 30 displays a GUI (Graphical User Interface) screen that requests the observer to input various processing information.

制御部40は、CPUによって実現され、記憶部20に記憶された各種処理プログラムを実行することで、画像処理装置1が備える各部の処理および動作を制御する。特に、制御部40は、画像処理プログラムを実行することで、画像処理部50に領域判別処理を行わせるとともに、出力部30に領域判別処理の結果を表示させる。   The control unit 40 is realized by the CPU, and controls processing and operation of each unit included in the image processing apparatus 1 by executing various processing programs stored in the storage unit 20. In particular, the control unit 40 executes the image processing program to cause the image processing unit 50 to perform region determination processing and cause the output unit 30 to display the result of region determination processing.

画像処理部50は、例えばCPUによって実現され、DCT係数取得部51、DCT特徴量生成部52および領域判別部53を備え、体内画像記憶部21に記憶された体内画像に対して画像処理を行う。   The image processing unit 50 is realized by a CPU, for example, and includes a DCT coefficient acquisition unit 51, a DCT feature amount generation unit 52, and a region determination unit 53, and performs image processing on the in-vivo image stored in the in-vivo image storage unit 21. .

DCT係数取得部51は、周波数情報を取得する取得部に対応し、所定範囲の画像部分の周波数情報として、DCT符号化方式によって圧縮処理された体内画像の圧縮データの復号化処理の際に算出されるDCT係数を取得する。なお、制御部40は、出力部30に体内画像を表示させる場合、DCT係数取得部51を制御して圧縮画像を復元処理させて体内画像の原画像を取得する。   The DCT coefficient acquisition unit 51 corresponds to an acquisition unit that acquires frequency information, and is calculated as the frequency information of the image portion in a predetermined range when decoding the compressed data of the in-vivo image compressed by the DCT encoding method. DCT coefficients to be obtained are acquired. When the in-vivo image is displayed on the output unit 30, the control unit 40 controls the DCT coefficient acquisition unit 51 to restore the compressed image and acquire the original image of the in-vivo image.

ここで、DCT係数を説明する。DCT係数は、8×8画素の画像部分ごとに離散コサイン変換して得られる周波数情報であり、各画像部分の周波数成分などを示している。(以下、8×8画素の画像部分を画素ブロックと呼ぶ。)各画素ブロックのDCT係数は、8×8マトリクスで示される64個の係数の集合である。図2に示すように、DCT係数の8×8マトリクスは、DC(直流)成分を示す値およびAC(交流)成分を示す63個の値によって構成され、DC成分は、8×8マトリクスの左上角に配置され、AC成分は、そのほかの部分に配置される。図3に示すように、8×8マトリクス内の左上から右下に向かって、低周波な周波数特性を示すAC成分から高周波な周波数特性を有するAC成分が、順に配置されている。また、JPEGによる処理では、画素ブロックごとに、輝度成分(Y値)のDCT係数および色差成分(U値、V値)の2つのDCT係数の合計3つのDCT係数が算出され、各々のDCT係数のDC成分は、画素ブロックの平均輝度または平均色差に相当する値を示す。   Here, the DCT coefficient will be described. The DCT coefficient is frequency information obtained by discrete cosine transform for each image portion of 8 × 8 pixels, and indicates a frequency component of each image portion. (Hereinafter, the image portion of 8 × 8 pixels is referred to as a pixel block.) The DCT coefficient of each pixel block is a set of 64 coefficients represented by an 8 × 8 matrix. As shown in FIG. 2, the 8 × 8 matrix of DCT coefficients is configured by values indicating a DC (direct current) component and 63 values indicating an AC (alternating current) component, and the DC component is the upper left of the 8 × 8 matrix. Arranged in the corner, the AC component is arranged in the other part. As shown in FIG. 3, from the upper left to the lower right in the 8 × 8 matrix, AC components having low-frequency frequency characteristics to AC components having high-frequency frequency characteristics are arranged in order. In JPEG processing, for each pixel block, a total of three DCT coefficients of a DCT coefficient of a luminance component (Y value) and two DCT coefficients of a color difference component (U value, V value) are calculated, and each DCT coefficient is calculated. The DC component indicates a value corresponding to the average luminance or average color difference of the pixel block.

DCT特徴量生成部52は、各画像部分の特徴量を生成する特徴量生成部に対応し、周波数情報が表す複数の周波数成分のうちの一の周波数成分のパワー値として、所定の周波数帯域ごとにDCT係数のAC成分のパワー値を算出し、このパワー値をもとに各画素ブロックの特徴を示す特徴量であるDCT特徴量を生成する。なお、パワー値とは、各周波数成分の強度を示す情報であり、本実施の形態1では各周波数帯域のAC成分の強度を示し、テクスチャの方向性を示す情報は含まない。図4は、各AC成分が属する周波数帯域および各周波数帯域のパワー値を示す図である。図4では、同一の周波数帯域に属するAC成分のマトリクスに、同一の数字が割り当ててある。図4に示すように、AC成分は、14つの周波数帯域H1〜H14の各周波数帯域に属するAC成分ごとに、具体的には、8×8マトリクスの左下角と右上角とを結ぶ対角線に平行な14つの線上にそれぞれ配置されたAC成分ごとに分類される。なお、実施の形態では、14個の周波数帯域に分けた場合を説明するが、これに限られず、他の例として、任意の数の帯域に分けてもよい。図4において、左上の「1」と示されたAC成分が属する周波数帯域が、最低周波数帯域である周波数帯域H1であり、右下の「14」と示されたAC成分が属する周波数帯域が、最高周波数帯域である周波数帯域H14である。DCT特徴量生成部52は、画素ブロックごとに、周波数帯域H1〜H14のAC成分のパワー値F1〜F14を算出し、パワー値F1〜F14をもとにDCT特徴量を生成する。   The DCT feature value generation unit 52 corresponds to a feature value generation unit that generates a feature value of each image portion. As a power value of one frequency component among a plurality of frequency components represented by frequency information, the DCT feature value generation unit 52 is configured for each predetermined frequency band. Then, the power value of the AC component of the DCT coefficient is calculated, and a DCT feature value, which is a feature value indicating the feature of each pixel block, is generated based on this power value. The power value is information indicating the intensity of each frequency component. In the first embodiment, the power value indicates the intensity of the AC component in each frequency band, and does not include information indicating the texture directionality. FIG. 4 is a diagram showing the frequency band to which each AC component belongs and the power value of each frequency band. In FIG. 4, the same numbers are assigned to the matrix of AC components belonging to the same frequency band. As shown in FIG. 4, the AC component is parallel to the diagonal line connecting the lower left corner and the upper right corner of the 8 × 8 matrix for each AC component belonging to each of the 14 frequency bands H1 to H14. Are classified into AC components arranged on the 14 lines. In the embodiment, a case where the frequency band is divided into 14 frequency bands will be described. However, the present invention is not limited to this, and may be divided into an arbitrary number of bands as another example. In FIG. 4, the frequency band to which the AC component indicated as “1” in the upper left belongs to the frequency band H1 that is the lowest frequency band, and the frequency band to which the AC component indicated as “14” in the lower right belongs. This is a frequency band H14 that is the highest frequency band. The DCT feature value generation unit 52 calculates the power values F1 to F14 of the AC components in the frequency bands H1 to H14 for each pixel block, and generates a DCT feature value based on the power values F1 to F14.

領域判別部53は、各画素ブロックのDCT特徴量をもとに各画素ブロックに撮像された領域の種別を判別する。領域判別部53は、各画素ブロックに撮像された体内領域のうち、例えば泡領域、病変領域、出血領域、粘膜領域、粘液領域または便などの内容物領域などの領域の種別を判別する。   The region discriminating unit 53 discriminates the type of the region imaged in each pixel block based on the DCT feature amount of each pixel block. The region discriminating unit 53 discriminates the type of a region such as a bubble region, a lesion region, a bleeding region, a mucous membrane region, a mucus region, or a content region such as feces among the in-vivo regions imaged by each pixel block.

各画素ブロックは、撮像された領域が例えば病変領域、出血領域、粘膜領域、粘液領域または内容物領域であるかによって、各々、色味およびテクスチャが異なる。また、内容物および体内の水分によって生じた泡領域が撮像された画像部分は、撮像時の照明光の反射などによって他の領域と比較してエッジの情報が多く含まれ、粘膜領域など泡領域以外のその他の領域が撮像された画像部分とは輝度の分布が異なり、周波数分布が異なる。DCT特徴量は、輝度情報および色差情報を含むDCT係数のAC成分をもとに生成されるため、領域判別部53は、DCT特徴量を用いて、各画素ブロックに撮像された領域を判別できる。   Each pixel block has a different color and texture depending on whether the imaged area is, for example, a lesion area, a bleeding area, a mucosal area, a mucus area, or a contents area. In addition, the image part in which the bubble area caused by the contents and moisture in the body is imaged contains more edge information than other areas due to the reflection of illumination light at the time of imaging, and the bubble area such as the mucous membrane area The brightness distribution and the frequency distribution are different from the image portion in which other areas other than the image area are captured. Since the DCT feature amount is generated based on the AC component of the DCT coefficient including luminance information and color difference information, the region discriminating unit 53 can discriminate the region imaged in each pixel block using the DCT feature amount. .

図5は、画像処理装置1が行う画像処理手順を示すフローチャートである。図5に示すように、まず制御部40は、体内画像記憶部21に記憶されている体内画像の圧縮データを読み込み(ステップS101)、DCT係数取得部51に圧縮データを復号化させて各画素ブロックのDCT係数を取得する(ステップS102)。その後、制御部40は、DCT特徴量生成部52を制御して各画素ブロックのDCT特徴量を生成する処理を行い(ステップS103)、領域判別部53を制御して各画素ブロックに撮像された領域の種別を判別する処理を行う(ステップS104)。その後、制御部40は、出力部30に領域判別処理の結果を出力する(ステップS105)。ステップS101〜S105の処理によって、制御部40は、体内画像の各画像部分に撮像された領域を判別し、体内画像の観察者に対して領域判別処理の結果を提示する。   FIG. 5 is a flowchart illustrating an image processing procedure performed by the image processing apparatus 1. As shown in FIG. 5, the control unit 40 first reads compressed data of the in-vivo image stored in the in-vivo image storage unit 21 (step S101), and causes the DCT coefficient acquisition unit 51 to decode the compressed data to each pixel. The DCT coefficient of the block is acquired (step S102). Thereafter, the control unit 40 controls the DCT feature value generation unit 52 to generate a DCT feature value for each pixel block (step S103), and controls the area determination unit 53 to capture an image on each pixel block. A process of determining the type of area is performed (step S104). Thereafter, the control unit 40 outputs the result of the area determination process to the output unit 30 (step S105). Through the processing in steps S <b> 101 to S <b> 105, the control unit 40 determines the area captured in each image portion of the in-vivo image, and presents the result of the area determination process to the in-vivo image observer.

図6は、ステップS103の処理において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図6に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS201)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として周波数帯域ごとに値が0となるAC成分の個数を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS202)。なお、この場合、パワー値が小さいほどAC成分の強度が大きいことを示し、パワー値が大きいほどAC成分の強度が小さいことを示す。ステップS201〜S202の処理によって、DCT特徴量算出部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。   FIG. 6 is a flowchart showing a procedure of processing performed by the DCT feature quantity generation unit 52 in the processing of step S103. As illustrated in FIG. 6, the DCT feature quantity generation unit 52 acquires the value of the AC component of the DCT coefficient for each pixel block under the control of the control unit 40 (step S201). Thereafter, the DCT feature quantity generation unit 52 calculates the number of AC components having a value of 0 for each frequency band as the power value of each frequency band, and sets each set of power values F1 to F14 in all frequency bands H1 to H14. The DCT feature amount of the pixel block is set (step S202). In this case, the smaller the power value, the greater the intensity of the AC component, and the larger the power value, the smaller the intensity of the AC component. Through the processing in steps S201 to S202, the DCT feature quantity calculation unit 52 generates a DCT feature quantity for each pixel block using the AC component of the DCT coefficient.

なお、DCT特徴量生成部52は、Y値、U値およびV値のすべてのDCT係数のAC成分の値を取得してDCT特徴量を生成してもよく、Y値、U値またはV値のいずれか一つのDCT係数のAC成分の値を取得してDCT特徴量を生成してもよい。例えば、泡領域を判別する場合、泡領域は輝度成分に特徴があるので、DCT特徴量生成部52は、Y値のDCT係数のAC成分のみを用いてDCT特徴量を生成してもよい。また、DCT特徴量生成部52は、全周波数帯域H1〜H14のパワー値F1〜F14の集合ではなく、所定の周波数帯域のパワー値の集合をDCT特徴量としてもよい。   Note that the DCT feature quantity generation unit 52 may generate the DCT feature quantity by acquiring the AC component values of all the DCT coefficients of the Y value, U value, and V value, and the Y value, U value, or V value. The DCT feature value may be generated by acquiring the value of the AC component of any one of the DCT coefficients. For example, when a bubble region is determined, since the bubble region is characterized by a luminance component, the DCT feature value generation unit 52 may generate a DCT feature value using only the AC component of the DCT coefficient of the Y value. Further, the DCT feature quantity generation unit 52 may use a set of power values in a predetermined frequency band as the DCT feature quantity instead of the set of power values F1 to F14 in all frequency bands H1 to H14.

図7は、ステップS104において領域判別部53が行う領域判別処理の手順を示すフローチャートである。図7に示すように、領域判別部53は、制御部40の制御のもと、画像全体の各画素ブロックのDCT特徴量を取得する(ステップS301)。その後、領域判別部53は、DCT特徴量のうち、所定の周波数帯域のパワー値と閾値とを比較して比較結果をもとに各画素ブロックに撮像された領域の種別を判別する(ステップS302)。なお、閾値および閾値と比較するパワー値の周波数帯域については、判別する領域ごとに、予め閾値記憶部22に記憶されている。ステップS301〜S302の処理によって、領域判別部53は、DCT特徴量をもとに各画素ブロックに撮像された領域の種別を判別する。   FIG. 7 is a flowchart showing the procedure of the area determination process performed by the area determination unit 53 in step S104. As illustrated in FIG. 7, the region determination unit 53 acquires the DCT feature amount of each pixel block of the entire image under the control of the control unit 40 (step S301). After that, the region discriminating unit 53 compares the power value in a predetermined frequency band with the threshold value among the DCT feature values, and discriminates the type of the region imaged in each pixel block based on the comparison result (step S302). ). Note that the threshold value and the frequency band of the power value to be compared with the threshold value are stored in advance in the threshold value storage unit 22 for each area to be determined. Through the processing in steps S301 to S302, the region determining unit 53 determines the type of region captured in each pixel block based on the DCT feature amount.

図8は、泡領域および泡領域以外のその他の領域が撮像された画素ブロックのY値のDCT係数について、周波数帯域H1〜H14ごとに、値が0となるAC成分の割合を模式的に示す図である。なお、その他の領域は、病変領域、出血領域、粘膜領域、内容物領域および粘液領域などである。   FIG. 8 schematically shows the ratio of the AC component having a value of 0 for each frequency band H1 to H14 with respect to the DCT coefficient of the Y value of the pixel block in which the bubble region and other regions other than the bubble region are imaged. FIG. The other areas are a lesion area, a bleeding area, a mucosa area, a contents area, a mucus area, and the like.

図8に示すように、泡領域およびその他の領域ともに、高周波帯域になるほど値が0であるAC成分が含まれる割合が高くなる。しかし、泡領域は、エッジ成分を多く含むため、その他の領域と比較して周波数帯域H3〜H8で、値が0であるAC成分が含まれる割合が低くなる。このため、周波数帯域H3〜H8で、泡領域のパワー値は、その他の領域のパワー値と比較して小さくなる。領域判定部53は、泡領域の判別を行う場合、パワー値F3〜F8のうち予め定められた周波数帯域のパワー値と、泡領域を判別するための閾値とを比較して、パワー値が閾値より小さい場合、DCT特徴量が対応する画素ブロックに撮像された領域を泡領域と判別する。   As shown in FIG. 8, in both the bubble region and other regions, the ratio of the AC component having a value of 0 increases as the frequency band is increased. However, since the bubble region includes a lot of edge components, the ratio of the AC component having a value of 0 in the frequency bands H3 to H8 is lower than that in the other regions. For this reason, in the frequency bands H3 to H8, the power value of the bubble region is smaller than the power values of the other regions. When determining the bubble region, the region determination unit 53 compares a power value in a predetermined frequency band among the power values F3 to F8 with a threshold value for determining the bubble region, and the power value is a threshold value. If smaller, the area captured by the pixel block corresponding to the DCT feature value is determined as the bubble area.

泡領域に限らず、各画素ブロックに撮像された領域によってパワー値の分布は異なるので、領域判別部53は、パワー値の分布に応じて設定された閾値を用いて各画素ブロックに撮像された領域の種別を判定する処理を行う。なお、領域判別部53が閾値と比較するパワー値の周波数帯域についても、パワー値の分布に応じて予め設定される。   Since the distribution of the power value differs depending on the area captured in each pixel block, not limited to the bubble area, the area determination unit 53 captures an image in each pixel block using a threshold set according to the distribution of the power value. Processing to determine the type of area is performed. Note that the frequency band of the power values that the area determination unit 53 compares with the threshold is also set in advance according to the distribution of the power values.

なお、閾値は、判定する領域ごとに、1つであっても複数であってもよい。例えば、泡領域を判別する場合、領域判定部53は、パワー値F5を閾値と比較してパワー値F5が閾値よりも小さい場合に画素ブロックに撮像された領域が泡領域であると判別してもよく、パワー値F4およびF7を各々に対応する閾値と比較して両方のパワー値が各々の閾値よりも小さい場合に画素ブロックに撮像された領域が泡領域であると判定してもよい。   The threshold value may be one or plural for each area to be determined. For example, when determining a bubble region, the region determination unit 53 compares the power value F5 with a threshold value and determines that the region imaged in the pixel block is a bubble region when the power value F5 is smaller than the threshold value. Alternatively, the power values F4 and F7 may be compared with the corresponding threshold values, and if both power values are smaller than the respective threshold values, it may be determined that the region imaged in the pixel block is a bubble region.

本実施の形態1にかかる画像処理装置1は、DCT係数のAC成分のパワー値をもとに生成した特徴量をもとに領域判別処理を行うので、2次元フーリエ変換および同時生起行列などによる演算処理を用いて領域判別処理を行う従来の画像処理装置と比較し、高速に領域判別処理を行うことができる。   Since the image processing apparatus 1 according to the first embodiment performs region discrimination processing based on the feature amount generated based on the power value of the AC component of the DCT coefficient, it is based on two-dimensional Fourier transform, co-occurrence matrix, and the like. Compared to a conventional image processing apparatus that performs an area determination process using arithmetic processing, the area determination process can be performed at high speed.

また、画像処理装置1は、DCT符号化方式によって圧縮処理された圧縮画像の復元処理が行われる際に算出されるDCT係数をもとに各画像部分の特徴量を生成するので、処理対象画像がDCT符号化方式によって圧縮処理されていた場合、従来の画像処理装置と比較して特徴量生成にかかる演算処理時間を短縮でき、さらに高速に判別処理を行うことができる。   Further, the image processing apparatus 1 generates the feature amount of each image portion based on the DCT coefficient calculated when the decompression process of the compressed image compressed by the DCT encoding method is performed. Is compressed by the DCT encoding method, it is possible to shorten the calculation processing time for generating the feature amount and to perform the discrimination processing at a higher speed than the conventional image processing apparatus.

また、画像処理装置1は、DCT係数のAC成分を用いて生成したDCT特徴量をもとに領域判別処理を行うため、周波数情報および色差情報をもとに領域判別処理を行うことができるので、色味の分布が広く、色味が変化しやすい領域の判別も高精度に行うことができる。例えば、泡領域の色味の分布は広く、泡領域以外のその他の領域の色味の分布と重なるめ、色情報のみを特徴量として領域判別処理を行うとすると、泡領域を高精度で判別することが難しい場合があった。しかし、泡領域は、エッジ成分を多く含み、中周波から高周波なテクスチャを有し、他の領域と周波数成分を比較すると中周波帯域から高周波帯域のAC成分の値が大きいので、画像処理装置1は、中周波帯域から高周波帯域のAC成分を評価することによって、泡領域の判別処理を高精度に行うことができる。   Further, since the image processing apparatus 1 performs the region determination process based on the DCT feature amount generated using the AC component of the DCT coefficient, the region determination process can be performed based on the frequency information and the color difference information. Further, it is possible to determine a region where the color distribution is wide and the color tends to change with high accuracy. For example, if the area discrimination process is performed using only the color information as the feature value because the color distribution of the bubble area is wide and overlaps with the color distribution of other areas other than the bubble area, the bubble area can be identified with high accuracy. There were cases where it was difficult to do. However, the bubble region includes a lot of edge components, has a texture from medium frequency to high frequency, and has a large AC component value from medium frequency band to high frequency band when compared with other regions, the image processing device 1 The bubble region discriminating process can be performed with high accuracy by evaluating the AC component in the medium frequency band to the high frequency band.

さらに、画像処理装置1は、パワー値を用いて領域判別を行うので、符号化係数のAC成分の値をそのまま画素ブロックの特徴量として領域判別処理を行う場合と比較して精度良く行うことができる。AC成分はテクスチャの方向性の情報を含んでいるため、AC成分の値をそのまま画素ブロックの特徴量として領域判別を行うと、テクスチャの方向性の相違によって所定の領域を判別することが難しい場合がある。しかし、画像処理装置1は、テクスチャの方向性の情報を含まないパワー値の集合を特徴量として領域判別を行うので、高精度に領域判別を行うことができる。   Further, since the image processing apparatus 1 performs region determination using the power value, the image processing device 1 can perform the region determination with higher accuracy than when performing the region determination processing using the AC component value of the coding coefficient as it is as the feature amount of the pixel block. it can. Since the AC component includes information on the directionality of the texture, if it is difficult to determine a predetermined region due to the difference in texture directionality, if the region determination is performed using the AC component value as it is as the feature amount of the pixel block There is. However, since the image processing apparatus 1 performs region determination using a set of power values not including texture direction information as a feature amount, the region determination can be performed with high accuracy.

なお、実施の形態1において、DCT特徴量生成部52は、パワー値F1〜F14とDC成分の値との集合をDCT特徴量としてもよい。この場合、領域判別部53は、例えば泡領域の判別を行う際、予め設定された閾値とY値のDC成分とを比較し、Y値のDC成分が閾値以上であれば画素ブロックに撮像された領域が泡領域である可能性があると判別してパワー値と閾値との比較する処理を行う。また、領域判別部53は、色に特性がある領域の判別を行う際は、U値またはV値のDC成分と閾値とを比較し、画素ブロックに撮像された領域が判別を所望する領域である可能性があると判別された後、パワー値と閾値とを比較する処理を行う。この場合、画像処理装置1は、パワー値に加えてDC成分を用いて領域判定処理を行うため、領域判定の精度が向上する。なお、パワー値による領域判定処理の後、DC成分により領域判別処理を行うとしてもよい。   In the first embodiment, the DCT feature value generation unit 52 may use a set of the power values F1 to F14 and the DC component value as the DCT feature value. In this case, for example, when determining the bubble region, the region determination unit 53 compares a preset threshold value with the DC component of the Y value, and if the Y value DC component is equal to or greater than the threshold value, the region block 53 is imaged on the pixel block. It is determined that there is a possibility that the region is a bubble region, and a process of comparing the power value with the threshold value is performed. In addition, when determining the region having the color characteristic, the region determining unit 53 compares the DC component of the U value or the V value with the threshold value, and the region captured in the pixel block is the region where the determination is desired. After it is determined that there is a possibility, a process of comparing the power value and the threshold value is performed. In this case, since the image processing apparatus 1 performs the region determination process using the DC component in addition to the power value, the accuracy of the region determination is improved. Note that after the region determination process based on the power value, the region determination process may be performed based on the DC component.

(変形例1)
ところで、実施の形態1では、周波数情報に含まれる一の周波数成分のパワー値として、DCT係数の各周波数帯域に属するAC成分のうち値が0となるAC成分の個数を算出したが、本変形例1では、パワー値として、値が所定範囲内であるAC成分の個数を算出する。
(Modification 1)
In the first embodiment, the number of AC components having a value of 0 among the AC components belonging to each frequency band of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. In Example 1, the number of AC components whose values are within a predetermined range is calculated as the power value.

本変形例1にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図9は、本変形例1にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図9に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS211)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、周波数帯域ごとに値が所定の範囲内に収まるAC成分の個数を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS212)。ステップS211〜S212の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。   The image processing apparatus according to the first modification has the same configuration as the image processing apparatus 1 according to the first embodiment. FIG. 9 is a flowchart illustrating a procedure of processing performed by the DCT feature quantity generation unit 52 in step S103 in the case of the first modification. As illustrated in FIG. 9, the DCT feature quantity generation unit 52 acquires the value of the AC component of the DCT coefficient for each pixel block under the control of the control unit 40 (step S211). Thereafter, the DCT feature quantity generation unit 52 calculates the number of AC components whose values fall within a predetermined range for each frequency band as the power value of each frequency band, and the power values F1 to F14 of all frequency bands H1 to H14. Is set as the DCT feature amount of each pixel block (step S212). Through the processing in steps S211 to S212, the DCT feature value generation unit 52 generates the DCT feature value of each pixel block using the AC component of the DCT coefficient.

なお、所定の範囲とは、0値を含み0値に近い値の範囲であり、例えばAC成分の値が−10以上、10以下となる範囲である。また、その範囲は実験によってその他の値に定められてもよい。値が所定の範囲内となるAC成分が含まれる割合は、図8に示した、値が0となるAC成分が含まれる割合の分布と同様であり、例えば値が0となるAC成分を含む割合の大きい周波数帯域では、0値近傍の値となるAC成分を含む割合も大きい。このため、本変形例1にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様に、領域判別処理を行うことができる。   Note that the predetermined range is a range of values including the 0 value and close to the 0 value, for example, a range in which the value of the AC component is −10 or more and 10 or less. Further, the range may be set to other values by experiment. The ratio of the AC component whose value falls within a predetermined range is the same as the distribution of the ratio of the AC component whose value is 0 shown in FIG. 8, for example, the AC component whose value is 0 is included. In a frequency band with a large ratio, a ratio including an AC component that is a value near zero is also large. For this reason, the image processing apparatus according to the first modification can perform the area determination process in the same manner as the image processing apparatus 1 according to the first embodiment.

(変形例2)
また、実施の形態1および変形例1では、周波数情報に含まれる一の周波数成分のパワー値として、DCT係数のAC成分のうち所定の条件に当てはまるAC成分の個数を算出したが、本変形例2では、パワー値として各周波数帯域に属するAC成分の絶対値の平均値を算出する。
(Modification 2)
In Embodiment 1 and Modification 1, the number of AC components satisfying a predetermined condition among the AC components of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. 2 calculates an average value of absolute values of AC components belonging to each frequency band as a power value.

本変形例2にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図10は、本変形例2にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図10に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS221)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、周波数帯域ごとにAC成分の値の絶対値の平均値を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS222)。なお、この場合、パワー値が大きいほどAC成分の強度が大きいことを示し、パワー値が小さいほどAC成分の強度が小さいことを示す。ステップS221〜S222の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。   The image processing apparatus according to the second modification has the same configuration as that of the image processing apparatus 1 according to the first embodiment. FIG. 10 is a flowchart showing a procedure of processing performed by the DCT feature quantity generation unit 52 in step S103 in the case of the second modification. As illustrated in FIG. 10, the DCT feature quantity generation unit 52 acquires the value of the AC component of the DCT coefficient for each pixel block under the control of the control unit 40 (step S221). Thereafter, the DCT feature quantity generation unit 52 calculates the average value of the AC component values for each frequency band as the power value of each frequency band, and sets the power values F1 to F14 of all frequency bands H1 to H14. Is the DCT feature value of each pixel block (step S222). In this case, the higher the power value, the higher the AC component strength, and the smaller the power value, the lower the AC component strength. Through the processing in steps S221 to S222, the DCT feature value generation unit 52 generates the DCT feature value of each pixel block using the AC component of the DCT coefficient.

DCT係数のAC成分の値は、テクスチャの方向性によって正負両方の値を取りうる。このため、DCT特徴量生成部52は、AC成分の値を絶対値に変換して平均値を算出することによって、各周波数帯域H1〜H14のAC成分の強度の情報をパワー値として取得してDCT特徴量を生成する。   The value of the AC component of the DCT coefficient can take both positive and negative values depending on the directionality of the texture. For this reason, the DCT feature quantity generation unit 52 obtains information on the intensity of the AC component in each frequency band H1 to H14 as a power value by converting the value of the AC component into an absolute value and calculating an average value. A DCT feature is generated.

図11は、泡領域および泡領域以外のその他の領域が撮像された画像部分のY値のDCT係数のAC成分について、周波数帯域H1〜H14の各々に属するAC成分の値の絶対値の平均値、すなわち本変形例2にかかるパワー値F1〜F14の分布を示す図である。図11に示すように、泡領域およびその他の領域ともに、高周波帯域になるほどパワー値は小さくなる。しかし、泡領域は、エッジ成分を多く含むため、周波数帯域H3〜H8でその他の領域と比較してパワー値が大きくなる。領域判定部53は、泡領域の判別を行う場合、パワー値F3〜F8のうち予め定められた周波数帯域のパワー値と、泡領域を判別するための閾値とを比較して、パワー値が閾値より大きい場合、DCT特徴量が対応する画素ブロックに撮像された領域を泡領域と判別する。   FIG. 11 shows the average value of the absolute values of the AC component values belonging to each of the frequency bands H1 to H14 with respect to the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged. That is, it is a figure which shows distribution of the power values F1-F14 concerning this modification 2. FIG. As shown in FIG. 11, in both the bubble region and other regions, the power value decreases as the frequency band increases. However, since the bubble region includes a lot of edge components, the power value is larger in the frequency bands H3 to H8 than the other regions. When determining the bubble region, the region determination unit 53 compares a power value in a predetermined frequency band among the power values F3 to F8 with a threshold value for determining the bubble region, and the power value is a threshold value. If larger, the region captured by the pixel block corresponding to the DCT feature value is determined as the bubble region.

泡領域に限らず、撮像された領域によってパワー値の分布は異なるので、実施の形態1の場合と同様に、領域判定部53は、パワー値の分布に応じて予め設定された閾値を用いて各画素ブロックに撮像された領域を判定する処理を行う。このため、変形例2にかかる画像処理装置は、実施の形態1と同様に、領域判別処理を行うことができる。   Since the power value distribution varies depending on the imaged region, not limited to the bubble region, the region determination unit 53 uses a threshold value set in advance according to the power value distribution, as in the first embodiment. A process of determining the area imaged in each pixel block is performed. For this reason, the image processing apparatus according to the modified example 2 can perform the area determination process as in the first embodiment.

(変形例3)
また、変形例2では、周波数情報に含まれる一の周波数成分のパワー値としてDCT係数のAC成分の値の絶対値の平均値を算出したが、本変形例3では、パワー値としてAC成分の値の絶対値の平均値に周波数帯域ごとに重み付けをした値を算出する。
(Modification 3)
In the second modification, the average value of the AC component values of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. However, in the third modification, the AC value of the AC component is used as the power value. A value obtained by weighting the average absolute value of the values for each frequency band is calculated.

本変形例3にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図12は、本変形例3にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図12に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS231)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、各周波数帯域に属するAC成分の値の絶対値の平均値に各周波数帯域に応じて重み付けをした値を算出し、全周波数帯域H1〜H14のパワー値F1〜F14の集合を各画素ブロックのDCT特徴量とする(ステップS232)。なお、AC成分の値の絶対値は、属する周波数帯域が高周波帯域になるほど小さくなる傾向があるので、高周波帯域のAC成分の絶対値の平均値ほど、大きく重み付けを行う。ステップS231〜S232の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。   The image processing apparatus according to the third modification has a configuration similar to that of the image processing apparatus 1 according to the first embodiment. FIG. 12 is a flowchart illustrating a procedure of processing performed by the DCT feature quantity generation unit 52 in step S103 in the case of the third modification. As illustrated in FIG. 12, the DCT feature quantity generation unit 52 acquires the value of the AC component of the DCT coefficient for each pixel block under the control of the control unit 40 (step S231). Thereafter, the DCT feature quantity generation unit 52 calculates a value obtained by weighting the average value of the AC component values belonging to each frequency band according to each frequency band as the power value of each frequency band, A set of power values F1 to F14 in the bands H1 to H14 is set as a DCT feature amount of each pixel block (step S232). Since the absolute value of the AC component value tends to become smaller as the frequency band to which it belongs becomes a higher frequency band, the greater the average value of the absolute value of the AC component in the higher frequency band, the greater the weighting. Through the processes in steps S231 to S232, the DCT feature value generation unit 52 generates a DCT feature value of each pixel block using the AC component of the DCT coefficient.

本変形例3にかかる場合、ステップS104において、領域判別部53は、所定の複数のパワー値の平均値と閾値とを比較して比較結果をもとに各画素ブロックに撮像された領域を判別する。   In the case of the third modification, in step S104, the region determination unit 53 compares an average value of a plurality of predetermined power values with a threshold value, and determines a region captured by each pixel block based on the comparison result. To do.

ここで、本変形例3にかかるパワー値F1〜F14は、各周波数帯域のAC成分の値の絶対値の平均値をA1〜A14とし、各周波数帯域に応じた重みをW1〜W14とすると、下式(1)に示される。
F1=A1×W1,・・・,F14=A14×W14 ・・・(1)
Here, the power values F1 to F14 according to the third modification example are given by assuming that the average values of the AC component values in each frequency band are A1 to A14, and the weights corresponding to each frequency band are W1 to W14. It is shown in the following formula (1).
F1 = A1 × W1,..., F14 = A14 × W14 (1)

この場合、領域判別部53が閾値と比較する際に用いるパワー値の平均値Fは、閾値との比較に用いるパワー値の周波数帯域を周波数帯H3〜H8すると、下式(2)で示される。
F=(F3+F4+F5+F6+F7+F8)/6 ・・・(2)
In this case, the average value F of the power values used when the region discriminating unit 53 compares the threshold value with the threshold value is expressed by the following expression (2) when the frequency band of the power value used for the comparison with the threshold value is a frequency band H3 to H8. .
F = (F3 + F4 + F5 + F6 + F7 + F8) / 6 (2)

図13は、泡領域および泡領域以外のその他の領域が撮像された画像部分のY値のDCT係数のAC成分をもとに算出した本変形例3にかかるパワー値の周波数帯域ごとの分布を示す図である。図13に示すように、例えば、泡領域以外のその他の領域を撮像した画像部分のパワー値が周波数帯域によらずほぼ一定となるように重み付けを行った場合、泡領域を撮像した画像部分のパワー値は、周波数帯域H3〜H8で、その他の領域のパワー値と比較して大きくなる。この場合、泡領域のパワー値F3〜F8の平均値BF3−8は、その他の領域のパワー値F3〜F8の平均値MF3−8よりも大きい。このため、領域判別部53は、例えばパワー値F3〜F8の平均値が予め設定した閾値と比較して大きい場合、画素ブロックに撮像された領域は泡領域であると判別する。 FIG. 13 shows the distribution of the power value for each frequency band according to the third modification calculated based on the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged. FIG. As shown in FIG. 13, for example, when weighting is performed so that the power value of an image portion obtained by imaging other regions other than the bubble region is substantially constant regardless of the frequency band, The power value is larger in the frequency bands H3 to H8 than the power values in other regions. In this case, the average value BF 3-8 of the power values F3 to F8 in the bubble region is larger than the average value MF 3-8 of the power values F3 to F8 in the other regions. For this reason, for example, when the average value of the power values F3 to F8 is larger than a preset threshold value, the region determination unit 53 determines that the region captured in the pixel block is a bubble region.

泡領域に限らず、撮像された領域によってパワー値の分布は異なるので、領域判定部53は、パワー値の分布に応じて設定された閾値と所定のパワー値の平均値とを比較して各画素ブロックに撮像された領域を判定する処理を行う。なお、本変形例3にかかる画像処理装置では、判別する領域に応じて、重み付けの程度、閾値との比較の際に用いるパワー値の周波数帯域および閾値が予め定められ、閾値記憶部22に記憶されている。   Since the distribution of power values differs depending on the imaged area, not limited to the bubble area, the area determination unit 53 compares the threshold value set according to the distribution of power values with the average value of predetermined power values, A process of determining the area imaged in the pixel block is performed. In the image processing apparatus according to the third modification, the degree of weighting, the frequency band of the power value used for comparison with the threshold value, and the threshold value are determined in advance and stored in the threshold value storage unit 22 according to the area to be determined. Has been.

本変形例3にかかる画像処理装置は、AC成分の値の絶対値の加重平均値、すなわち複数の周波数帯域のAC成分の強度を反映した値と閾値とを比較した結果をもとに領域判定を行うので、1つの周波数帯域のパワー値と閾値とを比較して領域判別処理を行う場合と比較して、同程度の計算負荷で精度良く領域判別処理を行うことができる。   The image processing apparatus according to the third modification determines a region based on a result obtained by comparing a weighted average value of absolute values of AC component values, that is, a value reflecting the AC component intensity of a plurality of frequency bands with a threshold value. Therefore, the region determination process can be performed with high calculation load of the same degree as compared with the case where the region determination process is performed by comparing the power value of one frequency band and the threshold value.

なお、実施の形態1および変形例1〜3では、各々異なるパワー値を算出して各々異なるDCT特徴量を生成したが、本発明の実施の形態にかかる画像処理装置では、実施の形態1および変形例1〜3に記載した4種類のDCT特徴量のなかから、領域判別処理に用いるDCT特徴量を選択して設定するDCT特徴量設定部を備えるとしてもよい。   In the first embodiment and the first to third modifications, different power values are calculated to generate different DCT feature amounts. However, in the image processing apparatus according to the embodiment of the present invention, the first and A DCT feature value setting unit that selects and sets a DCT feature value used for region discrimination processing from the four types of DCT feature values described in the first to third modifications may be provided.

(実施の形態2)
ところで、実施の形態1では、パワー値と閾値との大小を比較することによって領域判別処理を行ったが、本実施の形態2では、特徴空間内でのパワー値の分布と教師データの分布とを比較することによって領域判定処理を行う。
(Embodiment 2)
In the first embodiment, the region determination process is performed by comparing the power value and the threshold value. In the second embodiment, the power value distribution and the teacher data distribution in the feature space are as follows. The region determination process is performed by comparing the two.

図14は、本実施の形態2にかかる画像処理装置2の概略構成を示す図である。画像処理装置2は、画像処理装置1が備えた記憶部20、制御部40および画像処理部50に替えて、記憶部60、制御部70および画像処理部80を備える。記憶部60は、記憶部20が備えた閾値記憶部22に替えて、教師データ記憶部62を備える。画像処理部80は、画像処理部50が備えた領域判別部53に替えて、領域判別部83を備える。制御部70は、制御部40と同様に、画像処理装置2の各部の処理および動作を制御する。なお、画像処理装置2のその他の構成は、画像処理装置1のその他の構成と同様である。   FIG. 14 is a diagram illustrating a schematic configuration of the image processing apparatus 2 according to the second embodiment. The image processing device 2 includes a storage unit 60, a control unit 70, and an image processing unit 80 instead of the storage unit 20, the control unit 40, and the image processing unit 50 included in the image processing device 1. The storage unit 60 includes a teacher data storage unit 62 instead of the threshold storage unit 22 included in the storage unit 20. The image processing unit 80 includes an area determination unit 83 instead of the area determination unit 53 provided in the image processing unit 50. The control unit 70 controls the processing and operation of each unit of the image processing apparatus 2, similarly to the control unit 40. The other configuration of the image processing apparatus 2 is the same as the other configuration of the image processing apparatus 1.

教師データ記憶部62は、教師データとして、画素ブロックに撮像された領域ごとに、複数のDCT特徴量をクラス分けして記憶している。領域判別部83は、各画素ブロックのDCT特徴量と教師データのDCT特徴量とをもとに、各画素ブロックの領域判別処理を行う。   The teacher data storage unit 62 stores a plurality of DCT feature quantities classified as classes for each region imaged in the pixel block as teacher data. The area determination unit 83 performs an area determination process for each pixel block based on the DCT feature value of each pixel block and the DCT feature value of teacher data.

画像処理装置2が行う画像処理の手順は、画像処理装置1が行う画像処理の手順(図5:ステップS101〜S105)と同様であるが、ステップS104の領域判別処理が異なる。図15は、ステップS104において、領域判別部83が行う処理の手順を示すフローチャートである。図15に示すように、領域判別部83は、制御部70の制御のもと、画像全体の各画素ブロックのDCT特徴量を取得し(ステップS401)、教師データ記憶部62より教師データを読み込む(ステップS402)。その後、領域判定部83は、各画素ブロックのDCT特徴量および教師データのDCT特徴量をもとに、各画素ブロックに撮像された領域を判別する(ステップS403)。ステップS401〜S403の処理によって、領域判別部83は、DCT特徴量をもとに各画素ブロックに撮像された領域を判別する。   The procedure of the image processing performed by the image processing apparatus 2 is the same as the procedure of the image processing performed by the image processing apparatus 1 (FIG. 5: Steps S101 to S105), but the area determination process of Step S104 is different. FIG. 15 is a flowchart illustrating the procedure of the process performed by the area determination unit 83 in step S104. As illustrated in FIG. 15, the region determination unit 83 acquires the DCT feature value of each pixel block of the entire image under the control of the control unit 70 (step S <b> 401), and reads teacher data from the teacher data storage unit 62. (Step S402). Thereafter, the region determination unit 83 determines the region imaged in each pixel block based on the DCT feature amount of each pixel block and the DCT feature amount of the teacher data (step S403). Through the processing in steps S401 to S403, the region determination unit 83 determines a region imaged in each pixel block based on the DCT feature amount.

図16は、教師データの一例であり、特徴空間上で泡領域のDCT特徴量および粘膜領域のDCT特徴量の分布を示す図である。図16では、特徴空間は2次元であり、特徴空間の特徴軸として低周波帯域のパワー値と高周波帯域のパワー値が選択されている。低周波帯域のパワー値とは、例えばパワー値F4であり、高周波帯域のパワー値とは、例えばパワー値F7である。図16に示すパワー値とは、各周波数帯域のAC成分の絶対値の平均値であり、泡領域は、粘膜領域と比較して高周波帯域のパワー値が大きいことが分かる。   FIG. 16 is an example of teacher data, and is a diagram showing the distribution of the DCT feature value of the bubble region and the DCT feature value of the mucous membrane region in the feature space. In FIG. 16, the feature space is two-dimensional, and the power value in the low frequency band and the power value in the high frequency band are selected as the feature axis of the feature space. The power value in the low frequency band is, for example, the power value F4, and the power value in the high frequency band is, for example, the power value F7. The power value shown in FIG. 16 is an average value of absolute values of AC components in each frequency band, and it can be seen that the foam region has a higher power value in the high frequency band than the mucosal region.

なお、各周波数帯域のAC成分の絶対値の平均値に各周波数帯域に応じて重み付けした値をパワー値とした場合、所定の複数のパワー値の平均値を特徴軸とすることができる。例えば、図16に示す場合、低周波帯域のパワー値としてパワー値F3〜F5の平均値をとり、高周波帯域のパワー値としてパワー値F6〜F8の平均値をとり、各平均値を特徴軸としてもよい。また、図16では、特徴空間を2次元としたが、特徴空間は2次元に限られず、例えばパワー値F1〜F14の各々を特徴軸とすれば、最大で14次元の特徴空間とすることができる。さらに、特徴軸としてDC成分の値を追加してもよい。   When a value obtained by weighting the average value of the absolute values of the AC components in each frequency band according to each frequency band is used as the power value, the average value of a plurality of predetermined power values can be used as the feature axis. For example, in the case shown in FIG. 16, the average value of the power values F3 to F5 is taken as the power value in the low frequency band, the average value of the power values F6 to F8 is taken as the power value in the high frequency band, and each average value is taken as the feature axis. Also good. In FIG. 16, the feature space is two-dimensional. However, the feature space is not limited to two dimensions. For example, if each of the power values F1 to F14 is a feature axis, the feature space can be a maximum of 14 dimensions. it can. Furthermore, a DC component value may be added as a feature axis.

泡領域および粘膜領域に限られず、病変領域、出血領域などその他の領域についても各々、特徴空間上でのDCT特徴量の分布は異なるので、領域判別部83は、教師データを用いて各画素ブロックに撮像された領域の種別を判別する処理を行う。   Since the distribution of the DCT feature amount in the feature space is different for each of other regions such as a lesion region and a bleeding region, not limited to the bubble region and the mucous membrane region, the region discriminating unit 83 uses the teacher data to store each pixel block. A process for discriminating the type of the imaged area is performed.

ステップS403において、領域判別部53は、特徴空間上での、各画素ブロックのDCT特徴量と教師データのDCT特徴量の分布とをもとに、kNN(k-Nearest Neighbor Method)法および部分空間法などの公知の判別手法を用いて、各画素ブロックに撮像された領域を判別する。   In step S403, the region discriminating unit 53 performs the kNN (k-Nearest Neighbor Method) method and the partial space based on the DCT feature value of each pixel block and the DCT feature value distribution of the teacher data on the feature space. The area imaged in each pixel block is discriminated using a known discrimination method such as the method.

本実施の形態2にかかる画像処理装置2は、1領域につき複数のDCT特徴量を教師データとして記憶し、特徴空間上での教師データのDCT特徴量および各画素ブロックのDCT特徴量の分布をもとに各画素ブロックに撮像された領域を判別するので、例えば、被検体の個体差や撮像時の照明の具合などの影響によってDCT係数が変動しても、精度良く領域判別処理を行うことができる。   The image processing apparatus 2 according to the second embodiment stores a plurality of DCT feature amounts per region as teacher data, and the distribution of the DCT feature amount of the teacher data and the DCT feature amount of each pixel block in the feature space. Since the region captured by each pixel block is determined based on the original, even if the DCT coefficient fluctuates due to, for example, individual differences in the subject or lighting conditions at the time of image capturing, the region determination processing can be performed with high accuracy. Can do.

ところで、上記の実施形態および変形例では、DCT符号化による画像データの圧縮処理の一例としてJPEGをあげたが、DCT符号化による圧縮処理は、JPEGによる処理に限られず、MPEGなどによる処理も含まれる。特に、MPEGは、動画像データの圧縮処理であるが、JPEGと同様にDCT符号化処理によって圧縮処理を行っているので、本発明にかかる技術思想を適用できる。   In the above embodiment and modification, JPEG is used as an example of image data compression processing by DCT encoding. However, compression processing by DCT encoding is not limited to JPEG processing, and includes processing by MPEG and the like. It is. In particular, MPEG is a moving image data compression process, but since the compression process is performed by a DCT encoding process similar to JPEG, the technical idea according to the present invention can be applied.

また、上記の実施形態および変形例では、周波数情報としてDCT係数をあげたが、圧縮画像の復号化処理に伴って所定の画像部分ごとに周波数情報が算出される圧縮符号化手法であれば、本発明に係る技術思想を適用できるのである。例えば、領域判別部53は、DCT符号化以外の、既知である離散ウェーブレット変換(DWT)、離散フーリエ変換(DFT)、アダマール変換やラプラス変換などの周波数変換を用いた符号化方式によって算出された周波数情報(例えば、DCT符号化の変換方式であればDCT係数を、アダマール変換方式であれば、周波数変換の変換結果がこれに該当する。)であって、各画像部分の複数の周波数成分の情報を含む周波数情報をもとに生成された特徴量をもとに画像部分に撮像された領域の種別を判別してもよい。もちろん、所定範囲ごとに圧縮する圧縮符号化の手法であれば、上記に挙げた離散ウェーブレット変換などの例に限られないことは当業者に理解されることである。この場合でも、DCT符号化の場合と同様に、領域判別を高速に行うことができる。   Further, in the above embodiment and the modification, the DCT coefficient is given as the frequency information. However, if the compression encoding method is used for calculating the frequency information for each predetermined image portion in accordance with the decoding process of the compressed image, The technical idea according to the present invention can be applied. For example, the region discriminating unit 53 is calculated by a coding method using a known discrete wavelet transform (DWT), discrete Fourier transform (DFT), Hadamard transform, Laplace transform, or the like other than DCT coding. Frequency information (for example, DCT coefficients in the case of a DCT encoding conversion method, and conversion results of the frequency conversion in the case of Hadamard conversion method), and a plurality of frequency components of each image portion. The type of the region captured in the image portion may be determined based on the feature amount generated based on the frequency information including information. Of course, it will be understood by those skilled in the art that the compression coding method for compressing each predetermined range is not limited to the above-described examples such as the discrete wavelet transform. Even in this case, as in the case of DCT encoding, the region discrimination can be performed at high speed.

近年、画像処理装置では、符号化圧縮処理によって原画像を圧縮して記憶することが一般化されているので、圧縮画像の復号化処理が行われる際に周波数情報が算出される場合、本実施の形態1などと同様に、領域判別処理にかかる時間をさらに短縮できる。   In recent years, in an image processing apparatus, since it is common to compress and store an original image by encoding and compression processing, when frequency information is calculated when decoding processing of a compressed image is performed, the present embodiment As in the first embodiment, the time required for the area determination process can be further shortened.

なお、周波数情報は、圧縮画像の復号化処理の際に算出される周波数情報に限られない。すなわち、本発明にかかる画像処理装置は、復号化処理の有無に関係なく、所定の周波数情報を算出する処理を行った後、領域判別処理を行うとしてもよい。   The frequency information is not limited to the frequency information calculated at the time of decoding the compressed image. That is, the image processing apparatus according to the present invention may perform the region determination process after performing the process of calculating the predetermined frequency information regardless of the presence or absence of the decoding process.

また、上記の実施形態および変形例にかかる画像処理装置が行う領域判別処理として、1枚の体内画像に対する領域判別処理を説明したが、体内画像が複数ある場合、一連の体内画像群の体内画像に対して順次、自動的に領域判別処理を行うこととしてもよい。   Further, as the area determination process performed by the image processing apparatus according to the above-described embodiment and the modification, the area determination process for one in-vivo image has been described. However, when there are a plurality of in-vivo images, the in-vivo images of a series of in-vivo image groups. Alternatively, the region determination process may be automatically performed sequentially.

また、上記の実施形態および変形例では、処理対象となる目的の画像を所定範囲、例えば8×8画素の画像部分ごとに圧縮する圧縮符号化の手法を説明したが、その範囲の大きさはこれに限定されるものではない。例えば、4×4画素の画像部分ごとに圧縮してもよいし、16×16画素の画像部分ごとに圧縮する手法であってもよい。一方、他の例では、画像部分を画像全体とみなして、画像全体を圧縮する圧縮符号化の手法であってもよい。   In the embodiment and the modification described above, the compression encoding technique for compressing the target image to be processed into a predetermined range, for example, every 8 × 8 pixel image portion, is described. It is not limited to this. For example, the compression may be performed for each 4 × 4 pixel image portion, or may be performed for each 16 × 16 pixel image portion. On the other hand, in another example, a compression encoding method may be used in which the image portion is regarded as the entire image and the entire image is compressed.

また、上記の実施形態および変形例では、DCT係数取得部51が圧縮画像の復号化処理を行ってDCT係数を取得する(算出する)こととしたが、別の変形例として、所定の周波数変換処理を行う他の外部装置(図示せず)からDCT係数などの周波数情報を取得するとしてもよい。   In the above-described embodiment and modification, the DCT coefficient acquisition unit 51 performs the decoding process of the compressed image to acquire (calculate) the DCT coefficient. However, as another modification, a predetermined frequency conversion is performed. Frequency information such as DCT coefficients may be acquired from another external device (not shown) that performs processing.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.

本発明の実施の形態1にかかる画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. 画素ブロックのDCT係数を示す図である。It is a figure which shows the DCT coefficient of a pixel block. DCT係数のAC成分の配置を説明する図である。It is a figure explaining arrangement | positioning of the AC component of a DCT coefficient. AC成分が属する周波数帯域と各周波数帯域のパワー値とを示す図である。It is a figure which shows the frequency band to which AC component belongs, and the power value of each frequency band. 図1に示す画像処理装置が行う画像処理手順を示すフローチャートである。3 is a flowchart illustrating an image processing procedure performed by the image processing apparatus illustrated in FIG. 1. 図1に示すDCT特徴量生成部が行うDCT特徴量生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the DCT feature-value production | generation process which the DCT feature-value production | generation part shown in FIG. 1 performs. 図1に示す領域判別部が行う領域判別処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the area | region discrimination | determination process which the area | region discrimination | determination part shown in FIG. 1 performs. AC成分が属する周波数帯域と値が0となるAC成分の割合との関係を示す図である。It is a figure which shows the relationship between the frequency band to which an AC component belongs, and the ratio of the AC component in which the value becomes zero. 変形例1にかかる画像処理装置が行うDCT特徴量生成処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of DCT feature value generation processing performed by an image processing apparatus according to Modification 1; 変形例2にかかる画像処理装置が行うDCT特徴量生成処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of DCT feature value generation processing performed by an image processing apparatus according to Modification 2; AC成分が属する周波数帯域と各周波数帯域のAC成分の値の絶対値の平均値との関係を示す図である。It is a figure which shows the relationship between the frequency band to which AC component belongs, and the average value of the absolute value of the value of AC component of each frequency band. 変形例3にかかる画像処理装置が行うDCT特徴量生成処理の手順示すフローチャートである。15 is a flowchart illustrating a procedure of DCT feature value generation processing performed by an image processing apparatus according to Modification 3; AC成分が属する周波数帯域と各周波数帯域のAC成分の値の絶対値の平均値に重み付けをした値との関係を示す図である。It is a figure which shows the relationship between the value which weighted the average value of the absolute value of the value of the frequency band to which an AC component belongs, and the AC component of each frequency band. 本発明の実施の形態2にかかる画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus concerning Embodiment 2 of this invention. 図14に示す領域判別部が行う領域判別処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the area | region discrimination | determination process which the area | region discrimination | determination part shown in FIG. 14 performs. 教師データの一例を示す図である。It is a figure which shows an example of teacher data.

符号の説明Explanation of symbols

1,2 画像処理装置
10 入力部
20,60 記憶部
21 体内画像記憶部
22 閾値記憶部
30 出力部
40,70 制御部
50,80 画像処理部
51 DCT係数取得部
52 DCT特徴量生成部
53,83 領域判別部
62 教師データ記憶部
F1〜F14 パワー値
H1〜H14 周波数領域
DESCRIPTION OF SYMBOLS 1, 2 Image processing apparatus 10 Input part 20,60 Storage part 21 In-vivo image storage part 22 Threshold storage part 30 Output part 40,70 Control part 50,80 Image processing part 51 DCT coefficient acquisition part 52 DCT feature-value production | generation part 53, 83 region discriminating unit 62 teacher data storage unit F1-F14 power value H1-H14 frequency region

Claims (19)

目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得部と、
前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成部と、
前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する領域判別部と、
を備えることを特徴とする画像処理装置。
For an image portion of a predetermined range included in the target image, an acquisition unit that acquires frequency information representing a plurality of frequency components of the image portion;
A power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and a feature of an image portion associated with the frequency information based on the power value A feature amount generation unit for generating a feature amount indicating
An area discriminating unit for discriminating the type of the area captured in the image portion based on the feature amount;
An image processing apparatus comprising:
前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分のうち値が0となる前記一の周波数成分の個数を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。   The feature quantity generation unit generates the feature quantity by calculating, as the power value, the number of the one frequency component having a value of 0 among the one frequency component belonging to each frequency band. The image processing apparatus according to claim 1. 前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分のうち値が所定の範囲内となる前記一の周波数成分の個数を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。   The feature quantity generation unit generates the feature quantity by calculating, as the power value, the number of the one frequency component having a value within a predetermined range among the one frequency component belonging to each frequency band. The image processing apparatus according to claim 1, wherein: 前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分の絶対値の平均値を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing according to claim 1, wherein the feature quantity generation unit generates the feature quantity by calculating an average value of absolute values of the one frequency component belonging to each frequency band as the power value. apparatus. 前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分の絶対値の平均値に各周波数帯域に応じた重み付けを行って算出した値を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。   The feature amount generation unit generates the feature amount by calculating a value calculated by weighting an average value of the absolute values of the one frequency component belonging to each frequency band according to each frequency band as the power value. The image processing apparatus according to claim 1, wherein: 前記特徴量生成部は、前記一の周波数成分である輝度成分をもとに前記パワー値を算出して前記特徴量を生成することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。   The said feature-value production | generation part calculates the said power value based on the luminance component which is said one frequency component, and produces | generates the said feature-value. Image processing apparatus. 前記特徴量生成部は、前記一の周波数成分とは異なる他の周波数成分および前記パワー値をもとに前記特徴量を生成することを特徴とする請求項1〜6のいずれか一つに記載の画像処理装置。   The said feature-value production | generation part produces | generates the said feature-value based on the other frequency component and said power value different from the said one frequency component, It is any one of Claims 1-6 characterized by the above-mentioned. Image processing apparatus. 前記領域判別部は、前記特徴量と閾値とを比較して前記特徴量に対応する前記画像部分に撮像された領域の種別を判別することを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。   8. The region determination unit according to claim 1, wherein the region determination unit determines a type of a region captured in the image portion corresponding to the feature amount by comparing the feature amount with a threshold value. An image processing apparatus according to 1. 異なる領域ごとにクラス分けされた複数の前記特徴量である教師データを記憶する教師データ記憶部をさらに備え、
前記領域判別部は、前記教師データの前記特徴量および前記画像部分の前記特徴量をもとに前記画像部分に撮像された領域の種別を判別することを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。
A teacher data storage unit that stores teacher data that is a plurality of the feature quantities classified into different areas;
8. The region determination unit according to claim 1, wherein the region determination unit determines a type of a region captured in the image portion based on the feature amount of the teacher data and the feature amount of the image portion. The image processing apparatus according to claim 1.
処理対象画像は、医療用画像であることを特徴とする請求項1〜9のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processing target image is a medical image. 処理対象画像は、カプセル型内視鏡によって撮像された体内画像であることを特徴とする請求項1〜10のいずれか一つに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processing target image is an in-vivo image captured by a capsule endoscope. 前記領域判別部は、前記画像部分に撮像された領域の種別として泡領域、病変領域、出血領域、粘膜領域、内容物領域または粘液領域のうち少なくとも1つの領域の種別を判別することを特徴とする請求項1〜11のいずれか一つに記載の画像処理装置。   The region discriminating unit discriminates at least one of a bubble region, a lesion region, a bleeding region, a mucous membrane region, a content region, or a mucus region as a region type captured in the image portion. The image processing apparatus according to claim 1. 前記取得部は、前記周波数情報として、前記画像部分ごとに所定の周波数変換処理を施すことで得られた情報を取得することを特徴とする請求項1〜12のいずれか一つに記載の画像処理装置。   The image according to any one of claims 1 to 12, wherein the acquisition unit acquires, as the frequency information, information obtained by performing a predetermined frequency conversion process for each image portion. Processing equipment. 前記周波数変換処理は、DCT符号化方式を用いた変換であることを特徴とする請求項13に記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the frequency conversion process is a conversion using a DCT encoding method. 前記周波数情報は、前記周波数変換処理としてDCT符号化方式によって圧縮処理された圧縮画像の復号化処理が行われる際に算出されるDCT係数であることを特徴とする請求項13または14に記載の画像処理装置。   The frequency information is a DCT coefficient calculated when a decoding process of a compressed image compressed by a DCT encoding method is performed as the frequency conversion process. Image processing device. 前記周波数情報は、DCT符号化方式によって圧縮処理された圧縮画像の復号化処理が行われる際に算出されるDCT係数であり、
前記一の周波数成分は、前記DCT係数のAC成分であることを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。
The frequency information is a DCT coefficient calculated when a decoding process of a compressed image compressed by the DCT encoding method is performed,
The image processing apparatus according to claim 1, wherein the one frequency component is an AC component of the DCT coefficient.
前記周波数情報は、DCT符号化方式によって圧縮処理された圧縮画像の復号化処理が行われる際に算出されるDCT係数であり、
前記他の周波数成分は、前記DCT係数のDC成分であることを特徴とする請求項7に記載の画像処理装置。
The frequency information is a DCT coefficient calculated when a decoding process of a compressed image compressed by the DCT encoding method is performed,
The image processing apparatus according to claim 7, wherein the other frequency component is a DC component of the DCT coefficient.
目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、
前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、
前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、
を備えることを特徴とする画像処理方法。
An acquisition step of acquiring frequency information representing a plurality of frequency components of the image portion for a predetermined range of the image portion included in the target image;
A power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and a feature of an image portion associated with the frequency information based on the power value A feature amount generation step for generating a feature amount indicating
A determination step of determining a type of an area captured in the image portion based on the feature amount;
An image processing method comprising:
目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、
前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、
前記特徴量をもとに前記画像部分に撮像された領域を判別する判別ステップと、
をコンピュータに発揮させることを特徴とする画像処理プログラム。
An acquisition step of acquiring frequency information representing a plurality of frequency components of the image portion for a predetermined range of the image portion included in the target image;
A power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and a feature of an image portion associated with the frequency information based on the power value A feature amount generation step for generating a feature amount indicating
A determination step of determining a region imaged in the image portion based on the feature amount;
An image processing program for causing a computer to exhibit the above.
JP2008040179A 2008-02-21 2008-02-21 Image processing device, image processing method, and image processing program Pending JP2009136655A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008040179A JP2009136655A (en) 2008-02-21 2008-02-21 Image processing device, image processing method, and image processing program
PCT/JP2008/071047 WO2009104315A1 (en) 2008-02-21 2008-11-19 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008040179A JP2009136655A (en) 2008-02-21 2008-02-21 Image processing device, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2009136655A true JP2009136655A (en) 2009-06-25

Family

ID=40867917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008040179A Pending JP2009136655A (en) 2008-02-21 2008-02-21 Image processing device, image processing method, and image processing program

Country Status (2)

Country Link
JP (1) JP2009136655A (en)
WO (1) WO2009104315A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102525381A (en) * 2010-12-16 2012-07-04 奥林巴斯株式会社 Image processing apparatus, image processing method and computer-readable recording device
JP2014036698A (en) * 2012-08-10 2014-02-27 Olympus Corp Image processor, image processing method, and image processing program
JP2017517222A (en) * 2014-03-28 2017-06-22 ユニベルシテ・ドゥ・テクノロジー・ドゥ・トロワUniversite De Technologie De Troyes System for identifying a photo camera model associated with a JPEG compressed image, and related methods implemented in such a system, its use and application
CN107113395A (en) * 2014-11-13 2017-08-29 三星电子株式会社 For the method and apparatus for the metadata for generating the frequency characteristic information for including image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154527B (en) * 2017-12-08 2020-06-12 东华大学 Woven fabric texture characterization method based on stable learning dictionary

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339019A (en) * 1993-05-28 1994-12-06 Nippon Telegr & Teleph Corp <Ntt> Area separation system for document picture by discrete cosine transformation
JP3189511B2 (en) * 1993-07-22 2001-07-16 ミノルタ株式会社 Encoding device
JP3733161B2 (en) * 1995-08-01 2006-01-11 キヤノン株式会社 Image processing apparatus and method
JP4520405B2 (en) * 2005-12-28 2010-08-04 オリンパスメディカルシステムズ株式会社 Image processing apparatus and image processing method in the image processing apparatus
JP4451460B2 (en) * 2007-03-16 2010-04-14 オリンパス株式会社 Endoscopic diagnosis support device
JP2007236956A (en) * 2007-03-16 2007-09-20 Olympus Corp Endoscopic diagnosis support apparatus and endoscopic image processing method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102525381A (en) * 2010-12-16 2012-07-04 奥林巴斯株式会社 Image processing apparatus, image processing method and computer-readable recording device
JP2012125469A (en) * 2010-12-16 2012-07-05 Olympus Corp Image processor, image processing method, and image processing program
US8798344B2 (en) 2010-12-16 2014-08-05 Olympus Corporation Image processing apparatus, image processing method and computer-readable recording device
CN102525381B (en) * 2010-12-16 2016-08-03 奥林巴斯株式会社 The recording equipment of image processing apparatus, image processing method and embodied on computer readable
JP2014036698A (en) * 2012-08-10 2014-02-27 Olympus Corp Image processor, image processing method, and image processing program
JP2017517222A (en) * 2014-03-28 2017-06-22 ユニベルシテ・ドゥ・テクノロジー・ドゥ・トロワUniversite De Technologie De Troyes System for identifying a photo camera model associated with a JPEG compressed image, and related methods implemented in such a system, its use and application
CN107113395A (en) * 2014-11-13 2017-08-29 三星电子株式会社 For the method and apparatus for the metadata for generating the frequency characteristic information for including image
US10417766B2 (en) 2014-11-13 2019-09-17 Samsung Electronics Co., Ltd. Method and device for generating metadata including frequency characteristic information of image
CN107113395B (en) * 2014-11-13 2020-11-24 三星电子株式会社 Method and apparatus for generating metadata including frequency characteristic information of image

Also Published As

Publication number Publication date
WO2009104315A1 (en) 2009-08-27

Similar Documents

Publication Publication Date Title
JP4932588B2 (en) Image processing apparatus and image processing program
JP2004201290A (en) Image processing method, image processing device, image processing program, and record medium
JP2007295170A (en) Device, program, and method for compression image
US9635212B2 (en) Dynamic compression ratio selection
JP2006157910A (en) Filtering method for removing blocking artifacts and apparatus therefor
EP2103134B1 (en) System and method for reducing artifacts in images
JP5318256B2 (en) High bit depth image compression
WO2009104315A1 (en) Image processing device, image processing method, and image processing program
JP2007104678A (en) Method of classifying images in connection with jpeg compression history
US20110262052A1 (en) Image coding apparatus, control method thereof, and storage medium
US8588538B2 (en) Image processing apparatus and method
JP6498858B2 (en) Image coding method
Wu et al. Low-complexity video compression for capsule endoscope based on compressed sensing theory
US20230133895A1 (en) Image encoding apparatus and method for controlling the same and non-transitory computer-readable storage medium
US11803985B2 (en) Information processing apparatus, information processing method, and recording medium
JP2009142552A (en) Image processor, image processing method, and image processing program
JP2001144932A (en) Image processor and its method
US10728470B2 (en) Image processing device, image processing method, and non-transitory computer readable medium storing image processing program
JP2009124300A (en) Apparatus, method and program for jpeg encoding with watermark embedding, record medium recorded with the encoding program, and apparatus, method and program for detecting tampering of the jpeg image data with watermark embedding, record medium recorded with the detecting program
JP2009111821A (en) Image encoding apparatus, image decoding apparatus, image data processing apparatus, image encoding method, and image decoding method
JP2004348293A (en) Image quality computing device and method, program thereof, and recording medium
US8331709B2 (en) Fixed buffer real-time image compression technique
JP4946801B2 (en) Image management apparatus, image management program, and image management method
EP3151189B1 (en) Method for determining a modifiable block
JP6531070B2 (en) Image restoration method and image restoration apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090804