JP5028138B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP5028138B2
JP5028138B2 JP2007123825A JP2007123825A JP5028138B2 JP 5028138 B2 JP5028138 B2 JP 5028138B2 JP 2007123825 A JP2007123825 A JP 2007123825A JP 2007123825 A JP2007123825 A JP 2007123825A JP 5028138 B2 JP5028138 B2 JP 5028138B2
Authority
JP
Japan
Prior art keywords
image
organ
processing
observation
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007123825A
Other languages
Japanese (ja)
Other versions
JP2008278964A (en
Inventor
誠 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007123825A priority Critical patent/JP5028138B2/en
Priority to PCT/JP2008/057280 priority patent/WO2008139812A1/en
Priority to EP08740368.9A priority patent/EP2149330B1/en
Priority to US12/105,006 priority patent/US8107698B2/en
Publication of JP2008278964A publication Critical patent/JP2008278964A/en
Application granted granted Critical
Publication of JP5028138B2 publication Critical patent/JP5028138B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、観察画像から特異な領域を検出するための画像処理装置および画像処理プログラムに関し、特に、異なる撮像距離で撮像された一連の観察画像から特異な領域を検出する画像処理装置および画像処理プログラムに関するものである。   The present invention relates to an image processing apparatus and an image processing program for detecting a specific area from an observation image, and more particularly to an image processing apparatus and image processing for detecting a specific area from a series of observation images captured at different imaging distances. It is about the program.

複数種類の観察対象のうち少なくとも1つの観察対象が個別に撮像された一連の観察画像を得るシステムとして、例えば、被検体内を観察するカプセル型内視鏡が開発されている。カプセル型内視鏡は、撮像機能と無線通信機能とを備え、被検体に飲み込まれた後、自然排出されるまでの間、食道、胃、小腸および大腸等の内部を蠕動運動などに応じて順次移動しながら撮像するとともに、撮像により生成した画像データを無線通信によって外部受信機へ順次送信する。医師、看護師等は、外部受信機によって取得した画像データを観察画像として表示させ、その観察画像に基づいて被検体内を観察することができる。   As a system for obtaining a series of observation images in which at least one observation object is individually imaged among a plurality of types of observation objects, for example, a capsule endoscope that observes the inside of a subject has been developed. Capsule endoscopes have an imaging function and a wireless communication function. After being swallowed by a subject and before being spontaneously discharged, the inside of the esophagus, stomach, small intestine, and large intestine is subjected to peristalsis. The image is captured while moving sequentially, and image data generated by the imaging is sequentially transmitted to an external receiver by wireless communication. A doctor, nurse, or the like can display the image data acquired by the external receiver as an observation image and observe the inside of the subject based on the observation image.

通常、カプセル型内視鏡によって取得する一連の観察画像の数は膨大であり、医師、看護師等は、その一連の観察画像をもとに観察を行うにあたって多大な時間と労力とが必要とされる。これに対し、観察対象内の異常部を検出して表示させることで効率的に病変部の観察をすることができる異常検出システムが開発されている(例えば、特許文献1参照)。この異常検出システムでは、観察画像を複数の単位ブロックに分割し、その単位ブロックごとの色情報を、あらかじめ作成した異常部の色基準および正常部の色基準と比較することで異常部を検出するようにしている。   Usually, the number of series of observation images acquired by a capsule endoscope is enormous, and doctors, nurses, etc. need a lot of time and labor to perform observations based on the series of observation images. Is done. On the other hand, an abnormality detection system has been developed that can efficiently observe a lesioned part by detecting and displaying the abnormal part in the observation target (for example, see Patent Document 1). In this abnormality detection system, an observed image is divided into a plurality of unit blocks, and the abnormal information is detected by comparing the color information of each unit block with the color reference of the abnormal part and the color reference of the normal part prepared in advance. I am doing so.

特表2004−521693号公報JP-T-2004-521893 特開2005−192880号公報JP 2005-192880 A

ところで、カプセル型内視鏡によって取得される一連の観察画像では、撮像装置としてのカプセル型内視鏡が臓器内を移動しながら撮像を行うため、臓器内の同一の異常部が観察画像ごとに異なる撮像距離で撮像されている。このため、同一の異常部に対応する画像領域であっても、その領域サイズ(大きさ)や色味は、観察画像ごとに撮像距離に応じて異なる特徴を示すこととなる。   By the way, in a series of observation images acquired by the capsule endoscope, the capsule endoscope as an imaging device performs imaging while moving in the organ, so the same abnormal part in the organ is detected for each observation image. Images are taken at different imaging distances. For this reason, even if it is an image area | region corresponding to the same abnormal part, the area | region size (size) and color will show the characteristic which changes according to imaging distance for every observation image.

しかしながら、上述した異常検出システムでは、観察画像ごとに撮像距離に応じて異なる特徴を示す異常部を確実に検出することができないという問題があった。   However, in the above-described abnormality detection system, there is a problem in that it is not possible to reliably detect an abnormal part that shows different characteristics depending on the imaging distance for each observation image.

本発明は、上記に鑑みてなされたものであって、一連の観察画像から、撮像距離に応じて異なる特徴を示す画像領域を確実に検出するときの検出精度を向上させることができる画像処理装置および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and is an image processing apparatus capable of improving detection accuracy when reliably detecting an image region having different characteristics depending on an imaging distance from a series of observation images. An object of the present invention is to provide an image processing program.

上記の目的を達成するために、本発明にかかる画像処理装置は、異なる撮像距離で撮像された一連の観察画像から特異な領域である特徴画像領域を検出するための画像処理装置において、前記一連の観察画像のうちの処理対象画像が撮像されたときの撮像距離を推定する距離推定手段と、前記特徴画像領域を検出するための処理パラメータを用いて前記処理対象画像内から前記特徴画像領域を検出する領域検出手段と、前記距離推定手段の推定結果に対応するパラメータ値を前記処理パラメータとして設定し、前記領域検出手段に該処理パラメータを用いて前記特徴画像領域を検出させる設定制御手段と、を備えたことを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention is the image processing apparatus for detecting a characteristic image area that is a unique area from a series of observation images captured at different imaging distances. The feature image region is extracted from the processing target image using distance estimation means for estimating an imaging distance when the processing target image of the observed images is captured, and a processing parameter for detecting the feature image region. An area detection means for detecting, a parameter value corresponding to an estimation result of the distance estimation means is set as the processing parameter, and a setting control means for causing the area detection means to detect the feature image area using the processing parameter; It is provided with.

また、本発明にかかる画像処理プログラムは、異なる撮像距離で撮像された一連の観察画像から特異な領域である特徴画像領域を検出するための画像処理装置に、前記一連の観察画像のうちの処理対象画像が撮像されたときの撮像距離を推定する距離推定手順と、前記特徴画像領域を検出するための処理パラメータを用いて前記処理対象画像内から前記特徴画像領域を検出する領域検出手順と、前記距離推定手段の推定結果に対応するパラメータ値を前記処理パラメータとして設定し、前記領域検出手段に該処理パラメータを用いて前記特徴画像領域を検出させる設定制御手順と、を実行させることを特徴とする。   In addition, the image processing program according to the present invention provides an image processing apparatus for detecting a characteristic image region, which is a unique region, from a series of observation images captured at different imaging distances. A distance estimation procedure for estimating an imaging distance when a target image is captured; a region detection procedure for detecting the feature image region from within the processing target image using a processing parameter for detecting the feature image region; Setting a parameter value corresponding to the estimation result of the distance estimation unit as the processing parameter, and causing the region detection unit to detect the feature image region using the processing parameter; To do.

本発明にかかる画像処理装置および画像処理プログラムによれば、一連の観察画像から、撮像距離に応じて異なる特徴を示す画像領域を確実に検出するときの検出精度を向上させることができる。   According to the image processing apparatus and the image processing program according to the present invention, it is possible to improve the detection accuracy when reliably detecting an image region having different characteristics depending on the imaging distance from a series of observation images.

以下、添付図面を参照して、本発明にかかる画像処理装置および画像処理プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態では、本発明にかかる画像処理装置は、複数種類の観察対象のうち少なくとも1つの観察対象が個別に撮像された一連の観察画像として、例えばカプセル型内視鏡によって食道、胃、小腸および大腸の内部のうち少なくとも1つが順次撮像された一連の観察画像を処理するものとして説明する。ただし、本発明にかかる画像処理装置によって処理可能な観察画像は、観察対象としてかかる臓器(消化器官)が撮像された観察画像に限定されるものではなく、この実施の形態により本発明が限定されるものではない。なお、図面の記載において、同一部分には同一符号を付して示している。   Exemplary embodiments of an image processing apparatus and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings. In this embodiment, the image processing apparatus according to the present invention provides a series of observation images obtained by individually capturing at least one observation object among a plurality of types of observation objects, for example, an esophagus by a capsule endoscope, In the following description, it is assumed that a series of observation images in which at least one of the stomach, the small intestine, and the large intestine is sequentially captured is processed. However, observation images that can be processed by the image processing apparatus according to the present invention are not limited to observation images obtained by imaging such organs (digestive organs) as observation targets, and the present invention is limited by this embodiment. It is not something. In the description of the drawings, the same portions are denoted by the same reference numerals.

(実施の形態)
まず、本発明の実施の形態にかかる画像処理装置について説明する。図1は、本実施の形態にかかる画像処理装置1の要部構成を示すブロック図である。この図に示すように、画像処理装置1は、画像を含む各種情報の入力、記憶および出力をそれぞれ行う入力部2、記憶部3および出力部5と、記憶部3に記憶された画像を処理する画像処理部4と、これらの各部に電気的に接続され、その接続された各部の処理および動作を制御する制御部6とを備える。
(Embodiment)
First, an image processing apparatus according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a main configuration of an image processing apparatus 1 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 1 processes an image stored in the storage unit 3 and an input unit 2, a storage unit 3 and an output unit 5 that respectively input, store, and output various types of information including images. And an image processing unit 4 that is electrically connected to each of these units, and a control unit 6 that controls processing and operations of the connected units.

入力部2は、データ通信インターフェースを用いて構成され、このデータ通信インターフェースから制御部6に対し、処理対象としての一連の観察画像の画像データの入力を行う。また、入力部2は、各種入力デバイスを備え、制御部6が処理に用いる処理パラメータのパラメータ値等、各種情報の入力を行う。   The input unit 2 is configured using a data communication interface, and inputs image data of a series of observation images as a processing target from the data communication interface to the control unit 6. The input unit 2 includes various input devices, and inputs various information such as parameter values of processing parameters used by the control unit 6 for processing.

記憶部3は、ハードディスク、ROMおよびRAM等を用いて構成され、制御部6が実行させる各種処理プログラム、制御部6が処理に用いる各種処理パラメータ、制御部6による各種処理結果等、種々の情報を記憶する。特に、記憶部3は、入力部2から入力された一連の観察画像を記憶する観察画像記憶部3aと、後述の臓器判定処理に用いる基準データを記憶する臓器判定基準データ記憶部3bと、後述の撮像距離推定処理に用いる基準データを記憶する距離推定基準データ記憶部3cと、後述の異常領域検出処理に用いるパラメータのパラメータ値を記憶する異常検出パラメータ記憶部3dとを備える。なお、記憶部3は、画像処理装置1に対して着脱自在な携帯型記憶媒体を備え、この携帯型記憶媒体によって入力部2を介さずに画像データを取得して一連の観察画像を記憶することができる。   The storage unit 3 is configured by using a hard disk, ROM, RAM, and the like, and various information such as various processing programs executed by the control unit 6, various processing parameters used by the control unit 6 for processing, various processing results by the control unit 6, and the like. Remember. In particular, the storage unit 3 includes an observation image storage unit 3a that stores a series of observation images input from the input unit 2, an organ determination reference data storage unit 3b that stores reference data used for organ determination processing described later, and a later described A distance estimation reference data storage unit 3c that stores reference data used in the imaging distance estimation process, and an abnormality detection parameter storage unit 3d that stores parameter values of parameters used in an abnormal area detection process described later. The storage unit 3 includes a portable storage medium that can be attached to and detached from the image processing apparatus 1. The storage unit 3 acquires image data via the portable storage medium without using the input unit 2 and stores a series of observation images. be able to.

画像処理部4は、例えばCPUによって実現され、制御部6が実行させる所定の画像処理プログラムに基づき、観察画像記憶部3aに記憶された一連の観察画像に対して種々の画像処理を行う。特に、画像処理部4は、各観察画像に撮像された観察対象としての所定の臓器を判定する臓器判定部4aと、観察画像が撮像されたときの撮像距離を推定する撮像距離推定部4bと、観察画像内から所定の特徴を有する特徴画像領域としての異常領域を検出する異常領域検出部4cとを備える。具体的には、臓器判定部4aは、各観察画像に撮像された観察対象を食道、胃、小腸および大腸のいずれか一つの臓器と判定し、異常領域検出部4cは、臓器判定部4aが判定した臓器内の異常部に対応する画像領域である異常領域を検出する。   The image processing unit 4 is realized by, for example, a CPU, and performs various image processing on a series of observation images stored in the observation image storage unit 3a based on a predetermined image processing program executed by the control unit 6. In particular, the image processing unit 4 includes an organ determination unit 4a that determines a predetermined organ as an observation target captured in each observation image, and an imaging distance estimation unit 4b that estimates an imaging distance when the observation image is captured. And an abnormal area detecting unit 4c for detecting an abnormal area as a characteristic image area having a predetermined characteristic from the observed image. Specifically, the organ determination unit 4a determines that the observation target captured in each observation image is one of the esophagus, stomach, small intestine, and large intestine, and the abnormal region detection unit 4c is determined by the organ determination unit 4a. An abnormal region that is an image region corresponding to the determined abnormal portion in the organ is detected.

出力部5は、液晶表示器等の各種表示器を用いて構成され、一連の観察画像、臓器判定部4aの判定結果、撮像距離推定部4bの推定結果、異常領域検出部4cの検出結果等、各種情報を表示する。また、出力部5は、データ通信インターフェースを備え、このデータ通信インターフェースから外部装置に対してその各種情報を出力することができる。   The output unit 5 is configured using various displays such as a liquid crystal display, and includes a series of observation images, determination results of the organ determination unit 4a, estimation results of the imaging distance estimation unit 4b, detection results of the abnormal region detection unit 4c, and the like. Various information is displayed. The output unit 5 includes a data communication interface, and can output various types of information from the data communication interface to an external device.

制御部6は、CPUによって実現され、記憶部3に記憶された所定の処理プログラムを実行させることで、画像処理装置1が備える各部の処理および動作を制御する。特に、制御部6は、記憶部3に記憶された所定の画像処理プログラムを実行し、観察画像記憶部3aに記憶された一連の観察画像を画像処理部4に処理させる画像処理制御部6aを備える。また、制御部6は、画像処理部4による処理結果等を出力部5に出力させる。   The control unit 6 is realized by a CPU, and controls processing and operation of each unit included in the image processing apparatus 1 by executing a predetermined processing program stored in the storage unit 3. In particular, the control unit 6 executes an image processing control unit 6a that executes a predetermined image processing program stored in the storage unit 3 and causes the image processing unit 4 to process a series of observation images stored in the observation image storage unit 3a. Prepare. In addition, the control unit 6 causes the output unit 5 to output the processing result by the image processing unit 4 and the like.

つづいて、画像処理装置1が行う画像処理手順について説明する。図2は、制御部6が所定の画像処理プログラムを実行させることで、観察画像記憶部3aに記憶された一連の観察画像を処理する処理手順を示すフローチャートである。この図に示すように、画像処理制御部6aは、まず観察画像記憶部3aから一連の観察画像を読み込み(ステップS101)、各観察画像に撮像された臓器を臓器判定部4aによって判定する臓器判定処理を行うとともに(ステップS102)、各観察画像が撮像されたときの撮像距離を撮像距離推定部4bによって推定する撮像距離推定処理を行う(ステップS103)。その後、画像処理制御部6aは、臓器判定処理の臓器判定結果と撮像距離推定処理の撮像距離推定結果とをもとに、後述の異常検出パラメータにパラメータ値を設定するパラメータ設定処理を行い(ステップS104)、異常領域検出部4cにその異常検出パラメータを用いて異常領域を検出させる異常領域検出処理を行う(ステップS105)。そして、画像処理制御部6aは、異常領域検出処理の検出結果を出力部5に出力させ(ステップS106)、一連の処理を終了する。   Subsequently, an image processing procedure performed by the image processing apparatus 1 will be described. FIG. 2 is a flowchart showing a processing procedure for processing a series of observation images stored in the observation image storage unit 3a by causing the control unit 6 to execute a predetermined image processing program. As shown in this figure, the image processing control unit 6a first reads a series of observation images from the observation image storage unit 3a (step S101), and determines an organ imaged in each observation image by the organ determination unit 4a. In addition to performing the process (step S102), an imaging distance estimation process is performed in which the imaging distance estimation unit 4b estimates the imaging distance when each observation image is captured (step S103). Thereafter, the image processing control unit 6a performs a parameter setting process for setting a parameter value to an abnormality detection parameter, which will be described later, based on the organ determination result of the organ determination process and the imaging distance estimation result of the imaging distance estimation process (step (S104) An abnormal area detection process is performed to cause the abnormal area detection unit 4c to detect an abnormal area using the abnormality detection parameter (step S105). Then, the image processing control unit 6a causes the output unit 5 to output the detection result of the abnormal area detection processing (step S106), and ends the series of processing.

ステップS102の臓器判定処理では、臓器判定部4aは、観察画像の周波数成分情報をもとに、各観察画像に撮像された臓器を判定する。例えば、食道や胃は、小腸に比べて粘膜表面に凹凸が少なく平坦である。逆に、小腸は絨毛などによって表面に凹凸が多い。このため、食道や胃が撮像された観察画像では低周波数成分が支配的であり、小腸が撮像された観察画像では高周波数成分が支配的である。臓器判定部4aは、このような性質を利用して、観察画像に撮像された臓器が食道もしくは胃であるか、小腸であるか、または大腸であるかを判定する。具体的には、臓器判定部4aは、周波数成分情報として例えばフーリエ変換によって得られるパワースペクトルを用いて臓器判定を行う。   In the organ determination process in step S102, the organ determination unit 4a determines the organ imaged in each observation image based on the frequency component information of the observation image. For example, the esophagus and stomach are flat with less irregularities on the mucosal surface than the small intestine. Conversely, the small intestine has many irregularities on the surface due to villi and the like. For this reason, the low frequency component is dominant in the observation image in which the esophagus and the stomach are imaged, and the high frequency component is dominant in the observation image in which the small intestine is imaged. The organ determination unit 4a uses such properties to determine whether the organ imaged in the observation image is the esophagus or stomach, the small intestine, or the large intestine. Specifically, the organ determination unit 4a performs organ determination using, for example, a power spectrum obtained by Fourier transform as frequency component information.

図3は、臓器判定部4aによる臓器判定処理手順を示すフローチャートである。この図に示すように、臓器判定部4aは、観察画像ごとにパワースペクトルに基づく特徴ベクトルを算出し(ステップS111)、臓器判定基準データ記憶部3bから臓器判定基準データを読み込み(ステップS112)、算出した特徴ベクトルと読み込んだ臓器判定基準データとをもとに、各観察画像に撮像された臓器を判定する(ステップS113)。その後、臓器判定部4aは、臓器判定処理を終了し、ステップS102へリターンする。   FIG. 3 is a flowchart showing an organ determination processing procedure by the organ determination unit 4a. As shown in this figure, the organ determination unit 4a calculates a feature vector based on the power spectrum for each observation image (step S111), reads the organ determination reference data from the organ determination reference data storage unit 3b (step S112), Based on the calculated feature vector and the read organ determination reference data, the organ imaged in each observation image is determined (step S113). Thereafter, the organ determination unit 4a ends the organ determination process and returns to step S102.

ステップS111では、臓器判定部4aは、まず一連の観察画像のうちの処理対象画像に対し、フーリエ変換によってパワースペクトルを算出し、算出したパワースペクトルから高周波数成分、中間周波数成分および低周波数成分をそれぞれ特徴量A〜Cとして抽出する。そして、この特徴量A〜Cによって示される特徴空間上のベクトルを、処理対象画像の周波数成分情報を示す特徴ベクトルとして処理対象画像に対応付ける。さらに、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の処理を行うことで、各観察画像の特徴ベクトルを算出する。   In step S111, the organ determination unit 4a first calculates a power spectrum by Fourier transform for the processing target image in the series of observation images, and calculates a high frequency component, an intermediate frequency component, and a low frequency component from the calculated power spectrum. Extracted as feature amounts A to C, respectively. Then, the vector on the feature space indicated by the feature amounts A to C is associated with the processing target image as the feature vector indicating the frequency component information of the processing target image. Further, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and performs the same processing for each switched processing target image, thereby calculating the feature vector of each observation image.

ステップS112では、臓器判定部4aは、例えば図4に示すようにあらかじめ特徴空間上で各臓器がクラス分けされたクラス辞書としての臓器判定基準データを読み込む。そして、ステップS113では、臓器判定部4aは、例えばkNN法(k-Nearest Neighbor Method)や部分空間法などの公知の判別手法を用い、ステップS112によって読み込んだ臓器判定基準データをもとに、ステップS111によって算出した各観察画像の特徴ベクトルが属する臓器の種類を判別する。その際、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに特徴ベクトルが属する臓器の種類を判別する。これによって、臓器判定部4aは、各観察画像に撮像された臓器を、食道もしくは胃と、小腸と、大腸とのいずれか一つと判定し、判定結果を各観察画像に対応付ける。   In step S112, the organ determination unit 4a reads organ determination reference data as a class dictionary in which each organ is classified in advance in the feature space, for example, as shown in FIG. In step S113, the organ determination unit 4a uses a known determination method such as the kNN method (k-Nearest Neighbor Method) or the subspace method, for example, based on the organ determination reference data read in step S112. The type of organ to which the feature vector of each observation image calculated in S111 belongs is determined. At that time, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and determines the type of organ to which the feature vector belongs for each switched processing target image. Thus, the organ determination unit 4a determines that the organ imaged in each observation image is one of the esophagus or stomach, the small intestine, and the large intestine, and associates the determination result with each observation image.

なお、ここではパワースペクトルにおける3つの周波数成分によって示される特徴ベクトルをもとに臓器判定をするものとして説明したが、特徴量として用いる周波数成分の数つまり特徴量の次元数は、3つに限定されず2つまたは4つ以上とすることもできる。4次元以上とすることで、より高精度に臓器判定を行うことができる。ただし、4次元以上とすることで臓器判定にかかる処理時間が増大するため、所望の判定精度に応じて次元数を適切に設定することが好ましい。また、ここではパワースペクトルを特徴ベクトルによって特徴付けることで臓器判定を行うものとしたが、特徴ベクトルに限らず、例えばパワースペクトルの分布パターンに対し、あらかじめ臓器ごとに求められた基準分布パターンをもとにパターンマッチングを行うことで臓器判定をすることもできる。   Note that, here, the organ is determined based on the feature vector indicated by the three frequency components in the power spectrum. However, the number of frequency components used as the feature amount, that is, the number of dimensions of the feature amount is limited to three. Alternatively, two or four or more can be used. By using four or more dimensions, it is possible to perform organ determination with higher accuracy. However, since the processing time required for organ determination increases when the number of dimensions is four or more, it is preferable to appropriately set the number of dimensions according to desired determination accuracy. Here, the organ determination is performed by characterizing the power spectrum with the feature vector. However, the present invention is not limited to the feature vector. For example, the distribution pattern of the power spectrum is based on a reference distribution pattern obtained for each organ in advance. It is also possible to determine an organ by performing pattern matching.

つぎに、ステップS103の撮像距離推定処理では、撮像距離推定部4bは、観察画像の輝度情報またはゲイン情報をもとに、各観察画像が撮像されたときの撮像距離、すなわち観察画像を撮像した撮像装置としてのカプセル型内視鏡等から被写体としての臓器内壁までの距離を推定する。   Next, in the imaging distance estimation process in step S103, the imaging distance estimation unit 4b captures the imaging distance when each observation image is captured, that is, the observation image, based on the luminance information or gain information of the observation image. A distance from a capsule endoscope or the like as an imaging device to an organ inner wall as a subject is estimated.

一般に、観察画像では、撮像距離に応じて跳ね返り輝度が変化する。跳ね返り輝度とは、撮像装置等から照射した照明光が被写体によって反射された後、撮像装置によって観察光として受光されるときの輝度を意味する。この跳ね返り輝度は、被写体が撮像装置に近づくにつれて高くなり、遠ざかるにつれて低くなる。撮像距離と跳ね返り輝度との関係は、図5に示すように、跳ね返り輝度が撮像距離の2乗に反比例するものとして知られている。そして、この跳ね返り輝度が高い場合、観察画像の輝度平均は高く、跳ね返り輝度が低い場合には、輝度平均は低くなる。撮像距離推定部4bは、この性質を利用して、観察画像の輝度平均をもとに撮像距離を推定する。ここで、観察画像の輝度平均とは、観察画像内の全画素もしくは所定の複数画素の輝度値(画素値)の平均値である。   Generally, in the observation image, the bounce brightness changes according to the imaging distance. The bounce luminance means the luminance when the illumination light emitted from the imaging device or the like is reflected by the subject and then received as observation light by the imaging device. The bounce brightness increases as the subject approaches the imaging device and decreases as the subject moves away. As shown in FIG. 5, the relationship between the imaging distance and the bounce luminance is known as the bounce luminance being inversely proportional to the square of the imaging distance. When the bounce luminance is high, the average luminance of the observation image is high, and when the bounce luminance is low, the luminance average is low. The imaging distance estimation unit 4b uses this property to estimate the imaging distance based on the average brightness of the observation image. Here, the average luminance of the observation image is an average value of the luminance values (pixel values) of all the pixels or a predetermined plurality of pixels in the observation image.

一方、撮像装置がAGC(Auto Gain Control)機能を有する場合、一般に、観察画像の撮像時に跳ね返り輝度に応じてゲインが補正される。すなわち、撮像距離が小さく跳ね返り輝度が高くなった場合にゲインを低くし、撮像距離が大きく跳ね返り輝度が低くなった場合にはゲインを高くするようにゲイン補正が行われる。カプセル型内視鏡では、通常AGC機能が設けられており、それによるゲインの補正値であるAGC補正値は、撮像された観察画像ごとに付加情報として記録される。撮像距離推定部4bは、このAGC機能の特性を利用し、観察画像ごとに記録されたAGC補正値をもとに撮像距離を推定する。   On the other hand, when the imaging apparatus has an AGC (Auto Gain Control) function, generally, the gain is corrected according to the rebound brightness when the observation image is captured. That is, gain correction is performed so that the gain is lowered when the imaging distance is small and the rebound brightness is high, and the gain is increased when the imaging distance is large and the rebound brightness is low. The capsule endoscope is normally provided with an AGC function, and an AGC correction value that is a gain correction value is recorded as additional information for each captured observation image. The imaging distance estimation unit 4b uses this AGC function characteristic to estimate the imaging distance based on the AGC correction value recorded for each observation image.

図6は、撮像距離推定部4bによる撮像距離推定処理の処理手順を示すフローチャートである。この図に示すように、撮像距離推定部4bは、まず観察画像にAGC補正値が記録されているか否かを判断し(ステップS121)、AGC補正値が記録されている場合、AGC補正をもとに撮像距離を推定し、AGC補正値が記録されていない場合には、輝度平均をもとに撮像距離の推定を行う。   FIG. 6 is a flowchart showing a processing procedure of imaging distance estimation processing by the imaging distance estimation unit 4b. As shown in this figure, the imaging distance estimation unit 4b first determines whether or not an AGC correction value is recorded in the observation image (step S121). If the AGC correction value is recorded, the AGC correction value is also corrected. When the AGC correction value is not recorded, the imaging distance is estimated based on the luminance average.

具体的には、観察画像にAGC補正値が記録されている場合(ステップS121:Yes)、撮像距離推定部4bは、各観察画像からAGC補正値を取得し(ステップS122)、全観察画像におけるAGC補正値の全体平均を算出するとともに(ステップS123)、AGC補正値とその全体平均とをもとに各観察画像の撮像距離を推定する(ステップS124)。   Specifically, when the AGC correction value is recorded in the observation image (step S121: Yes), the imaging distance estimation unit 4b acquires the AGC correction value from each observation image (step S122), and in all the observation images. The overall average of the AGC correction values is calculated (step S123), and the imaging distance of each observation image is estimated based on the AGC correction value and the overall average (step S124).

一方、観察画像にAGC補正値が記録されていない場合には(ステップS121:No)、撮像距離推定部4bは、観察画像ごとに輝度平均を算出し(ステップS125)、全観察画像における輝度平均の全体平均を算出するとともに(ステップS126)、輝度平均とその全体平均とをもとに各観察画像の撮像距離を推定する(ステップS127)。そして、撮像距離推定部4bは、ステップS124もしくはS127の後、撮像距離推定処理を終了し、ステップS103へリターンする。   On the other hand, when the AGC correction value is not recorded in the observation image (step S121: No), the imaging distance estimation unit 4b calculates the luminance average for each observation image (step S125), and the luminance average in all the observation images. Is calculated (step S126), and the imaging distance of each observation image is estimated based on the luminance average and the overall average (step S127). Then, the imaging distance estimation unit 4b ends the imaging distance estimation process after step S124 or S127, and returns to step S103.

ステップS124では、撮像距離推定部4bは、一連の観察画像のうちの処理対象画像に対し、AGC補正値Cとその全体平均Caveとをもとに、次式(1)によって撮像距離Xを推定する。さらに、撮像距離推定部4bは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の演算を行うことで、各観察画像の撮像距離を推定する。なお、式(1)における係数f(Cave)は、全体平均Caveをもとに所定演算によって決定される係数である。

Figure 0005028138
In step S124, the imaging distance estimation unit 4b calculates the imaging distance X for the processing target image in the series of observation images based on the AGC correction value C and the overall average Cave by the following equation (1). presume. Furthermore, the imaging distance estimation unit 4b sequentially switches the processing target images in the series of observation images, and performs the same calculation for each switched processing target image, thereby estimating the imaging distance of each observation image. Note that the coefficient f (C ave ) in Equation (1) is a coefficient determined by a predetermined calculation based on the overall average C ave .
Figure 0005028138

ステップS127では、撮像距離推定部4bは、一連の観察画像のうちの処理対象画像に対し、輝度平均Eとその全体平均Eaveとをもとに、次式(2)によって撮像距離Xを推定する。そして、撮像距離推定部4bは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の演算を行うことで、各観察画像の撮像距離を推定する。なお、式(2)における係数f(Eave)は、全体平均Eaveをもとに所定演算によって決定される係数である。

Figure 0005028138
In step S127, the imaging distance estimation unit 4b estimates the imaging distance X by the following equation (2) based on the luminance average E and the overall average E ave for the processing target image in the series of observation images. To do. Then, the imaging distance estimation unit 4b sequentially switches the processing target images in the series of observation images, and performs the same calculation for each switched processing target image, thereby estimating the imaging distance of each observation image. Note that the coefficient f (E ave ) in Equation (2) is a coefficient determined by a predetermined calculation based on the overall average E ave .
Figure 0005028138

なお、撮像距離推定部4bは、観察画像にAGC補正値が記録されている場合には、AGC補正値のみに基づいて撮像距離を推定する代わりに、AGC補正値と輝度平均とを併用して撮像距離の推定を行うこともできる。この場合、撮像距離推定部4bは、ステップS122〜S124の処理とステップS125〜127の処理とを両方行い、例えば各処理によって推定した撮像距離の平均値を最終的な推定結果とすることができる。   In addition, when the AGC correction value is recorded in the observation image, the imaging distance estimation unit 4b uses the AGC correction value and the luminance average in combination instead of estimating the imaging distance based only on the AGC correction value. An imaging distance can also be estimated. In this case, the imaging distance estimation unit 4b performs both the processing of steps S122 to S124 and the processing of steps S125 to 127, and can use, for example, an average value of imaging distances estimated by each processing as a final estimation result. .

つぎに、ステップS104のパラメータ設定処理では、画像処理制御部6aは、観察画像ごとに、ステップS102の臓器判定処理によって判定された臓器とステップS103の撮像距離推定処理によって推定された撮像距離とをもとに、異常検出パラメータにパラメータ値を設定する。ここで、異常検出パラメータとは、異常領域検出部4cがステップS105の異常領域検出処理に用いる処理パラメータの一つであって、異常領域の所定の特徴量を示すパラメータ、あるいは観察画像を処理する際に処理単位となる画素ブロックサイズ(処理単位画素ブロックサイズ)を示すパラメータ等が含まれる。   Next, in the parameter setting process in step S104, the image processing control unit 6a determines, for each observation image, the organ determined by the organ determination process in step S102 and the imaging distance estimated by the imaging distance estimation process in step S103. First, parameter values are set for the abnormality detection parameters. Here, the abnormality detection parameter is one of the processing parameters used by the abnormal region detection unit 4c for the abnormal region detection processing in step S105, and processes a parameter indicating a predetermined feature amount of the abnormal region or an observation image. In this case, a parameter indicating a pixel block size (processing unit pixel block size) as a processing unit is included.

一般に、胃、小腸および大腸などの臓器の種類に応じ、異常領域として検出すべき画像領域の特徴は異なり、例えば、小腸において検出すべき異常領域の領域サイズ(大きさ)は、胃において検出すべき領域サイズに比べて小さい。このため、異常領域を検出する際、その特徴量としての領域サイズを判定する判定基準としての下限閾値を胃と小腸とに対して等しく設定していると、小腸において検出すべき領域サイズの画像領域が異常領域として検出されず、また胃において検出する必要がない領域サイズの画像領域が異常領域として誤検出される恐れがある。これに対し、胃および小腸のそれぞれに適正な下限閾値を設定することで、胃および小腸のそれぞれに応じた特徴的な大きさの異常領域を確実に検出することができるとともに、異常領域として検出する必要がない画像領域を検出対象から除外することができる。   In general, the characteristics of an image region to be detected as an abnormal region differ depending on the types of organs such as the stomach, small intestine, and large intestine. For example, the region size (size) of an abnormal region to be detected in the small intestine is detected in the stomach. Smaller than the region size For this reason, when an abnormal region is detected, if the lower limit threshold as a criterion for determining the region size as the feature amount is set equal to the stomach and the small intestine, an image of the region size to be detected in the small intestine An area is not detected as an abnormal area, and an image area having an area size that does not need to be detected in the stomach may be erroneously detected as an abnormal area. In contrast, by setting appropriate lower thresholds for the stomach and the small intestine, it is possible to reliably detect abnormal areas with characteristic sizes corresponding to the stomach and small intestine, and to detect them as abnormal areas. Image regions that do not need to be performed can be excluded from detection targets.

一方、例えば同一の異常部が撮像された観察画像であっても撮像距離が異なる場合には、観察画像上に占める異常領域の領域サイズは異なるものとなる。具体的には、撮像距離が大きくなるにしたがい異常領域の領域サイズは小さくなる。このため、異常領域を検出する際、その領域サイズの下限閾値を撮像距離によらず等しく設定していると、撮像距離が大きい場合、検出すべき異常領域の領域サイズが小さすぎて検出されず、また撮像距離が小さい場合には、検出する必要がない領域サイズの特徴画像領域が異常領域として誤検出される恐れがある。これに対し、撮像距離に応じて適正な下限閾値を設定することで、撮像距離によらず検出すべき異常領域を確実に検出することができるとともに、異常領域として検出する必要がない特徴画像領域を検出対象から除外することができる。   On the other hand, for example, even in the case of observation images obtained by imaging the same abnormal portion, if the imaging distances are different, the area sizes of the abnormal areas on the observation image are different. Specifically, the area size of the abnormal area decreases as the imaging distance increases. Therefore, when detecting an abnormal area, if the lower limit threshold of the area size is set equal regardless of the imaging distance, the area size of the abnormal area to be detected is too small to be detected when the imaging distance is large. When the imaging distance is small, a feature image area having an area size that does not need to be detected may be erroneously detected as an abnormal area. On the other hand, by setting an appropriate lower limit threshold according to the imaging distance, it is possible to reliably detect an abnormal area to be detected regardless of the imaging distance, and a feature image area that does not need to be detected as an abnormal area Can be excluded from detection targets.

以上のことから、画像処理装置1では、例えば図7に示すように、撮像距離に応じて臓器ごとに適正な領域サイズの下限閾値が、異常検出パラメータであるサイズパラメータのパラメータ値として、あらかじめ異常検出パラメータ記憶部3dに記憶されている。そして、画像処理制御部6aは、ステップS104のパラメータ設定処理において、観察画像ごとに、臓器判定部4aによって判定された臓器と撮像距離推定部4bによって推定された撮像距離とに対応するパラメータ値を異常検出パラメータ記憶部3dから読み出し、この読み出したパラメータ値を異常検出パラメータに設定する。   From the above, in the image processing apparatus 1, for example, as shown in FIG. 7, the lower limit threshold value of the appropriate region size for each organ according to the imaging distance is abnormal in advance as the parameter value of the size parameter that is an abnormality detection parameter. It is stored in the detection parameter storage unit 3d. Then, the image processing control unit 6a sets parameter values corresponding to the organ determined by the organ determination unit 4a and the imaging distance estimated by the imaging distance estimation unit 4b for each observation image in the parameter setting process of step S104. The data is read from the abnormality detection parameter storage unit 3d, and the read parameter value is set as an abnormality detection parameter.

なお、ここでは、あらかじめ異常検出パラメータ記憶部3dに記憶させる異常検出パラメータのパラメータ値として、異常領域の領域サイズを示すパラメータ値について説明したが、領域サイズに限定して解釈する必要はなく、異常領域の他の特徴量、例えば色味などを示すパラメータ値とすることもできる。また、異常領域の特徴量に限らず、例えば観察画像の処理単位画素ブロックサイズを示すパラメータ値とすることもできる。   Here, the parameter value indicating the region size of the abnormal region has been described as the parameter value of the abnormality detection parameter stored in advance in the abnormality detection parameter storage unit 3d. However, it is not necessary to interpret the parameter value limited to the region size. It may be a parameter value indicating another feature amount of the region, for example, a color. Further, the parameter value is not limited to the feature amount of the abnormal region, and may be a parameter value indicating the processing unit pixel block size of the observation image, for example.

さらに、あらかじめ記憶させるパラメータ値は、1種類に限定されず、複数の異常検出パラメータに対するパラメータ値を記憶させることができる。その場合、例えば、異常検出パラメータ記憶部3dは、複数の異常検出パラメータごとにパラメータ値を図7に示したように記憶テーブルに記憶し、画像処理制御部6aは、パラメータ設定処理において、異常検出パラメータごとに各々対応する記憶テーブルからパラメータ値を読み出し、読み出したパラメータ値を設定するとよい。   Furthermore, the parameter values stored in advance are not limited to one type, and parameter values for a plurality of abnormality detection parameters can be stored. In that case, for example, the abnormality detection parameter storage unit 3d stores the parameter value for each of a plurality of abnormality detection parameters in the storage table as shown in FIG. 7, and the image processing control unit 6a performs abnormality detection in the parameter setting process. It is preferable to read the parameter value from the corresponding storage table for each parameter and set the read parameter value.

つぎに、ステップS105の異常領域検出処理では、異常領域検出部4cは、一連の観察画像のうちの処理対象画像に対し、ステップS104のパラメータ設定処理によってこの処理対象画像に対応するパラメータ値が設定された異常検出パラメータを用い、処理対象画像内から所定の異常領域を検出する。具体的には、異常領域検出部4cは、例えば図7に示す記憶テーブルに記憶されたパラメータ値が設定されたサイズパラメータを用い、そのパラメータ値が示す領域サイズよりも小さい領域であって他に異常領域としての所定の特徴(例えば色味など)を有する画像領域を異常領域として検出する。さらに、異常領域検出部4cは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の処理を行うことで、各観察画像から所望の異常領域を検出する。   Next, in the abnormal region detection process in step S105, the abnormal region detection unit 4c sets a parameter value corresponding to the processing target image in the parameter setting processing in step S104 for the processing target image in the series of observation images. A predetermined abnormality area is detected from the processing target image using the abnormality detection parameter thus set. Specifically, the abnormal area detection unit 4c uses, for example, a size parameter in which a parameter value stored in the storage table shown in FIG. 7 is set, and is an area smaller than the area size indicated by the parameter value. An image area having a predetermined characteristic (for example, color) as an abnormal area is detected as an abnormal area. Furthermore, the abnormal area detection unit 4c detects a desired abnormal area from each observation image by sequentially switching the processing target images in the series of observation images and performing the same processing for each switched processing target image.

なお、異常領域検出部4cは、このようなサイズパラメータを用いた処理に限定されず、各種の処理によって異常領域検出処理を行うことができる。例えば特許文献2に開示されているように、処理対象画像内の各画素または平均化した画素を、その色情報に基づく特徴空間に写像し、クラスタリングの後に正常部クラスタと異常部クラスタとを特定して、異常部クラスタに属する画素領域を異常領域として検出することができる。この場合、異常領域検出部4cは、特徴空間を構成する色情報(例えば、色味または色度)を示す
パラメータ値が設定された異常検出パラメータである色パラメータを用いて異常領域検出処理を行うとよい。そして、異常検出パラメータ記憶部3dは、その色パラメータに設定するパラメータ値を、撮像距離に応じて臓器ごとにあらかじめ記憶するとよい。
The abnormal area detection unit 4c is not limited to the process using the size parameter, and can perform the abnormal area detection process by various processes. For example, as disclosed in Patent Document 2, each pixel in the processing target image or the averaged pixel is mapped to a feature space based on the color information, and a normal cluster and an abnormal cluster are specified after clustering. Thus, the pixel area belonging to the abnormal part cluster can be detected as an abnormal area. In this case, the abnormal area detection unit 4c performs an abnormal area detection process using a color parameter that is an abnormality detection parameter in which a parameter value indicating color information (for example, color or chromaticity) constituting the feature space is set. Good. And the abnormality detection parameter memory | storage part 3d is good to memorize | store the parameter value set to the color parameter beforehand for every organ according to an imaging distance.

また、異常領域検出部4cは、例えば、特許文献1に開示されているように、処理対象画像を複数の処理単位画素ブロックに分割し、その処理単位画素ブロックごとの色情報を、あらかじめ作成した異常部の色基準および正常部の色基準と比較することで異常領域を検出することができる。この場合、異常領域検出部4cは、色パラメータとブロックサイズパラメータとの少なくとも一方を用いて異常領域検出処理を行うとよい。ここで、色パラメータとは、各色基準の色味または色度等を示すパラメータ値が設定されたパラメータであり、ブロックサイズパラメータとは、処理単位画素ブロックサイズを示すパラメータ値が設定された異常検出パラメータである。そして、異常検出パラメータ記憶部3dは、その色パラメータとブロックサイズパラメータとの少なくとも一方に設定するパラメータ値を、撮像距離に応じて臓器ごとにあらかじめ記憶するとよい。   In addition, as disclosed in Patent Document 1, for example, the abnormal region detection unit 4c divides a processing target image into a plurality of processing unit pixel blocks, and previously creates color information for each processing unit pixel block. The abnormal region can be detected by comparing the color reference of the abnormal part and the color reference of the normal part. In this case, the abnormal area detection unit 4c may perform the abnormal area detection process using at least one of the color parameter and the block size parameter. Here, the color parameter is a parameter in which a parameter value indicating the hue or chromaticity of each color reference is set, and the block size parameter is an abnormality detection in which a parameter value indicating the processing unit pixel block size is set It is a parameter. Then, the abnormality detection parameter storage unit 3d may store in advance the parameter value set for at least one of the color parameter and the block size parameter for each organ according to the imaging distance.

なお、撮像の倍率が画像ごとに一定ではない場合には、カプセル型内視鏡では、各観察画像に付加情報として倍率の情報が記録される。そして、上述のサイズパラメータやブロックサイズパラメータを用いて異常領域の検出処理を行う場合には、倍率を考慮して異常領域の検出を行うとよい。   When the imaging magnification is not constant for each image, the capsule endoscope records magnification information as additional information in each observation image. When the abnormal area detection process is performed using the size parameter or the block size parameter described above, the abnormal area may be detected in consideration of the magnification.

以上説明したように、本実施の形態にかかる画像処理装置1では、一連の観察画像のうちの処理対象画像に撮像された観察対象としての臓器を所定の1以上の観察対象である食道、胃、小腸もしくは大腸のいずれか一つと判定する臓器判定部4aと、所定の処理パラメータとしての異常検出パラメータを用い、処理対象画像内から所定の特徴を有する特徴画像領域としての異常領域を検出する異常領域検出部4cと、臓器判定部4aの判定結果に対応するパラメータ値を異常検出パラメータに設定し、異常領域検出部4cにこの異常検出パラメータを用いて異常領域を検出させる画像処理制御部6aと、を備えているため、臓器の種類に応じて異なる特徴を示す異常部等に対応する画像領域としての異常領域を処理対象画像内から確実に検出するときの検出精度を向上させることができる。   As described above, in the image processing apparatus 1 according to the present embodiment, an organ as an observation target captured in a processing target image in a series of observation images is an esophagus or stomach that is a predetermined one or more observation targets. An abnormality that detects an abnormal region as a feature image region having a predetermined feature from the processing target image using the organ determination unit 4a that determines one of the small intestine and the large intestine and the abnormality detection parameter as the predetermined processing parameter An area detection unit 4c, an image processing control unit 6a that sets a parameter value corresponding to the determination result of the organ determination unit 4a as an abnormality detection parameter, and causes the abnormal region detection unit 4c to detect an abnormal region using the abnormality detection parameter; Therefore, it is possible to reliably detect an abnormal area as an image area corresponding to an abnormal part or the like showing different characteristics depending on the type of organ from the processing target image. It is possible to improve the detection accuracy of Rutoki.

さらに、画像処理装置1では、処理対象画像が撮像されたときの撮像距離を推定する撮像距離推定部4bを備え、画像処理制御部6aは、臓器判定部4aの判定結果と撮像距離推定部4bの推定結果とに対応するパラメータ値を異常検出パラメータに設定し、異常領域検出部4cにこの異常検出パラメータを用いて異常領域を検出させているため、臓器の種類と撮像距離とに応じて異なる特徴を示す異常領域を処理対象画像内から確実に検出するときの検出精度を向上させることができる。   Further, the image processing apparatus 1 includes an imaging distance estimation unit 4b that estimates an imaging distance when a processing target image is captured, and the image processing control unit 6a includes the determination result of the organ determination unit 4a and the imaging distance estimation unit 4b. Since the parameter value corresponding to the estimation result is set as an abnormality detection parameter, and the abnormal region detection unit 4c is used to detect the abnormal region using this abnormality detection parameter, it differs depending on the type of organ and the imaging distance. It is possible to improve the detection accuracy when the abnormal region indicating the feature is reliably detected from the processing target image.

また、画像処理装置1では、一連の観察画像内で処理対象画像を順次切り換え、その切り換えた処理対象画像ごとに異常領域を検出しているため、一連の観察画像における各観察画像内から異常領域を検出することができる。   Further, since the image processing apparatus 1 sequentially switches the processing target images in the series of observation images and detects the abnormal region for each of the switched processing target images, the abnormal region is detected from within each observation image in the series of observation images. Can be detected.

(変形例1)
つぎに、本実施の形態にかかる画像処理装置の変形例1について説明する。上述した臓器判定処理では、臓器判定部4aは、例えばパワースペクトルによって示される観察画像の周波数成分情報をもとに臓器判定を行うものとしたが、本変形例1では、観察画像の画像情報量をもとに臓器判定を行うようにしている。
(Modification 1)
Next, Modification Example 1 of the image processing apparatus according to the present embodiment will be described. In the organ determination process described above, the organ determination unit 4a performs the organ determination based on, for example, the frequency component information of the observation image indicated by the power spectrum. The organ is determined based on this.

通常、食道や胃の内部には比較的凹凸が少ないため、食道もしくは胃を撮像した観察画像では、小腸もしくは大腸を撮像した観察画像に比べ、各画素とその周囲画素との相関が高いという特徴がある。したがって、臓器判定部4aは、その相関の高さを求めることで、観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定することができる。   Usually, since there are relatively few irregularities inside the esophagus and stomach, the observation image obtained by imaging the esophagus or stomach has a higher correlation between each pixel and its surrounding pixels than the observation image obtained by imaging the small or large intestine. There is. Therefore, the organ determination unit 4a can determine whether the organ imaged in the observation image is the esophagus or stomach, the small intestine, or the large intestine by obtaining the height of the correlation.

一般に、各画素とその周囲画素との相関の高さは画像情報量によって示され、画像情報量はエントロピーによって示されることが知られている。そのエントロピーH(f)は、注目画素の周囲画素のビット列rと、その注目画素が画素値fを有する確率p(r;f)とを用い、次式(3)によって求められる。ここで、式(3)によって示されるエントロピーH(f)は、マルコフ情報源のエントロピーである。
H(f)=−log2(p(r;f)) ・・・(3)
In general, it is known that the level of correlation between each pixel and its surrounding pixels is indicated by the amount of image information, and the amount of image information is indicated by entropy. The entropy H (f) is obtained by the following equation (3) using the bit string r of the surrounding pixels of the target pixel and the probability p (r; f) that the target pixel has the pixel value f. Here, the entropy H (f) shown by the equation (3) is the entropy of the Markov information source.
H (f) = − log 2 (p (r; f)) (3)

この式(3)による演算を画像全体に対して行うことで、各画素に対応するエントロピーH(f)を得ることができる。そして、画像全体の傾向としてエントロピーH(f)の値が大きい場合、その画像は、各画素とその周囲画素との相関が低い画像であり、エントロピーH(f)の値が小さい場合には、各画素とその周囲画素との相関が高い画像であるといえる。本変形例1にかかる臓器判定部4aは、この特性を利用して、観察画像ごとにエントロピーH(f)を算出し、その算出結果をもとに、観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定するようにしている。   The entropy H (f) corresponding to each pixel can be obtained by performing the calculation according to the equation (3) on the entire image. When the value of entropy H (f) is large as a tendency of the entire image, the image is an image having a low correlation between each pixel and its surrounding pixels, and when the value of entropy H (f) is small, It can be said that the image has a high correlation between each pixel and its surrounding pixels. The organ determination unit 4a according to the first modification uses this characteristic to calculate the entropy H (f) for each observation image, and based on the calculation result, the organ imaged in the observation image Whether the stomach is the small intestine or the large intestine is determined.

図8は、本変形例1にかかる臓器判定部4aによる臓器判定処理の処理手順を示すフローチャートである。この図に示すように、臓器判定部4aは、観察画像ごとに式(3)によってエントロピーを算出し(ステップS211)、全観察画像におけるエントロピーの全体平均を算出するとともに(ステップS212)、エントロピーおよびその全体平均と、あらかじめ臓器判定基準データ記憶部3bに記憶された臓器判定基準データとをもとに、各観察画像に撮像された臓器を判定する(ステップS213)。その後、臓器判定部4aは、臓器判定処理を終了してステップS102へリターンする。   FIG. 8 is a flowchart showing a processing procedure of an organ determination process by the organ determination unit 4a according to the first modification. As shown in this figure, the organ determination unit 4a calculates entropy according to equation (3) for each observation image (step S211), calculates the overall average of entropy in all observation images (step S212), Based on the overall average and the organ determination reference data stored in the organ determination reference data storage unit 3b in advance, the organ imaged in each observation image is determined (step S213). Thereafter, the organ determination unit 4a ends the organ determination process and returns to step S102.

ここで、臓器判定基準データ記憶部3bには、例えば図9に示すように、エントロピーおよびその全体平均ごとに臓器が対応付けられた記憶テーブルが臓器判定基準データとして記憶されている。この臓器判定基準データは、各臓器に対する知見をもとにあらかじめ作成することができる。   Here, as shown in FIG. 9, for example, as shown in FIG. 9, a storage table in which an organ is associated with each entropy and its overall average is stored as organ determination reference data in the organ determination reference data storage unit 3b. The organ determination reference data can be created in advance based on knowledge about each organ.

ステップS213では、臓器判定部4aは、一連の観察画像のうちの処理対象画像に対し、臓器判定基準データによってエントロピーとその全体平均とに対応付けられた臓器が撮像されているものと判定する。例えば、臓器判定部4aは、処理対象画像のエントロピーとエントロピーの全体平均とがともに0.2である場合、図9に示す臓器判定基準データをもとに、その処理対象画像に撮像された臓器が小腸であると判定する。さらに、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の処理を行うことで、各観察画像に撮像された臓器の判定を行う。   In step S213, the organ determination unit 4a determines that the organ associated with the entropy and the overall average is captured by the organ determination reference data with respect to the processing target image in the series of observation images. For example, when the entropy of the processing target image and the overall average of the entropy are both 0.2, the organ determination unit 4a uses the organ determination reference data shown in FIG. 9 to capture the organ imaged in the processing target image. Is determined to be the small intestine. Furthermore, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and performs the same processing for each switched processing target image, thereby determining the organ imaged in each observation image.

(変形例2)
つぎに、本実施の形態にかかる画像処理装置の変形例2について説明する。本変形例2では、臓器判定部4aは、観察画像のテクスチャ情報をもとに臓器判定を行うようにしている。通常、食道や胃の内部には比較的凹凸が少ないため、食道もしくは胃を撮像した観察画像ではテクスチャ(texture)情報が少ない。これに対し、小腸ではその表面に絨毛などによる凹凸パターンが多く見られるため、小腸を撮像した観察画像ではテクスチャ情報が多く得られる。したがって、臓器判定部4aは、観察画像のテクスチャ情報をもとに、その観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定することができる。
(Modification 2)
Next, a second modification of the image processing apparatus according to this embodiment will be described. In the second modification, the organ determination unit 4a performs organ determination based on the texture information of the observation image. Usually, since there are relatively few irregularities in the esophagus or stomach, there is little texture information in an observation image obtained by imaging the esophagus or stomach. On the other hand, in the small intestine, since many uneven patterns such as villi are observed on the surface thereof, a lot of texture information is obtained in an observation image obtained by imaging the small intestine. Therefore, the organ determination unit 4a can determine whether the organ imaged in the observation image is the esophagus or stomach, the small intestine, or the large intestine based on the texture information of the observation image.

一般に、テクスチャ情報として、同時生起行列によってテクスチャの統計的特徴量を求める方法が知られている。同時生起行列は、離れた2つの地点にある画素対の画素値から、画素値の一様性、方向性およびコントラストなどの性質を示す特徴量を求めるものである。本変形例2では、テクスチャ情報として、同時生起行列によって相関とエントロピーとを求める場合について説明する。   In general, as a texture information, a method for obtaining a statistical feature value of a texture using a co-occurrence matrix is known. The co-occurrence matrix is used to obtain a feature amount indicating properties such as uniformity, directionality, and contrast of pixel values from pixel values of pixel pairs at two distant points. In the second modification, a case will be described in which correlation and entropy are obtained by using a co-occurrence matrix as texture information.

図10は、本変形例2にかかる臓器判定部4aによる臓器判定処理の処理手順を示すフローチャートである。この図に示すように、臓器判定部4aは、観察画像ごとに同時生起行列によって相関およびエントロピーを算出し(ステップS311)、全観察画像における相関およびエントロピーの各全体平均を算出するとともに(ステップS312)、算出した相関およびエントロピーとその各全体平均とに基づく特徴ベクトルを算出する(ステップS313)。そして、臓器判定部4aは、臓器判定基準データ記憶部3bから臓器判定基準データを読み込み(ステップS314)、算出した特徴ベクトルと読み込んだ臓器判定基準データとをもとに、各観察画像に撮像された臓器を判定する(ステップS315)。その後、臓器判定部4aは、臓器判定処理を終了してステップS102へリターンする。   FIG. 10 is a flowchart illustrating a processing procedure of an organ determination process performed by the organ determination unit 4a according to the second modification. As shown in this figure, the organ determination unit 4a calculates the correlation and entropy by the co-occurrence matrix for each observation image (step S311), calculates the overall average of the correlation and entropy in all the observation images (step S312). ), And a feature vector based on the calculated correlation and entropy and their respective averages is calculated (step S313). Then, the organ determination unit 4a reads the organ determination reference data from the organ determination reference data storage unit 3b (step S314), and is captured in each observation image based on the calculated feature vector and the read organ determination reference data. The determined organ is determined (step S315). Thereafter, the organ determination unit 4a ends the organ determination process and returns to step S102.

ステップS311では、臓器判定部4aは、まず一連の観察画像のうちの処理対象画像に対し、同時生起行列によって相関とエントロピーとを算出し、さらに一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の処理を行うことで、各観察画像の特徴ベクトルを算出する。   In step S311, the organ determination unit 4a first calculates correlation and entropy using a co-occurrence matrix for the processing target images in the series of observation images, and sequentially switches the processing target images within the series of observation images. By performing the same processing for each switched processing target image, the feature vector of each observation image is calculated.

ステップS313では、臓器判定部4aは、まず一連の観察画像のうちの処理対象画像に対し、ステップS311によって算出した相関およびエントロピーと、ステップS312によって算出した相関およびエントロピーの各全体平均とを4次元の特徴量とする。そして、この4次元の特徴量によって示される特徴空間上のベクトルを、処理対象画像のテクスチャ情報を示す特徴ベクトルとして算出し、処理対象画像に対応付ける。さらに、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の処理を行うことで、各観察画像の特徴ベクトルを算出する。   In step S313, the organ determination unit 4a first four-dimensionally calculates the correlation and entropy calculated in step S311 and the overall averages of correlation and entropy calculated in step S312 for the processing target image in the series of observation images. Feature amount. Then, a vector on the feature space indicated by the four-dimensional feature amount is calculated as a feature vector indicating the texture information of the processing target image, and is associated with the processing target image. Further, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and performs the same processing for each switched processing target image, thereby calculating the feature vector of each observation image.

ステップS314では、臓器判定部4aは、あらかじめ4次元の特徴空間上で各臓器がクラス分けされたクラス辞書としての臓器判定基準データを読み込む。そして、ステップS315では、臓器判定部4aは、例えばkNN法や部分空間法などの公知の判別手法を用い、ステップS314によって読み込んだ臓器判定基準データをもとに、ステップS313によって算出した各観察画像の特徴ベクトルが属する臓器の種類を判別する。その際、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに特徴ベクトルが属する臓器の種類を判別する。これによって、臓器判定部4aは、各観察画像に撮像された臓器を、食道もしくは胃と、小腸もしくは大腸とのいずれか一方と判定し、判定結果を各観察画像に対応付ける。   In step S314, the organ determination unit 4a reads organ determination reference data as a class dictionary in which each organ is classified in advance in a four-dimensional feature space. In step S315, the organ determination unit 4a uses, for example, a known determination method such as the kNN method or the subspace method, and each observation image calculated in step S313 based on the organ determination reference data read in step S314. The type of organ to which the feature vector belongs is determined. At that time, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and determines the type of organ to which the feature vector belongs for each switched processing target image. Thus, the organ determination unit 4a determines that the organ imaged in each observation image is one of the esophagus or stomach and the small intestine or large intestine, and associates the determination result with each observation image.

なお、ここでは同時生起行列から算出される相関およびパワースペクトルと、その各全体平均とを特徴量とする特徴ベクトルをもとに臓器判定をするものとして説明したが、特徴ベクトルを構成する特徴量は相関およびエントロピーに限定されず、同時生起行列から算出できる他の特徴量を用いることもできる。また、特徴ベクトルを構成する特徴量は4次元に限定されず2次元または5次元以上とすることもでき、5次元以上とした場合、より高精度に臓器判定を行うことができる。ただし、5次元以上とすることで臓器判定にかかる処理時間が増大するため、所望の判定精度に応じて次元数を適切に設定することが好ましい。なお、上述したように特徴ベクトルを構成する特徴量に全体平均を用いるのは、被検体ごとに臓器の特徴に個体差があり、その個体差による影響を軽減するためである。   Note that, here, it has been described that the organ is determined based on the feature vector having the correlation and power spectrum calculated from the co-occurrence matrix and the respective overall average as the feature amount. However, the feature amount constituting the feature vector Is not limited to correlation and entropy, and other feature quantities that can be calculated from the co-occurrence matrix can also be used. Further, the feature quantity constituting the feature vector is not limited to four dimensions, but may be two dimensions or five dimensions or more. When the feature quantity is five dimensions or more, organ determination can be performed with higher accuracy. However, since the processing time for organ determination increases when the number of dimensions is five or more, it is preferable to set the number of dimensions appropriately according to the desired determination accuracy. Note that the overall average is used as the feature quantity constituting the feature vector as described above, because there is an individual difference in organ characteristics for each subject, and the influence of the individual difference is reduced.

(変形例3)
つぎに、本実施の形態にかかる画像処理装置の変形例3について説明する。本変形例3では、臓器判定部4aは、観察画像の圧縮符号化された圧縮画像データのファイルサイズをもとに、各観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定する。通常、食道や胃の内部には比較的凹凸が少ないため、食道もしくは胃を撮像した観察画像では、小腸もしくは大腸を撮像した観察画像に比べ、各画素とその周囲画素との相関が高いという特徴がある。臓器判定部4aは、その相関の高さを圧縮画像データのファイルサイズによって判断することで、観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定する。
(Modification 3)
Next, Modification Example 3 of the image processing apparatus according to the present embodiment will be described. In the third modification, the organ determination unit 4a determines whether the organ imaged in each observation image is the esophagus or the stomach, the small intestine or the large intestine based on the file size of the compressed image data obtained by compression-coding the observation image. It is determined whether it is. Usually, since there are relatively few irregularities inside the esophagus and stomach, the observation image obtained by imaging the esophagus or stomach has a higher correlation between each pixel and its surrounding pixels than the observation image obtained by imaging the small or large intestine. There is. The organ determination unit 4a determines whether the organ captured in the observation image is the esophagus or stomach, the small intestine, or the large intestine by determining the height of the correlation based on the file size of the compressed image data.

また、臓器判定部4aは、観察画像の圧縮画像データのファイルサイズの変化量をもとに、観察画像に撮像された臓器が小腸であるか、大腸であるかを判定する。通常、大腸では、内部に便等が詰まっているため、例えばカプセル型内視鏡で観察画像を取得する場合、カプセル型内視鏡の移動が停滞し、時系列で連続した観察画像間におけるファイルサイズはほとんど変化しない。これに対して、小腸では、カプセル型内視鏡が大腸内に比べてスムーズに移動できるため、時系列で連続した観察画像間におけるファイルサイズに顕著な変化が見られる。臓器判定部4aは、この特性を利用し、時系列に連続した観察画像間でのファイルサイズの変化量の大きさをもとに、その観察画像に撮像された観察対象が小腸であるか、大腸であるかを判定する。   The organ determination unit 4a determines whether the organ imaged in the observation image is the small intestine or the large intestine based on the amount of change in the file size of the compressed image data of the observation image. Usually, in the large intestine, stool etc. are clogged inside, so when acquiring observation images with a capsule endoscope, for example, the movement of the capsule endoscope is stagnant, and files between observation images that are continuous in time series The size hardly changes. On the other hand, in the small intestine, since the capsule endoscope can move more smoothly than in the large intestine, a significant change is seen in the file size between observation images that are continuous in time series. The organ determination unit 4a uses this characteristic to determine whether the observation target imaged in the observation image is the small intestine based on the amount of change in the file size between the observation images continuous in time series. Determine if it is the large intestine.

図11は、その臓器判定処理手順を示すフローチャートである。この図に示すように、臓器判定部4aは、まず一連の観察画像における圧縮画像データのファイルサイズをもとに、ファイルサイズの移動平均を算出するとともに(ステップS411)、ファイルサイズの全体平均を算出する(ステップS412)。さらに、臓器判定部4aは、一連の観察画像における連続した各観察画像間でのファイルサイズの変化量を算出し、ファイルサイズの変化量の移動平均を算出するとともに(ステップS413)、ファイルサイズの変化量の全体平均を算出する(ステップS414)。その後、臓器判定部4aは、ステップS411〜S413による各算出結果をもとに、各観察画像に撮像された臓器を判定し(ステップS415)、臓器判定処理を終了してステップS102へリターンする。   FIG. 11 is a flowchart showing the organ determination processing procedure. As shown in this figure, the organ determination unit 4a first calculates a moving average of the file size based on the file size of the compressed image data in the series of observation images (step S411), and calculates the overall average of the file size. Calculate (step S412). Furthermore, the organ determination unit 4a calculates the change amount of the file size between each successive observation image in the series of observation images, calculates the moving average of the change amount of the file size (step S413), and also determines the file size. An overall average of the amount of change is calculated (step S414). Thereafter, the organ determination unit 4a determines the organ imaged in each observation image based on the calculation results in steps S411 to S413 (step S415), ends the organ determination process, and returns to step S102.

ステップS411では、臓器判定部4aは、一連の観察画像のうち処理対象画像に対し、その処理対象画像を含む時系列に近接した複数の観察画像におけるファイルサイズの平均であるサイズ平均を算出する。そして、算出したサイズ平均を処理対象画像に対応付ける。なお、本変形例3では、一連の観察画像のうちの時系列に近接した例えば100枚の観察画像を用いてサイズ平均を算出する。ただし、このサイズ平均を算出するための観察画像の枚数は、一連の観察画像を撮像したときの撮像間隔などによって適当な枚数に設定するとよい。臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとにサイズ平均を算出することで、一連の観察画像全体にわたるファイルサイズの移動平均を得る。具体的には、臓器判定部4aは、ステップS411によって、例えば図12−1に示す一連の観察画像のファイルサイズ情報をもとに、図12−2に示すようにファイルサイズの移動平均を得る。   In step S411, the organ determination unit 4a calculates a size average, which is an average of file sizes of a plurality of observation images close to the time series including the processing target image, with respect to the processing target image among the series of observation images. Then, the calculated size average is associated with the processing target image. In the third modification, the average size is calculated using, for example, 100 observation images close to the time series in the series of observation images. However, the number of observation images for calculating the average size may be set to an appropriate number depending on the imaging interval when a series of observation images are captured. The organ determination unit 4a sequentially switches the processing target images in the series of observation images, and calculates a size average for each of the switched processing target images, thereby obtaining a moving average of file sizes over the entire series of observation images. Specifically, the organ determination unit 4a obtains a moving average of file sizes as shown in FIG. 12-2 based on the file size information of a series of observation images shown in FIG. .

ステップS413では、臓器判定部4aは、一連の観察画像のうち処理対象画像に対し、処理対象画像を含む時系列に近接した複数の観察画像における各観察画像間でのファイルサイズの変化量の平均である変化量平均を算出する。そして、算出した変化量平均を処理対象画像に対応付ける。なお、本変形例3では、一連の観察画像のうちの時系列に近接した例えば100枚の観察画像を用いて変化量平均を算出する。ただし、この変化量平均を算出するための観察画像の枚数は、一連の観察画像を撮像したときの撮像間隔などによって適当な枚数に設定するとよい。臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに変化量平均を算出することで、一連の観察画像全体にわたるファイルサイズの変化量の移動平均を得る。具体的には、臓器判定部4aは、ステップS413によって、例えば図12−1に示す一連の観察画像のファイルサイズ情報をもとに、図12−3に示すようにファイルサイズの変化量の移動平均を得る。   In step S413, the organ determination unit 4a averages the amount of change in file size between the observation images in a plurality of observation images close to the time series including the processing target image with respect to the processing target image among the series of observation images. The average amount of change is calculated. Then, the calculated change amount average is associated with the processing target image. In the third modification, the change amount average is calculated using, for example, 100 observation images close to the time series in the series of observation images. However, the number of observation images for calculating the average amount of change may be set to an appropriate number depending on the imaging interval when a series of observation images are captured. The organ determination unit 4a sequentially switches the processing target images within the series of observation images, and calculates the average amount of change for each switched processing target image, thereby calculating a moving average of the amount of change in file size over the entire series of observation images. obtain. Specifically, in step S413, the organ determination unit 4a moves the change amount of the file size as shown in FIG. 12-3 based on the file size information of a series of observation images shown in FIG. Get the average.

ステップS415では、臓器判定部4aは、一連の観察画像のうち処理対象画像に対し、まず、ステップS411によって算出したサイズ平均と、所定のサイズ判定基準との大小関係に応じ、処理対象画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定する。具体的には、臓器判定部4aは、ステップS412によって算出した全体平均FsizeAveと、あらかじめ設定された変数Mとをもとに、次式(4)によってサイズ判定基準としての閾値TFsizeを算出し(図12−2参照)、この閾値TFsizeに対してサイズ平均Fsizeが次式(5)を満足するか否かを判別する。
Fsize=FsizeAve+M ・・・(4)
size<TFsize ・・・(5)
In step S415, the organ determination unit 4a first captures the processing target image of the processing target image in the series of observation images according to the size relationship between the size average calculated in step S411 and a predetermined size determination criterion. It is determined whether the organ formed is the esophagus or stomach, small intestine or large intestine. Specifically, the organ determination unit 4a calculates a threshold value T Fsize as a size determination criterion by the following equation (4) based on the overall average F sizeAve calculated in step S412 and a preset variable M. Then (see FIG. 12-2), it is determined whether or not the average size F size satisfies the following equation (5) with respect to the threshold value T Fsize .
T Fsize = F sizeAve + M (4)
F size <T Fsize (5)

臓器判定部4aは、式(5)が満足される場合、処理対象画像に撮像された臓器が食道もしくは胃であると判定し、式(5)が満足されない場合、小腸もしくは大腸であると判定する。そして、この判定結果を処理対象画像に対応付ける。さらに、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の判定を行うことで、一連の観察画像における各観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定する。   When the expression (5) is satisfied, the organ determination unit 4a determines that the organ imaged in the processing target image is the esophagus or the stomach. When the expression (5) is not satisfied, the organ determination unit 4a determines that the organ is the small intestine or the large intestine. To do. Then, this determination result is associated with the processing target image. Furthermore, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and performs the same determination for each of the switched processing target images, so that the organs captured in each observation image in the series of observation images are displayed. Determine if it is the esophagus or stomach, small intestine or large intestine.

なお、臓器判定部4aは、一連の観察画像に胃、小腸および大腸がこの順に撮像されていることが明らかな場合、その先頭画像から順に処理対象画像を切り換えることにより、式(5)が満足されないと最初に判別した観察画像以降すべての観察画像を、小腸もしくは大腸が撮像された画像と判定する。これによって、食道もしくは胃が撮像された観察画像と、小腸もしくは大腸が撮像された観察画像とをより迅速に判別することができる。   In addition, when it is clear that the stomach, the small intestine, and the large intestine are captured in this order in the series of observation images, the organ determination unit 4a satisfies the formula (5) by switching the processing target images in order from the top image. Otherwise, all observation images after the first observation image determined are determined as images in which the small intestine or the large intestine is imaged. As a result, an observation image obtained by imaging the esophagus or stomach and an observation image obtained by imaging the small intestine or the large intestine can be discriminated more quickly.

つぎに、臓器判定部4aは、小腸もしくは大腸が撮像されていると判定した一連の観察画像のうち処理対象画像に対し、ステップS413によって算出した変化量平均と、所定の変化量判定基準との大小関係に応じ、処理対象画像に撮像された臓器が小腸であるか、大腸であるかを判定する。具体的には、臓器判定部4aは、ステップS414によって算出した全体平均FsizeDiffAveと、あらかじめ設定された変数Nとをもとに、次式(6)によって変化量判定基準としての閾値TFsizeDiffを算出し(図12−3参照)、この閾値TFsizeDiffに対して変化量平均FsizeDiffが次式(7)を満足するか否かを判別する。
FsizeDiff=FsizeDiffAve+N ・・・(6)
sizeDiff<TFsizeDiff ・・・(7)
Next, the organ determination unit 4a performs an average change amount calculated in step S413 on a processing target image among a series of observation images determined that the small intestine or the large intestine is imaged, and a predetermined change amount determination criterion. According to the size relationship, it is determined whether the organ imaged in the processing target image is the small intestine or the large intestine. Specifically, the organ determination unit 4a calculates a threshold value T FsizeDiff as a variation determination criterion by the following equation (6) based on the overall average F sizeDiffAve calculated in step S414 and a preset variable N. It is calculated (see FIG. 12-3), and it is determined whether or not the variation average F sizeDiff satisfies the following equation (7) with respect to the threshold value T FsizeDiff .
T FsizeDiff = F sizeDiffAve + N (6)
F sizeDiff <T FsizeDiff (7)

臓器判定部4aは、式(7)が満足される場合、処理対象画像に撮像された臓器が大腸であると判定し、式(7)が満足されない場合、小腸であると判定する。そして、この判定結果を処理対象画像に対応付ける。さらに、臓器判定部4aは、先に小腸もしくは大腸が撮像されていると判定した一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の判定を行うことで、その各観察画像に撮像されている臓器が小腸であるか、大腸であるかを判定する。これによって、臓器判定部4aは、一連の全観察画像における各観察画像に撮像された臓器を、食道もしくは胃と、小腸と、大腸とのいずれか一つと判定し、判定結果を各観察画像に対応付けることができる。   The organ determination unit 4a determines that the organ imaged in the processing target image is the large intestine when Expression (7) is satisfied, and determines that it is the small intestine when Expression (7) is not satisfied. Then, this determination result is associated with the processing target image. Further, the organ determination unit 4a sequentially switches the processing target images in a series of observation images that have been determined that the small intestine or the large intestine has been previously captured, and performs the same determination for each switched processing target image. It is determined whether the organ imaged in each observation image is the small intestine or the large intestine. Thereby, the organ determination unit 4a determines that the organ imaged in each observation image in the series of all observation images is one of the esophagus or stomach, the small intestine, and the large intestine, and the determination result is displayed in each observation image. Can be associated.

なお、式(4)に示したように、サイズ判定基準としての閾値TFsizeの算出にファイルサイズの全体平均FsizeAveを用いるのは、被検体ごとに臓器の特徴に個体差があり、その個体差による影響を軽減するためである。同様に、式(6)に示したように、変化量判定基準としての閾値TFsizeDiffの算出にファイルサイズの変化量の全体平均FsizeDiffAveを用いるのも、個体差による影響を軽減するためである。また、変数M,Nは、観察者が入力部2から入力することで設定されるものであり、適宜変更可能とされている。 Note that, as shown in the equation (4), the use of the overall average F sizeAve of the file size for the calculation of the threshold value T Fsize as the size determination criterion is because there are individual differences in organ characteristics for each subject, and the individual This is to reduce the influence of the difference. Similarly, as shown in Expression (6), the overall average F sizeDiffAve of the change amount of the file size is used for calculating the threshold value T FsizeDiff as the change amount determination criterion in order to reduce the influence of individual differences. . Further, the variables M and N are set by the observer inputting from the input unit 2 and can be appropriately changed.

なお、上述した臓器判定処理では、臓器判定部4aは、各観察画像に撮像された臓器をステップS415によって一括して判定するものとしたが、式(5)による判定と式(7)による判定とを個別に行うこともできる。例えば、ステップS412の直後に式(5)による判定を行うことで、小腸もしくは大腸が撮像されていると判定した観察画像だけを対象にステップS413を行うことができ、これによって、より迅速に臓器判定処理を行うことができる。   In the organ determination process described above, the organ determination unit 4a collectively determines the organs captured in each observation image in step S415. However, the determination based on Expression (5) and the determination based on Expression (7) are performed. Can also be performed individually. For example, by performing the determination according to the equation (5) immediately after step S412, step S413 can be performed only on the observation image determined that the small intestine or the large intestine has been imaged. Judgment processing can be performed.

また、上述した臓器判定処理では、臓器判定部4aは、ステップS415において式(5)による判定と式(7)による判定とを順次行うものとして説明したが、一括して判定をすることもできる。例えば、処理対象画像ごとにサイズ平均Fsizeと変化量平均FsizeDiffとによって表される特徴ベクトル(Fsize,FsizeDiff)を求め、この特徴ベクトルが特徴空間上で属する領域に応じて臓器を判定することができる。具体的には、特徴ベクトル(Fsize,FsizeDiff)が式(5)を満足する領域内にある場合、食道もしくは胃が撮像されていると判定し、それ以外の領域であって式(7)を満足する領域内にある場合には、大腸が撮像されていると判定することができる。さらに、それ以外の領域内にある場合には、小腸が撮像されていると判定することができる。 Further, in the organ determination process described above, the organ determination unit 4a has been described as performing the determination based on the equation (5) and the determination based on the equation (7) sequentially in step S415. . For example, a feature vector (F size , F sizeDiff ) represented by a size average F size and a variation average F sizeDiff is obtained for each processing target image, and an organ is determined according to the region to which the feature vector belongs in the feature space. can do. Specifically, if the feature vector (F size , F sizeDiff ) is within the region satisfying the equation (5), it is determined that the esophagus or stomach is imaged, and the region other than that is represented by the equation (7 ), It can be determined that the large intestine has been imaged. Furthermore, when it exists in the area | region other than that, it can determine with the small intestine being imaged.

また、上述した臓器判定処理では、臓器判定部4aは、複数の観察画像におけるファイルサイズのサイズ平均と変化量平均とをもとに臓器の判定を行うものとしたが、必ずしも平均を用いる必要はなく、例えば個々のファイルサイズと個々のファイルサイズの変化量とをもとに臓器判定をすることもできる。これによって、判定精度の要求が比較的緩い場合には、より迅速に臓器判定処理を行うことができる。   In the organ determination process described above, the organ determination unit 4a determines the organ based on the average file size and the average change amount in the plurality of observation images. However, it is not always necessary to use the average. Alternatively, for example, organ determination can be performed based on the individual file size and the amount of change in the individual file size. As a result, the organ determination process can be performed more quickly when the request for determination accuracy is relatively loose.

(変形例4)
つぎに、本実施の形態にかかる画像処理装置の変形例4について説明する。本変形例4では、臓器判定部4aは、圧縮画像データの伸張時に算出されるDCT係数とその変化量とをもとに臓器判定を行うようにしている。
(Modification 4)
Next, a fourth modification of the image processing apparatus according to this embodiment is described. In the fourth modification, the organ determination unit 4a performs organ determination based on the DCT coefficient calculated when decompressing the compressed image data and the amount of change.

通常、食道や胃は、小腸に比べて粘膜表面に凹凸が少なく平坦である。逆に、小腸は絨毛などによって表面に凹凸が多い。このため、胃が撮像された観察画像では低周波成分が支配的であり、小腸が撮像された観察画像では高周波成分が支配的である。本変形例4では、臓器判定部4aは、この性質を利用して、観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定する。具体的には、臓器判定部4aは、一連の観察画像がJPEG等、DCT圧縮符号化方式によって圧縮された圧縮画像データとして記憶されている場合、圧縮画像データの伸張時に行う逆DCT変換によって得られる複数のDCT係数をもとに判定を行う。   Usually, the esophagus and stomach are flat with less irregularities on the mucosal surface than the small intestine. Conversely, the small intestine has many irregularities on the surface due to villi and the like. For this reason, the low frequency component is dominant in the observation image in which the stomach is imaged, and the high frequency component is dominant in the observation image in which the small intestine is imaged. In the fourth modification, the organ determination unit 4a uses this property to determine whether the organ imaged in the observation image is the esophagus or stomach, the small intestine, or the large intestine. Specifically, when the series of observation images is stored as compressed image data compressed by the DCT compression encoding method such as JPEG, the organ determination unit 4a obtains the inverse DCT conversion performed when decompressing the compressed image data. The determination is made based on a plurality of DCT coefficients.

また、大腸では、内部に便等が詰まっているため、例えばカプセル型内視鏡で観察画像を取得する場合、カプセル型内視鏡の移動が停滞し、時系列で連続した観察画像間における周波数成分にほとんど変化がない。これに対して、小腸では、カプセル型内視鏡が大腸内に比べてスムーズに移動できるため、時系列で連続した観察画像間における周波数成分に顕著な変化が見られる。臓器判定部4aは、この特性を利用し、時系列に連続した観察画像間での周波数成分の変化量の大きさをもとに、その観察画像に撮像された臓器が小腸であるか、大腸であるかを判定する。具体的には、臓器判定部4aは、一連の観察画像がDCT圧縮符号化方式によって圧縮された圧縮画像データとして記憶されている場合、時系列に連続した観察画像間でのDCT係数の変化量をもとに判定を行う。   In addition, since the large intestine is clogged with stool or the like, for example, when obtaining an observation image with a capsule endoscope, the movement of the capsule endoscope is stagnant, and the frequency between observation images that are continuous in time series There is almost no change in ingredients. On the other hand, in the small intestine, since the capsule endoscope can move more smoothly than in the large intestine, there is a significant change in the frequency component between observation images that are continuous in time series. The organ determination unit 4a uses this characteristic to determine whether the organ imaged in the observation image is the small intestine based on the amount of change in the frequency component between the observation images continuous in time series. It is determined whether it is. Specifically, the organ determination unit 4a, when a series of observation images is stored as compressed image data compressed by the DCT compression encoding method, changes in the DCT coefficient between observation images continuous in time series. Judgment is made based on the above.

一般に、画像内の周波数成分情報を得る手法として、フーリエ変換によりパワースペクトルを求める方法がよく知られている。しかしながら、フーリエ変換は計算処理が多いため、通常、膨大な処理時間が必要とされる。これに対し、上述のようにDCT係数によって周波数成分を判別する場合には、圧縮画像データの伸張処理時にDCT係数を算出することができ、周波数成分を判別するために特別な演算処理を必要としない。また、DCT係数を算出する処理自体が簡易かつ短時間で処理可能であるため、フーリエ変換によるパワースペクトルを用いる場合に比べ、迅速に観察画像中の周波数成分を判別することができるとともに観察画像に撮像された臓器を判定することができる。   In general, as a method for obtaining frequency component information in an image, a method for obtaining a power spectrum by Fourier transform is well known. However, since the Fourier transform has a lot of calculation processing, a huge amount of processing time is usually required. On the other hand, when the frequency component is determined based on the DCT coefficient as described above, the DCT coefficient can be calculated during the decompression process of the compressed image data, and a special calculation process is required to determine the frequency component. do not do. In addition, since the DCT coefficient calculation process itself is simple and can be performed in a short time, the frequency component in the observation image can be quickly determined and compared with the observation image compared to the case where a power spectrum by Fourier transform is used. The imaged organ can be determined.

図13は、その臓器判定処理手順を示すフローチャートである。この図に示すように、臓器判定部4aは、まず観察画像ごとにDCT係数の重み付け平均としての代表DCT係数を算出する(ステップS510)。そして、一連の観察画像における代表DCT係数をもとに、代表DCT係数の移動平均を算出するとともに(ステップS511)、代表DCT係数の全体平均を算出する(ステップS512)。さらに、臓器判定部4aは、一連の観察画像における連続した各観察画像間での代表DCT係数の変化量を算出し、代表DCT係数の変化量の移動平均を算出するとともに(ステップS513)、代表DCT係数の変化量の全体平均を算出する(ステップS514)。その後、臓器判定部4aは、ステップS511〜S513による各算出結果をもとに、各観察画像に撮像された臓器を判定し(ステップS515)、臓器判定処理を終了してステップS102へリターンする。   FIG. 13 is a flowchart showing the organ determination processing procedure. As shown in this figure, the organ determination unit 4a first calculates a representative DCT coefficient as a weighted average of DCT coefficients for each observation image (step S510). Based on the representative DCT coefficients in the series of observation images, a moving average of the representative DCT coefficients is calculated (step S511), and an overall average of the representative DCT coefficients is calculated (step S512). Furthermore, the organ determination unit 4a calculates the amount of change in the representative DCT coefficient between successive observation images in the series of observation images, calculates the moving average of the amount of change in the representative DCT coefficient (step S513), and represents the representative. An overall average of the amount of change in the DCT coefficient is calculated (step S514). Thereafter, the organ determination unit 4a determines the organ imaged in each observation image based on the calculation results in steps S511 to S513 (step S515), ends the organ determination process, and returns to step S102.

ステップS510では、臓器判定部4aは、まず観察画像ごとに圧縮画像データの伸張時に処理単位とされる各8×8画素ブロックについて、低周波成分から高周波成分にわたる所定の複数のDCT係数をもとにそのブロック平均を算出する。具体的には、図14に示すように得られる8×8画素ブロックのDCT係数「DCT1」〜「DCT64」をもとに、DC成分に相当する「DCT1」を除き、「DCT2」〜「DCT64」全体の周波数ごとの重み付け平均、もしくは「DCT2」〜「DCT64」のうちあらかじめ選択された1以上のDCT係数の周波数ごとの重み付け平均を算出してブロック平均とする。なお、周波数ごとの重み付けでは、高周波ほど低周波よりも重み付けを重くするとよい。さらに、臓器判定部4aは、観察画像ごとに各8×8画素ブロックのブロック平均をさらに平均した全体平均を代表DCT係数として算出する。   In step S510, the organ determination unit 4a first determines, based on a plurality of predetermined DCT coefficients ranging from a low frequency component to a high frequency component, for each 8 × 8 pixel block that is a processing unit when decompressing compressed image data for each observation image. The block average is calculated. Specifically, based on the DCT coefficients “DCT1” to “DCT64” of the 8 × 8 pixel block obtained as shown in FIG. 14, except for “DCT1” corresponding to the DC component, “DCT2” to “DCT64” "A weighted average for each frequency or a weighted average for each frequency of one or more DCT coefficients selected in advance from" DCT2 "to" DCT64 "is used as a block average. In addition, in the weighting for every frequency, it is good to make weighting heavy with a high frequency rather than a low frequency. Furthermore, the organ determination unit 4a calculates an overall average obtained by further averaging the block average of each 8 × 8 pixel block for each observation image as a representative DCT coefficient.

ステップS511では、臓器判定部4aは、一連の観察画像のうち処理対象画像に対し、その処理対象画像を含む時系列に近接した複数の観察画像における代表DCT係数の平均であるDCT係数平均を算出する。そして、算出したDCT係数平均を処理対象画像に対応付ける。なお、本変形例4では、一連の観察画像のうちの時系列に近接した例えば100枚の観察画像を用いてDCT係数平均を算出する。ただし、このDCT係数平均を算出するための観察画像の枚数は、一連の観察画像を撮像したときの撮像間隔などによって適当な枚数に設定するとよい。臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとにDCT係数平均を算出することで、一連の観察画像全体にわたる代表DCT係数の移動平均を得る。   In step S511, the organ determination unit 4a calculates a DCT coefficient average that is an average of the representative DCT coefficients in a plurality of observation images close to the time series including the processing target image with respect to the processing target image among the series of observation images. To do. Then, the calculated DCT coefficient average is associated with the processing target image. In the fourth modification, the DCT coefficient average is calculated using, for example, 100 observation images close to the time series in the series of observation images. However, the number of observation images for calculating the DCT coefficient average may be set to an appropriate number depending on the imaging interval when a series of observation images are captured. The organ determination unit 4a sequentially switches the processing target images in the series of observation images and calculates a DCT coefficient average for each of the switched processing target images, thereby obtaining a moving average of the representative DCT coefficients over the entire series of observation images.

ステップS513では、臓器判定部4aは、一連の観察画像のうち処理対象画像に対し、その処理対象画像を含む時系列に近接した複数の観察画像における各観察画像間での代表DCT係数の変化量の平均であるDCT変化量平均を算出する。そして、算出したDCT変化量平均を処理対象画像に対応付ける。なお、本変形例4では、一連の観察画像のうちの時系列に近接した例えば100枚の観察画像を用いてDCT変化量平均を算出する。ただし、このDCT変化量平均を算出するための観察画像の枚数は、一連の観察画像を撮像したときの撮像間隔などによって適当な枚数に設定するとよい。臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとにDCT変化量平均を算出することで、一連の観察画像全体にわたる代表DCT係数の変化量の移動平均を得る。   In step S513, the organ determination unit 4a changes the representative DCT coefficient between the observation images in a plurality of observation images close to the time series including the processing target image with respect to the processing target image in the series of observation images. The average of the DCT change amount that is the average of the above is calculated. Then, the calculated DCT variation average is associated with the processing target image. In the fourth modification, the DCT variation average is calculated using, for example, 100 observation images close to the time series in the series of observation images. However, the number of observation images for calculating the DCT variation average may be set to an appropriate number depending on the imaging interval when a series of observation images are captured. The organ determination unit 4a sequentially switches the processing target images within the series of observation images, and calculates the DCT variation average for each of the switched processing target images, thereby moving the variation of the representative DCT coefficient over the entire series of observation images. Get the average.

ステップS515では、臓器判定部4aは、一連の観察画像のうち処理対象画像に対し、まず、ステップS511によって算出したDCT係数平均と、所定のDCT判定基準との大小関係に応じ、処理対象画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定する。具体的には、臓器判定部4aは、ステップS512によって算出した全体平均FdctAveと、あらかじめ設定された変数Kとをもとに、次式(8)によってDCT判定基準としての閾値Tdctを算出し、この閾値Tdctに対してDCT係数平均Fdctが次式(9)を満足するか否かを判別する。
dct=FdctAve+K ・・・(8)
dct<Tdct ・・・(9)
In step S515, the organ determination unit 4a applies the processing target image to the processing target image in accordance with the magnitude relationship between the DCT coefficient average calculated in step S511 and a predetermined DCT determination criterion. It is determined whether the imaged organ is the esophagus or stomach, small intestine or large intestine. Specifically, the organ determination unit 4a calculates a threshold T dct as a DCT determination criterion by the following equation (8) based on the overall average F dctAve calculated in step S512 and a preset variable K. Then, it is determined whether or not the DCT coefficient average F dct satisfies the following equation (9) with respect to the threshold value T dct .
T dct = F dctAve + K (8)
F dct <T dct (9)

臓器判定部4aは、式(9)が満足される場合、処理対象画像に撮像された臓器が食道もしくは胃であると判定し、式(9)が満足されない場合、小腸もしくは大腸であると判定する。そして、この判定結果を処理対象画像に対応付ける。さらに、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の判定を行うことで、一連の観察画像における各観察画像に撮像された臓器が食道もしくは胃であるか、小腸もしくは大腸であるかを判定する。   When the expression (9) is satisfied, the organ determination unit 4a determines that the organ imaged in the processing target image is the esophagus or the stomach. When the expression (9) is not satisfied, the organ determination unit 4a determines that the organ is the small intestine or the large intestine. To do. Then, this determination result is associated with the processing target image. Furthermore, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and performs the same determination for each of the switched processing target images, so that the organs captured in each observation image in the series of observation images are displayed. Determine if it is the esophagus or stomach, small intestine or large intestine.

なお、臓器判定部4aは、一連の観察画像に胃、小腸および大腸がこの順に撮像されていることが明らかな場合、その先頭画像から順に処理対象画像を切り換えることにより、式(9)が満足されないと最初に判別した観察画像以降すべての観察画像を、小腸もしくは大腸が撮像されたものと判定する。これによって、食道もしくは胃が撮像された観察画像と、小腸もしくは大腸が撮像された観察画像とをより迅速に判別することができる。   When it is clear that the stomach, the small intestine, and the large intestine are captured in this order in the series of observation images, the organ determination unit 4a satisfies the formula (9) by switching the processing target images in order from the top image. Otherwise, it is determined that all observation images after the first observation image determined are taken from the small intestine or the large intestine. As a result, an observation image obtained by imaging the esophagus or stomach and an observation image obtained by imaging the small intestine or the large intestine can be discriminated more quickly.

つぎに、臓器判定部4aは、小腸もしくは大腸が撮像されていると判定した一連の観察画像のうち処理対象画像に対し、ステップS513によって算出したDCT変化量平均と、所定のDCT変化量判定基準との大小関係に応じ、処理対象画像に撮像された臓器が小腸であるか、大腸であるかを判定する。具体的には、臓器判定部4aは、ステップS514によって算出した全体平均FdctDiffAveと、あらかじめ設定された変数Lとをもとに、次式(10)によってDCT変化量判定基準としての閾値TdctDiffを算出し、この閾値TdctDiffに対してDCT変化量平均FdctDiffが次式(11)を満足するか否かを判別する。
dctDiff=FdctDiffAve+L ・・・(10)
dctDiff<TdctDiff ・・・(11)
Next, the organ determination unit 4a determines the DCT variation average calculated in step S513 and a predetermined DCT variation determination criterion with respect to the processing target image among a series of observation images determined to have captured the small intestine or the large intestine. Is determined whether the organ imaged in the processing target image is the small intestine or the large intestine. Specifically, the organ determination unit 4a, based on the overall average F dctDiffAve calculated in step S514 and the variable L set in advance, uses the threshold T dctDiff as a DCT variation determination criterion according to the following equation (10). Is calculated, and it is determined whether or not the DCT variation average F dctDiff satisfies the following equation (11) with respect to the threshold value T dctDiff .
T dctDiff = F dctDiffAve + L (10)
F dctDiff <T dctDiff (11)

臓器判定部4aは、式(11)が満足される場合、処理対象画像に撮像された臓器が大腸であると判定し、式(11)が満足されない場合、小腸であると判定する。そして、この判定結果を処理対象画像に対応付ける。さらに、臓器判定部4aは、先に小腸もしくは大腸が撮像されていると判定した一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の判定を行うことで、その各観察画像に撮像されている臓器が小腸であるか、大腸であるかを判定する。これによって、臓器判定部4aは、一連の全観察画像における各観察画像に撮像された臓器を、食道もしくは胃と、小腸と、大腸とのいずれか一つと判定し、判定結果を各観察画像に対応付けることができる。   The organ determination unit 4a determines that the organ imaged in the processing target image is the large intestine when Expression (11) is satisfied, and determines that it is the small intestine when Expression (11) is not satisfied. Then, this determination result is associated with the processing target image. Further, the organ determination unit 4a sequentially switches the processing target images in a series of observation images that have been determined that the small intestine or the large intestine has been previously captured, and performs the same determination for each switched processing target image. It is determined whether the organ imaged in each observation image is the small intestine or the large intestine. Thereby, the organ determination unit 4a determines that the organ imaged in each observation image in the series of all observation images is one of the esophagus or stomach, the small intestine, and the large intestine, and the determination result is displayed in each observation image. Can be associated.

なお、式(8)に示したように、DCT判定基準としての閾値Tdctの算出に代表DCT係数の全体平均FdctAveを用いるのは、被検体ごとに臓器の特徴に個体差があり、その個体差による影響を軽減するためである。同様に、式(10)に示したように、DCT変化量判定基準としての閾値TdctDiffの算出に代表DCT係数の変化量の全体平均FdctDiffAveを用いるのも、個体差による影響を軽減するためである。また、変数K,Lは、観察者が入力部2から入力することで設定されるものであり、適宜変更可能とされている。 Note that, as shown in the equation (8), the overall average F dctAve of the representative DCT coefficient is used for calculating the threshold value T dct as a DCT determination criterion because there is an individual difference in organ characteristics for each subject. This is to reduce the influence of individual differences. Similarly, as shown in the equation (10), the use of the overall average F dctDiffAve of the amount of change in the representative DCT coefficient for the calculation of the threshold value T dctDiff as the DCT change amount determination criterion also reduces the influence of individual differences. It is. The variables K and L are set by the observer inputting from the input unit 2 and can be appropriately changed.

なお、上述した臓器判定処理では、臓器判定部4aは、各観察画像に撮像された臓器をステップS515によって一括して判定するものとしたが、式(9)による判定と式(11)による判定とを個別に行うこともできる。例えば、ステップS512の直後に式(9)による判定を行うことで、小腸もしくは大腸が撮像されていると判定した観察画像だけを対象にステップS513を行うことができ、これによって、より迅速に臓器判定処理を行うことができる。   In the organ determination process described above, the organ determination unit 4a collectively determines the organs captured in each observation image in step S515. However, the determination based on Expression (9) and the determination based on Expression (11) are performed. Can also be performed individually. For example, by performing the determination according to the equation (9) immediately after step S512, step S513 can be performed only on the observation image determined that the small intestine or the large intestine has been imaged. Judgment processing can be performed.

また、上述した臓器判定処理では、臓器判定部4aは、ステップS515において式(9)による判定と式(11)による判定とを順次行うものとして説明したが、一括して判定をすることもできる。例えば、処理対象画像ごとにDCT係数平均FdctとDCT変化量平均FdctDiffとによって表される特徴ベクトル(Fdct,FdctDiff)を求め、この特徴ベクトルが特徴空間上で属する領域に応じて臓器を判定することができる。具体的には、特徴ベクトル(Fdct,FdctDiff)が式(9)を満足する領域内にある場合、食道もしくは胃が撮像されていると判定し、それ以外の領域であって式(11)を満足する領域内にある場合には、大腸が撮像されていると判定することができる。さらに、それ以外の領域内にある場合には、小腸が撮像されていると判定することができる。 Further, in the organ determination process described above, the organ determination unit 4a has been described as performing the determination based on the equation (9) and the determination based on the equation (11) sequentially in step S515. However, the determination can be performed collectively. . For example, a feature vector (F dct , F dctDiff ) represented by a DCT coefficient average F dct and a DCT change amount average F dctDiff is obtained for each processing target image, and an organ is determined according to the region to which the feature vector belongs in the feature space. Can be determined. Specifically, if the feature vector (F dct , F dctDiff ) is within a region that satisfies the equation (9), it is determined that the esophagus or stomach is imaged, and the region other than that is represented by the equation (11 ), It can be determined that the large intestine has been imaged. Furthermore, when it exists in the area | region other than that, it can determine with the small intestine being imaged.

また、上述した臓器判定処理では、臓器判定部4aは、複数の観察画像におけるDCT係数平均とDCT変化量平均とをもとに臓器の判定を行うものとしたが、必ずしも平均を用いる必要はなく、例えば個々の代表DCT係数と個々の代表DCT係数の変化量とをもとに臓器判定をすることもできる。これによって、判定精度の要求が比較的緩い場合には、より迅速に臓器判定処理を行うことができる。   In the organ determination process described above, the organ determination unit 4a performs organ determination based on the DCT coefficient average and the DCT variation average in a plurality of observation images. However, it is not always necessary to use the average. For example, organ determination can also be performed based on individual representative DCT coefficients and the amount of change of each representative DCT coefficient. As a result, the organ determination process can be performed more quickly when the request for determination accuracy is relatively loose.

(変形例5)
つぎに、本実施の形態にかかる画像処理装置の変形例5について説明する。本変形例5では、臓器判定部4aは、観察画像ごとの複数のDCT係数をもとに特徴ベクトルを求め、この特徴ベクトルによって臓器判定を行うようにしている。
(Modification 5)
Next, a fifth modification of the image processing apparatus according to this embodiment is described. In the fifth modification, the organ determination unit 4a obtains a feature vector based on a plurality of DCT coefficients for each observation image, and performs organ determination based on the feature vector.

図15は、臓器判定部14aによる臓器判定処理の処理手順を示すフローチャートである。この図に示すように、臓器判定部4aは、まず観察画像ごとにDCT係数をもとに特徴ベクトルを算出し(ステップS611)、臓器判定基準データ記憶部3bから臓器判定基準データを読み込む(ステップS612)。そして、算出した特徴ベクトルと読み込んだ臓器判定基準データとをもとに、各観察画像に撮像された臓器を判定し(ステップS613)、臓器判定処理を終了してステップS102へリターンする。   FIG. 15 is a flowchart showing a processing procedure of organ determination processing by the organ determination unit 14a. As shown in this figure, the organ determination unit 4a first calculates a feature vector based on the DCT coefficient for each observation image (step S611), and reads the organ determination reference data from the organ determination reference data storage unit 3b (step S611). S612). Then, based on the calculated feature vector and the read organ determination reference data, the organ imaged in each observation image is determined (step S613), the organ determination process is terminated, and the process returns to step S102.

ステップS611では、臓器判定部4aは、まず一連の観察画像における処理対象画像について、圧縮画像データの伸張時に処理単位とされる各8×8画素ブロックごとに、所定の1以上のDCT係数をもとに、低周波成分のブロック代表値と、高周波成分のブロック代表値とを算出する。具体的には、図14に示すように得られる8×8画素ブロックのDCT係数「DCT1」〜「DCT64」をもとに、例えば低周波成分のブロック代表値として「DCT2」〜「DCT10」の周波数ごとの重み付け平均を算出し、高周波成分のブロック代表値として「DCT55」〜「DCT64」の周波数ごとの重み付け平均を算出する。なお、周波数ごとの重み付けでは、高周波ほど低周波よりも重み付けを重くするとよい。   In step S611, the organ determination unit 4a first sets a predetermined one or more DCT coefficients for each 8 × 8 pixel block, which is a processing unit when decompressing compressed image data, for a processing target image in a series of observation images. In addition, the block representative value of the low frequency component and the block representative value of the high frequency component are calculated. Specifically, based on the DCT coefficients “DCT1” to “DCT64” of the 8 × 8 pixel block obtained as shown in FIG. 14, for example, “DCT2” to “DCT10” as block representative values of the low frequency component. A weighted average for each frequency is calculated, and a weighted average for each frequency of “DCT55” to “DCT64” is calculated as a block representative value of the high frequency component. In addition, in the weighting for every frequency, it is good to make weighting heavy with a high frequency rather than a low frequency.

さらに、臓器判定部4aは、処理対象画像における各8×8画素ブロックの低周波成分のブロック代表値と、高周波成分のブロック代表値と、DC成分を示す「DCT1」とをそれぞれ処理対象画像内の全8×8画素ブロックにわって平均し、特徴量D〜Fとして算出する。そして、この特徴量D〜Fによって示される特徴空間上のベクトルを、処理対象画像の周波数分布を示す特徴ベクトルとして処理対象画像に対応付ける。さらに、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに同様の処理を行うことで、各観察画像の特徴ベクトルを算出する。   Furthermore, the organ determination unit 4a sets the block representative value of the low frequency component of each 8 × 8 pixel block in the processing target image, the block representative value of the high frequency component, and “DCT1” indicating the DC component in the processing target image. Are averaged over all 8 × 8 pixel blocks and calculated as feature amounts D to F. Then, the vector on the feature space indicated by the feature amounts D to F is associated with the processing target image as a feature vector indicating the frequency distribution of the processing target image. Further, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and performs the same processing for each switched processing target image, thereby calculating the feature vector of each observation image.

ステップS612では、臓器判定部4aは、例えば図16に示すようにあらかじめ特徴空間上で各臓器がクラス分けされたクラス辞書としての臓器判定基準データを読み込む。そして、ステップS613では、臓器判定部4aは、例えばkNN法(k-Nearest Neighbor Method)や部分空間法などの公知の判別手法を用い、ステップS612によって読み込んだ臓器判定基準データをもとに、ステップS611によって算出した各観察画像の特徴ベクトルが属する臓器の種類を判別する。その際、臓器判定部4aは、一連の観察画像内で処理対象画像を順次切り換え、切り換えた処理対象画像ごとに特徴ベクトルが属する臓器の種類を判別する。これによって、臓器判定部4aは、各観察画像に撮像された臓器を、食道もしくは胃と、小腸と、大腸とのいずれか一つと判定し、判定結果を各観察画像に対応付ける。   In step S612, the organ determination unit 4a reads organ determination reference data as a class dictionary in which each organ is classified in advance in the feature space, for example, as shown in FIG. In step S613, the organ determination unit 4a uses a known determination method such as the kNN method (k-Nearest Neighbor Method) or the subspace method, and performs step determination based on the organ determination reference data read in step S612. The type of organ to which the feature vector of each observation image calculated in S611 belongs is determined. At that time, the organ determination unit 4a sequentially switches the processing target images in the series of observation images, and determines the type of organ to which the feature vector belongs for each switched processing target image. Thus, the organ determination unit 4a determines that the organ imaged in each observation image is one of the esophagus or stomach, the small intestine, and the large intestine, and associates the determination result with each observation image.

なお、上述した臓器判定処理では、臓器判定部4aは、3つの特徴量D〜Fをもとに特徴ベクトルを算出し、臓器判定を行うものとしたが、3つに限定されず、2つもしくは4つ以上の特徴量をもとに特徴ベクトルを算出することもできる。例えば、ステップS611において、各8×8画素ブロックにおけるDCT係数「DCT1」〜「DCT64」をそれぞれブロック代表値とし、このブロック代表値ごとに処理対象画像内の全8×8画素ブロックにわたる平均値を算出して特徴量とすることで、最大64次元の特徴量からなる特徴ベクトルを得ることができる。これにより、DCT係数における全周波数成分を反映させた特徴ベクトルに基づいて臓器判定を行うことができ、より高精度に臓器判定をすることができる。ただし、次元数を増やすことで特徴ベクトルの導出にかかる処理時間が増大するため、必要な判定精度に応じて次元数を適宜設定することが好ましい。   In the organ determination process described above, the organ determination unit 4a calculates the feature vector based on the three feature amounts D to F and performs the organ determination. Alternatively, a feature vector can be calculated based on four or more feature amounts. For example, in step S611, the DCT coefficients “DCT1” to “DCT64” in each 8 × 8 pixel block are set as block representative values, and an average value over all 8 × 8 pixel blocks in the processing target image is calculated for each block representative value. By calculating the feature amount, it is possible to obtain a feature vector composed of a maximum 64 dimensional feature amount. Thereby, organ determination can be performed based on the feature vector reflecting all frequency components in the DCT coefficient, and organ determination can be performed with higher accuracy. However, since the processing time for derivation of the feature vector increases by increasing the number of dimensions, it is preferable to appropriately set the number of dimensions according to the required determination accuracy.

ここまで、本発明を実施する最良の形態を、変形例1および2を含む実施の形態として説明したが、本発明は、上述した実施の形態に限定されず、本発明の趣旨を逸脱しない範囲であれば、種々の変形が可能である。   So far, the best mode for carrying out the present invention has been described as the embodiment including the first and second modified examples. However, the present invention is not limited to the above-described embodiment, and does not depart from the spirit of the present invention. If so, various modifications are possible.

例えば、上述した実施の形態では、画像処理制御部6aは、臓器判定部4aが判定した臓器と撮像距離推定部4bが推定した撮像距離とに基づいて異常検出パラメータのパラメータ値を設定するものとしたが、臓器判定部4aが判定した臓器と、撮像距離推定部4bが推定した撮像距離とのどちらか一方に基づいてパラメータ値を設定することもできる。   For example, in the above-described embodiment, the image processing control unit 6a sets the parameter value of the abnormality detection parameter based on the organ determined by the organ determination unit 4a and the imaging distance estimated by the imaging distance estimation unit 4b. However, the parameter value can also be set based on one of the organ determined by the organ determination unit 4a and the imaging distance estimated by the imaging distance estimation unit 4b.

その場合、異常検出パラメータ記憶部3dは、臓器または撮像距離の一方に応じてあらかじめパラメータ値を記憶した記憶テーブルを備えるようにすることができる。具体的には、異常検出パラメータ記憶部3dは、画像処理制御部6aが臓器に基づいてパラメータ値を設定する場合、例えば図17−1に示すように臓器ごとにパラメータ値を記憶した記憶テーブルを備えることができる。また、画像処理制御部6aが撮像距離に基づいてパラメータ値を設定する場合には、例えば図17−2に示すように撮像距離に応じてパラメータ値を記憶した記憶テーブルを備えることができる。   In that case, the abnormality detection parameter storage unit 3d can be provided with a storage table in which parameter values are stored in advance according to either the organ or the imaging distance. Specifically, when the image processing control unit 6a sets a parameter value based on an organ, the abnormality detection parameter storage unit 3d stores a storage table that stores the parameter value for each organ, for example, as illustrated in FIG. Can be provided. Further, when the image processing control unit 6a sets the parameter value based on the imaging distance, for example, as shown in FIG. 17-2, a storage table that stores the parameter value according to the imaging distance can be provided.

さらに、画像処理制御部6aが臓器と撮像距離とのどちらか一方に基づいてパラメータ値を設定する場合には、画像処理部4は、臓器判定部4aと撮像距離推定部4bとのいずれか一方だけを備えるようにすることができ、記憶部3は、臓器判定基準データ記憶部3bと距離推定基準データ記憶部3cとのいずれか一方だけを備えるようにすることができる。なお、その場合、図2に示した画像処理手順では、ステップS102の臓器判定処理とステップS103の撮像距離推定処理とのいずれか一方を省略することができる。   Further, when the image processing control unit 6a sets a parameter value based on either the organ or the imaging distance, the image processing unit 4 selects either the organ determination unit 4a or the imaging distance estimation unit 4b. The storage unit 3 can include only one of the organ determination reference data storage unit 3b and the distance estimation reference data storage unit 3c. In this case, in the image processing procedure shown in FIG. 2, either the organ determination process in step S102 or the imaging distance estimation process in step S103 can be omitted.

また、上述した実施の形態における臓器判定処理では、臓器判定部4aは、一連の観察画像におけるすべての観察画像について臓器判定を行うものとして説明したが、例えばあらかじめ指定された画像数もしくは画像番号までの観察画像についてのみ臓器判定を行うようにすることもできる。あるいは、所望する臓器を指定し、その臓器が撮像された観察画像までを処理対象とすることもできる。これによって、所望する臓器が撮像された観察画像のみ対象として一層迅速に臓器判定処理を行うことができる。   In the organ determination process in the above-described embodiment, the organ determination unit 4a has been described as performing the organ determination for all observation images in a series of observation images. However, for example, up to a predetermined number of images or image numbers. It is also possible to perform organ determination only for the observed images. Alternatively, a desired organ can be designated and an observation image in which the organ is imaged can be processed. As a result, the organ determination process can be performed more rapidly only for the observation image obtained by imaging the desired organ.

同様に、撮像距離推定処理、パラメータ設定処理および異常領域検出処理においても、すべての観察画像に限らず、あらかじめ定められた観察画像のみを処理対象とすることができ、これによって、異常領域を検出するまでにかかる全体の処理時間を一層短縮化することができる。   Similarly, in the imaging distance estimation processing, parameter setting processing, and abnormal region detection processing, not only all observation images but also predetermined observation images can be processed, thereby detecting abnormal regions. It is possible to further reduce the overall processing time required for the process.

なお、上述した実施の形態では、画像処理装置1が処理する一連の観察画像は、食道、胃、小腸および大腸の内部が順次撮像されたものとしたが、食道もしくは胃と、小腸と、大腸との少なくとも1つの内部が個別に撮像された画像群であっても、本発明は適用可能である。   In the above-described embodiment, the series of observation images processed by the image processing apparatus 1 is obtained by sequentially imaging the inside of the esophagus, stomach, small intestine, and large intestine. However, the esophagus or stomach, small intestine, and large intestine are captured. The present invention can also be applied to an image group in which at least one of the interiors is individually captured.

本発明の実施の形態にかかる画像処理装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the image processing apparatus concerning embodiment of this invention. 画像処理装置が行う画像処理手順を示すフローチャートである。It is a flowchart which shows the image processing procedure which an image processing apparatus performs. 臓器判定処理手順を示すフローチャートである。It is a flowchart which shows an organ determination processing procedure. 臓器判定基準データを説明する図である。It is a figure explaining organ criteria data. 撮像距離に対する跳ね返り輝度特性を示す図である。It is a figure which shows the rebound brightness | luminance characteristic with respect to imaging distance. 撮像距離推定手順を示すフローチャートである。It is a flowchart which shows an imaging distance estimation procedure. 異常検出パラメータ記憶部が記憶したパラメータ値を示す図である。It is a figure which shows the parameter value which the abnormality detection parameter memory | storage part memorize | stored. 変形例1にかかる臓器判定処理手順を示すフローチャートである。10 is a flowchart showing an organ determination processing procedure according to Modification 1; 変形例1にかかる臓器判定基準データを示す図である。It is a figure which shows the organ determination reference | standard data concerning the modification 1. 変形例2にかかる臓器判定処理手順を示すフローチャートである。10 is a flowchart showing an organ determination processing procedure according to Modification 2. 変形例3にかかる臓器判定処理手順を示すフローチャートである。10 is a flowchart showing an organ determination processing procedure according to Modification 3. 一連の観察画像のファイルサイズを示す図である。It is a figure which shows the file size of a series of observation images. 一連の観察画像のファイルサイズの移動平均を示す図である。It is a figure which shows the moving average of the file size of a series of observation images. 一連の観察画像のファイルサイズ変化量の移動平均を示す図である。It is a figure which shows the moving average of the file size change amount of a series of observation images. 変形例4にかかる臓器判定処理手順を示すフローチャートである。14 is a flowchart illustrating an organ determination processing procedure according to Modification Example 4. 8×8画素ブロックにおけるDCT係数を示す図である。It is a figure which shows the DCT coefficient in an 8x8 pixel block. 変形例5にかかる臓器判定処理手順を示すフローチャートである。16 is a flowchart showing an organ determination processing procedure according to Modification 5. 臓器判定基準データを説明する図である。It is a figure explaining organ criteria data. 異常検出パラメータが記憶したパラメータ値を示す図である。It is a figure which shows the parameter value which the abnormality detection parameter memorize | stored. 異常検出パラメータが記憶したパラメータ値を示す図である。It is a figure which shows the parameter value which the abnormality detection parameter memorize | stored.

符号の説明Explanation of symbols

1 画像処理装置
2 入力部
3 記憶部
3a 観察画像記憶部
3b 臓器判定基準データ記憶部
3c 距離推定基準データ記憶部
3d 異常検出パラメータ記憶部
4 画像処理部
4a 臓器判定部
4b 撮像距離推定部
4c 異常領域検出部
5 出力部
6 制御部
6a 画像処理制御部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Input part 3 Memory | storage part 3a Observation image memory | storage part 3b Organ judgment reference | standard data memory | storage part 3c Distance estimation reference | standard data memory | storage part 3d Abnormality detection parameter memory | storage part 4 Image processing part 4a Organ judgment part 4b Imaging distance estimation part 4c Abnormality Area detection unit 5 Output unit 6 Control unit 6a Image processing control unit

Claims (8)

異なる撮像距離で撮像された一連の観察画像から特異な領域である特徴画像領域を検出するための画像処理装置において、
前記一連の観察画像のうちの処理対象画像が撮像されたときの撮像距離を推定する距離推定手段と、
前記特徴画像領域を検出するための処理パラメータを用いて前記処理対象画像内から前記特徴画像領域を検出する領域検出手段と、
前記距離推定手段の推定結果に対応するパラメータ値を前記処理パラメータとして設定し、前記領域検出手段に該処理パラメータを用いて前記特徴画像領域を検出させる設定制御手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus for detecting a characteristic image region that is a unique region from a series of observation images captured at different imaging distances,
Distance estimation means for estimating an imaging distance when a processing target image of the series of observation images is captured;
A region detecting means for detecting the feature image region from within the processing target image using a processing parameter for detecting the feature image region;
A setting control unit that sets a parameter value corresponding to the estimation result of the distance estimation unit as the processing parameter, and causes the region detection unit to detect the feature image region using the processing parameter;
An image processing apparatus comprising:
前記撮像距離に対応するパラメータ値をあらかじめ記憶したパラメータ記憶手段を備え、
前記設定制御手段は、前記パラメータ記憶手段に記憶されたパラメータ値のうち前記距離推定手段が推定した撮像距離に対応するパラメータ値を前記所定の処理パラメータに設定することを特徴とする請求項1に記載の画像処理装置。
Parameter storage means for storing in advance a parameter value corresponding to the imaging distance;
The setting control means sets a parameter value corresponding to an imaging distance estimated by the distance estimation means among the parameter values stored in the parameter storage means as the predetermined processing parameter. The image processing apparatus described.
前記パラメータ値は、前記特徴画像領域の特徴を定める値または前記領域検出手段による前記処理対象画像の処理単位画素ブロックサイズを示すことを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the parameter value indicates a value that defines a feature of the feature image region or a processing unit pixel block size of the processing target image by the region detection unit. 前記特徴を定める値は、領域サイズまたは色度であることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the value defining the feature is a region size or chromaticity. 前記距離推定手段は、前記処理対象画像の輝度情報またはゲイン情報の少なくとも一方をもとに、該処理対象画像が撮像されたときの撮像距離を推定することを特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。   The distance estimation unit estimates an imaging distance when the processing target image is captured based on at least one of luminance information and gain information of the processing target image. The image processing apparatus according to any one of the above. 前記距離推定手段は、前記一連の観察画像内で前記処理対象画像を順次切り換え、その切り換えた処理対象画像ごとに前記撮像距離を推定することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。   The distance estimation unit sequentially switches the processing target images in the series of observation images, and estimates the imaging distance for each of the switched processing target images. An image processing apparatus according to 1. 前記一連の観察画像は、食道、胃、小腸または大腸の少なくとも1つの臓器内が撮像された画像群であり、
前記領域検出手段は、前記臓器内の異常部を検出することを特徴とする請求項1〜6のいずれか一つに記載の画像処理装置。
The series of observation images is an image group in which at least one organ of the esophagus, stomach, small intestine or large intestine is imaged,
The image processing apparatus according to claim 1, wherein the region detection unit detects an abnormal part in the organ.
異なる撮像距離で撮像された一連の観察画像から特異な領域である特徴画像領域を検出するための画像処理装置に、
前記一連の観察画像のうちの処理対象画像が撮像されたときの撮像距離を推定する距離推定手順と、
前記特徴画像領域を検出するための処理パラメータを用いて前記処理対象画像内から前記特徴画像領域を検出する領域検出手順と、
前記距離推定手段の推定結果に対応するパラメータ値を前記処理パラメータとして設定し、前記領域検出手段に該処理パラメータを用いて前記特徴画像領域を検出させる設定制御手順と、
を実行させることを特徴とする画像処理プログラム。
In an image processing device for detecting a characteristic image region that is a unique region from a series of observation images captured at different imaging distances,
A distance estimation procedure for estimating an imaging distance when a processing target image in the series of observation images is captured;
A region detection procedure for detecting the feature image region from within the processing target image using a processing parameter for detecting the feature image region;
A setting control procedure for setting a parameter value corresponding to the estimation result of the distance estimation unit as the processing parameter, and causing the region detection unit to detect the feature image region using the processing parameter;
An image processing program for executing
JP2007123825A 2007-05-08 2007-05-08 Image processing apparatus and image processing program Active JP5028138B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007123825A JP5028138B2 (en) 2007-05-08 2007-05-08 Image processing apparatus and image processing program
PCT/JP2008/057280 WO2008139812A1 (en) 2007-05-08 2008-04-14 Image processing device and image processing program
EP08740368.9A EP2149330B1 (en) 2007-05-08 2008-04-14 Image processing apparatus and image processing program
US12/105,006 US8107698B2 (en) 2007-05-08 2008-04-17 Image processing apparatus and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007123825A JP5028138B2 (en) 2007-05-08 2007-05-08 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2008278964A JP2008278964A (en) 2008-11-20
JP5028138B2 true JP5028138B2 (en) 2012-09-19

Family

ID=40140307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007123825A Active JP5028138B2 (en) 2007-05-08 2007-05-08 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5028138B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5669529B2 (en) * 2010-11-17 2015-02-12 オリンパス株式会社 Imaging apparatus, program, and focus control method
JP5329593B2 (en) * 2011-04-01 2013-10-30 富士フイルム株式会社 Biological information acquisition system and method of operating biological information acquisition system
JP5351924B2 (en) * 2011-04-01 2013-11-27 富士フイルム株式会社 Biological information acquisition system and method of operating biological information acquisition system
JP5502812B2 (en) * 2011-07-14 2014-05-28 富士フイルム株式会社 Biological information acquisition system and method of operating biological information acquisition system
JP5830295B2 (en) * 2011-07-29 2015-12-09 オリンパス株式会社 Image processing apparatus, operation method of image processing apparatus, and image processing program
JP6265588B2 (en) 2012-06-12 2018-01-24 オリンパス株式会社 Image processing apparatus, operation method of image processing apparatus, and image processing program
JP6422198B2 (en) * 2012-11-29 2018-11-14 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP6552601B2 (en) * 2015-03-20 2019-07-31 オリンパス株式会社 Image processing apparatus, method of operating image processing apparatus, and image processing program
JP7389823B2 (en) * 2020-01-17 2023-11-30 オリンパス株式会社 Image processing device, image processing method, and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4493386B2 (en) * 2003-04-25 2010-06-30 オリンパス株式会社 Image display device, image display method, and image display program
JP4749732B2 (en) * 2005-02-15 2011-08-17 オリンパス株式会社 Medical image processing device

Also Published As

Publication number Publication date
JP2008278964A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP5028138B2 (en) Image processing apparatus and image processing program
JP4932588B2 (en) Image processing apparatus and image processing program
EP2149330B1 (en) Image processing apparatus and image processing program
US7920732B2 (en) Capsule endoscope system and endoscopic image filing method
JP2008278963A (en) Image processing device and image processing program
JP5220705B2 (en) Image processing apparatus, image processing program, and image processing method
JP5374078B2 (en) Image processing apparatus, image processing method, and image processing program
JP5005032B2 (en) Image display device and image display program
JP2010158308A (en) Image processing apparatus, image processing method and image processing program
WO2006123455A1 (en) Image display device
JP2008048906A (en) Medical image processing apparatus and medical image processing method
JP2008029520A (en) Medical image processor and medical image processing method
US8457376B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
WO2015162409A1 (en) Real-time endoscopic image enhancement
US20190124258A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP2013218487A (en) Image processing apparatus, imaging apparatus, image processing method, and program
US11503982B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium for detecting a defective pixel in an image frame
JP2011024628A (en) Image processor, image processing program, and image processing method
JP2009028248A (en) Medical image processing apparatus and medical image processing method
WO2016006429A1 (en) Image processing device and method, program, and endoscope system
JP5004736B2 (en) Image processing apparatus and image processing program
JP6458205B1 (en) Image processing apparatus, image processing method, and image processing program
JP5800549B2 (en) Image processing apparatus, operation method of image processing apparatus, and image processing program
WO2009104315A1 (en) Image processing device, image processing method, and image processing program
JP2006304995A (en) Image processing apparatus, image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5028138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250