JP4616076B2 - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP4616076B2
JP4616076B2 JP2005147233A JP2005147233A JP4616076B2 JP 4616076 B2 JP4616076 B2 JP 4616076B2 JP 2005147233 A JP2005147233 A JP 2005147233A JP 2005147233 A JP2005147233 A JP 2005147233A JP 4616076 B2 JP4616076 B2 JP 4616076B2
Authority
JP
Japan
Prior art keywords
image
images
feature
region
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005147233A
Other languages
Japanese (ja)
Other versions
JP2006320585A (en
JP2006320585A5 (en
Inventor
克己 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2005147233A priority Critical patent/JP4616076B2/en
Publication of JP2006320585A publication Critical patent/JP2006320585A/en
Publication of JP2006320585A5 publication Critical patent/JP2006320585A5/ja
Application granted granted Critical
Publication of JP4616076B2 publication Critical patent/JP4616076B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、入力された一連の画像を順次表示する画像表示装置に関し、特にカプセル型内視鏡を用いて披検体内を撮像した一連の画像の表示に適用して好適な画像表示装置に関するものである。   The present invention relates to an image display device that sequentially displays a series of input images, and more particularly to an image display device suitable for application to display of a series of images obtained by imaging the inside of a subject using a capsule endoscope. It is.

近年、内視鏡の分野において、飲込み式のカプセル型内視鏡が開発されている。このカプセル型内視鏡は、撮像機能と無線通信機能とを備え、各種臓器内の観察のために患者の口から飲み込まれた後、人体から自然排出されるまでの間、たとえば胃、小腸、大腸などの消化器官の内部をその蠕動運動にしたがって移動しながら順次撮像する。   In recent years, swallowable capsule endoscopes have been developed in the field of endoscopes. This capsule endoscope has an imaging function and a wireless communication function. After being swallowed from the patient's mouth for observation in various organs, until it is naturally discharged from the human body, for example, the stomach, the small intestine, Images are sequentially taken while moving inside the digestive organs such as the large intestine according to the peristaltic movement.

臓器内を移動する間、カプセル型内視鏡によって体内で撮像された画像データは、順次無線通信により体外に送信され、体外の受信機内に設けられたメモリに蓄積されるか、受信機に設けられたディスプレイに画像表示される。医師、看護師等は、メモリに蓄積された画像データをもとにディスプレイに表示させる画像、または受信とともに受信機に設けられたディスプレイに表示させる画像に基づいて診断を行うことができる。   While moving inside the organ, image data captured inside the body by the capsule endoscope is sequentially transmitted outside the body by wireless communication and stored in a memory provided in the receiver outside the body or provided in the receiver. The image is displayed on the displayed display. A doctor, nurse, or the like can make a diagnosis based on the image displayed on the display based on the image data stored in the memory or the image displayed on the display provided in the receiver along with the reception.

通常、カプセル型内視鏡によって撮像される一連の画像数は膨大であり、医師、看護師等は、この一連の画像を観察して診断を行うために多大な時間と労力を要する。これに対応して、メモリに蓄積された画像データをもとに画像を表示させて観察を行う場合、2つの画像の類似性の程度を判定し、この判定結果をもとに画像の表示レートを変化させる表示装置が提案されている(たとえば、特許文献1参照)。この表示装置では、カプセル型内視鏡の移動が停滞した際に連続して撮像される類似画像が多いことに着目し、2つの画像の類似性が低い場合、低速の表示レートで画像を表示し、類似性が高い場合、高速の表示レートで画像を表示するようにしている。   Usually, the series of images captured by the capsule endoscope is enormous, and doctors, nurses, and the like require a great deal of time and effort to observe and diagnose this series of images. Correspondingly, when an image is displayed based on the image data stored in the memory for observation, the degree of similarity between the two images is determined, and the image display rate is determined based on the determination result. There has been proposed a display device that changes the angle (see, for example, Patent Document 1). In this display device, focusing on the fact that there are many similar images that are continuously captured when the movement of the capsule endoscope is stagnant, when the similarity between the two images is low, the image is displayed at a low display rate. If the similarity is high, an image is displayed at a high display rate.

特表2004−521662号公報JP-T-2004-521626

しかしながら、このような表示装置では、類似性が高く観察の必要性が低い画像を高速の表示レートで表示するようにしているため、たとえば、観察対象でない部位を撮像した画像であり観察の必要がない画像であっても順次表示を行い、一連の画像の観察に余計な時間と労力を要する場合があるという問題があった。   However, in such a display device, an image having high similarity and low necessity for observation is displayed at a high display rate. For example, this is an image obtained by imaging a portion that is not an observation target, and needs to be observed. There is a problem that even if there are no images, the images are sequentially displayed, and extra time and labor may be required to observe a series of images.

本発明は、上記に鑑みてなされたものであって、所望の観察対象部位を撮像した画像のみを表示させることができ、一連の画像の観察を効率的に行うことができる画像表示装置を提供することを目的とする。   The present invention has been made in view of the above, and provides an image display device that can display only an image obtained by imaging a desired observation target region and can efficiently observe a series of images. The purpose is to do.

上記の目的を達成するために、請求項1にかかる画像表示装置は、入力された一連の画像を順次表示する画像表示装置において、前記一連の画像に含まれる各画像の中から所定の特徴を有する特徴画像領域を検出する領域検出手段と、前記各画像の全画像領域に対する前記特徴画像領域の占有率を算出し、該算出した各占有率に応じて前記特徴画像領域を有する各特徴画像を前記一連の画像の中から検出する画像検出手段と、前記画像検出手段によって検出された特徴画像の時系列に連続する連続画像数をもとに前記一連の画像を1以上の画像群に分類する画像分類手段と、前記画像分類手段によって分類された各画像群の中からあらかじめ指定される少なくとも1つの画像群に含まれる各画像を順次表示する制御を行う表示制御手段と、を備えたことを特徴とする。   In order to achieve the above object, an image display device according to a first aspect of the present invention is an image display device that sequentially displays a series of inputted images, wherein predetermined characteristics are selected from the images included in the series of images. Area detecting means for detecting the feature image area having the feature image area, and calculating the occupancy rate of the feature image area with respect to the entire image area of each image; and each feature image having the feature image area in accordance with the calculated occupancy ratio The series of images are classified into one or more image groups based on the image detection means for detecting from the series of images and the number of consecutive images in the time series of the feature images detected by the image detection means. Image classification means, and display control means for performing control to sequentially display each image included in at least one image group designated in advance from each image group classified by the image classification means, And said that there were pictures.

また、請求項2にかかる画像表示装置は、上記の発明において、前記画像分類手段は、所定の前記連続画像数以上で連続する各特徴画像を同一の画像群に分類することを特徴とする。   According to a second aspect of the present invention, in the above invention, the image classification unit classifies the feature images that are continuous for a predetermined number of continuous images or more into the same image group.

また、請求項3にかかる画像表示装置は、上記の発明において、前記画像分類手段は、前記所定の連続画像数以上で連続する各特徴画像よりも時系列で前の画像であって特徴画像でない各画像を、前記各特徴画像が分類された画像群とは異なる画像群に分類することを特徴とする。   According to a third aspect of the present invention, in the image display device according to the third aspect, the image classification unit is an image that is an image that is earlier in time series than each feature image that continues for the predetermined number of consecutive images or more, and is not a feature image. Each image is classified into an image group different from the image group into which each feature image is classified.

また、請求項4にかかる画像表示装置は、上記の発明において、前記所定の特徴は、主特徴と、該主特徴とは異なる副特徴とを含み、前記領域検出手段は、前記各画像の中から前記主特徴を有する主特徴画像領域と、前記副特徴を有する副特徴画像領域とを検出し、前記画像検出手段は、前記各画像の全画像領域に対する前記主特徴画像領域の主特徴占有率を算出するとともに、前記各画像の前記主特徴画像領域に対する前記副特徴画像領域の副特徴占有率を算出し、該算出した主特徴占有率および副特徴占有率に応じて前記主特徴画像領域を有する各特徴画像を前記一連の画像の中から検出することを特徴とする。   According to a fourth aspect of the present invention, in the above invention, the predetermined feature includes a main feature and a sub-feature different from the main feature. A main feature image area having the main feature and a sub-feature image area having the sub-feature, and the image detection means detects the main feature occupancy ratio of the main feature image area with respect to the entire image area of each image And calculating a sub-feature occupancy ratio of the sub-feature image area relative to the main feature image area of each image, and determining the main feature image area according to the calculated main feature occupancy ratio and sub-feature occupancy ratio. Each feature image is detected from the series of images.

また、請求項5にかかる画像表示装置は、上記の発明において、前記所定の特徴は、互いに異なる複数の特徴を有し、前記領域検出手段は、前記各画像の中から各特徴を有する特徴画像領域を検出し、前記画像検出手段は、前記各画像の前記各特徴を有する特徴画像領域の前記占有率を算出し、該算出した各占有率に応じて前記複数の特徴毎に各特徴画像を検出し、前記画像分類手段は、前記複数の特徴毎の前記連続画像数をもとに前記一連の画像を該複数の特徴毎の画像群に分類することを特徴とする。   According to a fifth aspect of the present invention, in the image display apparatus according to the fifth aspect, the predetermined feature has a plurality of different features, and the region detection unit has a feature image having each feature from the images. Detecting a region, and the image detecting means calculates the occupancy rate of the feature image region having the respective features of the respective images, and calculates the feature images for each of the plurality of features according to the calculated occupancy rates. And the image classifying means classifies the series of images into an image group for each of the plurality of features based on the number of continuous images for each of the plurality of features.

また、請求項6にかかる画像表示装置は、上記の発明において、前記各画像群の中から少なくとも1つの画像群を指定する指定情報を受け付ける入力手段を備え、前記表示制御手段は、前記指定情報により指定される画像群に含まれる各画像を順次表示する制御を行うことを特徴とする。   According to a sixth aspect of the present invention, in the above invention, the image display device further comprises input means for receiving designation information for designating at least one image group from the image groups, and the display control means includes the designation information. Control is performed to sequentially display each image included in the image group designated by.

また、請求項7にかかる画像表示装置は、上記の発明において、前記各画像は、消化器官の内部を撮像した画像であり、前記所定の特徴は、小腸および大腸の少なくとも一方を特定する腸内特徴であり、前記画像分類手段は、前記一連の画像を小腸および大腸の少なくとも一方を撮像した画像群に分類することを特徴とする。   Further, in the image display device according to claim 7, in the above invention, each of the images is an image of the inside of a digestive organ, and the predetermined feature is an intestine that specifies at least one of a small intestine and a large intestine. The image classification means classifies the series of images into an image group obtained by imaging at least one of the small intestine and the large intestine.

また、請求項8にかかる画像表示装置は、上記の発明において、前記各画像は、胃および小腸の内部を撮像した画像であり、前記所定の特徴は、小腸を特定する腸内特徴であり、前記画像分類手段は、小腸を撮像した画像よりも時系列で前の各画像を、胃を撮像した画像群として分類することを特徴とする。   Further, in the image display device according to claim 8, in the above invention, each of the images is an image of the inside of a stomach and a small intestine, and the predetermined feature is an intestinal feature that identifies the small intestine, The image classification means classifies each image before the image obtained by imaging the small intestine in time series as an image group obtained by imaging the stomach.

また、請求項9にかかる画像表示装置は、上記の発明において、前記腸内特徴は、粘膜、該粘膜の表面上の絨毛および便の少なくとも1つであることを特徴とする。   According to a ninth aspect of the present invention, in the above invention, the intestinal characteristic is at least one of a mucosa, a villi on the surface of the mucosa, and feces.

また、請求項10にかかる画像表示装置は、上記の発明において、前記一連の画像は、カプセル型内視鏡を用いて生成されることを特徴とする。   According to a tenth aspect of the present invention, in the above invention, the series of images are generated using a capsule endoscope.

本発明にかかる画像表示装置によれば、所望の観察対象部位を撮像した画像のみを表示させることができ、一連の画像の観察を効率的に行うことができる。   According to the image display device of the present invention, it is possible to display only an image obtained by imaging a desired observation target part, and it is possible to efficiently observe a series of images.

以下、添付図面を参照して、本発明にかかる画像表示装置の好適な実施の形態を詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, exemplary embodiments of an image display device according to the invention will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same parts are denoted by the same reference numerals.

(実施の形態1)
まず、本発明の実施の形態1にかかる画像表示装置について説明する。図1は、この実施の形態1にかかる画像表示装置1の構成を示すブロック図である。図1に示すように、画像表示装置1は、記憶部5に記憶された画像を処理する画像処理部2と、各種情報の入力を受け付ける入力部3と、各種情報を表示する表示部4と、各種情報を記憶する記憶部5と、画像表示装置1の各部の処理および動作を制御する制御部6と、を備える。画像処理部2、入力部3、表示部4および記憶部5は、制御部6に電気的に接続されている。
(Embodiment 1)
First, the image display apparatus according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of the image display apparatus 1 according to the first embodiment. As shown in FIG. 1, the image display device 1 includes an image processing unit 2 that processes an image stored in a storage unit 5, an input unit 3 that receives input of various information, and a display unit 4 that displays various information. A storage unit 5 that stores various types of information; and a control unit 6 that controls processing and operation of each unit of the image display device 1. The image processing unit 2, the input unit 3, the display unit 4, and the storage unit 5 are electrically connected to the control unit 6.

画像処理部2は、画像処理制御部2a、領域検出部2b、特徴画像検出部2cおよび画像分類部2dを備える。画像処理制御部2aは、記憶部5に記憶された一連の画像を順次取得し、取得した各画像に対する各種画像処理を制御し、処理結果の各画像を記憶部5に出力し記憶させる。画像処理制御部2aは、特に、領域検出部2b、特徴画像検出部2cおよび画像分類部2dを制御して所定の画像処理を実行させる。   The image processing unit 2 includes an image processing control unit 2a, a region detection unit 2b, a feature image detection unit 2c, and an image classification unit 2d. The image processing control unit 2a sequentially acquires a series of images stored in the storage unit 5, controls various image processing for each acquired image, and outputs and stores each image of the processing result in the storage unit 5. In particular, the image processing control unit 2a controls the region detection unit 2b, the feature image detection unit 2c, and the image classification unit 2d to execute predetermined image processing.

領域検出部2bは、画像処理制御部2aが取得した各画像の中から所定の特徴を有する画像領域である特徴画像領域を検出する。このとき、領域検出部2bは、画像中のテクスチャ(texture)あるいは色情報をもとに所定の特徴を識別して特徴画像領域を検出する。検出すべき特徴が複数ある場合、領域検出部2bは、各特徴を有する特徴画像領域を検出する。なお、領域検出部2bは、たとえば、画像中の被写体の輪郭形状、濃度勾配等の各種特徴量をもとに特徴画像領域を検出するようにしてもよい。また、領域検出部2bは、あらかじめ一定の特徴をもつ小領域ごとに画像全体を領域分割した後、所定の特徴に対応する領域を抽出するようにしてもよい。   The area detection unit 2b detects a feature image area that is an image area having a predetermined feature from each image acquired by the image processing control unit 2a. At this time, the region detection unit 2b detects a feature image region by identifying a predetermined feature based on texture or color information in the image. When there are a plurality of features to be detected, the region detection unit 2b detects a feature image region having each feature. Note that the region detection unit 2b may detect a feature image region based on various feature amounts such as a contour shape of a subject in the image and a density gradient, for example. Alternatively, the area detection unit 2b may extract an area corresponding to a predetermined feature after the entire image is divided into areas each having a certain characteristic in advance.

特徴画像検出部2cは、画像処理制御部2aが取得した各画像について、領域検出部2bによって検出された特徴画像領域の全画像領域に対する占有率を算出し、算出した占有率に応じて、特徴画像領域を有する各特徴画像を一連の画像の中から検出する。具体的には、特徴画像検出部2cは、あらかじめ入力された占有率に対するしきい値を参照し、このしきい値と算出した占有率との大小関係に応じて特徴画像を検出し、検出した特徴画像に特徴画像であることを示す特徴画像情報を付加する。なお、特徴画像検出部2cは、複数の特徴に対応する各特徴画像領域の占有率を算出し、算出した複数の占有率の和、差、最大値、最小値、各種統計量により、少なくとも1つの占有率に応じて特徴画像情報を付加するようにしてもよい。   The feature image detection unit 2c calculates, for each image acquired by the image processing control unit 2a, the occupancy rate of the feature image region detected by the region detection unit 2b with respect to the entire image region, and according to the calculated occupancy rate, the feature image detection unit 2c Each feature image having an image region is detected from a series of images. Specifically, the feature image detection unit 2c refers to a threshold value with respect to the occupation rate input in advance, detects the feature image according to the magnitude relationship between the threshold value and the calculated occupation rate, and detects the feature image. Feature image information indicating a feature image is added to the feature image. The feature image detection unit 2c calculates the occupancy rate of each feature image region corresponding to a plurality of features, and at least 1 is calculated based on the sum, difference, maximum value, minimum value, and various statistics of the calculated occupancy rates. The feature image information may be added according to one occupation ratio.

画像分類部2dは、特徴画像検出部2cによって検出された特徴画像の時系列に連続する画像数をもとに、一連の画像を1つ以上の画像群に分類する。具体的には、画像分類部2dは、特徴画像が所定の画像数以上に連続している場合、この連続する各特徴画像を同一の画像群として分類する。このとき、画像分類部2dは、所定の画像数以上に途絶えるまでの各特徴画像を同一の画像群とする。また、画像分類部2dは、このように分類される特徴画像よりも時系列で前の画像であって特徴画像でない各画像を、特徴画像が分類された画像群とは異なる画像群に分類する。   The image classifying unit 2d classifies a series of images into one or more image groups based on the number of feature images detected by the feature image detecting unit 2c in time series. Specifically, the image classification unit 2d classifies the consecutive feature images as the same image group when the feature images are continuous for a predetermined number of images or more. At this time, the image classifying unit 2d sets the feature images until the number of feature images stops to a predetermined number or more as the same image group. In addition, the image classification unit 2d classifies each image that is a previous image and not a feature image in time series before the feature image classified in this way into an image group different from the image group in which the feature image is classified. .

入力部3は、画像表示装置1で処理する画像、各種処理情報等の入力を受け付ける。具体的には、入力部3は、USB,IEEE1394等の通信用インターフェースを備え、外部装置からの画像の入力を受け付ける。また、入力部3は、各種スイッチ、入力キー、マウス、タッチパネル等を備え、特徴画像検出部2cが参照するしきい値、画像表示制御部6aが参照する画像群の指定情報等、各種処理情報の入力を受け付ける。なお、入力部3は、コンパクトフラッシュ(登録商標)等の携帯型記憶媒体に対応するインターフェースを備え、この携帯型記憶媒体からの画像等の入力を受け付けるようにしてもよい。   The input unit 3 receives input of an image to be processed by the image display device 1 and various processing information. Specifically, the input unit 3 includes a communication interface such as USB or IEEE 1394, and accepts input of an image from an external device. The input unit 3 includes various switches, input keys, a mouse, a touch panel, and the like. Various processing information such as a threshold value referred to by the feature image detection unit 2c and image group designation information referred to by the image display control unit 6a. Accepts input. The input unit 3 may include an interface corresponding to a portable storage medium such as a compact flash (registered trademark), and may accept an input of an image or the like from the portable storage medium.

表示部4は、液晶ディスプレイ等を備え、画像を含む各種情報を表示する。表示部4は、特に、記憶部5に記憶された一連の画像と、画像表示装置1のオペレータに対して各種処理情報の入力を依頼するGUI(Graphical User Interface)画面とを表示する。   The display unit 4 includes a liquid crystal display and displays various information including images. In particular, the display unit 4 displays a series of images stored in the storage unit 5 and a GUI (Graphical User Interface) screen that requests the operator of the image display device 1 to input various processing information.

記憶部5は、各種処理プログラム等があらかじめ記憶されたROMと、各処理の処理パラメータ、処理データ等を記憶するRAMとによって実現される。記憶部5は、特に、外部から入力された画像および画像処理部2によって処理された画像を記憶する記憶領域としての画像記憶部5aを備える。なお、記憶部5は、コンパクトフラッシュ(登録商標)等の携帯型記憶媒体を着脱可能な画像記憶部として備えるようにしてもよい。   The storage unit 5 is realized by a ROM that stores various processing programs and the like in advance, and a RAM that stores processing parameters, processing data, and the like of each processing. In particular, the storage unit 5 includes an image storage unit 5a as a storage area for storing an image input from the outside and an image processed by the image processing unit 2. Note that the storage unit 5 may include a portable storage medium such as a compact flash (registered trademark) as a removable image storage unit.

制御部6は、記憶部5に記憶された各種処理プログラムを実行するCPU等によって実現される。制御部6は、画像表示制御部6aを備え、この画像表示制御部6aは、画像記憶部5aに記憶された一連の画像のうち、画像分類部2dによって分類された各画像群の中からあらかじめ指定される少なくとも1つの画像群に含まれる各画像を表示部4に順次表示する制御を行う。具体的には、画像表示制御部6aは、入力部3から入力される指定情報により指定される画像群に含まれる各画像を順次表示する制御を行う。   The control unit 6 is realized by a CPU or the like that executes various processing programs stored in the storage unit 5. The control unit 6 includes an image display control unit 6a, and the image display control unit 6a is previously selected from among a series of images stored in the image storage unit 5a from among the image groups classified by the image classification unit 2d. Control is performed to sequentially display each image included in the designated at least one image group on the display unit 4. Specifically, the image display control unit 6 a performs control to sequentially display each image included in the image group designated by the designation information input from the input unit 3.

ここで、画像表示装置1が行う処理および動作について説明する。図2は、画像表示装置1が、画像記憶部5aに記憶された一連の画像を分類し表示する処理の概要を示す模式図である。図2では、図示しないカプセル型内視鏡を用いて、被検体の胃、小腸および大腸の内部を撮像し生成した一連の画像を分類し表示する処理の概要を例示している。   Here, processing and operations performed by the image display apparatus 1 will be described. FIG. 2 is a schematic diagram illustrating an outline of processing in which the image display device 1 classifies and displays a series of images stored in the image storage unit 5a. FIG. 2 illustrates an outline of a process for classifying and displaying a series of images generated by imaging the inside of the stomach, small intestine, and large intestine of a subject using a capsule endoscope (not shown).

図2に示すように、画像分類部2dは、画像記憶部5aに記憶された処理前の一連の画像を胃画像群、小腸画像群および大腸画像群に分類する。この際、処理前の一連の画像である画像1〜画像Nでは、胃、小腸、大腸の各部位がどこからどこまでの時点に撮像されているか不明である。以下において「m」および「n」は、それぞれ画像の番号を示し、図2の例では1≦n≦m≦Nの関係を満足する。   As shown in FIG. 2, the image classification unit 2d classifies a series of images stored in the image storage unit 5a before processing into a stomach image group, a small intestine image group, and a large intestine image group. At this time, in images 1 to N, which are a series of images before processing, it is unknown from where to where the stomach, small intestine, and large intestine are imaged. In the following, “m” and “n” indicate image numbers, respectively, and the relationship of 1 ≦ n ≦ m ≦ N is satisfied in the example of FIG.

このため、まず、領域検出部2bは、処理前の一連の画像に含まれる各画像の中から、小腸を特定する腸内特徴としての絨毛を有する画像領域である絨毛領域を検出する。つぎに、特徴画像検出部2cは、この検出された絨毛領域の占有率を算出し、算出した占有率があらかじめ入力されたしきい値よりも大きい画像に、特徴画像として検出した絨毛領域を有する絨毛画像であることを示す絨毛検出情報を付加する。そして、画像分類部2dは、各画像の絨毛検出情報を参照し、最初に所定の画像数以上に連続する絨毛画像以降を、小腸を撮像した小腸画像1〜(m−n)として同一の小腸画像群に分類する。   Therefore, first, the region detection unit 2b detects a villi region, which is an image region having villi as an intestinal feature that identifies the small intestine, from each image included in a series of images before processing. Next, the feature image detection unit 2c calculates the occupation rate of the detected villi region, and has the villi region detected as the feature image in an image in which the calculated occupation rate is larger than a threshold value input in advance. Villi detection information indicating a villi image is added. Then, the image classification unit 2d refers to the villi detection information of each image, and after the villi images that are first continuous for a predetermined number of images or more, the small intestine images 1 to (mn) obtained by imaging the small intestine are the same small intestine. Classify into image groups.

同様に、領域検出部2bは、各画像の中から大腸を特定する腸内特徴としての便を有する画像領域である便領域を検出し、特徴画像検出部2cは、この検出された便領域の占有率を算出するとともに、算出した占有率があらかじめ入力されたしきい値よりも大きい画像に、特徴画像として検出した便領域を有する便画像であることを示す便検出情報を付加する。画像分類部2dは、各画像の便検出情報を参照し、最初に所定の画像数以上に連続する便画像以降を、大腸を撮像した大腸画像1〜(N−m)として同一の大腸画像群に分類する。   Similarly, the region detection unit 2b detects a stool region that is an image region having stool as an intestinal feature that identifies the large intestine from each image, and the feature image detection unit 2c detects the detected stool region. The occupancy rate is calculated, and flight detection information indicating that the calculated occupancy rate is larger than a threshold value input in advance is a flight image having a flight area detected as a feature image. The image classification unit 2d refers to the stool detection information of each image, and after the stool images that are consecutive for the number of images at first, the large intestine images 1 to (Nm) obtained by imaging the large intestine. Classify into:

さらに、画像分類部2dは、小腸画像群に分類した小腸画像よりも時系列で前の画像を、胃を撮像した胃画像1〜nとして同一の胃画像群に分類する。そして、画像表示制御部6aは、あらかじめ入力された指定情報により指定される胃画像群、小腸画像群および大腸画像群の少なくとも1つの画像群に含まれる各画像を順次表示する。   Further, the image classification unit 2d classifies the images in time series earlier than the small intestine images classified into the small intestine image group into the same stomach image group as the stomach images 1 to n obtained by imaging the stomach. Then, the image display control unit 6a sequentially displays each image included in at least one image group of the stomach image group, the small intestine image group, and the large intestine image group designated by the designation information input in advance.

このようにして、画像表示装置1では、胃、小腸および大腸の内部を撮像した一連の画像を、各部位を撮像した画像毎に同一の画像群に分類することができるとともに、入力された指定情報により指定される画像群に含まれる画像のみを表示することができる。   In this way, the image display apparatus 1 can classify a series of images obtained by imaging the stomach, the small intestine, and the large intestine into the same image group for each image obtained by imaging each part, and input designations. Only the images included in the image group specified by the information can be displayed.

つづいて、画像表示装置1が行う処理手順について説明する。図3は、画像表示装置1が、制御部6の制御のもと、画像記憶部5aに記憶された一連の画像を処理し表示する処理手順を示すフローチャートである。なお、このフローチャートは、図2に示したように一連の画像を胃画像群、小腸画像群および大腸画像群に分類し表示する処理手順を例示する。   Next, a processing procedure performed by the image display device 1 will be described. FIG. 3 is a flowchart illustrating a processing procedure in which the image display apparatus 1 processes and displays a series of images stored in the image storage unit 5 a under the control of the control unit 6. This flowchart exemplifies a processing procedure for classifying and displaying a series of images into a stomach image group, a small intestine image group, and a large intestine image group as shown in FIG.

図3に示すように、領域検出部2bおよび特徴画像検出部2cは、各画像の中から絨毛領域を検出し、検出した絨毛領域の占有率を算出し、算出した占有率に応じて一連の画像の中から絨毛画像を検出する絨毛画像検出処理を行い(ステップS101)、画像分類部2dは、所定の画像数以上で連続する絨毛画像以降を小腸画像として小腸画像群に分類する小腸画像分類処理を行う(ステップS103)。   As shown in FIG. 3, the area detection unit 2b and the feature image detection unit 2c detect the villi region from each image, calculate the occupation rate of the detected villi region, and perform a series of operations according to the calculated occupation rate. A villi image detection process for detecting a villi image from the image is performed (step S101), and the image classification unit 2d classifies the villi images subsequent to the predetermined number of images or more into small intestine images as a small intestine image group. Processing is performed (step S103).

また、領域検出部2bおよび特徴画像検出部2cは、各画像の中から便領域を検出し、検出した便領域の占有率を算出し、算出した占有率に応じて一連の画像の中から便画像を検出する便画像検出処理を行い(ステップS105)、画像分類部2dは、所定の画像数以上で連続する便画像以降を大腸画像として大腸画像群に分類する大腸画像分類処理を行う(ステップS107)。   In addition, the region detection unit 2b and the feature image detection unit 2c detect a stool region from each image, calculate an occupancy rate of the detected stool region, and stool from a series of images according to the calculated occupancy rate. A stool image detection process for detecting an image is performed (step S105), and the image classification unit 2d performs a large intestine image classification process for classifying a stool image subsequent to a predetermined number of images or more into a large intestine image group as a large intestine image (step S105). S107).

さらに、画像分類部2dは、小腸画像群よりも時系列で前の各画像を胃画像として胃画像群に分類する胃画像分類処理を行い(ステップS109)、画像表示制御部6aは、あらかじめ入力された指定情報により指定される画像群に含まれる各画像を順次表示する画像表示処理を行い(ステップS111)、制御部6は、一連の処理を終了する。   Further, the image classification unit 2d performs a stomach image classification process for classifying each image before the small intestine image group in time series as a stomach image into a stomach image group (step S109), and the image display control unit 6a inputs in advance. The image display process for sequentially displaying the images included in the image group designated by the designated information is performed (step S111), and the control unit 6 ends the series of processes.

つぎに、図3に示したステップS101の絨毛画像検出処理について説明する。図4は、絨毛画像検出処理の処理手順を示すフローチャートである。図4に示すように、画像処理制御部2aは、画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS121)、領域検出部2bは、この読み込んだ画像の中から粘膜の表面上の絨毛を示す絨毛領域を特徴画像領域として検出する(ステップS123)。   Next, the villi image detection process in step S101 shown in FIG. 3 will be described. FIG. 4 is a flowchart showing a processing procedure of villi image detection processing. As shown in FIG. 4, the image processing control unit 2a reads the first image in time series among the series of images stored in the image storage unit 5a (step S121), and the area detection unit 2b reads the read image. A villus region indicating villi on the surface of the mucous membrane is detected as a feature image region (step S123).

その後、特徴画像検出部2cは、検出された絨毛領域の全画像領域に対する占有率を算出し(ステップS125)、算出した占有率が、あらかじめ入力されたしきい値よりも大きいか否かを判断し(ステップS127)、占有率がしきい値よりも大きい場合(ステップS127:Yes)、処理対象の画像に絨毛画像であることを示す絨毛検出情報を付加する(ステップS129)。   Thereafter, the feature image detection unit 2c calculates the occupation ratio of the detected villi area with respect to the entire image area (step S125), and determines whether the calculated occupation ratio is greater than a threshold value input in advance. If the occupation ratio is larger than the threshold value (step S127: Yes), villus detection information indicating that the image is a villus image is added to the image to be processed (step S129).

そして、画像処理制御部2aは、この絨毛画像情報が付加された画像を画像記憶部5aに記録し(ステップS131)、一連のすべての画像を処理したか否かを判断し(ステップS133)、すべての画像を処理していない場合(ステップS133:No)、処理していない画像に対してステップS121からの処理を繰り返し、すべての画像を処理している場合(ステップS133:Yes)、ステップS101にリターンする。なお、画像処理制御部2aは、ステップS127で、絨毛領域の占有率がしきい値以下と判断された場合(ステップS127:No)、直ちにステップS133の判断を行う。   Then, the image processing control unit 2a records the image to which the villi image information is added in the image storage unit 5a (step S131), determines whether or not a series of all images has been processed (step S133), When all the images have not been processed (step S133: No), the processing from step S121 is repeated for the unprocessed images, and when all the images have been processed (step S133: Yes), step S101. Return to Note that the image processing control unit 2a immediately determines in step S133 when it is determined in step S127 that the occupancy rate of the villi region is equal to or less than the threshold value (step S127: No).

ステップS123では、領域検出部2bは、テクスチャ解析によって処理対象の画像の中から絨毛領域を検出する。すなわち、領域検出部2bは、絨毛の1本1本がほぼ周期的に並んでいることを利用し、画像をフーリエ変換して、絨毛の周期に対応する空間周波数成分を有する画像領域を絨毛領域として検出する。   In step S123, the region detection unit 2b detects a villi region from the processing target image by texture analysis. That is, the region detection unit 2b utilizes the fact that each of the villuss is arranged almost periodically, and Fourier-transforms the image, thereby converting the image region having a spatial frequency component corresponding to the villus cycle into the villus region. Detect as.

このとき、領域検出部2bは、たとえば、あらかじめ全画像領域を小領域ごとに分割し、分割した各領域でフーリエ変換を行って絨毛領域を検出する。そして、ステップS125では、特徴画像検出部2cは、各小領域に対して絨毛領域が検出されたか否かを対応付け、絨毛領域が検出されたと対応付けられた小領域の領域数によって、絨毛領域の占有率を算出する。もしくは、色情報により絨毛領域を検出してもよい。   At this time, for example, the area detection unit 2b divides the entire image area into small areas in advance, and performs a Fourier transform on each divided area to detect a villi area. In step S125, the feature image detection unit 2c associates whether or not a villi region is detected with respect to each small region, and the villi region is determined according to the number of small regions associated with the detection of the villi region. Calculate the occupancy ratio. Alternatively, the villi region may be detected from the color information.

つぎに、図3に示したステップS103の小腸画像分類処理について説明する。図5は、小腸画像分類処理の処理手順を示すフローチャートである。図5に示すように、画像処理制御部2aは、画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS141)、画像分類部2dは、読み込んだ画像に絨毛検出情報が付加されているか否かを判断する(ステップS143)。   Next, the small intestine image classification process in step S103 shown in FIG. 3 will be described. FIG. 5 is a flowchart showing a processing procedure of small intestine image classification processing. As shown in FIG. 5, the image processing control unit 2a reads the first image in time series among the series of images stored in the image storage unit 5a (step S141), and the image classification unit 2d reads the read image. It is determined whether or not villus detection information is added (step S143).

絨毛検出情報が付加されている場合(ステップS143:Yes)、画像分類部2dは、絨毛画像を読み込んだ回数をカウントし(ステップS145)、絨毛画像を所定の画像数連続して読み込んだか否かを判断する(ステップS147)。   When the villi detection information is added (step S143: Yes), the image classification unit 2d counts the number of times the villi images are read (step S145), and whether or not the villi images are read continuously for a predetermined number of images. Is determined (step S147).

所定の画像数連続して読み込んでいない場合(ステップS147:No)、画像処理制御部2aは、一連のすべての画像を処理したか否かを判断し(ステップS149)、すべての画像を処理している場合(ステップS149:Yes)、ステップS103にリターンし、すべての画像を処理していない場合(ステップS149:No)、処理していない画像に対してステップS141からの処理を繰り返す制御を行う。   When the predetermined number of images have not been read continuously (step S147: No), the image processing control unit 2a determines whether or not a series of all images has been processed (step S149), and all the images are processed. If YES in step S149, the process returns to step S103, and if all the images have not been processed (step S149: NO), the control from step S141 is repeated for the unprocessed image. .

なお、画像処理制御部2aは、ステップS143で、絨毛検出情報が付加されていないと判断された場合にも(ステップS143:No)、ステップS149において一連のすべての画像を処理したか否かを判断する。   Note that the image processing control unit 2a also determines whether or not all the series of images have been processed in step S149 even when it is determined in step S143 that the villi detection information has not been added (step S143: No). to decide.

一方、所定の画像数連続して絨毛画像を読み込んでいる場合(ステップS147:Yes)、画像処理制御部2aは、この所定の画像数だけ時系列にさかのぼった時点の画像を読み込み直し(ステップS151)、画像分類部2dは、絨毛検出情報が付加されているか否かを判断する(ステップS153)。絨毛検出情報が付加されている場合(ステップS153:Yes)、画像分類部2dは、処理対象の画像に小腸画像であることを示す小腸画像情報を付加する(ステップS155)。   On the other hand, when the villi images are read continuously for the predetermined number of images (step S147: Yes), the image processing control unit 2a rereads the images at the time point that goes back in time series by the predetermined number of images (step S151). ), The image classification unit 2d determines whether or not the villi detection information is added (step S153). When the villi detection information is added (step S153: Yes), the image classification unit 2d adds small intestine image information indicating that it is a small intestine image to the processing target image (step S155).

そして、画像処理制御部2aは、この小腸画像情報が付加された画像を画像記憶部5aに記録し(ステップS157)、一連のすべての画像を処理したか否かを判断し(ステップS159)、すべての画像を処理していない場合(ステップS159:No)、処理していない画像に対してステップS151からの処理を繰り返し、すべての画像を処理している場合(ステップS159:Yes)、ステップS103にリターンする。   Then, the image processing control unit 2a records the image to which the small intestine image information is added in the image storage unit 5a (step S157), determines whether or not a series of all the images has been processed (step S159), When all the images are not processed (step S159: No), the processing from step S151 is repeated for the unprocessed images, and when all the images are processed (step S159: Yes), step S103 is performed. Return to

また、ステップS153で、絨毛検出情報が付加されていないと判断された場合(ステップS153:No)、画像分類部2dは、絨毛画像を読み込めない回数である非読込数をカウントし(ステップS161)、絨毛画像の読み込みが所定の画像数途絶えたか否かを判断する(ステップS163)。そして、画像処理制御部2aは、所定の画像数途絶えていない場合(ステップS163:No)、ステップS159の判断を行い、所定の画像数途絶えている場合(ステップS163:Yes)、ステップS103にリターンする。   If it is determined in step S153 that the villi detection information is not added (step S153: No), the image classification unit 2d counts the number of non-reads that is the number of times that the villi image cannot be read (step S161). Then, it is determined whether or not the reading of the villi images has stopped for a predetermined number of images (step S163). Then, if the predetermined number of images has not been interrupted (step S163: No), the image processing control unit 2a performs the determination of step S159. If the predetermined number of images has been interrupted (step S163: Yes), the process returns to step S103. To do.

このようにして、小腸画像分類処理では、絨毛画像の読み込みが所定の画像数連続することによって、小腸の撮像を開始した画像を特定し、また、絨毛画像の読み込みが所定の画像数途絶えることによって、小腸の撮像を終了した画像を特定し、これらの間の各画像に小腸画像情報を付加するとともに、この各画像を小腸画像として同一の小腸画像群に分類することができる。   In this way, in the small intestine image classification process, the reading of the villi image is continued for a predetermined number of images to identify the image from which imaging of the small intestine is started, and the reading of the villi image is interrupted for a predetermined number of images. Then, it is possible to identify an image for which imaging of the small intestine has been completed, add small intestine image information to each image between them, and classify each image as a small intestine image into the same small intestine image group.

なお、ステップS145では、画像分類部2dは、たとえば、絨毛画像の読込数をカウントするカウンターを備え、絨毛画像が読み込まれる毎にカウンターをインクリメントすることによって連続した読込数を検出するとよく、ステップS161では、同様に、カウンターをインクリメントすることによって連続した非読込数を検出するとよい。この場合、画像分類部2dは、読込数もしくは非読込数が連続しなくなった時点、または所定の画像数連続した時点で、これらのカウンターをリセットするとよい。   In step S145, the image classification unit 2d includes, for example, a counter that counts the number of readings of the villi image, and may detect the number of continuous readings by incrementing the counter each time the villi image is read, step S161. Then, similarly, the number of consecutive non-reads may be detected by incrementing the counter. In this case, the image classification unit 2d may reset these counters when the reading number or the non-reading number stops or when a predetermined number of images continues.

また、ステップS147で絨毛画像が所定の画像数連続したと判断された直後のステップS151では、画像処理制御部2aは、必ずしも、この所定の画像数だけ時系列にさかのぼった時点の画像を読み込み直さなくてもよく、すでに読み込んだ画像に続く画像を新たに読み込むようにしてもよい。   Further, in step S151 immediately after it is determined in step S147 that the predetermined number of villi images have continued, the image processing control unit 2a does not necessarily reread the image at the time point back in time series by the predetermined number of images. There may be no need, and an image subsequent to an already read image may be newly read.

また、ステップS141では、画像処理制御部2aは、所定の画像数連続する複数の画像を同時に読み込み、ステップS143では、画像分類部2dは、この読み込んだ各画像に絨毛検出情報が付加されているか否かを判断することによって、小腸画像の先頭を特定するようにしてもよい。   In step S141, the image processing control unit 2a reads a plurality of images having a predetermined number of images at the same time, and in step S143, the image classification unit 2d adds villus detection information to each read image. By determining whether or not, the head of the small intestine image may be specified.

つぎに、図3に示したステップS105の便画像検出処理について説明する。図6は、便画像検出処理の処理手順を示すフローチャートである。図6に示す便画像検出処理では、絨毛領域に換えて便領域を検出することによって、図4に示した絨毛画像検出処理と同様の処理手順により便画像を検出するようにしている。   Next, the stool image detection process in step S105 shown in FIG. 3 will be described. FIG. 6 is a flowchart showing the processing procedure of the fecal image detection process. In the stool image detection process shown in FIG. 6, a stool image is detected by the same processing procedure as the villus image detection process shown in FIG. 4 by detecting a stool area instead of the villi area.

図6に示すように、画像処理制御部2aは、画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS171)、領域検出部2bは、この読み込んだ画像の中から便を示す便領域を特徴画像領域として検出する(ステップS173)。特徴画像検出部2cは、この検出された絨毛領域の全画像領域に対する占有率を算出し(ステップS175)、算出した占有率が、あらかじめ入力されたしきい値よりも大きいか否かを判断し(ステップS177)、占有率がしきい値よりも大きい場合(ステップS177:Yes)、処理対象の画像に便画像であることを示す便検出情報を付加する(ステップS179)。   As shown in FIG. 6, the image processing control unit 2a reads the first image in time series from the series of images stored in the image storage unit 5a (step S171), and the area detection unit 2b reads the read image. A stool area indicating a stool is detected as a feature image area from among (step S173). The feature image detection unit 2c calculates the occupation ratio of the detected villi area with respect to the entire image area (step S175), and determines whether the calculated occupation ratio is larger than a threshold value input in advance. (Step S177) When the occupation ratio is larger than the threshold value (Step S177: Yes), the flight detection information indicating that the image is a flight image is added to the processing target image (Step S179).

そして、画像処理制御部2aは、この便検出情報が付加された画像を画像記憶部5aに記録し(ステップS181)、一連のすべての画像を処理したか否かを判断し(ステップS183)、すべての画像を処理していない場合(ステップS183:No)、処理していない画像に対してステップS171からの処理を繰り返し、すべての画像を処理している場合(ステップS183:Yes)、ステップS105にリターンする。なお、画像処理制御部2aは、ステップS177で、便領域の占有率がしきい値以下と判断された場合(ステップS177:No)、直ちにステップS133の判断を行う。   Then, the image processing control unit 2a records the image to which the stool detection information is added in the image storage unit 5a (step S181), determines whether or not a series of all the images has been processed (step S183), When all the images are not processed (step S183: No), the processing from step S171 is repeated for the unprocessed images, and when all the images are processed (step S183: Yes), step S105 is performed. Return to If it is determined in step S177 that the occupancy rate of the stool area is equal to or less than the threshold value (step S177: No), the image processing control unit 2a immediately determines in step S133.

なお、ステップS171では、画像処理制御部2aは、小腸画像分類処理によって小腸画像群に分類された以降の画像を読み込むようにしてもよい。また、ステップS173では、領域検出部2bは、茶系の色を示す画像領域を便領域として検出する。   In step S171, the image processing control unit 2a may read the subsequent images classified into the small intestine image group by the small intestine image classification process. In step S173, the area detection unit 2b detects an image area indicating a brown color as a fecal area.

つぎに、図3に示したステップS107の大腸画像分類処理について説明する。図7は、大腸画像分類処理の処理手順を示すフローチャートである。図7に示す大腸画像分類処理では、絨毛画像に換えて便画像の連続した読込数をカウントすることによって、図5に示した小腸画像分類処理と同様の処理手順により大腸画像を分類するようにしている。   Next, the large intestine image classification process in step S107 shown in FIG. 3 will be described. FIG. 7 is a flowchart showing a processing procedure of large intestine image classification processing. In the large intestine image classification process shown in FIG. 7, the colon image is classified by the same processing procedure as the small intestine image classification process shown in FIG. 5 by counting the number of consecutive stool images read instead of the villi image. ing.

図7に示すように、画像処理制御部2aは、画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS191)、画像分類部2dは、読み込んだ画像に便検出情報が付加されているか否かを判断する(ステップS193)。便検出情報が付加されている場合(ステップS193:Yes)、画像分類部2dは、便画像を読み込んだ回数をカウントし(ステップS195)、便画像を所定の画像数連続して読み込んだか否かを判断する(ステップS197)。   As shown in FIG. 7, the image processing control unit 2a reads the first image in time series among the series of images stored in the image storage unit 5a (step S191), and the image classification unit 2d reads the read image. It is determined whether or not the flight detection information is added (step S193). When the flight detection information is added (step S193: Yes), the image classification unit 2d counts the number of times the flight image has been read (step S195), and whether or not the flight image has been read continuously for a predetermined number of images. Is determined (step S197).

所定の画像数連続して読み込んでいない場合(ステップS197:No)、画像処理制御部2aは、一連のすべての画像を処理したか否かを判断し(ステップS199)、すべての画像を処理している場合(ステップS199:Yes)、ステップS107にリターンし、すべての画像を処理していない場合(ステップS199:No)、処理していない画像に対してステップS191からの処理を繰り返す制御を行う。   When the predetermined number of images have not been read continuously (step S197: No), the image processing control unit 2a determines whether or not a series of all the images has been processed (step S199), and processes all the images. If yes (step S199: Yes), the process returns to step S107, and if all the images have not been processed (step S199: No), the control from step S191 is repeated for the unprocessed image. .

なお、画像処理制御部2aは、ステップS193で、便検出情報が付加されていないと判断された場合にも(ステップS193:No)、ステップS199において一連のすべての画像を処理したか否かを判断する。   Note that even when it is determined in step S193 that no fecal detection information is added (step S193: No), the image processing control unit 2a determines whether or not a series of all images has been processed in step S199. to decide.

一方、所定の画像数連続して便画像を読み込んでいる場合(ステップS197:Yes)、画像処理制御部2aは、この所定の画像数だけ時系列にさかのぼった時点の画像を読み込み直し(ステップS201)、画像分類部2dは、便検出情報が付加されているか否かを判断する(ステップS203)。便検出情報が付加されている場合(ステップS203:Yes)、画像分類部2dは、処理対象の画像に大腸画像であることを示す大腸画像情報を付加する(ステップS205)。   On the other hand, when the stool images are read continuously for a predetermined number of images (step S197: Yes), the image processing control unit 2a rereads the images at the time point back in time series by the predetermined number of images (step S201). ), The image classification unit 2d determines whether or not the flight detection information is added (step S203). When the fecal detection information is added (step S203: Yes), the image classification unit 2d adds colon image information indicating that it is a colon image to the processing target image (step S205).

そして、画像処理制御部2aは、この大腸画像情報が付加された画像を画像記憶部5aに記録し(ステップS207)、一連のすべての画像を処理したか否かを判断し(ステップS209)、すべての画像を処理していない場合(ステップS209:No)、処理していない画像に対してステップS201からの処理を繰り返し、すべての画像を処理している場合(ステップS209:Yes)、ステップS107にリターンする。   Then, the image processing control unit 2a records the image to which the large intestine image information is added in the image storage unit 5a (step S207), determines whether or not a series of all the images has been processed (step S209), When all the images are not processed (step S209: No), the processing from step S201 is repeated for the unprocessed images, and when all the images are processed (step S209: Yes), step S107. Return to

また、ステップS203で、便検出情報が付加されていないと判断された場合(ステップS203:No)、画像分類部2dは、便画像を読み込めない回数である非読込数をカウントし(ステップS211)、便画像の読み込みが所定の画像数途絶えたか否かを判断する(ステップS213)。そして、画像処理制御部2aは、所定の画像数途絶えていない場合(ステップS213:No)、ステップS209の判断を行い、所定の画像数途絶えている場合(ステップS213:Yes)、ステップS107にリターンする。   When it is determined in step S203 that the flight detection information is not added (step S203: No), the image classification unit 2d counts the number of non-reads that is the number of times the flight image cannot be read (step S211). Then, it is determined whether or not the reading of the flight images has stopped for a predetermined number of images (step S213). If the predetermined number of images has not been interrupted (step S213: No), the image processing control unit 2a performs the determination in step S209. If the predetermined number of images has been interrupted (step S213: Yes), the process returns to step S107. To do.

このようにして、大腸画像分類処理では、便画像の読み込みが所定の画像数連続することによって、大腸の撮像を開始した画像を特定し、また、便画像の読み込みが所定の画像数途絶えることによって、大腸の撮像を終了した画像を特定し、これらの間の各画像に大腸画像情報を付加するとともに、この各画像を大腸画像として同一の大腸画像群に分類することができる。   In this way, in the large intestine image classification process, the stool image reading is continued for a predetermined number of images to identify the image from which imaging of the large intestine is started, and the stool image reading is interrupted for a predetermined number of images. Then, it is possible to identify an image for which imaging of the large intestine has been completed, add large intestine image information to each image between them, and classify each image as a large intestine image into the same large intestine image group.

なお、ステップS195では、画像分類部2dは、たとえば、便画像の読込数をカウントするカウンターを備え、便画像が読み込まれる毎にカウンターをインクリメントすることによって連続した読込数を検出するとよく、ステップS211では、同様に、カウンターをインクリメントすることによって連続した非読込数を検出するとよい。この場合、画像分類部2dは、読込数もしくは非読込数が連続しなくなった時点、または所定の画像数連続した時点で、これらのカウンターをリセットするとよい。   In step S195, the image classification unit 2d may include, for example, a counter that counts the number of read fecal images, and may detect the number of continuous reads by incrementing the counter each time a fecal image is read. Then, similarly, the number of consecutive non-reads may be detected by incrementing the counter. In this case, the image classification unit 2d may reset these counters when the reading number or the non-reading number stops or when a predetermined number of images continues.

また、ステップS197で便画像が所定の画像数連続したと判断された直後のステップS201では、画像処理制御部2aは、必ずしも、この所定の画像数だけ時系列にさかのぼった時点の画像を読み込み直さなくてもよく、すでに読み込んだ画像に続く画像を新たに読み込むようにしてもよい。   In step S201 immediately after it is determined in step S197 that the predetermined number of stool images have continued, the image processing control unit 2a does not necessarily reread the image at the time point back in time series by the predetermined number of images. There may be no need, and an image subsequent to an already read image may be newly read.

また、ステップS191では、画像処理制御部2aは、所定の画像数連続する複数の画像を同時に読み込み、ステップS193では、画像分類部2dは、この読み込んだ各画像に便検出情報が付加されているか否かを判断することによって、大腸画像の先頭を特定するようにしてもよい。なお、ステップS191では、画像処理制御部2aは、小腸画像分類処理によって小腸画像群に分類された以降の画像を読み込むようにしてもよい。   In step S191, the image processing control unit 2a simultaneously reads a plurality of images having a predetermined number of images. In step S193, the image classification unit 2d adds fecal detection information to each read image. The head of the large intestine image may be specified by determining whether or not. In step S191, the image processing control unit 2a may read the subsequent images classified into the small intestine image group by the small intestine image classification process.

つぎに、図3に示したステップS109の胃画像分類処理について説明する。図8は、胃画像分類処理の処理手順を示すフローチャートである。図8に示すように、画像処理制御部2aは、読み込む画像の画像番号をカウントするための変数N,MをN=0,M=0としてリセットし(ステップS221)、画像記憶部5aに記憶された一連の画像のうち時系列でN番目の画像を読み込み(ステップS223)、変数NをN=N+1としてインクリメントする(ステップS225)。   Next, the stomach image classification process in step S109 shown in FIG. 3 will be described. FIG. 8 is a flowchart showing the procedure of the stomach image classification process. As shown in FIG. 8, the image processing control unit 2a resets variables N and M for counting the image number of the image to be read as N = 0 and M = 0 (step S221), and stores them in the image storage unit 5a. The Nth image in the time series among the series of images read is read (step S223), and the variable N is incremented with N = N + 1 (step S225).

そして、画像分類部2dは、この読み込まれた画像に小腸画像情報が付加されているか否かを判断し(ステップS227)、小腸画像情報が付加されていない場合(ステップS227:No)、画像処理制御部2aは、一連のすべての画像を処理したか否かを判断し(ステップS229)、すべての画像を処理していない場合(ステップS229:No)、処理していない画像に対してステップS223からの処理を繰り返し、すべての画像を処理している場合(ステップS229:Yes)、ステップS109にリターンする。   Then, the image classification unit 2d determines whether or not small intestine image information is added to the read image (step S227). When small intestine image information is not added (step S227: No), image processing is performed. The control unit 2a determines whether or not a series of all images has been processed (step S229). If all the images have not been processed (step S229: No), the control unit 2a performs step S223 on the unprocessed image. If all the images have been processed (step S229: Yes), the process returns to step S109.

一方、読み込まれた画像に小腸画像情報が付加されている場合(ステップS227:Yes)、画像処理制御部2aは、画像記憶部5aに記憶された一連の画像のうち時系列でM番目の画像を読み込み(ステップS231)、変数MをM=M+1としてインクリメントし(ステップS233)、画像分類部2dは、この読み込まれた画像に胃画像であることを示す胃画像情報を付加する(ステップS235)。   On the other hand, when the small intestine image information is added to the read image (step S227: Yes), the image processing control unit 2a is the Mth image in time series among the series of images stored in the image storage unit 5a. (Step S231), the variable M is incremented as M = M + 1 (step S233), and the image classification unit 2d adds stomach image information indicating a stomach image to the read image (step S235). .

その後、画像処理制御部2aは、この胃画像情報が付加された画像を画像記憶部5aに記録し(ステップS237)、変数N,Mが「M≧N」の関係にあるか否かを判断し(ステップS239)、「M≧N」の関係にない場合(ステップS239:No)、処理していない画像に対してステップS231からの処理を繰り返し、「M≧N」の関係にある場合(ステップS239:Yes)、ステップS109にリターンする。   Thereafter, the image processing control unit 2a records the image to which the stomach image information is added in the image storage unit 5a (step S237), and determines whether or not the variables N and M have a relationship of “M ≧ N”. (Step S239), if the relationship is not “M ≧ N” (Step S239: No), the processing from Step S231 is repeated for the unprocessed image, and the relationship is “M ≧ N” ( Step S239: Yes), the process returns to Step S109.

このようにして、胃画像分類処理では、小腸画像分類処理によって小腸画像群に分類された画像よりも時系列で前の各画像に胃画像情報を付加するとともに、この各画像を胃画像として同一の胃画像群に分類することができる。   In this way, in the stomach image classification process, the stomach image information is added to each previous image in time series than the images classified into the small intestine image group by the small intestine image classification process, and each image is the same as the stomach image. Can be classified into a group of stomach images.

なお、胃画像分類処理では、たとえば、画像処理制御部2aが、小腸画像分類処理において小腸画像群に分類された先頭の画像番号を記録し、ステップS221で、この記録した画像番号を変数Nにセットすることによって、ステップS223〜S229の処理を省略し、直ちにステップS231からの処理を行うようにしてもよい。   In the stomach image classification process, for example, the image processing control unit 2a records the first image number classified into the small intestine image group in the small intestine image classification process, and the recorded image number is set as the variable N in step S221. By setting, the processing of steps S223 to S229 may be omitted, and the processing from step S231 may be performed immediately.

つぎに、図3に示したステップS111の画像表示処理について説明する。図9は、画像表示処理の処理手順を示すフローチャートである。図9に示すように、画像表示制御部6aは、胃、小腸および大腸のうち画像を表示させる対象部位が指定情報により指定されているか否かを判断し(ステップS251)、指定されていない場合(ステップS251:No)、すべての部位の画像を表示させる全部位再生モードを設定し(ステップS253)、指定されている場合(ステップS251:Yes)、指定された部位の画像のみを表示させる指定部位再生モードを設定する(ステップS255)。   Next, the image display process in step S111 shown in FIG. 3 will be described. FIG. 9 is a flowchart showing the processing procedure of the image display processing. As shown in FIG. 9, the image display control unit 6a determines whether or not a target region for displaying an image among the stomach, the small intestine, and the large intestine is designated by the designation information (step S251). (Step S251: No), the all-parts reproduction mode for displaying the images of all parts is set (Step S253), and if designated (Step S251: Yes), the designation to display only the image of the designated part The part reproduction mode is set (step S255).

つづいて、画像表示制御部6aは、入力部3が備える画像再生ボタンが押されているか否かを判断し(ステップS257)、押されていない場合(ステップS257:No)、押されるまでこの判断処理を繰り返し待機する。   Subsequently, the image display control unit 6a determines whether or not the image reproduction button included in the input unit 3 is pressed (step S257). When the button is not pressed (step S257: No), this determination is performed until it is pressed. Wait for the process repeatedly.

画像再生ボタンが押されている場合(ステップS257:Yes)、画像表示制御部6aは、部位毎の画像群に分類され画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS259)、表示対象部位であることを示す画像情報が付加されているか否かを判断し(ステップS261)、表示対象部位の画像情報が付加されている場合(ステップS261:Yes)、読み込んだ画像を表示部4に表示する(ステップS263)。   When the image reproduction button is pressed (step S257: Yes), the image display control unit 6a is the first image in time series among a series of images classified into image groups for each part and stored in the image storage unit 5a. Is read (step S259), it is determined whether or not image information indicating that it is a display target part is added (step S261), and if image information of the display target part is added (step S261: Yes). The read image is displayed on the display unit 4 (step S263).

そして、画像表示制御部6aは、一連のすべての画像を処理したか否かを判断し(ステップS265)、すべての画像を処理していない場合(ステップS265:No)、処理していない画像に対してステップS259からの処理を繰り返し、すべての画像を処理している場合(ステップS265:Yes)、ステップS111にリターンする。なお、画像表示制御部6aは、ステップS261で、表示対象部位の画像情報が付加されていない場合(ステップS261:No)、直ちにステップS265の判断を行う。   Then, the image display control unit 6a determines whether or not a series of all images has been processed (step S265), and when all the images have not been processed (step S265: No), the image is not processed. On the other hand, if the processing from step S259 is repeated and all the images have been processed (step S265: Yes), the process returns to step S111. In addition, when the image information of the display target part is not added at step S261 (step S261: No), the image display control unit 6a immediately performs the determination at step S265.

このように、画像表示処理では、あらかじめ入力された表示対象部位の指定情報を参照して、全部位または指定された部位を表示させる表示モードを設定し、設定した表示モードに対応する表示対象部位の画像情報が付加された画像のみを表示させることができる。すなわち、画像表示制御部6aは、再生モードと指定された表示対象部位とに応じて、胃画像群、小腸画像群および大腸画像群の少なくとも1つの画像群の各画像を順次表示することができる。   As described above, in the image display processing, the display mode for displaying all the sites or the specified site is set with reference to the designation information of the display target site input in advance, and the display target site corresponding to the set display mode is set. Only the image to which the image information is added can be displayed. That is, the image display control unit 6a can sequentially display each image of at least one of the stomach image group, the small intestine image group, and the large intestine image group according to the reproduction mode and the designated display target portion. .

なお、画像表示処理では、たとえば、小腸画像分類処理および大腸画像分類処理において、画像処理制御部2aが、小腸画像群および大腸画像群の各先頭の画像番号を記録し、画像表示制御部6aが、ステップS259で、この記録された各先頭画像の画像番号を参照して、表示対象部位に対応する画像群の先頭画像を読み込むようにしてもよい。   In the image display process, for example, in the small intestine image classification process and the large intestine image classification process, the image processing control unit 2a records the leading image numbers of the small intestine image group and the large intestine image group, and the image display control unit 6a In step S259, the first image of the image group corresponding to the display target portion may be read with reference to the recorded image number of each first image.

図10は、表示対象部位を指定する指定情報を入力する際に表示部4に表示されるGUI画面の一例を示す図である。図10に示す例では、「再生部位」ウィンドウ内に、全部位再生モードまたは指定部位再生モードを選択するチェック項目としての「全部位再生」および「指定部位再生」が表示され、「指定部位再生」欄には、さらに胃、小腸および大腸の少なくとも1つの部位を指定できるチェック項目が表示されている。図10に示すように、指定部位再生モードとして「指定部位再生」および「小腸」の各項目がチェックされた場合、画像表示制御部6aは、小腸画像群に分類された各小腸画像を、各種属性を示す文字情報とともに「診察・診断」ウィンドウ内の画像表示領域PIに順次表示する。   FIG. 10 is a diagram illustrating an example of a GUI screen displayed on the display unit 4 when inputting designation information for designating a display target part. In the example shown in FIG. 10, “all site playback” and “designated site playback” are displayed in the “playback site” window as check items for selecting the all site playback mode or the specified site playback mode. "" Column further displays a check item that can designate at least one region of the stomach, small intestine, and large intestine. As shown in FIG. 10, when each item of “designated part reproduction” and “small intestine” is checked as the designated part reproduction mode, the image display control unit 6a The text information indicating the attribute is sequentially displayed in the image display area PI in the “diagnosis / diagnosis” window.

以上説明したように、この実施の形態1にかかる画像表示装置1では、画像記憶部5aに記憶された一連の画像に対して、領域検出部2bが、各画像から特徴画像領域として絨毛領域および便領域を検出し、特徴画像検出部2cが、検出された絨毛領域および便領域の占有率を算出するとともに、算出した占有率に応じて特徴画像として絨毛画像および便画像を検出し、画像分類部2dが、絨毛画像および便画像の連続する画像数をもとに、各画像に胃画像、小腸画像または大腸画像であることを示す画像情報を付加し、付加した画像情報毎に胃画像群、小腸画像群または大腸画像群に分類し、さらに、画像表示制御部6aが、各画像に付加された画像情報を参照し、画像再生モードと指定された表示対象部位とに応じて、分類された画像群の少なくとも1つの画像群に含まれる各画像を順次表示するようにしているため、所望の観察対象部位を撮像した画像のみを表示させることができ、一連の画像の観察を効率的に行うことができる。   As described above, in the image display device 1 according to the first embodiment, for the series of images stored in the image storage unit 5a, the region detection unit 2b performs a villi region and a feature image region from each image as a feature image region. The stool area is detected, and the feature image detection unit 2c calculates the occupation rate of the detected villi region and the stool region, detects the villi image and the stool image as the feature image according to the calculated occupation rate, and classifies the images. The unit 2d adds image information indicating that the image is a stomach image, a small intestine image, or a large intestine image to each image based on the number of consecutive villi images and stool images, and a stomach image group for each added image information. The image display control unit 6a refers to the image information added to each image, and is classified according to the image reproduction mode and the designated display target part. Images Since each image included in at least one image group is sequentially displayed, only an image obtained by imaging a desired observation target region can be displayed, and a series of images can be efficiently observed. .

なお、ステップS101〜S109の各処理内で各種情報が付加された画像を記録する場合、画像処理制御部2aは、画像記憶部5aにすでに記憶されている画像を更新するように記録してもよく、すでに記憶されている画像を記憶させたまま追加して記録するようにしてもよく、あるいは、付加情報のみ画像に対応付けて新たに記録するようにしてもよい。   When recording an image to which various types of information are added in each processing of steps S101 to S109, the image processing control unit 2a may record the image already stored in the image storage unit 5a so as to update it. Of course, an already stored image may be added and recorded while being stored, or only additional information may be newly recorded in association with the image.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、大腸画像を分類する際に、便領域の占有率に応じて検出した便画像の連続する画像数をもとに大腸画像を分類するようにしていたが、この実施の形態2では、各画像から粘膜および絨毛を有する特徴画像領域を検出し、この各特徴画像領域の占有率に応じて検出する特徴画像の連続する画像数をもとに大腸画像を分類するようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In Embodiment 1 described above, when a large intestine image is classified, the large intestine image is classified based on the number of consecutive stool images detected according to the occupancy rate of the stool region. In the second aspect, feature image regions having mucous membranes and villi are detected from each image, and the large intestine images are classified based on the number of consecutive feature images detected according to the occupancy of each feature image region. I have to.

図11は、この実施の形態2にかかる画像表示装置11の構成を示すブロック図である。図11に示すように、画像表示装置11は、画像表示装置1が備えた画像処理部2に替えて画像処理部12を備える。また、画像処理部12は、画像処理部2が備えた画像処理制御部2a、領域検出部2bおよび特徴画像検出部2cに替えて、画像処理制御部12a、領域検出部12bおよび特徴画像検出部12cを備える。その他の構成は、実施の形態1と同じであり、同一構成部分には同一符号を付している。   FIG. 11 is a block diagram showing a configuration of the image display apparatus 11 according to the second embodiment. As shown in FIG. 11, the image display device 11 includes an image processing unit 12 instead of the image processing unit 2 provided in the image display device 1. Further, the image processing unit 12 replaces the image processing control unit 2a, the region detection unit 2b, and the feature image detection unit 2c included in the image processing unit 2, with the image processing control unit 12a, the region detection unit 12b, and the feature image detection unit. 12c. Other configurations are the same as those of the first embodiment, and the same reference numerals are given to the same components.

画像処理制御部12aは、画像処理制御部2aと同様に、画像記憶部5aに記憶された画像を取得して処理し、処理結果の画像を画像記憶部5aに記憶させる。ただし、画像処理制御部12aは、領域検出部2bおよび特徴画像検出部2cを制御する替わりに、領域検出部12bおよび特徴画像検出部12cを制御する。   Similar to the image processing control unit 2a, the image processing control unit 12a acquires and processes the image stored in the image storage unit 5a, and causes the image storage unit 5a to store the processed image. However, the image processing control unit 12a controls the region detection unit 12b and the feature image detection unit 12c instead of controlling the region detection unit 2b and the feature image detection unit 2c.

領域検出部12bは、領域検出部2bと同様に、各画像の中から所定の特徴を有する特徴画像領域を検出する。また、領域検出部12bは、所定の特徴としての主特徴およびこの主特徴とは異なる副特徴のそれぞれに対応して、各画像の中から主特徴画像領域および副特徴画像領域を検出する。   Similar to the region detection unit 2b, the region detection unit 12b detects a feature image region having a predetermined feature from each image. Further, the region detection unit 12b detects a main feature image region and a sub feature image region from each image corresponding to the main feature as the predetermined feature and the sub feature different from the main feature.

特徴画像検出部12cは、特徴画像検出部2cと同様に、領域検出部12bによって検出された特徴画像領域の全画像領域に対する占有率を算出し、算出した占有率に応じて特徴画像を検出し、検出した特徴画像に特徴画像情報を付加する。また、特徴画像検出部12cは、領域検出部12bによって検出された主特徴画像領域および副特徴画像領域をもとに、主特徴画像領域の全画像領域に対する主特徴占有率を算出するとともに、副特徴画像領域の主特徴画像領域に対する副特徴占有率を算出し、算出した主特徴占有率および副特徴占有率に応じて主特徴画像領域を有する特徴画像を検出し、検出した特徴画像に特徴画像情報を付加する。   Similar to the feature image detection unit 2c, the feature image detection unit 12c calculates the occupancy rate of the feature image region detected by the region detection unit 12b with respect to the entire image region, and detects the feature image according to the calculated occupancy rate. The feature image information is added to the detected feature image. The feature image detection unit 12c calculates the main feature occupancy ratio of the main feature image region with respect to the entire image region based on the main feature image region and the sub feature image region detected by the region detection unit 12b. The feature image area calculates the sub feature occupancy ratio of the main feature image area to the main feature image area, detects the feature image having the main feature image area according to the calculated main feature occupancy ratio and the sub feature occupancy ratio, and detects the feature image in the detected feature image. Add information.

ここで、画像表示装置11が行う処理および動作について説明する。図12は、画像表示装置11が、画像記憶部5aに記憶された一連の画像を処理し表示させる処理手順を示すフローチャートである。なお、図12に示すフローチャートは、図3に示した処理手順と同様に、カプセル型内視鏡を用いて撮像し生成された一連の画像を胃画像群、小腸画像群および大腸画像群に分類し表示する処理手順を例示する。   Here, processing and operations performed by the image display device 11 will be described. FIG. 12 is a flowchart illustrating a processing procedure in which the image display device 11 processes and displays a series of images stored in the image storage unit 5a. Note that the flowchart shown in FIG. 12 classifies a series of images captured and generated using a capsule endoscope into a stomach image group, a small intestine image group, and a large intestine image group, as in the processing procedure shown in FIG. The processing procedure to be displayed is shown as an example.

図12に示すように、領域検出部12b、特徴画像検出部12cおよび画像分類部2dは、図3に示したステップS101,S103と同様にステップS301,S303を実行し、絨毛画像を小腸画像として小腸画像群に分類する。   As shown in FIG. 12, the region detection unit 12b, the feature image detection unit 12c, and the image classification unit 2d execute steps S301 and S303 in the same manner as steps S101 and S103 shown in FIG. Classify into small intestine image group.

つづいて、領域検出部12bおよび特徴画像検出部12cは、各画像の中から絨毛領域と、腸内特徴としての粘膜を有する粘膜領域とを検出し、検出した各領域の占有率を算出し、算出した各占有率に応じて、粘膜の表面上に絨毛が少ない状態を示す特徴画像としての少絨毛画像を検出する少絨毛画像検出処理を行い(ステップS305)、画像分類部2dは、所定の画像数以上で連続する各少絨毛画像を大腸画像として大腸画像群に分類する大腸画像分類処理を行う(ステップS307)。   Subsequently, the region detection unit 12b and the feature image detection unit 12c detect a villi region and a mucosal region having a mucous membrane as an intestinal feature from each image, calculate an occupancy ratio of each detected region, According to each calculated occupancy rate, a low villus image detection process for detecting a low villus image as a feature image indicating a state where there are few villuses on the surface of the mucous membrane is performed (step S305), and the image classification unit 2d Large intestine image classification processing is performed to classify each small villus image continuous in the number of images or more into a large intestine image group as a large intestine image (step S307).

その後、画像分類部2dおよび画像処理制御部6aは、それぞれステップS109およびS111と同様に、ステップS309およびS311を実行し、制御部6は、一連の処理を終了する。   Thereafter, the image classification unit 2d and the image processing control unit 6a execute steps S309 and S311 in the same manner as steps S109 and S111, respectively, and the control unit 6 ends the series of processes.

つぎに、図12に示したステップS305の少絨毛画像検出処理について説明する。図13は、少絨毛画像検出処理の処理手順を示すフローチャートである。図13に示すように、画像処理制御部12aは、画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS321)、領域検出部12bは、この読み込んだ画像の中から主特徴としての粘膜を有する粘膜領域を主特徴画像領域として検出するとともに(ステップS323)、副特徴としての絨毛を有する絨毛領域を副特徴画像領域として検出する(ステップS325)。なお、ステップS323では、領域検出部12bは、肌色〜赤色を示す画像領域を粘膜領域として検出する。   Next, the low villi image detection process in step S305 shown in FIG. 12 will be described. FIG. 13 is a flowchart showing a processing procedure of the oligovillus image detection processing. As shown in FIG. 13, the image processing control unit 12a reads the first image in time series among the series of images stored in the image storage unit 5a (step S321), and the area detection unit 12b reads the read image. A mucous membrane region having a mucous membrane as a main feature is detected as a main feature image region (step S323), and a villi region having villi as a sub feature is detected as a sub feature image region (step S325). In step S323, the region detection unit 12b detects an image region showing skin color to red as a mucous membrane region.

つづいて、特徴画像検出部12cは、検出された粘膜領域の全画像領域に対する占有率を主特徴占有率として算出するとともに(ステップS327)、絨毛領域の粘膜領域に対する占有率を副特徴占有率として算出する(ステップS329)。さらに、特徴画像検出部12cは、算出した粘膜領域の占有率が、あらかじめ入力されたしきい値よりも大きいか否かを判断し(ステップS331)、粘膜領域の占有率が大きい場合(ステップS331:Yes)、算出した絨毛領域の占有率が、あらかじめ入力されたしきい値よりも小さいか否かを判断し(ステップS333)、絨毛領域の占有率が小さい場合(ステップS333:Yes)、処理対象の画像に少絨毛画像であることを示す少絨毛画像情報を付加する(ステップS335)。   Subsequently, the feature image detection unit 12c calculates the occupation ratio of the detected mucosal area with respect to the entire image area as the main feature occupation ratio (step S327), and also uses the occupation ratio of the villi area with respect to the mucosal area as the sub-feature occupation ratio. Calculate (step S329). Further, the feature image detection unit 12c determines whether or not the calculated occupancy rate of the mucosa region is larger than a threshold value input in advance (step S331), and when the occupancy rate of the mucosa region is large (step S331). : Yes), it is determined whether or not the calculated occupation rate of the villi region is smaller than a threshold value inputted in advance (step S333). If the occupation rate of the villi region is small (step S333: Yes), processing is performed. Low villus image information indicating that the image is a low villus image is added to the target image (step S335).

そして、画像処理制御部12aは、この少絨毛画像情報が付加された画像を少絨毛画像として画像記憶部5aに記録し(ステップS337)、一連のすべての画像を処理したか否かを判断し(ステップS339)、すべての画像を処理していない場合(ステップS339:No)、処理していない画像に対してステップS321からの処理を繰り返し、すべての画像を処理している場合(ステップS339:Yes)、ステップS305にリターンする。   Then, the image processing control unit 12a records the image to which the low villi image information is added as a low villi image in the image storage unit 5a (step S337), and determines whether or not all the series of images have been processed. (Step S339) When all the images are not processed (Step S339: No), the processing from Step S321 is repeated for the unprocessed images, and all the images are processed (Step S339: Yes), the process returns to step S305.

なお、画像処理制御部12aは、ステップS331で、粘膜領域の占有率がしきい値以下の場合(ステップS331:No)と、ステップS333で、絨毛領域の占有率がしきい値以上の場合(ステップS333:No)、直ちにステップS339の判断を行う。   In step S331, the image processing control unit 12a determines that the mucosal area occupancy is equal to or lower than the threshold value (step S331: No) and the villus area occupancy is equal to or higher than the threshold value in step S333 ( Step S333: No), the determination of step S339 is immediately performed.

このようにして、少絨毛画像検出処理では、全画像領域に占める粘膜領域が大きく観察の必要性が高い画像であって、粘膜の表面上の絨毛が少ない大腸の特性を示す画像である少絨毛画像を、一連の画像の中から検出することができる。   In this way, in the low villi image detection processing, the small villi are images that have a large mucosal area in the entire image area and a high necessity for observation, and that show the characteristics of the large intestine with fewer villi on the surface of the mucosa. An image can be detected from a series of images.

なお、ステップS325では、領域検出部12bは、たとえば、ステップS301の絨毛画像検出処理において検出した絨毛領域を各画像に対応付けて記録し、この記録した絨毛領域を参照することによって、絨毛領域の検出を省略してもよい。   In step S325, the region detection unit 12b records, for example, the villi region detected in the villi image detection process in step S301 in association with each image, and refers to the recorded villi region, thereby Detection may be omitted.

また、領域検出部12bは、ステップS323とS325の処理順序を入れ替えてもよく、領域検出部12bおよび特徴画像検出部12cは、ステップS325とS327の処理順序を入れ替えてもよい。   Further, the region detection unit 12b may change the processing order of steps S323 and S325, and the region detection unit 12b and the feature image detection unit 12c may change the processing order of steps S325 and S327.

つぎに、図12に示したステップS307の大腸画像分類処理について説明する。図14は、大腸画像分類処理の処理手順を示すフローチャートである。図14に示す大腸画像分類処理では、便画像に換えて少絨毛画像の連続した読込数をカウントすることによって、図7に示した大腸画像分類処理と同様の処理手順により大腸画像を分類するようにしている。   Next, the large intestine image classification process in step S307 shown in FIG. 12 will be described. FIG. 14 is a flowchart illustrating a processing procedure of large intestine image classification processing. In the large intestine image classification process shown in FIG. 14, the colon image is classified by the same processing procedure as the large intestine image classification process shown in FIG. I have to.

図14に示すように、画像処理制御部12aは、画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS351)、画像分類部2dは、読み込んだ画像に少絨毛検出情報が付加されているか否かを判断し(ステップS353)、少絨毛検出情報が付加されている場合(ステップS353:Yes)、少絨毛画像を読み込んだ回数をカウントし(ステップS355)、少絨毛画像を所定の画像数連続して読み込んだか否かを判断する(ステップS357)。   As shown in FIG. 14, the image processing control unit 12a reads the first image in time series among the series of images stored in the image storage unit 5a (step S351), and the image classification unit 2d converts the read image into the read image. It is determined whether or not the low villus detection information is added (step S353). If the low villus detection information is added (step S353: Yes), the number of times of reading the low villus image is counted (step S355). Then, it is determined whether or not a predetermined number of images of the villus image are continuously read (step S357).

所定の画像数連続して読み込んでいない場合(ステップS357:No)、画像処理制御部12aは、一連のすべての画像を処理したか否かを判断し(ステップS359)、すべての画像を処理している場合(ステップS359:Yes)、ステップS307にリターンし、すべての画像を処理していない場合(ステップS359:No)、処理していない画像に対してステップS351からの処理を繰り返す制御を行う。   When the predetermined number of images have not been read continuously (step S357: No), the image processing control unit 12a determines whether or not a series of all images has been processed (step S359), and all the images are processed. If YES in step S359, the process returns to step S307, and if all the images have not been processed (step S359: NO), the control from step S351 is repeated for the unprocessed image. .

なお、画像処理制御部12aは、ステップS353で、少絨毛検出情報が付加されていないと判断された場合にも(ステップS353:No)、ステップS359において一連のすべての画像を処理したか否かを判断する。   Note that the image processing control unit 12a also determines whether or not all of the series of images have been processed in step S359 even when it is determined in step S353 that the low villi detection information is not added (step S353: No). Judging.

一方、所定の画像数連続して少絨毛画像を読み込んでいる場合(ステップS357:Yes)、画像処理制御部12aは、この所定の画像数だけ時系列にさかのぼった時点の画像を読み込み直し(ステップS361)、画像分類部2dは、少絨毛検出情報が付加されているか否かを判断する(ステップS363)。少絨毛検出情報が付加されている場合(ステップS363:Yes)、画像分類部2dは、処理対象の画像に大腸画像情報を付加する(ステップS365)。   On the other hand, in the case where the predetermined number of images are continuously read, the image processing control unit 12a rereads the images that have been traced back in time series by the predetermined number of images (step S357: Yes). S361), the image classification unit 2d determines whether or not the low villus detection information is added (step S363). When the oligovillus detection information is added (step S363: Yes), the image classification unit 2d adds the colon image information to the image to be processed (step S365).

そして、画像処理制御部12aは、この大腸画像情報が付加された画像を画像記憶部5aに記録し(ステップS367)、一連のすべての画像を処理したか否かを判断し(ステップS369)、すべての画像を処理していない場合(ステップS369:No)、処理していない画像に対してステップS361からの処理を繰り返し、すべての画像を処理している場合(ステップS369:Yes)、ステップS307にリターンする。   Then, the image processing control unit 12a records the image with the colon image information added thereto in the image storage unit 5a (step S367), and determines whether or not a series of all images has been processed (step S369). When all the images are not processed (step S369: No), the processing from step S361 is repeated for the unprocessed images, and when all the images are processed (step S369: Yes), step S307 is performed. Return to

また、ステップS363で、少絨毛検出情報が付加されていないと判断された場合(ステップS363:No)、画像分類部2dは、少絨毛画像を読み込めない回数である非読込数をカウントし(ステップS371)、少絨毛画像の読み込みが所定の画像数途絶えたか否かを判断する(ステップS373)。そして、画像処理制御部12aは、所定の画像数途絶えていない場合(ステップS373:No)、ステップS369の判断を行い、所定の画像数途絶えている場合(ステップS373:Yes)、ステップS307にリターンする。   If it is determined in step S363 that the low villus detection information is not added (step S363: No), the image classification unit 2d counts the number of non-reads that is the number of times that the low villus image cannot be read (step S363). S371), it is determined whether or not the reading of a few villus images has been interrupted for a predetermined number of images (step S373). Then, if the predetermined number of images has not been interrupted (step S373: No), the image processing control unit 12a determines in step S369. If the predetermined number of images has been interrupted (step S373: Yes), the process returns to step S307. To do.

このようにして、この実施の形態2にかかる大腸画像分類処理では、実施の形態1にかかる大腸画像分類処理と同様に、少絨毛画像の読み込みが所定の画像数連続することによって、大腸の撮像を開始した画像を特定し、また、少絨毛画像の読み込みが所定の画像数途絶えることによって、大腸の撮像を終了した画像を特定し、これらの間の各画像に大腸画像情報を付加するとともに、この各画像を大腸画像として同一の大腸画像群に分類することができる。   In this way, in the large intestine image classification process according to the second embodiment, as in the large intestine image classification process according to the first embodiment, the reading of the small villi images continues for a predetermined number of images, thereby imaging the large intestine. In addition, the images of the large intestine are identified by stopping the predetermined number of images being read, and the colon image information is added to each image between them, Each of these images can be classified as a large intestine image into the same large intestine image group.

以上説明したように、この実施の形態2にかかる画像表示装置11では、領域検出部12b、特徴画像検出部12cおよび画像分類部2dによって、画像表示装置1と同様に、画像記憶部5aに記憶された一連の画像を胃画像群、小腸画像群および大腸画像群に分類することができ、この分類した画像群の少なくとも1つの画像群に含まれる各画像を、画像表示制御部6aが、画像再生モードと指定情報により指定される表示対象部位とに応じて順次表示するようにしているため、所望の観察対象部位を撮像した画像のみを表示させることができ、一連の画像の観察を効率的に行うことができる。   As described above, in the image display device 11 according to the second embodiment, the area storage unit 12b, the feature image detection unit 12c, and the image classification unit 2d store the image storage unit 5a in the same manner as the image display device 1. The series of images can be classified into a stomach image group, a small intestine image group, and a large intestine image group, and each image included in at least one image group of the classified image group is displayed as an image by the image display control unit 6a. Since the display is sequentially performed according to the playback mode and the display target portion specified by the specification information, only an image obtained by imaging the desired observation target portion can be displayed, and a series of images can be efficiently observed. Can be done.

なお、上述した実施の形態1および2では、画像記憶部5aに記憶された一連の画像を胃画像群、小腸画像群および大腸画像群に分類して少なくとも1つの画像群を表示するように説明したが、小腸画像群および/または大腸画像群に分類して少なくとも1つの画像群を表示するようにしてもよく、あるいは、小腸画像群および胃画像群に分類して少なくとも一方の画像群を表示するようにしてもよい。   In Embodiments 1 and 2 described above, a series of images stored in the image storage unit 5a is classified into a stomach image group, a small intestine image group, and a large intestine image group, and at least one image group is displayed. However, at least one image group may be displayed by classifying into a small intestine image group and / or a large intestine image group, or at least one image group is displayed by classifying into a small intestine image group and a stomach image group. You may make it do.

また、上述した実施の形態1および2では、カプセル型内視鏡を用いて胃、小腸および大腸の内部を撮像した一連の画像を分類して表示するように説明したが、他の臓器を撮像した画像に対して分類および表示を行うようにしてもよく、また、臓器を撮像した画像に限らず、各種の被写体を撮像した一連の画像を被写体毎に分類して表示するようにしてもよい。   Further, in the first and second embodiments described above, a series of images obtained by imaging the inside of the stomach, small intestine, and large intestine using the capsule endoscope has been described as being classified, but other organs are imaged. The images may be classified and displayed, and not limited to images obtained by imaging organs, a series of images obtained by imaging various subjects may be classified and displayed for each subject. .

本発明の実施の形態1にかかる画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image display apparatus concerning Embodiment 1 of this invention. 図1に示した画像表示装置によって画像を分類する処理の概要を説明する模式図である。It is a schematic diagram explaining the outline | summary of the process which classifies an image with the image display apparatus shown in FIG. 図1に示した画像表示装置が行う処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure performed by the image display apparatus illustrated in FIG. 1. 図3に示した絨毛画像検出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the villi image detection process shown in FIG. 図3に示した小腸画像分類処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the small intestine image classification process shown in FIG. 図3に示した便画像検出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the stool image detection process shown in FIG. 図3に示した大腸画像分類処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the large intestine image classification process shown in FIG. 図3に示した胃画像分類処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the stomach image classification | category process shown in FIG. 図3に示した画像表示処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image display process shown in FIG. 図1に示した画像表示装置が表示するGUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen which the image display apparatus shown in FIG. 1 displays. 本発明の実施の形態2にかかる画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image display apparatus concerning Embodiment 2 of this invention. 図11に示した画像表示装置が行う処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which the image display apparatus shown in FIG. 11 performs. 図12に示した少絨毛画像検出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the low villus image detection process shown in FIG. 図12に示した大腸画像分類処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the large intestine image classification | category process shown in FIG.

符号の説明Explanation of symbols

1,11 画像表示装置
2,12 画像処理部
2a,12a 画像処理制御部
2b,12b 領域検出部
2c,12c 特徴画像検出部
2d 画像分類部
3 入力部
4 表示部
5 記憶部
5a 画像記憶部
6 制御部
6a 画像表示制御部
DESCRIPTION OF SYMBOLS 1,11 Image display apparatus 2,12 Image processing part 2a, 12a Image processing control part 2b, 12b Area | region detection part 2c, 12c Feature image detection part 2d Image classification part 3 Input part 4 Display part 5 Storage part 5a Image storage part 6 Control unit 6a Image display control unit

Claims (11)

入力された一連の画像を順次表示する画像表示装置において、
前記一連の画像に含まれる各画像の中から所定の特徴を有する特徴画像領域を検出する領域検出手段と、
前記各画像の全画像領域に対する前記特徴画像領域の占有率を算出し、該算出した各占有率に応じて前記特徴画像領域を有する各特徴画像を前記一連の画像の中から検出する画像検出手段と、
前記画像検出手段によって検出された特徴画像の時系列に連続する連続画像数をもとに前記一連の画像を1以上の画像群に分類する画像分類手段と、
前記画像分類手段によって分類された各画像群の中からあらかじめ指定される少なくとも1つの画像群に含まれる各画像を順次表示する制御を行う表示制御手段と、
を備えたことを特徴とする画像表示装置。
In an image display device that sequentially displays a series of input images,
A region detecting means for detecting a feature image region having a predetermined feature from each image included in the series of images;
Image detecting means for calculating an occupancy ratio of the feature image area with respect to the entire image area of each image, and detecting each feature image having the feature image area from the series of images according to the calculated occupancy ratio When,
Image classification means for classifying the series of images into one or more image groups based on the number of consecutive images in time series of feature images detected by the image detection means;
Display control means for performing control to sequentially display each image included in at least one image group designated in advance from each image group classified by the image classification means;
An image display device comprising:
前記領域検出手段は、前記全画像領域を1以上の小領域に分割し、該小領域ごとに前記特徴画像領域を検出し、  The region detection means divides the entire image region into one or more small regions, detects the feature image region for each small region,
前記画像検出手段は、前記小領域ごとに前記特徴画像領域が検出されたか否かを判断し、前記特徴画像領域が検出された前記小領域の領域数をもとに前記占有率を算出することを特徴とする請求項1に記載の画像表示装置。  The image detection means determines whether or not the feature image area is detected for each of the small areas, and calculates the occupation ratio based on the number of areas of the small areas in which the feature image areas are detected. The image display apparatus according to claim 1.
前記画像分類手段は、所定の前記連続画像数以上で連続する各特徴画像を同一の画像群に分類することを特徴とする請求項1または2に記載の画像表示装置。 The image display device according to claim 1 , wherein the image classifying unit classifies the feature images that are continuous for a predetermined number of continuous images or more into the same image group. 前記画像分類手段は、前記所定の連続画像数以上で連続する各特徴画像よりも時系列で前の画像であって特徴画像でない各画像を、前記各特徴画像が分類された画像群とは異なる画像群に分類することを特徴とする請求項3に記載の画像表示装置。 The image classification unit is configured to display images that are images before the feature images that are consecutive in the number of continuous images that are equal to or greater than the predetermined number of consecutive images and that are not feature images, different from the image group in which the feature images are classified. The image display device according to claim 3 , wherein the image display device is classified into image groups. 前記所定の特徴は、主特徴と、該主特徴とは異なる副特徴とを含み、
前記領域検出手段は、前記各画像の中から前記主特徴を有する主特徴画像領域と、前記副特徴を有する副特徴画像領域とを検出し、
前記画像検出手段は、前記各画像の全画像領域に対する前記主特徴画像領域の主特徴占有率を算出するとともに、前記各画像の前記主特徴画像領域に対する前記副特徴画像領域の副特徴占有率を算出し、該算出した主特徴占有率および副特徴占有率に応じて前記主特徴画像領域を有する各特徴画像を前記一連の画像の中から検出することを特徴とする請求項1〜4のいずれか一つに記載の画像表示装置。
The predetermined feature includes a main feature and a sub feature different from the main feature,
The region detecting means detects a main feature image region having the main feature and a sub feature image region having the sub feature from the images,
The image detecting means calculates a main feature occupancy ratio of the main feature image area with respect to the entire image area of each image, and calculates a sub feature occupancy ratio of the sub feature image area with respect to the main feature image area of each image. 5. A feature image according to claim 1 , wherein each feature image having the main feature image area is detected from the series of images according to the calculated main feature occupancy rate and sub feature occupancy rate. The image display apparatus as described in any one.
前記所定の特徴は、互いに異なる複数の特徴を有し、
前記領域検出手段は、前記各画像の中から各特徴を有する特徴画像領域を検出し、
前記画像検出手段は、前記各画像の前記各特徴を有する特徴画像領域の前記占有率を算出し、該算出した各占有率に応じて前記複数の特徴毎に各特徴画像を検出し、
前記画像分類手段は、前記複数の特徴毎の前記連続画像数をもとに前記一連の画像を該複数の特徴毎の画像群に分類することを特徴とする請求項1〜5のいずれか一つに記載の画像表示装置。
The predetermined feature has a plurality of different features,
The region detection means detects a feature image region having each feature from the respective images,
The image detection means calculates the occupancy rate of the feature image region having the features of the images, detects the feature images for the plurality of features according to the calculated occupancy rates,
6. The image classification unit according to claim 1 , wherein the series of images is classified into an image group for each of the plurality of features based on the number of the continuous images for each of the plurality of features. The image display device described in one.
前記各画像群の中から少なくとも1つの画像群を指定する指定情報を受け付ける入力手段を備え、
前記表示制御手段は、前記指定情報により指定される画像群に含まれる各画像を順次表示する制御を行うことを特徴とする請求項1〜6のいずれか一つに記載の画像表示装置。
Input means for receiving designation information for designating at least one image group from the image groups;
The image display device according to claim 1 , wherein the display control unit performs control to sequentially display each image included in an image group designated by the designation information.
前記各画像は、消化器官の内部を撮像した画像であり、
前記所定の特徴は、小腸および大腸の少なくとも一方を特定する腸内特徴であり、
前記画像分類手段は、前記一連の画像を小腸および大腸の少なくとも一方を撮像した画像群に分類することを特徴とする請求項1〜7のいずれか一つに記載の画像表示装置。
Each of the images is an image of the inside of the digestive organs,
The predetermined characteristic is an intestinal characteristic that identifies at least one of the small intestine and the large intestine,
The image display device according to claim 1 , wherein the image classification unit classifies the series of images into an image group obtained by capturing at least one of the small intestine and the large intestine.
前記各画像は、胃および小腸の内部を撮像した画像であり、
前記所定の特徴は、小腸を特定する腸内特徴であり、
前記画像分類手段は、小腸を撮像した画像よりも時系列で前の各画像を、胃を撮像した画像群として分類することを特徴とする請求項1〜8のいずれか一つに記載の画像表示装置。
Each of the images is an image of the inside of the stomach and small intestine,
The predetermined characteristic is an intestinal characteristic that identifies the small intestine,
The image according to any one of claims 1 to 8 , wherein the image classifying unit classifies each image before the image obtained by imaging the small intestine in time series as an image group obtained by imaging the stomach. Display device.
前記腸内特徴は、粘膜、該粘膜の表面上の絨毛および便の少なくとも1つであることを特徴とする請求項8または9に記載の画像表示装置。 The image display apparatus according to claim 8 or 9 , wherein the intestinal characteristic is at least one of a mucous membrane, villi on the surface of the mucous membrane, and feces. 前記一連の画像は、カプセル型内視鏡を用いて生成されることを特徴とする請求項1〜10のいずれか一つに記載の画像表示装置。 The image display device according to claim 1 , wherein the series of images is generated using a capsule endoscope.
JP2005147233A 2005-05-19 2005-05-19 Image display device Expired - Fee Related JP4616076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005147233A JP4616076B2 (en) 2005-05-19 2005-05-19 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005147233A JP4616076B2 (en) 2005-05-19 2005-05-19 Image display device

Publications (3)

Publication Number Publication Date
JP2006320585A JP2006320585A (en) 2006-11-30
JP2006320585A5 JP2006320585A5 (en) 2008-02-28
JP4616076B2 true JP4616076B2 (en) 2011-01-19

Family

ID=37540681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005147233A Expired - Fee Related JP4616076B2 (en) 2005-05-19 2005-05-19 Image display device

Country Status (1)

Country Link
JP (1) JP4616076B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4932588B2 (en) 2007-05-08 2012-05-16 オリンパス株式会社 Image processing apparatus and image processing program
JP5312807B2 (en) * 2008-01-08 2013-10-09 オリンパス株式会社 Image processing apparatus and image processing program
JP5117353B2 (en) * 2008-11-07 2013-01-16 オリンパス株式会社 Image processing apparatus, image processing program, and image processing method
JP5576775B2 (en) 2010-11-29 2014-08-20 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP2012249956A (en) * 2011-06-06 2012-12-20 Toshiba Corp Capsule endoscope image processing apparatus and capsule endoscope system
JP5846841B2 (en) * 2011-10-14 2016-01-20 株式会社東芝 Medical image display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004337596A (en) * 2003-04-25 2004-12-02 Olympus Corp Device, method and program for displaying image
JP2006154309A (en) * 2004-11-29 2006-06-15 Olympus Corp Image display device, image display method and image display program
JP2006288612A (en) * 2005-04-08 2006-10-26 Olympus Corp Picture display device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8005279B2 (en) * 2005-03-22 2011-08-23 Osaka University Capsule endoscope image display controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004337596A (en) * 2003-04-25 2004-12-02 Olympus Corp Device, method and program for displaying image
JP2006154309A (en) * 2004-11-29 2006-06-15 Olympus Corp Image display device, image display method and image display program
JP2006288612A (en) * 2005-04-08 2006-10-26 Olympus Corp Picture display device

Also Published As

Publication number Publication date
JP2006320585A (en) 2006-11-30

Similar Documents

Publication Publication Date Title
JP4418400B2 (en) Image display device
JP6656357B2 (en) Learning method, image recognition device and program
JP5147308B2 (en) Image extraction apparatus and image extraction program
US7319781B2 (en) Method and system for multiple passes diagnostic alignment for in vivo images
JP7313512B2 (en) Endoscope processor, program, information processing method and information processing apparatus
JP4602825B2 (en) Image display device
WO2018165620A1 (en) Systems and methods for clinical image classification
JP4616076B2 (en) Image display device
EP1681012A1 (en) Insert support system
JP2020124472A (en) Detection of pathologies in ocular images
KR20120072961A (en) Method and apparatus for aiding image diagnosis using medical image, image diagnosis aiding system for performing the same
WO2019064704A1 (en) Endoscopic image observation assistance system, endoscopic image observation assistance device, and endoscopic image observation assistance method
CN111214255A (en) Medical ultrasonic image computer-aided diagnosis method
EP1495721A2 (en) Biological-sound data processing system, program, and recording medium
KR102294738B1 (en) System and Method for sorting organ
JPWO2020184257A1 (en) Medical image processing equipment and methods
JP5004736B2 (en) Image processing apparatus and image processing program
JP4464894B2 (en) Image display device
JP4445742B2 (en) Image display apparatus, image display method, and image display program
JP6425868B1 (en) ENDOSCOPIC IMAGE OBSERVATION SUPPORT SYSTEM, ENDOSCOPIC IMAGE OBSERVATION SUPPORT DEVICE, AND ENDOSCOPIC IMAGE OBSERVATION SUPPORT METHOD
US11935239B2 (en) Control method, apparatus and program for system for determining lesion obtained via real-time image
WO2023042273A1 (en) Image processing device, image processing method, and storage medium
WO2023282144A1 (en) Information processing device, information processing method, endoscope system, and report preparation assistance device
WO2022185369A1 (en) Image processing device, image processing method, and storage medium
JP7211172B2 (en) Dynamic image analysis system and dynamic image processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101021

R151 Written notification of patent or utility model registration

Ref document number: 4616076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees