JP2006320650A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2006320650A
JP2006320650A JP2005148670A JP2005148670A JP2006320650A JP 2006320650 A JP2006320650 A JP 2006320650A JP 2005148670 A JP2005148670 A JP 2005148670A JP 2005148670 A JP2005148670 A JP 2005148670A JP 2006320650 A JP2006320650 A JP 2006320650A
Authority
JP
Japan
Prior art keywords
image
images
feature
representative
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005148670A
Other languages
Japanese (ja)
Other versions
JP2006320650A5 (en
JP4418400B2 (en
Inventor
Katsumi Hirakawa
克己 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2005148670A priority Critical patent/JP4418400B2/en
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to EP06712938.7A priority patent/EP1882440A4/en
Priority to CN200680015612A priority patent/CN100577088C/en
Priority to PCT/JP2006/301795 priority patent/WO2006123455A1/en
Priority to US11/631,273 priority patent/US8830307B2/en
Publication of JP2006320650A publication Critical patent/JP2006320650A/en
Publication of JP2006320650A5 publication Critical patent/JP2006320650A5/ja
Priority to US11/787,980 priority patent/US8502861B2/en
Application granted granted Critical
Publication of JP4418400B2 publication Critical patent/JP4418400B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Digital Computer Display Output (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To observe a series of images efficiently by reducing time for displaying images of less need for the observation. <P>SOLUTION: An image display device 1 is equipped with an image processing control part 2a which acquires images from a storage part 5 and controls various kinds of image processing for the acquired images to make the storage part 5 store the processed image, an image sorting part 2b which calculates a correlation value of images continuing in the chronological order and sorts each image to image groups depending on the calculated correlation value, a marked image detecting part 2c which detects a characteristic image region with a prescribed characteristic from each image and detects the characteristic image with the detected characteristic image region as a marked image, a representative image extracting part 2d which extracts the marked image and a beginning image in each image group as the representative image and sets a display rate for the each extracted representative image, and an image display control part 6a which controls to display a series of representative images sequentially depending on the set displayed rate. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、入力された一連の画像を順次表示する画像表示装置に関し、特にカプセル型内視鏡を用いて披検体内を撮像した一連の画像の表示に適用して好適な画像表示装置に関するものである。   The present invention relates to an image display device that sequentially displays a series of input images, and more particularly to an image display device suitable for application to display of a series of images obtained by imaging the inside of a subject using a capsule endoscope. It is.

近年、内視鏡の分野において、飲込み式のカプセル型内視鏡が開発されている。このカプセル型内視鏡は、撮像機能と無線通信機能とを備え、各種臓器内の観察のために患者の口から飲み込まれた後、人体から自然排出されるまでの間、たとえば胃、小腸、大腸などの消化器官の内部をその蠕動運動にしたがって移動しながら順次撮像する。   In recent years, swallowable capsule endoscopes have been developed in the field of endoscopes. This capsule endoscope has an imaging function and a wireless communication function. After being swallowed from the patient's mouth for observation in various organs, until it is naturally discharged from the human body, for example, the stomach, the small intestine, Images are sequentially taken while moving inside the digestive organs such as the large intestine according to the peristaltic movement.

臓器内を移動する間、カプセル型内視鏡によって体内で撮像された画像データは、順次無線通信により体外に送信され、体外の受信機内に設けられたメモリに蓄積されるか、受信機に設けられたディスプレイに画像表示される。医師、看護師等は、メモリに蓄積された画像データをもとにディスプレイに表示させた画像、または受信とともに受信機に設けられたディスプレイに表示させた画像に基づいて診断を行うことができる。   While moving inside the organ, image data captured inside the body by the capsule endoscope is sequentially transmitted outside the body by wireless communication and stored in a memory provided in the receiver outside the body or provided in the receiver. The image is displayed on the displayed display. A doctor, nurse, or the like can make a diagnosis based on the image displayed on the display based on the image data stored in the memory or the image displayed on the display provided in the receiver along with the reception.

通常、カプセル型内視鏡によって撮像される一連の画像数は膨大であり、医師、看護師等は、この一連の画像を観察して診断を行うために多大な時間と労力を要する。これに対応して、メモリに蓄積された画像データをもとに画像を表示させて観察を行う場合、2つの画像の類似性の程度を判定し、この判定結果をもとに画像の表示レートを変化させる表示装置が提案されている(たとえば、特許文献1参照)。この表示装置では、カプセル型内視鏡の移動が停滞した際に連続して撮像される類似画像が多いことに着目し、2つの画像の類似性が低い場合、低速の表示レートで画像を表示し、類似性が高い場合、高速の表示レートで画像を表示するようにしている。   Usually, the series of images captured by the capsule endoscope is enormous, and doctors, nurses, and the like require a great deal of time and effort to observe and diagnose this series of images. Correspondingly, when an image is displayed based on the image data stored in the memory for observation, the degree of similarity between the two images is determined, and the image display rate is determined based on the determination result. There has been proposed a display device that changes the angle (see, for example, Patent Document 1). In this display device, focusing on the fact that there are many similar images that are continuously captured when the movement of the capsule endoscope is stagnant, when the similarity between the two images is low, the image is displayed at a low display rate. If the similarity is high, an image is displayed at a high display rate.

特表2004−521662号公報JP-T-2004-521626

しかしながら、このような表示装置では、2つの画像の類似性に応じて画像の表示レートを変化させるようにしているため、たとえば、出血部位を含み観察の必要性が高い画像であっても、出血部位がわずかな領域であると、類似性が高く判定され高速の表示レートで表示されることになり、観察が困難となる場合が生じるという問題があった。   However, in such a display device, the display rate of the image is changed in accordance with the similarity between the two images. For example, even if the image includes a bleeding site and is highly necessary to be observed, the bleeding When the region is a small region, there is a problem that the similarity is determined to be high and the image is displayed at a high display rate, which may make observation difficult.

本発明は、上記に鑑みてなされたものであって、画像の類似性に応じて一連の画像を分類する場合でも、観察の必要性が高い画像の観察を容易とし、観察の必要性が低い画像の表示時間を削減することができ、結果として一連の画像の観察を効率的に行うことができる画像表示装置を提供することを目的とする。   The present invention has been made in view of the above, and even when a series of images is classified according to the similarity of images, it is easy to observe an image having a high necessity for observation, and the necessity for observation is low. An object of the present invention is to provide an image display device that can reduce the display time of an image and, as a result, can efficiently observe a series of images.

上記の目的を達成するために、請求項1にかかる画像表示装置は、入力された一連の画像を順次表示する画像表示装置において、前記一連の画像に含まれる各画像を該各画像間の相関度に応じて1以上の画像グループに分類する画像分類手段と、前記各画像の中から所定の特徴を有する特徴画像領域を検出し、該検出した特徴画像領域を有する各特徴画像を前記一連の画像の中から検出する特徴画像検出手段と、前記画像分類手段によって分類された各画像グループ内の前記特徴画像を、該各画像グループを代表する代表画像として抽出する代表画像抽出手段と、前記代表画像抽出手段によって抽出された代表画像を順次表示する制御を行う画像表示制御手段と、を備えたことを特徴とする。   In order to achieve the above object, an image display device according to claim 1 is an image display device for sequentially displaying a series of inputted images, and correlates each image included in the series of images with each other. Image classification means for classifying the image into one or more image groups according to the degree, a feature image area having a predetermined feature is detected from each of the images, and each feature image having the detected feature image area is Feature image detection means for detecting from among the images, representative image extraction means for extracting the feature images in each image group classified by the image classification means as representative images representing each image group, and the representative And image display control means for performing control to sequentially display the representative images extracted by the image extraction means.

また、請求項2にかかる画像表示装置は、上記の発明において、前記代表画像抽出手段は、少なくとも各画像グループの時系列で先頭にある先頭画像を該各画像グループの代表画像として抽出することを特徴とする。   In the image display device according to claim 2, in the above invention, the representative image extraction means extracts at least a head image at the head of each image group in time series as a representative image of each image group. Features.

また、請求項3にかかる画像表示装置は、上記の発明において、前記特徴画像検出手段によって検出された複数の特徴画像のうち時系列で連続する特徴画像間で生じた前記特徴画像領域の所定の特徴量の変化量を算出し、該算出した変化量をもとに前記複数の特徴画像を代表する特徴代表画像を選択する特徴画像選択手段を備え、前記特徴画像検出手段は、検出した各特徴画像領域の前記所定の特徴量を算出し、前記特徴画像選択手段は、前記特徴画像検出手段によって算出された特徴量をもとに前記変化量を算出し、前記代表画像抽出手段は、各画像グループ内の特徴画像のうち前記特徴代表画像を代表画像として抽出することを特徴とする。   According to a third aspect of the present invention, there is provided the image display device according to the above-described invention, wherein a predetermined image of the feature image region generated between the feature images consecutive in time series among the plurality of feature images detected by the feature image detection means is provided. A feature image selecting unit that calculates a change amount of the feature amount and selects a feature representative image that represents the plurality of feature images based on the calculated change amount, and the feature image detection unit detects each feature detected The predetermined feature amount of the image area is calculated, the feature image selection unit calculates the change amount based on the feature amount calculated by the feature image detection unit, and the representative image extraction unit Of the feature images in the group, the feature representative image is extracted as a representative image.

また、請求項4にかかる画像表示装置は、上記の発明において、前記所定の特徴量は、前記特徴画像内の特徴画像領域の位置であることを特徴とする。   According to a fourth aspect of the present invention, in the above invention, the predetermined feature amount is a position of a feature image region in the feature image.

また、請求項5にかかる画像表示装置は、上記の発明において、前記画像表示制御手段は、前記特徴画像である代表画像を表示する際、該代表画像の近傍に特徴画像であることを示すマークを表示する制御を行うことを特徴とする。   In the image display device according to claim 5, in the above invention, when the image display control means displays a representative image that is the feature image, a mark indicating that the image is a feature image in the vicinity of the representative image It is characterized by performing control to display.

また、請求項6にかかる画像表示装置は、上記の発明において、前記各画像は、臓器の内部を撮像した画像であり、前記所定の特徴は、前記臓器の内部の病変を示す特徴であることを特徴とする。   Further, in the image display device according to claim 6, in the above invention, each image is an image obtained by imaging the inside of the organ, and the predetermined feature is a feature showing a lesion inside the organ. It is characterized by.

また、請求項7にかかる画像表示装置は、上記の発明において、前記病変を示す特徴は、出血、褪色および形状異常の少なくとも1つであることを特徴とする。   The image display device according to a seventh aspect of the present invention is characterized in that, in the above invention, the feature indicating the lesion is at least one of bleeding, discoloration, and shape abnormality.

また、請求項8にかかる画像表示装置は、上記の発明において、前記一連の画像は、カプセル型内視鏡を用いて生成されることを特徴とする。   An image display apparatus according to an eighth aspect of the present invention is characterized in that, in the above invention, the series of images is generated using a capsule endoscope.

本発明にかかる画像表示装置によれば、画像の類似性に応じて一連の画像を分類する場合でも、観察の必要性が高い画像の観察を容易とし、観察の必要性が低い画像の表示時間を削減することができ、結果として一連の画像の観察を効率的に行うことができる。   According to the image display device of the present invention, even when a series of images are classified according to the similarity of images, it is possible to easily observe an image having a high necessity for observation, and to display an image with a low necessity for observation. As a result, a series of images can be observed efficiently.

以下、添付図面を参照して、本発明にかかる画像表示装置の好適な実施の形態を詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, exemplary embodiments of an image display device according to the invention will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same parts are denoted by the same reference numerals.

(実施の形態1)
まず、本発明の実施の形態1にかかる画像表示装置について説明する。図1は、この実施の形態にかかる画像表示装置1の構成を示すブロック図である。図1に示すように、画像表示装置1は、記憶部5に記憶された画像を処理する画像処理部2と、各種情報の入力を受け付ける入力部3と、各種情報を表示する表示部4と、各種情報を記憶する記憶部5と、画像表示装置1の各部の処理および動作を制御する制御部6と、を備える。画像処理部2、入力部3、表示部4および記憶部5は、制御部6に電気的に接続されている。
(Embodiment 1)
First, the image display apparatus according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of the image display apparatus 1 according to this embodiment. As shown in FIG. 1, the image display device 1 includes an image processing unit 2 that processes an image stored in a storage unit 5, an input unit 3 that receives input of various information, and a display unit 4 that displays various information. , A storage unit 5 that stores various information, and a control unit 6 that controls processing and operation of each unit of the image display device 1. The image processing unit 2, the input unit 3, the display unit 4, and the storage unit 5 are electrically connected to the control unit 6.

画像処理部2は、画像処理制御部2a、画像分類部2b、注目画像検出部2cおよび代表画像抽出部2dを備える。画像処理制御部2aは、記憶部5から画像を取得し、取得した画像に対する各種画像処理を制御し、処理結果の画像を記憶部5に出力し記憶させる。画像処理制御部2aは、特に、画像分類部2b、注目画像検出部2cおよび代表画像抽出部2dを制御して所定の画像処理を実行させる。   The image processing unit 2 includes an image processing control unit 2a, an image classification unit 2b, an attention image detection unit 2c, and a representative image extraction unit 2d. The image processing control unit 2 a acquires an image from the storage unit 5, controls various types of image processing on the acquired image, and outputs and stores the processing result image in the storage unit 5. In particular, the image processing control unit 2a controls the image classification unit 2b, the attention image detection unit 2c, and the representative image extraction unit 2d to execute predetermined image processing.

画像分類部2bは、画像処理制御部2aが取得した時系列で連続する2つの画像の相関値を算出し、算出した相関値に応じて処理対象の画像を既存または新規の画像グループに対応付けるとともに、この対応付けの処理を一連のすべての画像に対して繰り返すことにより、この一連の画像を1つ以上の画像グループに分類する。   The image classification unit 2b calculates a correlation value between two time-series images acquired by the image processing control unit 2a, and associates an image to be processed with an existing or new image group according to the calculated correlation value. By repeating this association process for all the series of images, this series of images is classified into one or more image groups.

具体的には、画像分類部2bは、あらかじめ入力された相関値に対するしきい値を参照し、このしきい値と算出した相関値との大小関係に応じて、処理対象の画像を既存の画像グループもしくは新しい画像グループに対応付け、この対応付けた画像グループのグループ番号を処理対象の画像に付加する。なお、画像分類部2bは、たとえば、2つの画像間の対応する各画素値の正規化相互相関を相関値として算出する。また、画像分類部2bは、各画素値をもとに、対応する各画素の色差、輝度差等を相関値として求めるようにしてもよい。   Specifically, the image classification unit 2b refers to a threshold value for a correlation value input in advance, and determines an image to be processed as an existing image according to the magnitude relationship between the threshold value and the calculated correlation value. A group or a new image group is associated, and the group number of the associated image group is added to the image to be processed. Note that the image classification unit 2b calculates, for example, a normalized cross-correlation between corresponding pixel values between two images as a correlation value. Further, the image classification unit 2b may obtain a color difference, a luminance difference, or the like of each corresponding pixel as a correlation value based on each pixel value.

特徴画像検出手段としての注目画像検出部2cは、画像処理制御部2aが取得した画像から所定の特徴を有する特徴画像領域を検出するとともに、この検出した特徴画像領域を有する特徴画像を、観察時に注目すべき画像である注目画像として検出する。注目画像検出部2cは、この検出処理を一連のすべての画像に対して繰り返すことにより、すべての特徴画像を注目画像として検出する。このとき、注目画像検出部2cは、注目画像として検出した各画像に、注目画像であることを示す注目画像情報を付加する。   The attention image detection unit 2c serving as the feature image detection unit detects a feature image region having a predetermined feature from the image acquired by the image processing control unit 2a, and at the time of observing the feature image having the detected feature image region. It detects as an attention image which is an image which should be noted. The attention image detection unit 2c repeats this detection process for all the series of images, thereby detecting all feature images as attention images. At this time, the attention image detection unit 2c adds attention image information indicating the attention image to each image detected as the attention image.

なお、注目画像検出部2cは、たとえば、画像を構成する各画素が示す色情報をもとに所定の特徴を識別して特徴画像領域を検出する。また、注目画像検出部2cは、色情報に限らず、輪郭形状、テクスチャ、濃度勾配等の各種特徴量をもとに特徴画像領域を検出するようにしてもよい。   Note that the attention image detection unit 2c detects a feature image region by identifying a predetermined feature based on color information indicated by each pixel constituting the image, for example. Further, the attention image detection unit 2c may detect a feature image region based on various feature amounts such as a contour shape, a texture, and a density gradient, without being limited to color information.

代表画像抽出部2dは、画像分類部2bによって分類された各画像グループの中から、この各画像グループを代表する代表画像を抽出する。具体的には、代表画像抽出部2dは、各画像グループ内の注目画像をこの各画像グループの代表画像として抽出するとともに、各画像グループ内の時系列で先頭にある先頭画像を代表画像として抽出する。また、代表画像抽出部2dは、注目画像である代表画像に対し、十分な観察時間が与えられるように、画像を低速で表示する低速表示レートを設定し、先頭画像である代表画像に対し、低速表示レートよりも高速な通常速度で表示する通常表示レートを設定する。   The representative image extraction unit 2d extracts a representative image representing each image group from among the image groups classified by the image classification unit 2b. Specifically, the representative image extraction unit 2d extracts a target image in each image group as a representative image of each image group, and extracts a head image at the head in time series in each image group as a representative image. To do. In addition, the representative image extraction unit 2d sets a low-speed display rate for displaying the image at a low speed so that sufficient observation time is given to the representative image that is the target image, and for the representative image that is the top image, Sets the normal display rate for displaying at a normal speed faster than the low speed display rate.

なお、代表画像抽出部2dは、画像グループ毎にすべての注目画像を抽出し、注目画像が含まれない画像グループでは先頭画像のみ抽出する。また、代表画像抽出部2dは、先頭画像を代表画像とする替わりに、たとえば、画像グループで時系列的に末尾にある画像等、所定の順位にある画像を代表画像として抽出するようにしてもよい。   The representative image extraction unit 2d extracts all the attention images for each image group, and extracts only the top image in the image group that does not include the attention image. Further, instead of using the head image as the representative image, the representative image extracting unit 2d may extract, for example, an image in a predetermined order such as an image at the end in time series in the image group as the representative image. Good.

また、代表画像抽出部2dによって抽出された各代表画像は、画像処理制御部2aによって記憶部5に出力され、代表画像を記憶する記憶領域である代表画像記憶部5bに記憶される。ここで、画像処理制御部2aは、各代表画像を記憶する替わりに、各代表画像のグループ番号、注目画像情報および表示レートのみを元の画像に関連付けて新たに記憶するようにしてもよい。   Each representative image extracted by the representative image extraction unit 2d is output to the storage unit 5 by the image processing control unit 2a and stored in the representative image storage unit 5b which is a storage area for storing the representative image. Here, instead of storing each representative image, the image processing control unit 2a may newly store only the group number, attention image information, and display rate of each representative image in association with the original image.

入力部3は、画像表示装置1で処理する画像、各種処理情報等の入力を受け付ける。具体的には、入力部3は、USB,IEEE1394等の通信用インターフェースを備え、外部装置からの画像の入力を受け付ける。また、入力部3は、各種スイッチ、入力キー、マウス、タッチパネル等を備え、画像分類部2bが参照するしきい値、注目画像検出部2cが検出すべき特徴画像領域の特徴に関する情報等、各種処理情報の入力を受け付ける。なお、入力部3は、各種メモリカード、CD、DVD等の携帯型記憶媒体に対応するインターフェースを備え、この携帯型記憶媒体からの画像の入力を受け付けるようにしてもよい。   The input unit 3 receives input of an image to be processed by the image display device 1 and various processing information. Specifically, the input unit 3 includes a communication interface such as USB or IEEE1394, and accepts input of an image from an external device. The input unit 3 includes various switches, input keys, a mouse, a touch panel, and the like. Accepts input of processing information. Note that the input unit 3 may include an interface corresponding to a portable storage medium such as various memory cards, CDs, and DVDs, and may accept input of an image from the portable storage medium.

表示部4は、液晶ディスプレイ等を備え、画像を含む各種情報を表示する。表示部4は、特に、記憶部5に記憶された画像と、画像表示装置1のオペレータに対して各種処理情報の入力を依頼するGUI(Graphical User Interface)画面とを表示する。   The display unit 4 includes a liquid crystal display and displays various information including images. In particular, the display unit 4 displays an image stored in the storage unit 5 and a GUI (Graphical User Interface) screen that requests an operator of the image display device 1 to input various processing information.

記憶部5は、各種処理プログラム等があらかじめ記憶されたROMと、各処理の処理パラメータ、処理データ等を記憶するRAMとによって実現される。記憶部5は、特に、外部から入力された画像と代表画像抽出部2dによって抽出された代表画像とをそれぞれ記憶する記憶領域である画像記憶部5a、代表画像記憶部5bを備える。なお、記憶部5は、各種メモリカード、CD、DVD等の携帯型記憶媒体を着脱可能な画像記憶部として備えるようにしてもよい。   The storage unit 5 is realized by a ROM that stores various processing programs and the like in advance, and a RAM that stores processing parameters, processing data, and the like of each processing. In particular, the storage unit 5 includes an image storage unit 5a and a representative image storage unit 5b, which are storage areas for storing an externally input image and a representative image extracted by the representative image extraction unit 2d. Note that the storage unit 5 may include a portable storage medium such as various memory cards, CDs, and DVDs as a removable image storage unit.

制御部6は、記憶部5に記憶された各種処理プログラムを実行するCPU等によって実現される。制御部6は、特に、画像表示制御部6aを備え、この画像表示制御部6aは、代表画像記憶部5bに記憶された一連の代表画像を、各代表画像に設定された表示レートをもとに表示部4に順次表示させる制御を行う。また、画像表示制御部6aは、注目画像である代表画像を表示させる際、注目画像であることを示す注目画像マークを代表画像の近傍に表示させる制御を行う。この注目画像マークは、記憶部5にあらかじめ記憶されており、画像表示制御部6aは、処理対象の代表画像に注目画像情報が付加されている場合、記憶部5から注目画像マークを取得して画像とともに表示する。   The control unit 6 is realized by a CPU or the like that executes various processing programs stored in the storage unit 5. In particular, the control unit 6 includes an image display control unit 6a. The image display control unit 6a uses a series of representative images stored in the representative image storage unit 5b based on the display rate set for each representative image. The display unit 4 is sequentially displayed. In addition, when displaying the representative image that is the attention image, the image display control unit 6a performs control to display the attention image mark indicating the attention image in the vicinity of the representative image. The attention image mark is stored in advance in the storage unit 5, and the image display control unit 6 a acquires the attention image mark from the storage unit 5 when attention image information is added to the representative image to be processed. Display with image.

ここで、画像表示装置1が行う処理および動作について説明する。図2は、画像表示装置1が、制御部6の制御のもと、画像記憶部5aに記憶された一連の画像を処理して表示する処理手順を示すフローチャートである。なお、図2に示すフローチャートは、図示しないカプセル型内視鏡を用いて消化器官等の臓器の内部を撮像し生成された一連の画像を表示する処理手順を例示する。   Here, processing and operations performed by the image display apparatus 1 will be described. FIG. 2 is a flowchart illustrating a processing procedure in which the image display apparatus 1 processes and displays a series of images stored in the image storage unit 5 a under the control of the control unit 6. The flowchart shown in FIG. 2 exemplifies a processing procedure for displaying a series of images generated by imaging the inside of an organ such as a digestive organ using a capsule endoscope (not shown).

図2に示すように、画像分類部2bは、画像記憶部5aに記憶された一連の画像に含まれる各画像を画像グループに分類するグループ化処理を行い(ステップS101)、注目画像検出部2cは、一連の画像の中から注目画像を検出する注目画像検出処理を行い(ステップS103)、代表画像抽出部2dは、分類された各画像グループ内の注目画像および先頭画像を代表画像として抽出する代表画像抽出処理を行い(ステップS105)、画像表示制御部6aは、抽出された一連の代表画像を各代表画像に設定された表示レートをもとに順次表示する代表画像表示処理を行い(ステップS107)、制御部6は、一連の処理を終了する。   As shown in FIG. 2, the image classification unit 2b performs a grouping process for classifying the images included in the series of images stored in the image storage unit 5a into image groups (step S101), and the target image detection unit 2c. Performs a target image detection process for detecting a target image from a series of images (step S103), and the representative image extraction unit 2d extracts the target image and the head image in each classified image group as a representative image. A representative image extraction process is performed (step S105), and the image display control unit 6a performs a representative image display process for sequentially displaying a series of extracted representative images based on a display rate set for each representative image (step S105). S107), the control unit 6 ends the series of processing.

つづいて、図2に示したステップS101のグループ化処理について説明する。図3は、グループ化処理の処理手順を示すフローチャートである。図3に示すように、画像処理制御部2aは、画像グループのグループ番号を示す変数GをG=0に初期化した後(ステップS111)、画像記憶部5aに記憶された一連の画像の中から時系列で先頭と2番目とにある2つの画像を読み込む(ステップS113)。   Next, the grouping process in step S101 shown in FIG. 2 will be described. FIG. 3 is a flowchart showing the processing procedure of the grouping process. As shown in FIG. 3, the image processing control unit 2a initializes a variable G indicating the group number of the image group to G = 0 (step S111), and then, among the series of images stored in the image storage unit 5a. Are read from the first and second images in time series (step S113).

そして、画像分類部2bは、この2番目の画像を処理対象の画像とし、先頭の画像であり時系列で前の時点の画像である前画像との相関値を算出し(ステップS115)、算出した相関値があらかじめ入力されたしきい値より大きいか否かを判断する(ステップS117)。相関値がしきい値よりも小さい場合(ステップS117:No)、画像分類部2bは、画像間の類似度が低いと判断し、変数Gをインクリメントしてグループ番号を更新し(ステップS119)、この更新したグループ番号を処理対象の画像に設定する(ステップS121)。一方、相関値がしきい値よりも大きい場合(ステップS117:Yes)、画像分類部2bは、画像間の類似度が高いと判断し、処理対象の画像に現時点の変数Gが示すグループ番号を設定する(ステップS121)。なお、画像分類部2bは、先頭画像にグループ番号「0」を設定する。   Then, the image classification unit 2b uses the second image as a processing target image, calculates a correlation value with the previous image that is the first image and is the image at the previous time point in time series (step S115), and calculates It is determined whether or not the correlation value is greater than a threshold value input in advance (step S117). When the correlation value is smaller than the threshold value (step S117: No), the image classification unit 2b determines that the similarity between the images is low, updates the group number by incrementing the variable G (step S119), The updated group number is set in the processing target image (step S121). On the other hand, when the correlation value is larger than the threshold value (step S117: Yes), the image classification unit 2b determines that the similarity between the images is high, and sets the group number indicated by the current variable G to the image to be processed. Setting is performed (step S121). The image classification unit 2b sets the group number “0” for the top image.

その後、画像処理制御部2aは、グループ番号が設定された画像を画像記憶部5aに記録し(ステップS123)、一連の画像に含まれるすべての画像にグループ番号が設定されているか否かを判断する(ステップS125)。すべての画像にグループ番号が設定されていない場合(ステップS125:No)、画像処理制御部2aは、設定されていない画像に対してステップS113からの処理を繰り返すように制御を行う。一方、すべての画像にグループ番号が設定されている場合(ステップS125:Yes)、画像処理制御部2aは、ステップS101にリターンする。   Thereafter, the image processing control unit 2a records the image with the group number set in the image storage unit 5a (step S123), and determines whether the group number is set for all the images included in the series of images. (Step S125). When the group number is not set for all the images (step S125: No), the image processing control unit 2a performs control so that the processing from step S113 is repeated for the images that are not set. On the other hand, when the group number is set for all the images (step S125: Yes), the image processing control unit 2a returns to step S101.

このようにして、ステップS101のグループ化処理では、前画像との類似度が高い画像は、前画像と同一の画像グループに対応付けられ、類似度の低い画像は、グループ番号を更新した新たな画像グループに対応付けられる。これによって、一連の画像は、互いに類似した画像群を1つの画像グループとして分類される。   In this way, in the grouping process in step S101, an image having a high similarity with the previous image is associated with the same image group as the previous image, and an image with a low similarity is a new group number updated. Corresponding to an image group. As a result, a series of images is classified into a group of images similar to each other.

つぎに、図2に示したステップS103の注目画像検出処理について説明する。図4は、注目画像検出処理の処理手順を示すフローチャートである。図4に示すように、画像処理制御部2aは、グループ番号が設定され画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS131)、注目画像検出部2cは、この読み込んだ画像の中から、特徴画像領域として出血部位を示す画像領域の検出を行い(ステップS133)、検出された出血部位があるか否かを判断する(ステップS135)。なお、注目画像検出部2cは、出血部位を検出する際、臓器内部の粘膜よりも赤みの強い画像領域を出血部位として検出するとよい。   Next, the attention image detection process in step S103 shown in FIG. 2 will be described. FIG. 4 is a flowchart showing the processing procedure of the attention image detection process. As shown in FIG. 4, the image processing control unit 2a reads the first image in time series among the series of images set with the group number and stored in the image storage unit 5a (step S131), and the target image detection unit 2c. Detects an image region indicating a bleeding site as a feature image region from the read image (step S133), and determines whether there is a detected bleeding site (step S135). Note that, when detecting the bleeding site, the attention image detection unit 2c may detect an image region that is more reddish than the mucous membrane inside the organ as the bleeding site.

検出された出血部位がある場合(ステップS135:Yes)、注目画像検出部2cは、処理対象の画像に注目画像情報を付加し(ステップS137)、画像処理制御部2aは、この注目画像情報が付加された画像を画像記憶部5aに記録した後(ステップS139)、一連のすべての画像を処理したか否かを判断する(ステップS141)。   When there is a detected bleeding site (step S135: Yes), the attention image detection unit 2c adds attention image information to the image to be processed (step S137), and the image processing control unit 2a After the added image is recorded in the image storage unit 5a (step S139), it is determined whether or not all the series of images have been processed (step S141).

すべての画像を処理していない場合(ステップS141:No)、画像処理制御部2aは、処理していない画像に対してステップS131からの処理を繰り返し、すべての画像を処理している場合(ステップS141:Yes)、ステップS103にリターンする。なお、ステップS135で、検出された出血部位がないと判断された場合(ステップS135:No)、画像処理制御部2aは、直ちにステップS141の判断を行う。   When all the images are not processed (step S141: No), the image processing control unit 2a repeats the processing from step S131 on the unprocessed images, and when all the images are processed (step S1). S141: Yes), the process returns to step S103. If it is determined in step S135 that there is no detected bleeding site (step S135: No), the image processing control unit 2a immediately determines in step S141.

このようにして、ステップS103の注目画像検出処理では、一連の画像の中から臓器内部で出血部位を撮像した画像を注目画像として検出することができる。なお、注目画像として検出する画像は出血部位を撮像した画像に限らず、たとえば、臓器内部の褪色部位、形状異常部位等、病変の疑いのある種々の部位を撮像した画像を注目画像として検出するようにしてもよい。この場合、注目画像検出部2cは、褪色、形状異常等の特徴を示す画像領域を特徴画像領域として検出するようにすればよい。   In this way, in the attention image detection process in step S103, an image obtained by imaging a bleeding site inside an organ can be detected as a attention image from a series of images. Note that the image to be detected as the attention image is not limited to the image in which the bleeding site is imaged, and for example, an image in which various sites that are suspected to be lesions, such as a faint region and an abnormal shape region in the organ, are detected as the attention image. You may do it. In this case, the attention image detection unit 2c may detect an image region showing features such as a fading color and an abnormal shape as a feature image region.

つぎに、図2に示したステップS105の代表画像抽出処理について説明する。図5は、代表画像抽出処理の処理手順を示すフローチャートである。図5に示すように、画像処理制御部2aは、グループ化処理および注目画像検出処理が施され画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS151)、代表画像抽出部2dは、この読み込んだ画像に注目画像情報が付加されているか否かを判断する(ステップS153)。   Next, the representative image extraction process in step S105 shown in FIG. 2 will be described. FIG. 5 is a flowchart showing a processing procedure of representative image extraction processing. As shown in FIG. 5, the image processing control unit 2a reads the first image in time series among the series of images subjected to the grouping process and the target image detection process and stored in the image storage unit 5a (step S151). The representative image extraction unit 2d determines whether attention image information is added to the read image (step S153).

注目画像情報が付加されている場合(ステップS153:Yes)、代表画像抽出部2dは、処理対象の画像に低速表示レートを設定し(ステップS155)、画像処理制御部2aは、この低速表示レートが設定された注目画像を代表画像として代表画像記憶部5bに記録する(ステップS157)。   When attention image information is added (step S153: Yes), the representative image extraction unit 2d sets a low speed display rate for the image to be processed (step S155), and the image processing control unit 2a sets the low speed display rate. Is recorded in the representative image storage unit 5b as a representative image (step S157).

一方、注目画像情報が付加されていない場合(ステップS153:No)、代表画像抽出部2dは、処理対象の画像が画像グループの先頭画像であるか否かを判断する(ステップS159)。先頭画像である場合(ステップS159:Yes)、代表画像抽出部2dは、処理対象の画像に通常表示レートを設定し(ステップS161)、画像処理制御部2aは、この通常表示レートが設定された先頭画像を代表画像として代表画像記憶部5bに記録する(ステップS163)。   On the other hand, when attention image information is not added (step S153: No), the representative image extraction unit 2d determines whether or not the image to be processed is the first image of the image group (step S159). If it is the first image (step S159: Yes), the representative image extraction unit 2d sets the normal display rate for the image to be processed (step S161), and the image processing control unit 2a sets the normal display rate. The head image is recorded as a representative image in the representative image storage unit 5b (step S163).

ステップS157またはステップS163の後、画像処理制御部2aは、一連のすべての画像を処理したか否かを判断し(ステップS165)、すべての画像を処理していない場合(ステップS165:No)、処理していない画像に対してステップS151からの処理を繰り返し、すべての画像を処理している場合(ステップS165:Yes)、ステップS105にリターンする。なお、ステップS159で、処理対象の画像が先頭画像ではないと判断された場合(ステップS159:No)、画像処理制御部2aは、直ちにステップS165の判断を行う。   After step S157 or step S163, the image processing control unit 2a determines whether or not a series of all images has been processed (step S165). When all the images have not been processed (step S165: No), If the processing from step S151 is repeated for the unprocessed image and all the images are processed (step S165: Yes), the process returns to step S105. If it is determined in step S159 that the image to be processed is not the top image (step S159: No), the image processing control unit 2a immediately determines in step S165.

このようにして、ステップS105の代表画像抽出処理では、たとえば図6に示すように、各画像グループの先頭画像と注目画像とを代表画像として抽出することができる。図6に示す例では、時系列でn番目の画像グループである画像グループnから先頭画像である「正常画像1」および注目画像である「出血画像1」〜「出血画像3」が、また、画像グループn+1から先頭画像である「正常画像3」が、それぞれ代表画像として抽出されている。なお、このように抽出された一連の代表画像は、代表画像記憶部5bに時系列に記憶される。   In this way, in the representative image extraction process in step S105, for example, as shown in FIG. 6, the head image and the target image of each image group can be extracted as representative images. In the example shown in FIG. 6, the “normal image 1” that is the first image and the “bleeding image 1” to “bleeding image 3” that are the attention images from the image group n that is the n-th image group in time series, “Normal image 3”, which is the first image, is extracted from the image group n + 1 as a representative image. The series of representative images extracted in this way are stored in the representative image storage unit 5b in time series.

つぎに、図2に示したステップS107の代表画像表示処理について説明する。図7は、代表画像表示処理の処理手順を示すフローチャートである。図7に示すように、画像表示制御部6aは、代表画像記憶部5bに記憶された一連の代表画像のうち時系列で先頭の画像を読み込み(ステップS171)、注目画像情報が付加されているか否かを判断する(ステップS173)。   Next, the representative image display process in step S107 shown in FIG. 2 will be described. FIG. 7 is a flowchart showing the processing procedure of the representative image display processing. As shown in FIG. 7, the image display control unit 6a reads the first image in time series among a series of representative images stored in the representative image storage unit 5b (step S171), and whether attention image information is added. It is determined whether or not (step S173).

注目画像情報が付加されている場合(ステップS173:Yes)、画像表示制御部6aは、記憶部5から注目画像マークを読み込み(ステップS175)、読み込んだ代表画像および注目画像マークを低速表示レートで表示部4に表示させる(ステップS177)。これによって、画像表示制御部6aは、観察の必要性が高い注目画像である代表画像を通常よりも長い時間表示させることができる。一方、注目画像情報が付加されていない場合(ステップS173:No)、画像表示制御部6aは、読み込んだ代表画像を通常表示レートで表示部4に表示させる(ステップS179)。   When attention image information is added (step S173: Yes), the image display control unit 6a reads the attention image mark from the storage unit 5 (step S175), and reads the read representative image and attention image mark at a low speed display rate. It is displayed on the display unit 4 (step S177). As a result, the image display control unit 6a can display a representative image, which is an attention image having a high necessity for observation, for a longer time than usual. On the other hand, when attention image information is not added (step S173: No), the image display control unit 6a displays the read representative image on the display unit 4 at the normal display rate (step S179).

その後、画像表示制御部6aは、一連の代表画像をすべて表示したか否かを判断し(ステップS181)、すべて表示していない場合(ステップS181:No)、表示していない代表画像に対してステップS171からの処理を繰り返し、すべて表示している場合(ステップS181:Yes)、ステップS107にリターンする。このようにして、画像表示制御部6aは、代表画像記憶部5bに記憶された一連の代表画像を各画像に設定された表示レートに応じて順次表示する。   Thereafter, the image display control unit 6a determines whether or not a series of representative images are all displayed (step S181). If all the representative images are not displayed (step S181: No), the image is not displayed for the representative images that are not displayed. If the processing from step S171 is repeated and all the images are displayed (step S181: Yes), the process returns to step S107. In this manner, the image display control unit 6a sequentially displays a series of representative images stored in the representative image storage unit 5b according to the display rate set for each image.

図8は、代表画像を表示する際に表示部4に表示されるGUI画面の一例を示す図である。図8に示す例では、「診察・診断」ウィンドウ内に、注目画像である代表画像Pi、注目画像マークMa、代表画像Piの各種属性を示す文字情報が表示されている。   FIG. 8 is a diagram illustrating an example of a GUI screen displayed on the display unit 4 when a representative image is displayed. In the example shown in FIG. 8, character information indicating various attributes of the representative image Pi that is the target image, the target image mark Ma, and the representative image Pi is displayed in the “diagnosis / diagnosis” window.

以上説明したように、この実施の形態1にかかる画像表示装置1では、画像記憶部5aに記憶された一連の画像に対して、画像分類部2bが、時系列で連続する画像の相関値を算出するとともに、算出した相関値に応じて一連の画像を画像グループに分類し、注目画像検出部2cが、各画像から特徴画像領域を検出するとともに、検出した特徴画像領域を有する特徴画像を注目画像として検出し、代表画像抽出部2dが、各画像グループ内の注目画像と先頭画像とを代表画像として抽出するとともに、抽出した各代表画像に表示レートを設定し、さらに、画像表示制御部6aが、設定された表示レートに応じて一連の代表画像を順次表示するようにしているため、たとえば、出血部位を含み観察の必要性が高い画像の観察を容易とし、出血部位を含まず通常の状態を示す観察の必要性が低い画像の表示を各画像グループの先頭画像のみに限定して表示時間を削減することができ、結果として一連の画像を効率的に観察することができる。   As described above, in the image display device 1 according to the first embodiment, the image classification unit 2b calculates the correlation value of images that are continuous in time series with respect to a series of images stored in the image storage unit 5a. A series of images are classified into image groups according to the calculated correlation value, and the attention image detection unit 2c detects a feature image area from each image and pays attention to a feature image having the detected feature image area. The image is detected as an image, and the representative image extraction unit 2d extracts the attention image and the head image in each image group as a representative image, sets a display rate for each extracted representative image, and further displays the image display control unit 6a. However, since a series of representative images are sequentially displayed according to the set display rate, for example, it is possible to easily observe an image including a bleeding site and having a high necessity for observation. The display time can be reduced by limiting the display of images that do not contain normal images and need only to be observed to the first image of each image group, and as a result, efficiently observe a series of images. Can do.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、注目画像検出部2cが検出した注目画像をすべて代表画像として表示するようにしていたが、この実施の形態2では、複数の注目画像が同じ特徴を示す場合、この複数の注目画像の中から1つを代表画像として選択し表示するようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, all the target images detected by the target image detection unit 2c are displayed as representative images. In the second embodiment, when a plurality of target images exhibit the same characteristics, One of the images of interest is selected and displayed as a representative image.

図9は、この実施の形態2にかかる画像表示装置11の構成を示すブロック図である。図9に示すように、画像表示装置11は、画像表示装置1が備えた画像処理部2に替えて画像処理部12を備える。また、画像処理部12は、画像処理部2が備えた画像処理制御部2aおよび注目画像検出部2cに替えて画像処理制御部12aおよび注目画像検出部12cを備えるとともに、注目画像選択部12eを新たに備える。その他の構成は、実施の形態1と同じであり、同一構成部分には同一符号を付している。   FIG. 9 is a block diagram showing a configuration of the image display apparatus 11 according to the second embodiment. As illustrated in FIG. 9, the image display device 11 includes an image processing unit 12 instead of the image processing unit 2 included in the image display device 1. The image processing unit 12 includes an image processing control unit 12a and a target image detection unit 12c instead of the image processing control unit 2a and the target image detection unit 2c included in the image processing unit 2, and a target image selection unit 12e. Newly prepared. Other configurations are the same as those of the first embodiment, and the same reference numerals are given to the same components.

画像処理制御部12aは、画像処理制御部2aと同様に、記憶部5に記憶された画像を取得して処理し、処理結果の画像を記憶部5に記憶させる。ただし、画像処理制御部12aは、注目画像検出部2cの替わりに注目画像検出部12cを制御するとともに、新たに注目画像選択部12eを制御することにより、同じ特徴を示す複数の注目画像のうち代表的な注目画像のみ代表画像として選択する。   Similar to the image processing control unit 2 a, the image processing control unit 12 a acquires and processes the image stored in the storage unit 5, and causes the storage unit 5 to store the processing result image. However, the image processing control unit 12a controls the attention image detection unit 12c instead of the attention image detection unit 2c, and newly controls the attention image selection unit 12e, so that among the plurality of attention images showing the same characteristics. Only representative attention images are selected as representative images.

注目画像検出部12cは、一連の画像の中から注目画像検出部2cと同様に注目画像を検出するとともに、検出した各注目画像の特徴画像領域の特徴量を算出し、算出した特徴量を示す情報を注目画像に対応付ける。具体的には、注目画像検出部12cは、特徴量として注目画像内の特徴画像領域の位置を算出し、この算出した位置を示す位置情報を生成し注目画像に付加する。なお、特徴画像領域の位置は、たとえば、特徴画像領域の重心位置、輝度の最大または最小位置、所定の色相を有する位置、特徴画像領域の最外周位置等の少なくとも1つによって示される。   The attention image detection unit 12c detects the attention image from the series of images in the same manner as the attention image detection unit 2c, calculates the feature amount of the feature image area of each detected attention image, and indicates the calculated feature amount. Associate information with the image of interest. Specifically, the attention image detection unit 12c calculates the position of the feature image area in the attention image as the feature amount, generates position information indicating the calculated position, and adds the position information to the attention image. The position of the feature image area is indicated by at least one of, for example, the barycentric position of the feature image area, the maximum or minimum luminance position, the position having a predetermined hue, and the outermost peripheral position of the feature image area.

注目画像選択部12eは、注目画像検出部12cによって検出された複数の注目画像の中から、時系列で連続する注目画像間で生じた特徴画像領域の位置変化をもとに、この複数の注目画像を代表する注目代表画像を選択する。具体的には、注目画像選択部12eは、連続する2つの注目画像間で生じた特徴画像領域の位置変化を示す動きベクトルを算出し、この算出した動きベクトルをもとに、2つの特徴画像領域が同じ特徴を示す画像領域であるか否かを判断し、同じ特徴を示す画像領域である場合、一方の注目画像を、代表画像として抽出しない注目キャンセル画像に変更する。注目画像選択部12eは、この処理を一連の注目画像に対して繰り返し、結果として注目キャンセル画像とならない注目画像を注目代表画像として選択する。   The attention image selection unit 12e, based on the positional change of the feature image region that occurs between the attention images that are consecutive in time series, from among the plurality of attention images detected by the attention image detection unit 12c. A representative representative image that represents the image is selected. Specifically, the attention image selection unit 12e calculates a motion vector indicating a change in the position of the feature image area generated between two consecutive attention images, and based on the calculated motion vector, the two feature images. It is determined whether or not the region is an image region showing the same feature. If the region is an image region showing the same feature, one of the attention images is changed to a attention cancellation image that is not extracted as a representative image. The attention image selection unit 12e repeats this process for a series of attention images, and as a result, selects an attention image that does not become the attention cancellation image as the attention representative image.

ここで、画像表示装置11が行う処理および動作について説明する。図10は、画像表示装置11が、制御部6の制御のもと、画像記憶部5aに記憶された一連の画像を処理して表示する処理手順を示すフローチャートである。なお、図10に示すフローチャートは、図示しないカプセル型内視鏡を用いて消化器官等の臓器の内部を撮像し生成された一連の画像を表示する処理手順を例示する。   Here, processing and operations performed by the image display device 11 will be described. FIG. 10 is a flowchart illustrating a processing procedure in which the image display device 11 processes and displays a series of images stored in the image storage unit 5 a under the control of the control unit 6. The flowchart shown in FIG. 10 exemplifies a processing procedure for displaying a series of images generated by imaging the inside of an organ such as a digestive organ using a capsule endoscope (not shown).

図10に示すように、画像分類部2bは、ステップS101と同様のグループ化処理を行い(ステップS201)、注目画像検出部12cは、一連の画像の中から注目画像を検出する注目画像検出処理を行い(ステップS203)、注目画像選択部12eは、ステップS203で検出された注目画像の中から注目代表画像を選択する注目画像選択処理を行い(ステップS205)、代表画像抽出部2dは、ステップS105と同様の代表画像抽出処理を行い(ステップS207)、画像表示制御部6aは、ステップS107と同様の代表画像表示処理を行い(ステップS209)、制御部6は、一連の処理を終了する。   As shown in FIG. 10, the image classification unit 2b performs a grouping process similar to step S101 (step S201), and the target image detection unit 12c detects a target image from a series of images. (Step S203), the attention image selection unit 12e performs attention image selection processing for selecting a representative representative image from the attention images detected in Step S203 (Step S205), and the representative image extraction unit 2d The representative image extraction process similar to S105 is performed (step S207), the image display control unit 6a performs the representative image display process similar to step S107 (step S209), and the control unit 6 ends the series of processes.

ステップS201のグループ化処理、ステップS207の代表画像抽出処理およびステップS209の代表画像表示処理の処理手順は、それぞれ図3、図5および図7に示したフローチャートによって示される。ここでは、ステップS203の注目画像検出処理およびステップS205の注目画像選択処理について説明する。   The processing procedures of the grouping process in step S201, the representative image extraction process in step S207, and the representative image display process in step S209 are shown by the flowcharts shown in FIGS. 3, 5, and 7, respectively. Here, the attention image detection process in step S203 and the attention image selection process in step S205 will be described.

図11は、ステップS203の注目画像検出処理の処理手順を示すフローチャートである。図11に示すように、画像処理制御部12aは、グループ番号が設定され画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS211)、注目画像検出部12cは、この読み込んだ画像の中から、特徴画像領域として出血部位を示す画像領域の検出を行うとともに、出血部位の位置を示す位置情報を生成する(ステップS213)。   FIG. 11 is a flowchart illustrating a processing procedure of the target image detection processing in step S203. As shown in FIG. 11, the image processing control unit 12a reads the first image in time series among the series of images set with the group number and stored in the image storage unit 5a (step S211), and the target image detection unit 12c. Detects an image region indicating a bleeding site as a feature image region from the read image and generates position information indicating the position of the bleeding site (step S213).

つづいて、注目画像検出部12cは、検出された出血部位があるか否かを判断し(ステップS215)、検出された出血部位がある場合(ステップS215:Yes)、処理対象の画像に注目画像情報とステップS213で生成した位置情報とを付加し(ステップS217)、画像処理制御部12aは、この注目画像情報および位置情報が付加された画像を画像記憶部5aに記録した後(ステップS219)、一連のすべての画像を処理したか否かを判断する(ステップS221)。   Subsequently, the attention image detection unit 12c determines whether or not there is a detected bleeding part (step S215), and when there is a detected bleeding part (step S215: Yes), the attention image is included in the processing target image. The information and the position information generated in step S213 are added (step S217), and the image processing control unit 12a records the image to which the attention image information and the position information are added in the image storage unit 5a (step S219). Then, it is determined whether or not a series of all images has been processed (step S221).

すべての画像を処理していない場合(ステップS221:No)、画像処理制御部12aは、処理していない画像に対してステップS211からの処理を繰り返し、すべての画像を処理している場合(ステップS221:Yes)、ステップS203にリターンする。なお、ステップS215で、検出された出血部位がないと判断された場合(ステップS215:No)、画像処理制御部12aは、直ちにステップS221の判断を行う。   When all the images have not been processed (step S221: No), the image processing control unit 12a repeats the processing from step S211 on the unprocessed image, and has processed all the images (step S21). S221: Yes), the process returns to step S203. If it is determined in step S215 that there is no detected bleeding site (step S215: No), the image processing control unit 12a immediately determines in step S221.

このようにして、ステップS203の注目画像検出処理では、一連の画像の中から臓器内部で出血部位を撮像した画像を注目画像として検出するとともに、検出した注目画像に出血部位の位置を示す位置情報を付加することができる。なお、特徴画像領域として検出する画像領域は出血部位を示す画像領域に限らず、臓器内部の褪色部位、形状異常部位等、病変の疑いのある種々の特徴を示す画像領域としてよい。   In this way, in the attention image detection process in step S203, an image obtained by imaging the bleeding site inside the organ is detected as a attention image from the series of images, and the position information indicating the position of the bleeding region in the detected attention image. Can be added. Note that the image area detected as the feature image area is not limited to the image area showing the bleeding part, but may be an image area showing various features suspected of being a lesion such as a faint part or an abnormal shape part inside the organ.

つぎに、図10に示したステップS205の注目画像選択処理について説明する。図12は、注目画像選択処理の処理手順を示すフローチャートである。図12に示すように、画像処理制御部12aは、注目画像検出処理が施され画像記憶部5aに記憶された一連の画像のうち時系列で先頭と2番目とにある2つの画像を読み込み(ステップS231)、注目画像選択部12eは、この2番目の画像を処理対象の画像とし、先頭の画像であり時系列で前の時点の画像である前画像とともに、注目画像情報が付加されているか否かを判断する(ステップS233)。   Next, the attention image selection process in step S205 shown in FIG. 10 will be described. FIG. 12 is a flowchart illustrating the processing procedure of the attention image selection process. As shown in FIG. 12, the image processing control unit 12a reads two images at the top and second in time series among a series of images subjected to the target image detection process and stored in the image storage unit 5a ( In step S231), the target image selection unit 12e sets the second image as a processing target image, and whether the target image information is added together with the previous image that is the first image and the previous time point image in time series. It is determined whether or not (step S233).

処理対象画像および前画像に注目画像情報が付加されている場合(ステップS233:Yes)、注目画像選択部12eは、出血部位の位置を示す位置情報を参照し、前画像の出血部位を含む画像領域をパターンマッチング処理のテンプレートである出血部テンプレートとして抽出し(ステップS235)、この出血部テンプレートをもとに処理対象画像に対してパターンマッチング処理を行い、出血部テンプレートと相関の高い出血部位を示す画像領域を検出するとともに、前画像に対する処理対象画像の出血部位の位置変化を示す動きベクトルを検出する(ステップS237)。   When attention image information is added to the processing target image and the previous image (step S233: Yes), the attention image selection unit 12e refers to the position information indicating the position of the bleeding part, and includes the bleeding part of the previous image. A region is extracted as a bleeding part template which is a template for pattern matching processing (step S235), and pattern matching processing is performed on the processing target image based on the bleeding part template, and a bleeding part having a high correlation with the bleeding part template is obtained. While detecting the image area to show, the motion vector which shows the position change of the bleeding part of the process target image with respect to a previous image is detected (step S237).

つづいて、注目画像選択部12eは、前画像の中から出血部位と所定の位置関係にある出血部位周辺部の画像領域を周辺部テンプレートとして抽出し(ステップS239)、この周辺部テンプレートをもとに処理対象画像に対してパターンマッチング処理を行い、周辺部テンプレートと相関の高い画像領域を検出するとともに、前画像に対する処理対象画像の出血部位周辺部の動きを示す動きベクトルを検出する(ステップS241)。   Subsequently, the attention image selection unit 12e extracts an image region around the bleeding site having a predetermined positional relationship with the bleeding site from the previous image as a peripheral template (step S239), and based on this peripheral template. Then, pattern matching processing is performed on the processing target image to detect an image area having a high correlation with the peripheral template, and a motion vector indicating the motion of the peripheral portion of the bleeding site of the processing target image with respect to the previous image is detected (step S241). ).

そして、注目画像選択部12eは、検出した出血部位の動きベクトルと出血部位周辺部の動きベクトルとがほぼ同じか否かを判断し(ステップS243)、ほぼ同じである場合(ステップS243:Yes)、注目キャンセル画像であることを示す注目画像キャンセル情報を処理対象画像に付加する(ステップS245)。   Then, the attention image selection unit 12e determines whether or not the detected motion vector of the bleeding part and the motion vector of the peripheral part of the bleeding part are substantially the same (step S243), and when they are substantially the same (step S243: Yes). Then, attention image cancellation information indicating that the image is the attention cancellation image is added to the processing target image (step S245).

その後、画像処理制御部12aは、注目画像キャンセル情報が付加された処理対象画像を画像記憶部5aに記録し(ステップS247)、一連のすべての画像を処理したか否かを判断し(ステップS249)、すべての画像を処理していない場合(ステップS249:No)、処理していない画像に対してステップS231からの処理を繰り返し、すべての画像を処理している場合(ステップS249:Yes)、ステップS205にリターンする。   Thereafter, the image processing control unit 12a records the processing target image to which attention image cancellation information is added in the image storage unit 5a (step S247), and determines whether or not all the series of images have been processed (step S249). ), If not all images have been processed (step S249: No), if the processing from step S231 is repeated for unprocessed images and all images have been processed (step S249: Yes), The process returns to step S205.

なお、ステップS233で、注目画像情報が付加されていないと判断された場合(ステップS233:No)と、ステップS243で、各動きベクトルが同じではないと判断された場合(ステップS243:No)には、画像処理制御部12aは、直ちにステップS249の判断を行う。   When it is determined in step S233 that attention image information is not added (step S233: No), and when it is determined in step S243 that the motion vectors are not the same (step S243: No). The image processing control unit 12a immediately determines in step S249.

また、ステップS237およびステップS241では、注目画像選択部12eは、前画像から抽出した各テンプレートと、パターンマッチングによって対応する処理対象画像内の画像領域とを同一画面上で比較し、たとえば、各画像領域の重心位置の変化を示す動きベクトルを検出する。ただし、ステップS237では、注目画像選択部12eは、パターンマッチングを行わず、前画像と処理対象画像との出血部の位置座標のみから動きベクトルを求めてもよい。   In step S237 and step S241, the target image selection unit 12e compares each template extracted from the previous image and the image area in the processing target image corresponding by pattern matching on the same screen. A motion vector indicating a change in the center of gravity position of the region is detected. However, in step S237, the target image selection unit 12e may obtain the motion vector only from the position coordinates of the bleeding part between the previous image and the processing target image without performing pattern matching.

さらに、ステップS243では、注目画像選択部12eは、検出した出血部位の動きベクトルと出血部位周辺部の動きベクトルとについて、たとえば、各動きベクトルの方位および大きさの差があらかじめ設定されたしきい値以下であるか否かによって、この各動きベクトルが同じであるか否かを判断する。他にも、注目画像選択部12eは、各動きベクトルのベクトル差、内積、外積等を演算し、これらの演算結果の少なくとも1つをもとに各動きベクトルが同じであるか否かを判断するようにしてもよい。   Further, in step S243, the target image selection unit 12e sets, for example, a threshold in which a difference in direction and size of each motion vector is set in advance for the detected motion vector of the bleeding site and the motion vector of the peripheral portion of the bleeding site. It is determined whether or not each motion vector is the same depending on whether or not it is less than or equal to the value. In addition, the attention image selection unit 12e calculates a vector difference, an inner product, an outer product, and the like of each motion vector, and determines whether or not each motion vector is the same based on at least one of these calculation results. You may make it do.

なお、ステップS245では、注目画像選択部12eは、検出した出血部位の動きベクトルと出血部位周辺部の動きベクトルとがほぼ同じである場合、処理対象画像の出血部位と前画像の出血部位とが同じである可能性が高く、観察時に処理対象画像を表示させる必要性が低いものとして、処理対象画像に注目画像キャンセル情報を付加する。また、注目画像選択部12eは、この出血部位の同一性を高い精度で判断できるように、ステップS239では、複数の画像領域を周辺部テンプレートとして検出するとよい。   In step S245, when the detected motion vector of the bleeding site and the motion vector of the peripheral portion of the bleeding site are substantially the same, the attention image selection unit 12e determines that the bleeding site of the processing target image and the bleeding site of the previous image are the same. The attention image cancellation information is added to the processing target image on the assumption that there is a low possibility that the processing target image is displayed at the time of observation. In addition, in step S239, the attention image selection unit 12e may detect a plurality of image regions as peripheral templates so that the identity of the bleeding site can be determined with high accuracy.

このようにして、ステップS205の注目画像選択処理では、連続する2つの注目画像間で出血部位と出血部位周辺部の画像領域の動きを比較することによって、この2つの注目画像の出血部位が同じであるか否かを判断することができ、同じである場合、一方の注目画像を注目キャンセル画像に変更することができる。なお、たとえば、ステップS237とステップS239の処理順序を交換するなど、ステップS235〜ステップS241の処理順序は適宜変更してもよい。   In this way, in the attention image selection process in step S205, the movement of the bleeding region and the image area around the bleeding portion are compared between two consecutive attention images, so that the bleeding portions of the two attention images are the same. It is possible to determine whether one of the images of interest is the same as the image of cancellation of attention. Note that the processing order of steps S235 to S241 may be changed as appropriate, for example, by exchanging the processing order of steps S237 and S239.

ここで、図12に示した注目画像選択処理を具体的に説明する。図13は、注目画像選択処理で処理される画像の一例を示す図である。図13に示すように、注目画像選択部12eは、前画像の出血部位BL1を含む画像領域TPa1を出血部テンプレートとして抽出するとともに、図上で出血部位BL1の左右に位置する画像領域TPb1,TPc1を周辺部テンプレートとして抽出する。その後、注目画像選択部12eは、これらのテンプレートをもとに、処理対象画像に対してテンプレートマッチングを行う。   Here, the attention image selection process shown in FIG. 12 will be specifically described. FIG. 13 is a diagram illustrating an example of an image processed in the attention image selection process. As illustrated in FIG. 13, the attention image selection unit 12e extracts the image region TPa1 including the bleeding site BL1 of the previous image as a bleeding site template, and image regions TPb1 and TPc1 located on the left and right of the bleeding site BL1 in the drawing. Is extracted as a peripheral template. Thereafter, the attention image selection unit 12e performs template matching on the processing target image based on these templates.

テンプレートマッチングの結果、前画像の各画像領域TPa1,TPb1,TPc1に対して、処理対象画像の画像領域TPa2,TPb2,TPc2が検出された場合、注目画像選択部12eは、それぞれ対応する画像領域の重心の動きを示す動きベクトルVa2,Vb2,Vc2を検出し、この各動きベクトルの方位および大きさの差が所定のしきい値以下であるか否かを判断する。   As a result of template matching, when the image areas TPa2, TPb2, TPc2 of the processing target image are detected for the image areas TPa1, TPb1, TPc1 of the previous image, the target image selection unit 12e Motion vectors Va2, Vb2, and Vc2 indicating the motion of the center of gravity are detected, and it is determined whether or not the difference between the direction and the magnitude of each motion vector is equal to or less than a predetermined threshold value.

図13に示す動きベクトルVa2,Vb2,Vc2の場合、注目画像選択部12eは、互いにほぼ同じ動きベクトルであると判断し、処理対象画像の出血部位BL2が出血部位BL1と同一の出血部位であるものとして、この処理対象画像に注目画像キャンセル情報を付加する。   In the case of the motion vectors Va2, Vb2, and Vc2 shown in FIG. 13, the attention image selecting unit 12e determines that the motion vectors are substantially the same, and the bleeding site BL2 of the processing target image is the same bleeding site as the bleeding site BL1. As a thing, attention image cancellation information is added to this processing target image.

一方、テンプレートマッチングの結果、処理対象画像の画像領域TPa3,TPb3,TPc3が検出された場合、注目画像選択部12eは、動きベクトルVa3,Vb3,Vc3を検出し、この各動きベクトルの方位および大きさの差が所定のしきい値以下であるか否かを判断する。   On the other hand, when image regions TPa3, TPb3, and TPc3 of the processing target image are detected as a result of template matching, the target image selection unit 12e detects the motion vectors Va3, Vb3, and Vc3, and the direction and magnitude of each motion vector. It is determined whether the difference is equal to or less than a predetermined threshold value.

図13に示す動きベクトルVa3,Vb3,Vc3の場合、注目画像選択部12eは、各動きベクトルが異なる動きベクトルであると判断し、処理対象画像の出血部位BL3が出血部位BL1とは異なる出血部位であるものとして、この処理対象画像を注目代表画像として選択する。   In the case of the motion vectors Va3, Vb3, and Vc3 shown in FIG. 13, the target image selection unit 12e determines that each motion vector is a different motion vector, and the bleeding site BL3 of the processing target image is different from the bleeding site BL1. As a result, the processing target image is selected as the attention representative image.

このように注目画像選択処理が行われた結果、ステップS207の代表画像抽出処理では、たとえば図14に示すように、各画像グループから先頭画像と注目代表画像とが代表画像として抽出される。図14に示す例では、時系列でn番目の画像グループである画像グループnから先頭画像である「正常画像1」および注目代表画像である「出血画像1」が、また、画像グループn+1から先頭画像である「正常画像3」が、それぞれ代表画像として抽出されている。なお、これら一連の代表画像は、代表画像記憶部5bに時系列に記憶される。   As a result of performing the attention image selection processing in this way, in the representative image extraction processing in step S207, for example, as shown in FIG. 14, the head image and the attention representative image are extracted as representative images from each image group. In the example shown in FIG. 14, the “normal image 1” that is the first image and the “bleeding image 1” that is the attention representative image from the image group n that is the nth image group in time series, and the first from the image group n + 1. “Normal image 3” which is an image is extracted as a representative image. These series of representative images are stored in the representative image storage unit 5b in time series.

以上説明したように、この実施の形態2にかかる画像表示装置11では、画像分類部2bによって画像グループに分類された一連の画像の中から、注目画像検出部12cが、注目画像を検出するとともに、検出した各注目画像の特徴画像領域の位置を算出し、算出した位置を示す位置情報を注目画像に付加し、注目画像選択部12eが、時系列で連続する注目画像間で生じた特徴画像領域および特徴画像領域周辺部の画像領域の位置変化を検出し、検出した位置変化をもとに、複数の類似した注目画像を代表する注目代表画像を選択し、代表画像抽出部2dが、各画像グループ内の注目代表画像と先頭画像とを代表画像として抽出するとともに、抽出した各代表画像に表示レートを設定し、さらに、画像表示制御部6aが、設定された表示レートに応じて一連の代表画像を順次表示するようにしているため、たとえば、出血部位を含む画像のうち時系列で前後の画像に類似性がなく観察の必要性が高い画像のみ表示させることができるとともに、出血部位を含まず通常の状態を示す観察の必要性が低い画像の表示を各画像グループの先頭画像のみに限定して表示時間を削減することができ、結果として一連の画像をさらに効率的に観察することができる。   As described above, in the image display device 11 according to the second embodiment, the attention image detection unit 12c detects the attention image from the series of images classified into the image groups by the image classification unit 2b. Then, the position of the feature image area of each detected target image is calculated, position information indicating the calculated position is added to the target image, and the target image selecting unit 12e causes the feature image generated between the target images that are continuous in time series. The position change of the image area around the area and the feature image area is detected, and based on the detected position change, a representative representative image representing a plurality of similar target images is selected, and the representative image extraction unit 2d The representative representative image and the head image in the image group are extracted as representative images, a display rate is set for each extracted representative image, and the image display control unit 6a further sets the display rate. Since a series of representative images are sequentially displayed according to the image, for example, it is possible to display only images that are highly similar to the previous and subsequent images in the time series and that have a high need for observation among images including bleeding sites. In addition, it is possible to reduce the display time by limiting the display of images that do not include a bleeding site and show a normal state and that is less necessary for observation to only the first image of each image group. It can be observed efficiently.

なお、上述した実施の形態1および2では、グループ化されていない一連の画像をはじめに読み込んでから各種処理を実行するように説明したが、同様の処理手順により、既にグループ番号、注目画像情報、表示レート等が対応づけられた画像を読み込んで、これらの情報を更新するように各処理を実行するようにしてもよい。   In the first and second embodiments described above, it has been described that a series of ungrouped images are first read and then various processes are performed. However, the group number, target image information, Each process may be executed by reading an image associated with a display rate or the like and updating the information.

また、上述した実施の形態1および2では、画像表示制御部6aは、一連の代表画像のうち時系列で先頭の画像から順次表示を行うとともに、この一連のすべての代表画像を表示するように説明したが、たとえば、あらかじめ入力された表示開始画像に関する指示情報をもとに、時系列で途中の代表画像から表示を開始し、また、あらかじめ入力された表示終了画像に関する指示情報をもとに、時系列で途中の代表画像まで表示して画像表示処理を終了するようにしてもよい。   In the first and second embodiments described above, the image display control unit 6a sequentially displays from the first image in time series among the series of representative images, and displays all the series of representative images. As described above, for example, based on instruction information related to a display start image input in advance, display is started from a representative image in the middle of time series, and based on instruction information related to a display end image input in advance. Alternatively, the image display process may be terminated by displaying up to a representative image in the middle of time series.

さらに、上述した実施の形態1および2では、画像表示制御部6aは、代表画像のみ表示するように説明したが、たとえば、所定のスイッチ等から入力される指示情報をもとに、代表画像のみの表示と、すべての画像の表示とを切り換えられるようにしてもよい。   Further, in the first and second embodiments described above, the image display control unit 6a has been described so as to display only the representative image. For example, only the representative image is displayed based on the instruction information input from a predetermined switch or the like. It may be possible to switch between the display of and the display of all images.

また、上述した実施の形態1では、制御部6は、グループ化処理の後に注目画像検出処理を行うようにしたが、注目画像検出処理の後にグループ化処理を行うようにしてもよい。同様に、実施の形態2では、制御部6は、注目画像検出処理または注目画像選択処理の後にグループ化処理を行うようにしてもよい。   In Embodiment 1 described above, the control unit 6 performs the attention image detection process after the grouping process. However, the control unit 6 may perform the grouping process after the attention image detection process. Similarly, in the second embodiment, the control unit 6 may perform the grouping process after the attention image detection process or the attention image selection process.

本発明の実施の形態1にかかる画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image display apparatus concerning Embodiment 1 of this invention. 図1に示した画像表示装置が行う処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure performed by the image display apparatus illustrated in FIG. 1. 図2に示したグループ化処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the grouping process shown in FIG. 図2に示した注目画像検出処理の処理手順を示すフローチャートである。FIG. 3 is a flowchart showing a processing procedure for attention image detection processing shown in FIG. 2. FIG. 図2に示した代表画像抽出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the representative image extraction process shown in FIG. 図5に示した代表画像抽出処理の結果の一例を説明する模式図である。It is a schematic diagram explaining an example of the result of the representative image extraction process shown in FIG. 図2に示した代表画像表示処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the representative image display process shown in FIG. 図1に示した画像表示装置が表示するGUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen which the image display apparatus shown in FIG. 1 displays. 本発明の実施の形態2にかかる画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image display apparatus concerning Embodiment 2 of this invention. 図9に示した画像表示装置が行う処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which the image display apparatus shown in FIG. 9 performs. 図10に示した注目画像検出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the attention image detection process shown in FIG. 図10に示した注目画像選択処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the attention image selection process shown in FIG. 図12に示した注目画像選択処理の一例を説明する模式図である。It is a schematic diagram explaining an example of the attention image selection process shown in FIG. 図12に示した注目画像選択処理の結果の一例を説明する模式図である。It is a schematic diagram explaining an example of the result of the attention image selection process shown in FIG.

符号の説明Explanation of symbols

1,11 画像表示装置
2,12 画像処理部
2a,12a 画像処理制御部
2b 画像分類部
2c,12c 注目画像検出部
2d 代表画像検出部
12e 注目画像選択部
3 入力部
4 表示部
5 記憶部
5a 画像記憶部
5b 代表画像記憶部
6,16 制御部
6a 画像表示制御部
DESCRIPTION OF SYMBOLS 1,11 Image display apparatus 2,12 Image processing part 2a, 12a Image processing control part 2b Image classification part 2c, 12c Attention image detection part 2d Representative image detection part 12e Attention image selection part 3 Input part 4 Display part 5 Storage part 5a Image storage unit 5b Representative image storage unit 6, 16 Control unit 6a Image display control unit

Claims (8)

入力された一連の画像を順次表示する画像表示装置において、
前記一連の画像に含まれる各画像を該各画像間の相関度に応じて1以上の画像グループに分類する画像分類手段と、
前記各画像の中から所定の特徴を有する特徴画像領域を検出し、該検出した特徴画像領域を有する各特徴画像を前記一連の画像の中から検出する特徴画像検出手段と、
前記画像分類手段によって分類された各画像グループ内の前記特徴画像を、該各画像グループを代表する代表画像として抽出する代表画像抽出手段と、
前記代表画像抽出手段によって抽出された代表画像を順次表示する制御を行う画像表示制御手段と、
を備えたことを特徴とする画像表示装置。
In an image display device that sequentially displays a series of input images,
Image classification means for classifying each image included in the series of images into one or more image groups according to the degree of correlation between the images;
Feature image detection means for detecting a feature image region having a predetermined feature from each of the images, and detecting each feature image having the detected feature image region from the series of images;
Representative image extraction means for extracting the feature images in each image group classified by the image classification means as a representative image representing each image group;
Image display control means for controlling to sequentially display the representative images extracted by the representative image extraction means;
An image display device comprising:
前記代表画像抽出手段は、少なくとも各画像グループの時系列で先頭にある先頭画像を該各画像グループの代表画像として抽出することを特徴とする請求項1に記載の画像表示装置。   2. The image display device according to claim 1, wherein the representative image extracting unit extracts at least a head image at the head of each image group in time series as a representative image of each image group. 前記特徴画像検出手段によって検出された複数の特徴画像のうち時系列で連続する特徴画像間で生じた前記特徴画像領域の所定の特徴量の変化量を算出し、該算出した変化量をもとに前記複数の特徴画像を代表する特徴代表画像を選択する特徴画像選択手段を備え、
前記特徴画像検出手段は、検出した各特徴画像領域の前記所定の特徴量を算出し、
前記特徴画像選択手段は、前記特徴画像検出手段によって算出された特徴量をもとに前記変化量を算出し、
前記代表画像抽出手段は、各画像グループ内の特徴画像のうち前記特徴代表画像を代表画像として抽出することを特徴とする請求項1または2に記載の画像表示装置。
A change amount of a predetermined feature amount of the feature image region generated between feature images consecutive in a time series among a plurality of feature images detected by the feature image detection unit is calculated, and based on the calculated change amount Comprises a feature image selection means for selecting a feature representative image representing the plurality of feature images,
The feature image detection means calculates the predetermined feature amount of each detected feature image region,
The feature image selection unit calculates the change amount based on the feature amount calculated by the feature image detection unit,
The image display apparatus according to claim 1, wherein the representative image extraction unit extracts the feature representative image as a representative image among the feature images in each image group.
前記所定の特徴量は、前記特徴画像内の特徴画像領域の位置であることを特徴とする請求項3に記載の画像表示装置。   The image display device according to claim 3, wherein the predetermined feature amount is a position of a feature image region in the feature image. 前記画像表示制御手段は、前記特徴画像である代表画像を表示する際、該代表画像の近傍に特徴画像であることを示すマークを表示する制御を行うことを特徴とする請求項1〜4のいずれか一つに記載の画像表示装置。   5. The display according to claim 1, wherein when the representative image that is the feature image is displayed, the image display control unit performs a control to display a mark indicating the feature image in the vicinity of the representative image. The image display apparatus as described in any one. 前記各画像は、臓器の内部を撮像した画像であり、
前記所定の特徴は、前記臓器の内部の病変を示す特徴であることを特徴とする請求項1〜5のいずれか一つに記載の画像表示装置。
Each of the images is an image of the inside of an organ,
The image display device according to claim 1, wherein the predetermined feature is a feature that indicates a lesion inside the organ.
前記病変を示す特徴は、出血、褪色および形状異常の少なくとも1つであることを特徴とする請求項6に記載の画像表示装置。   The image display apparatus according to claim 6, wherein the feature indicating the lesion is at least one of bleeding, discoloration, and shape abnormality. 前記一連の画像は、カプセル型内視鏡を用いて生成されることを特徴とする請求項1〜7のいずれか一つに記載の画像表示装置。   The image display device according to claim 1, wherein the series of images is generated using a capsule endoscope.
JP2005148670A 2005-05-20 2005-05-20 Image display device Expired - Fee Related JP4418400B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2005148670A JP4418400B2 (en) 2005-05-20 2005-05-20 Image display device
CN200680015612A CN100577088C (en) 2005-05-20 2006-02-02 Image display apparatus
PCT/JP2006/301795 WO2006123455A1 (en) 2005-05-20 2006-02-02 Image display device
US11/631,273 US8830307B2 (en) 2005-05-20 2006-02-02 Image display apparatus
EP06712938.7A EP1882440A4 (en) 2005-05-20 2006-02-02 Image display device
US11/787,980 US8502861B2 (en) 2005-05-20 2007-04-18 Image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005148670A JP4418400B2 (en) 2005-05-20 2005-05-20 Image display device

Publications (3)

Publication Number Publication Date
JP2006320650A true JP2006320650A (en) 2006-11-30
JP2006320650A5 JP2006320650A5 (en) 2007-03-15
JP4418400B2 JP4418400B2 (en) 2010-02-17

Family

ID=37431038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005148670A Expired - Fee Related JP4418400B2 (en) 2005-05-20 2005-05-20 Image display device

Country Status (5)

Country Link
US (2) US8830307B2 (en)
EP (1) EP1882440A4 (en)
JP (1) JP4418400B2 (en)
CN (1) CN100577088C (en)
WO (1) WO2006123455A1 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008278344A (en) * 2007-05-02 2008-11-13 Nikon System:Kk Image output system
JP2008278347A (en) * 2007-05-02 2008-11-13 Nikon System:Kk Image display system
JP2009160326A (en) * 2008-01-10 2009-07-23 Hitachi Medical Corp Medical image management device and medical image diagnostic apparatus
JP2009301307A (en) * 2008-06-13 2009-12-24 Konica Minolta Business Technologies Inc Representative image extraction method and job analyzing program
KR100942997B1 (en) * 2009-08-07 2010-02-17 주식회사 인트로메딕 Display system and method of capsule endoscope images
JP2010142287A (en) * 2008-12-16 2010-07-01 Olympus Corp Apparatus, method and program for processing image
WO2011010598A1 (en) * 2009-07-23 2011-01-27 オリンパス株式会社 Image processing device, image processing program and image processing method
WO2011142189A1 (en) 2010-05-10 2011-11-17 オリンパスメディカルシステムズ株式会社 Medical device
JP2012196438A (en) * 2011-03-10 2012-10-18 Canon Inc Ophthalmologic apparatus and control method of the same
JP2013030105A (en) * 2011-07-29 2013-02-07 Olympus Corp Image processing device, image processing method, and image processing program
JP2013069120A (en) * 2011-09-22 2013-04-18 Canon Inc Display control apparatus, display control method, and program
JP2013517914A (en) * 2010-01-28 2013-05-20 ラドロジックス, インコーポレイテッド Methods and systems for analyzing, prioritizing, visualizing, and reporting medical images
WO2013133370A1 (en) * 2012-03-08 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
JP2013183912A (en) * 2012-03-08 2013-09-19 Olympus Corp Image summarization device and program
WO2013157354A1 (en) * 2012-04-18 2013-10-24 オリンパス株式会社 Image processing device, program, and image processing method
JP2013240361A (en) * 2012-05-17 2013-12-05 Olympus Corp Image processing apparatus, program, and image processing method
WO2014050638A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
WO2014050637A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
WO2015015869A1 (en) * 2013-08-02 2015-02-05 オリンパス株式会社 Image processing device, image processing method, and program
WO2015137016A1 (en) * 2014-03-14 2015-09-17 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2015141302A1 (en) * 2014-03-17 2015-09-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
US9576362B2 (en) 2012-03-07 2017-02-21 Olympus Corporation Image processing device, information storage device, and processing method to acquire a summary image sequence
WO2017199408A1 (en) * 2016-05-19 2017-11-23 オリンパス株式会社 Image processing device, operation method for image processing device, and operation program for image processing device

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4418400B2 (en) * 2005-05-20 2010-02-17 オリンパスメディカルシステムズ株式会社 Image display device
JP2007195586A (en) * 2006-01-23 2007-08-09 Olympus Medical Systems Corp Capsule type medical device, medical controlling device, medical image processing device, and program
JP5089189B2 (en) * 2007-02-09 2012-12-05 キヤノン株式会社 Information processing apparatus and method
JP4959445B2 (en) 2007-07-04 2012-06-20 オリンパス株式会社 Image processing apparatus and image processing program
JP5085370B2 (en) * 2008-02-19 2012-11-28 オリンパス株式会社 Image processing apparatus and image processing program
CN101594450B (en) * 2008-05-30 2012-11-21 鸿富锦精密工业(深圳)有限公司 Method for automatically grading photo in digital photo frame
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
JP5409189B2 (en) * 2008-08-29 2014-02-05 キヤノン株式会社 Imaging apparatus and control method thereof
US20100097392A1 (en) * 2008-10-14 2010-04-22 Olympus Medical Systems Corp. Image display device, image display method, and recording medium storing image display program
JP5117353B2 (en) * 2008-11-07 2013-01-16 オリンパス株式会社 Image processing apparatus, image processing program, and image processing method
US20100165088A1 (en) * 2008-12-29 2010-07-01 Intromedic Apparatus and Method for Displaying Capsule Endoscope Image, and Record Media Storing Program for Carrying out that Method
JP5421627B2 (en) * 2009-03-19 2014-02-19 キヤノン株式会社 Video data display apparatus and method
EP2443569A1 (en) * 2009-06-15 2012-04-25 Koninklijke Philips Electronics N.V. A method and apparatus for selecting a representative image
JP2011009976A (en) * 2009-06-25 2011-01-13 Hitachi Ltd Video reproducing apparatus
DE102010006741A1 (en) * 2010-02-03 2011-08-04 Friedrich-Alexander-Universität Erlangen-Nürnberg, 91054 Method for processing an endoscopic image
US20120036466A1 (en) * 2010-08-04 2012-02-09 General Electric Company Systems and methods for large data set navigation on a mobile device
CN103201767A (en) * 2010-10-19 2013-07-10 皇家飞利浦电子股份有限公司 Medical image system
US9516079B2 (en) * 2012-07-16 2016-12-06 Ricoh Company, Ltd. Media stream modification based on channel limitations
US9076044B2 (en) * 2012-12-15 2015-07-07 Joseph Ernest Dryer Apparatus and method for monitoring hand washing
US9386908B2 (en) * 2013-01-29 2016-07-12 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Navigation using a pre-acquired image
US10289939B2 (en) 2014-07-21 2019-05-14 Yulong Computer Telecommunication Scientific (Shenzhen) Co., Ltd. Image classification method and image classification apparatus
RU2736878C2 (en) * 2016-03-03 2020-11-23 Конинклейке Филипс Н.В. Navigation system for medical images
CN106775530B (en) * 2016-12-16 2020-03-17 上海联影医疗科技有限公司 Method and device for displaying medical image sequence
WO2018138828A1 (en) * 2017-01-26 2018-08-02 オリンパス株式会社 Image processing device, operation method, and program
EP3603481B1 (en) * 2017-03-30 2023-05-03 FUJIFILM Corporation Medical image processing device, endoscope system, and method for operating medical image processing device
EP3682791B1 (en) * 2017-09-15 2023-12-20 FUJIFILM Corporation Medical image processing device
JP6949999B2 (en) * 2017-12-26 2021-10-13 富士フイルム株式会社 Image processing equipment, endoscopic systems, image processing methods, programs and recording media
JP7015385B2 (en) 2018-05-15 2022-02-02 富士フイルム株式会社 Endoscopic image processing device, operation method of endoscopic device, and program
CN112105286A (en) * 2018-05-17 2020-12-18 富士胶片株式会社 Endoscope device, endoscope operation method, and program
JP7317954B2 (en) * 2019-05-22 2023-07-31 三菱電機ビルソリューションズ株式会社 Video processing device and video processing method
EP4302679A4 (en) * 2021-03-01 2024-04-24 Nec Corp Image processing device, image processing method, and storage medium
KR102625668B1 (en) * 2021-07-07 2024-01-18 성신여자대학교 연구 산학협력단 A capsule endoscope apparatus and supporting methods for diagnosing the lesions
US20230218146A1 (en) * 2022-01-10 2023-07-13 Endoluxe Inc. Systems, apparatuses, and methods for endoscopy

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1175150A (en) * 1997-08-29 1999-03-16 Hitachi Denshi Ltd Dynamic image editing method, device therefor and recording medium recorded with program for executing dynamic image editing operation
US6709387B1 (en) * 2000-05-15 2004-03-23 Given Imaging Ltd. System and method for controlling in vivo camera capture and display rate
JP2001359039A (en) 2000-06-09 2001-12-26 Olympus Optical Co Ltd Image recorder
ES2365696T3 (en) * 2001-03-14 2011-10-10 Given Imaging Ltd. METHOD AND SYSTEM TO DETECT COLORIMETRIC ABNORMALITIES.
JP3460150B2 (en) * 2001-11-28 2003-10-27 財団法人新産業創造研究機構 Medical image editing program and medical image editing device
WO2003069913A1 (en) 2002-02-12 2003-08-21 Given Imaging Ltd. System and method for displaying an image stream
US7474327B2 (en) 2002-02-12 2009-01-06 Given Imaging Ltd. System and method for displaying an image stream
JP4363843B2 (en) * 2002-03-08 2009-11-11 オリンパス株式会社 Capsule endoscope
US7309867B2 (en) * 2003-04-18 2007-12-18 Medispectra, Inc. Methods and apparatus for characterization of tissue samples
JP4758594B2 (en) * 2002-09-24 2011-08-31 セイコーエプソン株式会社 Input device, information device, and control information generation method
JP3810381B2 (en) * 2003-04-25 2006-08-16 オリンパス株式会社 Image display device, image display method, and image display program
JP4493386B2 (en) * 2003-04-25 2010-06-30 オリンパス株式会社 Image display device, image display method, and image display program
JP2005013573A (en) 2003-06-27 2005-01-20 Olympus Corp Electronic endoscope system
WO2005020147A1 (en) 2003-08-21 2005-03-03 Philips Intellectual Property & Standards Gmbh Device and method for combining two images
JP3993554B2 (en) 2003-10-27 2007-10-17 オリンパス株式会社 Image processing apparatus, method, and program
CN1284505C (en) * 2004-02-28 2006-11-15 重庆金山科技(集团)有限公司 Radio capsule like endoscope system for medical use
JP4482795B2 (en) * 2004-03-05 2010-06-16 ソニー株式会社 Image processing apparatus, moving object tracking method, moving object tracking program, monitoring apparatus, and game apparatus
JP4418400B2 (en) * 2005-05-20 2010-02-17 オリンパスメディカルシステムズ株式会社 Image display device

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008278347A (en) * 2007-05-02 2008-11-13 Nikon System:Kk Image display system
JP2008278344A (en) * 2007-05-02 2008-11-13 Nikon System:Kk Image output system
JP2009160326A (en) * 2008-01-10 2009-07-23 Hitachi Medical Corp Medical image management device and medical image diagnostic apparatus
JP2009301307A (en) * 2008-06-13 2009-12-24 Konica Minolta Business Technologies Inc Representative image extraction method and job analyzing program
JP4640713B2 (en) * 2008-06-13 2011-03-02 コニカミノルタビジネステクノロジーズ株式会社 Representative image extraction method and job analysis program
JP2010142287A (en) * 2008-12-16 2010-07-01 Olympus Corp Apparatus, method and program for processing image
US9186051B2 (en) 2009-07-23 2015-11-17 Olympus Corporation Image processing device, computer-readable recording device, and image processing method
WO2011010598A1 (en) * 2009-07-23 2011-01-27 オリンパス株式会社 Image processing device, image processing program and image processing method
JP2011024727A (en) * 2009-07-23 2011-02-10 Olympus Corp Image processing device, program and method
KR100942997B1 (en) * 2009-08-07 2010-02-17 주식회사 인트로메딕 Display system and method of capsule endoscope images
JP2013517914A (en) * 2010-01-28 2013-05-20 ラドロジックス, インコーポレイテッド Methods and systems for analyzing, prioritizing, visualizing, and reporting medical images
JP2018163680A (en) * 2010-01-28 2018-10-18 ラドロジックス, インコーポレイテッド Method and system for analyzing medical image, imparting order of priority to medical image, visualizing, and reporting the same
US8355043B2 (en) 2010-05-10 2013-01-15 Olympus Medical Systems Corp. Medical apparatus
WO2011142189A1 (en) 2010-05-10 2011-11-17 オリンパスメディカルシステムズ株式会社 Medical device
JP2012196438A (en) * 2011-03-10 2012-10-18 Canon Inc Ophthalmologic apparatus and control method of the same
US9773185B2 (en) 2011-07-29 2017-09-26 Olympus Corporation Image processing apparatus, image processing method, and computer readable recording device
JP2013030105A (en) * 2011-07-29 2013-02-07 Olympus Corp Image processing device, image processing method, and image processing program
JP2013069120A (en) * 2011-09-22 2013-04-18 Canon Inc Display control apparatus, display control method, and program
US9372872B2 (en) 2011-09-22 2016-06-21 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium for displaying a content of a file on a display apparatus
US9576362B2 (en) 2012-03-07 2017-02-21 Olympus Corporation Image processing device, information storage device, and processing method to acquire a summary image sequence
WO2013133370A1 (en) * 2012-03-08 2013-09-12 オリンパス株式会社 Image processing device, program, and image processing method
US9672619B2 (en) 2012-03-08 2017-06-06 Olympus Corporation Image processing device, information storage device, and image processing method
US9547794B2 (en) 2012-03-08 2017-01-17 Olympus Corporation Image processing device, information storage device, and image processing method
JP2013183912A (en) * 2012-03-08 2013-09-19 Olympus Corp Image summarization device and program
US10037468B2 (en) 2012-04-18 2018-07-31 Olympus Corporation Image processing device, information storage device, and image processing method
US9740939B2 (en) 2012-04-18 2017-08-22 Olympus Corporation Image processing device, information storage device, and image processing method
WO2013157354A1 (en) * 2012-04-18 2013-10-24 オリンパス株式会社 Image processing device, program, and image processing method
JP2013240361A (en) * 2012-05-17 2013-12-05 Olympus Corp Image processing apparatus, program, and image processing method
JP2014079562A (en) * 2012-09-27 2014-05-08 Olympus Corp Image processing apparatus, program and image processing method
JP2014071470A (en) * 2012-09-27 2014-04-21 Olympus Corp Image processor, program and image processing method
WO2014050638A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
WO2014050637A1 (en) * 2012-09-27 2014-04-03 オリンパス株式会社 Image processing device, program, and image processing method
US9684849B2 (en) 2012-09-27 2017-06-20 Olympus Corporation Image processing device, information storage device, and image processing method
US9652835B2 (en) 2012-09-27 2017-05-16 Olympus Corporation Image processing device, information storage device, and image processing method
JP2015032127A (en) * 2013-08-02 2015-02-16 オリンパス株式会社 Image processing device, image processing method and program
WO2015015869A1 (en) * 2013-08-02 2015-02-05 オリンパス株式会社 Image processing device, image processing method, and program
US9898664B2 (en) 2013-08-02 2018-02-20 Olympus Corporation Image processing device, image processing method, and information storage device
WO2015137016A1 (en) * 2014-03-14 2015-09-17 オリンパス株式会社 Image processing device, image processing method, and image processing program
JP2015173827A (en) * 2014-03-14 2015-10-05 オリンパス株式会社 image processing apparatus, image processing method, and image processing program
US10223785B2 (en) 2014-03-14 2019-03-05 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium extracting one or more representative images
JP2015173921A (en) * 2014-03-17 2015-10-05 オリンパス株式会社 image processing apparatus, image processing method, and image processing program
US9959618B2 (en) 2014-03-17 2018-05-01 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
WO2015141302A1 (en) * 2014-03-17 2015-09-24 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2017199408A1 (en) * 2016-05-19 2017-11-23 オリンパス株式会社 Image processing device, operation method for image processing device, and operation program for image processing device
JPWO2017199408A1 (en) * 2016-05-19 2019-04-04 オリンパス株式会社 Image processing apparatus, method for operating image processing apparatus, and operation program for image processing apparatus
US10776921B2 (en) 2016-05-19 2020-09-15 Olympus Corporation Image processing apparatus, operation method for image processing apparatus, and recording medium

Also Published As

Publication number Publication date
CN101170940A (en) 2008-04-30
US8830307B2 (en) 2014-09-09
US8502861B2 (en) 2013-08-06
WO2006123455A1 (en) 2006-11-23
CN100577088C (en) 2010-01-06
EP1882440A4 (en) 2016-06-15
JP4418400B2 (en) 2010-02-17
EP1882440A1 (en) 2008-01-30
US20070195165A1 (en) 2007-08-23
US20080212881A1 (en) 2008-09-04

Similar Documents

Publication Publication Date Title
JP4418400B2 (en) Image display device
US10803582B2 (en) Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program
JP4602825B2 (en) Image display device
JP5800468B2 (en) Image processing apparatus, image processing method, and image processing program
JPWO2018105063A1 (en) Image processing device
EP3936026B1 (en) Medical image processing device, processor device, endoscopic system, medical image processing method, and program
JP6741759B2 (en) Image processing apparatus, image processing apparatus operating method, and image processing apparatus operating program
EP3932290B1 (en) Medical image processing device, processor device, endoscope system, medical image processing method, and program
JP6949999B2 (en) Image processing equipment, endoscopic systems, image processing methods, programs and recording media
JPWO2019087790A1 (en) Examination support equipment, endoscopy equipment, examination support methods, and examination support programs
CN114004969A (en) Endoscope image focal zone detection method, device, equipment and storage medium
JP6840263B2 (en) Endoscope system and program
JP4472602B2 (en) Image display device
JP6112859B2 (en) Medical image processing device
JP4616076B2 (en) Image display device
JP4464894B2 (en) Image display device
JPWO2019088008A1 (en) Image processing equipment, image processing methods, programs, and endoscopic systems
JP2009273644A (en) Medical imaging apparatus, medical image processing device, and medical image processing program
US20220202284A1 (en) Endoscope processor, training device, information processing method, training method and program
WO2024018713A1 (en) Image processing device, display device, endoscope device, image processing method, image processing program, trained model, trained model generation method, and trained model generation program
JP2019216948A (en) Image processing device, operation method for image processing device, and operation program of image processing device
JP2019037692A (en) Image processing device, image processing method, and image processing program
WO2022208615A1 (en) Image processing device, image processing method, and storage medium
JPWO2016056408A1 (en) Image processing apparatus, image processing method, and image processing program
JP2024008474A (en) Inspection support device, inspection support method, and inspection support program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091127

R151 Written notification of patent or utility model registration

Ref document number: 4418400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131204

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees