JP2006320650A - Image display device - Google Patents
Image display device Download PDFInfo
- Publication number
- JP2006320650A JP2006320650A JP2005148670A JP2005148670A JP2006320650A JP 2006320650 A JP2006320650 A JP 2006320650A JP 2005148670 A JP2005148670 A JP 2005148670A JP 2005148670 A JP2005148670 A JP 2005148670A JP 2006320650 A JP2006320650 A JP 2006320650A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- feature
- representative
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/042—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30092—Stomach; Gastric
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Digital Computer Display Output (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、入力された一連の画像を順次表示する画像表示装置に関し、特にカプセル型内視鏡を用いて披検体内を撮像した一連の画像の表示に適用して好適な画像表示装置に関するものである。 The present invention relates to an image display device that sequentially displays a series of input images, and more particularly to an image display device suitable for application to display of a series of images obtained by imaging the inside of a subject using a capsule endoscope. It is.
近年、内視鏡の分野において、飲込み式のカプセル型内視鏡が開発されている。このカプセル型内視鏡は、撮像機能と無線通信機能とを備え、各種臓器内の観察のために患者の口から飲み込まれた後、人体から自然排出されるまでの間、たとえば胃、小腸、大腸などの消化器官の内部をその蠕動運動にしたがって移動しながら順次撮像する。 In recent years, swallowable capsule endoscopes have been developed in the field of endoscopes. This capsule endoscope has an imaging function and a wireless communication function. After being swallowed from the patient's mouth for observation in various organs, until it is naturally discharged from the human body, for example, the stomach, the small intestine, Images are sequentially taken while moving inside the digestive organs such as the large intestine according to the peristaltic movement.
臓器内を移動する間、カプセル型内視鏡によって体内で撮像された画像データは、順次無線通信により体外に送信され、体外の受信機内に設けられたメモリに蓄積されるか、受信機に設けられたディスプレイに画像表示される。医師、看護師等は、メモリに蓄積された画像データをもとにディスプレイに表示させた画像、または受信とともに受信機に設けられたディスプレイに表示させた画像に基づいて診断を行うことができる。 While moving inside the organ, image data captured inside the body by the capsule endoscope is sequentially transmitted outside the body by wireless communication and stored in a memory provided in the receiver outside the body or provided in the receiver. The image is displayed on the displayed display. A doctor, nurse, or the like can make a diagnosis based on the image displayed on the display based on the image data stored in the memory or the image displayed on the display provided in the receiver along with the reception.
通常、カプセル型内視鏡によって撮像される一連の画像数は膨大であり、医師、看護師等は、この一連の画像を観察して診断を行うために多大な時間と労力を要する。これに対応して、メモリに蓄積された画像データをもとに画像を表示させて観察を行う場合、2つの画像の類似性の程度を判定し、この判定結果をもとに画像の表示レートを変化させる表示装置が提案されている(たとえば、特許文献1参照)。この表示装置では、カプセル型内視鏡の移動が停滞した際に連続して撮像される類似画像が多いことに着目し、2つの画像の類似性が低い場合、低速の表示レートで画像を表示し、類似性が高い場合、高速の表示レートで画像を表示するようにしている。 Usually, the series of images captured by the capsule endoscope is enormous, and doctors, nurses, and the like require a great deal of time and effort to observe and diagnose this series of images. Correspondingly, when an image is displayed based on the image data stored in the memory for observation, the degree of similarity between the two images is determined, and the image display rate is determined based on the determination result. There has been proposed a display device that changes the angle (see, for example, Patent Document 1). In this display device, focusing on the fact that there are many similar images that are continuously captured when the movement of the capsule endoscope is stagnant, when the similarity between the two images is low, the image is displayed at a low display rate. If the similarity is high, an image is displayed at a high display rate.
しかしながら、このような表示装置では、2つの画像の類似性に応じて画像の表示レートを変化させるようにしているため、たとえば、出血部位を含み観察の必要性が高い画像であっても、出血部位がわずかな領域であると、類似性が高く判定され高速の表示レートで表示されることになり、観察が困難となる場合が生じるという問題があった。 However, in such a display device, the display rate of the image is changed in accordance with the similarity between the two images. For example, even if the image includes a bleeding site and is highly necessary to be observed, the bleeding When the region is a small region, there is a problem that the similarity is determined to be high and the image is displayed at a high display rate, which may make observation difficult.
本発明は、上記に鑑みてなされたものであって、画像の類似性に応じて一連の画像を分類する場合でも、観察の必要性が高い画像の観察を容易とし、観察の必要性が低い画像の表示時間を削減することができ、結果として一連の画像の観察を効率的に行うことができる画像表示装置を提供することを目的とする。 The present invention has been made in view of the above, and even when a series of images is classified according to the similarity of images, it is easy to observe an image having a high necessity for observation, and the necessity for observation is low. An object of the present invention is to provide an image display device that can reduce the display time of an image and, as a result, can efficiently observe a series of images.
上記の目的を達成するために、請求項1にかかる画像表示装置は、入力された一連の画像を順次表示する画像表示装置において、前記一連の画像に含まれる各画像を該各画像間の相関度に応じて1以上の画像グループに分類する画像分類手段と、前記各画像の中から所定の特徴を有する特徴画像領域を検出し、該検出した特徴画像領域を有する各特徴画像を前記一連の画像の中から検出する特徴画像検出手段と、前記画像分類手段によって分類された各画像グループ内の前記特徴画像を、該各画像グループを代表する代表画像として抽出する代表画像抽出手段と、前記代表画像抽出手段によって抽出された代表画像を順次表示する制御を行う画像表示制御手段と、を備えたことを特徴とする。 In order to achieve the above object, an image display device according to claim 1 is an image display device for sequentially displaying a series of inputted images, and correlates each image included in the series of images with each other. Image classification means for classifying the image into one or more image groups according to the degree, a feature image area having a predetermined feature is detected from each of the images, and each feature image having the detected feature image area is Feature image detection means for detecting from among the images, representative image extraction means for extracting the feature images in each image group classified by the image classification means as representative images representing each image group, and the representative And image display control means for performing control to sequentially display the representative images extracted by the image extraction means.
また、請求項2にかかる画像表示装置は、上記の発明において、前記代表画像抽出手段は、少なくとも各画像グループの時系列で先頭にある先頭画像を該各画像グループの代表画像として抽出することを特徴とする。
In the image display device according to
また、請求項3にかかる画像表示装置は、上記の発明において、前記特徴画像検出手段によって検出された複数の特徴画像のうち時系列で連続する特徴画像間で生じた前記特徴画像領域の所定の特徴量の変化量を算出し、該算出した変化量をもとに前記複数の特徴画像を代表する特徴代表画像を選択する特徴画像選択手段を備え、前記特徴画像検出手段は、検出した各特徴画像領域の前記所定の特徴量を算出し、前記特徴画像選択手段は、前記特徴画像検出手段によって算出された特徴量をもとに前記変化量を算出し、前記代表画像抽出手段は、各画像グループ内の特徴画像のうち前記特徴代表画像を代表画像として抽出することを特徴とする。 According to a third aspect of the present invention, there is provided the image display device according to the above-described invention, wherein a predetermined image of the feature image region generated between the feature images consecutive in time series among the plurality of feature images detected by the feature image detection means is provided. A feature image selecting unit that calculates a change amount of the feature amount and selects a feature representative image that represents the plurality of feature images based on the calculated change amount, and the feature image detection unit detects each feature detected The predetermined feature amount of the image area is calculated, the feature image selection unit calculates the change amount based on the feature amount calculated by the feature image detection unit, and the representative image extraction unit Of the feature images in the group, the feature representative image is extracted as a representative image.
また、請求項4にかかる画像表示装置は、上記の発明において、前記所定の特徴量は、前記特徴画像内の特徴画像領域の位置であることを特徴とする。 According to a fourth aspect of the present invention, in the above invention, the predetermined feature amount is a position of a feature image region in the feature image.
また、請求項5にかかる画像表示装置は、上記の発明において、前記画像表示制御手段は、前記特徴画像である代表画像を表示する際、該代表画像の近傍に特徴画像であることを示すマークを表示する制御を行うことを特徴とする。
In the image display device according to
また、請求項6にかかる画像表示装置は、上記の発明において、前記各画像は、臓器の内部を撮像した画像であり、前記所定の特徴は、前記臓器の内部の病変を示す特徴であることを特徴とする。
Further, in the image display device according to
また、請求項7にかかる画像表示装置は、上記の発明において、前記病変を示す特徴は、出血、褪色および形状異常の少なくとも1つであることを特徴とする。 The image display device according to a seventh aspect of the present invention is characterized in that, in the above invention, the feature indicating the lesion is at least one of bleeding, discoloration, and shape abnormality.
また、請求項8にかかる画像表示装置は、上記の発明において、前記一連の画像は、カプセル型内視鏡を用いて生成されることを特徴とする。 An image display apparatus according to an eighth aspect of the present invention is characterized in that, in the above invention, the series of images is generated using a capsule endoscope.
本発明にかかる画像表示装置によれば、画像の類似性に応じて一連の画像を分類する場合でも、観察の必要性が高い画像の観察を容易とし、観察の必要性が低い画像の表示時間を削減することができ、結果として一連の画像の観察を効率的に行うことができる。 According to the image display device of the present invention, even when a series of images are classified according to the similarity of images, it is possible to easily observe an image having a high necessity for observation, and to display an image with a low necessity for observation. As a result, a series of images can be observed efficiently.
以下、添付図面を参照して、本発明にかかる画像表示装置の好適な実施の形態を詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, exemplary embodiments of an image display device according to the invention will be described in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same parts are denoted by the same reference numerals.
(実施の形態1)
まず、本発明の実施の形態1にかかる画像表示装置について説明する。図1は、この実施の形態にかかる画像表示装置1の構成を示すブロック図である。図1に示すように、画像表示装置1は、記憶部5に記憶された画像を処理する画像処理部2と、各種情報の入力を受け付ける入力部3と、各種情報を表示する表示部4と、各種情報を記憶する記憶部5と、画像表示装置1の各部の処理および動作を制御する制御部6と、を備える。画像処理部2、入力部3、表示部4および記憶部5は、制御部6に電気的に接続されている。
(Embodiment 1)
First, the image display apparatus according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of the image display apparatus 1 according to this embodiment. As shown in FIG. 1, the image display device 1 includes an
画像処理部2は、画像処理制御部2a、画像分類部2b、注目画像検出部2cおよび代表画像抽出部2dを備える。画像処理制御部2aは、記憶部5から画像を取得し、取得した画像に対する各種画像処理を制御し、処理結果の画像を記憶部5に出力し記憶させる。画像処理制御部2aは、特に、画像分類部2b、注目画像検出部2cおよび代表画像抽出部2dを制御して所定の画像処理を実行させる。
The
画像分類部2bは、画像処理制御部2aが取得した時系列で連続する2つの画像の相関値を算出し、算出した相関値に応じて処理対象の画像を既存または新規の画像グループに対応付けるとともに、この対応付けの処理を一連のすべての画像に対して繰り返すことにより、この一連の画像を1つ以上の画像グループに分類する。
The
具体的には、画像分類部2bは、あらかじめ入力された相関値に対するしきい値を参照し、このしきい値と算出した相関値との大小関係に応じて、処理対象の画像を既存の画像グループもしくは新しい画像グループに対応付け、この対応付けた画像グループのグループ番号を処理対象の画像に付加する。なお、画像分類部2bは、たとえば、2つの画像間の対応する各画素値の正規化相互相関を相関値として算出する。また、画像分類部2bは、各画素値をもとに、対応する各画素の色差、輝度差等を相関値として求めるようにしてもよい。
Specifically, the
特徴画像検出手段としての注目画像検出部2cは、画像処理制御部2aが取得した画像から所定の特徴を有する特徴画像領域を検出するとともに、この検出した特徴画像領域を有する特徴画像を、観察時に注目すべき画像である注目画像として検出する。注目画像検出部2cは、この検出処理を一連のすべての画像に対して繰り返すことにより、すべての特徴画像を注目画像として検出する。このとき、注目画像検出部2cは、注目画像として検出した各画像に、注目画像であることを示す注目画像情報を付加する。
The attention
なお、注目画像検出部2cは、たとえば、画像を構成する各画素が示す色情報をもとに所定の特徴を識別して特徴画像領域を検出する。また、注目画像検出部2cは、色情報に限らず、輪郭形状、テクスチャ、濃度勾配等の各種特徴量をもとに特徴画像領域を検出するようにしてもよい。
Note that the attention
代表画像抽出部2dは、画像分類部2bによって分類された各画像グループの中から、この各画像グループを代表する代表画像を抽出する。具体的には、代表画像抽出部2dは、各画像グループ内の注目画像をこの各画像グループの代表画像として抽出するとともに、各画像グループ内の時系列で先頭にある先頭画像を代表画像として抽出する。また、代表画像抽出部2dは、注目画像である代表画像に対し、十分な観察時間が与えられるように、画像を低速で表示する低速表示レートを設定し、先頭画像である代表画像に対し、低速表示レートよりも高速な通常速度で表示する通常表示レートを設定する。
The representative
なお、代表画像抽出部2dは、画像グループ毎にすべての注目画像を抽出し、注目画像が含まれない画像グループでは先頭画像のみ抽出する。また、代表画像抽出部2dは、先頭画像を代表画像とする替わりに、たとえば、画像グループで時系列的に末尾にある画像等、所定の順位にある画像を代表画像として抽出するようにしてもよい。
The representative
また、代表画像抽出部2dによって抽出された各代表画像は、画像処理制御部2aによって記憶部5に出力され、代表画像を記憶する記憶領域である代表画像記憶部5bに記憶される。ここで、画像処理制御部2aは、各代表画像を記憶する替わりに、各代表画像のグループ番号、注目画像情報および表示レートのみを元の画像に関連付けて新たに記憶するようにしてもよい。
Each representative image extracted by the representative
入力部3は、画像表示装置1で処理する画像、各種処理情報等の入力を受け付ける。具体的には、入力部3は、USB,IEEE1394等の通信用インターフェースを備え、外部装置からの画像の入力を受け付ける。また、入力部3は、各種スイッチ、入力キー、マウス、タッチパネル等を備え、画像分類部2bが参照するしきい値、注目画像検出部2cが検出すべき特徴画像領域の特徴に関する情報等、各種処理情報の入力を受け付ける。なお、入力部3は、各種メモリカード、CD、DVD等の携帯型記憶媒体に対応するインターフェースを備え、この携帯型記憶媒体からの画像の入力を受け付けるようにしてもよい。
The
表示部4は、液晶ディスプレイ等を備え、画像を含む各種情報を表示する。表示部4は、特に、記憶部5に記憶された画像と、画像表示装置1のオペレータに対して各種処理情報の入力を依頼するGUI(Graphical User Interface)画面とを表示する。
The display unit 4 includes a liquid crystal display and displays various information including images. In particular, the display unit 4 displays an image stored in the
記憶部5は、各種処理プログラム等があらかじめ記憶されたROMと、各処理の処理パラメータ、処理データ等を記憶するRAMとによって実現される。記憶部5は、特に、外部から入力された画像と代表画像抽出部2dによって抽出された代表画像とをそれぞれ記憶する記憶領域である画像記憶部5a、代表画像記憶部5bを備える。なお、記憶部5は、各種メモリカード、CD、DVD等の携帯型記憶媒体を着脱可能な画像記憶部として備えるようにしてもよい。
The
制御部6は、記憶部5に記憶された各種処理プログラムを実行するCPU等によって実現される。制御部6は、特に、画像表示制御部6aを備え、この画像表示制御部6aは、代表画像記憶部5bに記憶された一連の代表画像を、各代表画像に設定された表示レートをもとに表示部4に順次表示させる制御を行う。また、画像表示制御部6aは、注目画像である代表画像を表示させる際、注目画像であることを示す注目画像マークを代表画像の近傍に表示させる制御を行う。この注目画像マークは、記憶部5にあらかじめ記憶されており、画像表示制御部6aは、処理対象の代表画像に注目画像情報が付加されている場合、記憶部5から注目画像マークを取得して画像とともに表示する。
The
ここで、画像表示装置1が行う処理および動作について説明する。図2は、画像表示装置1が、制御部6の制御のもと、画像記憶部5aに記憶された一連の画像を処理して表示する処理手順を示すフローチャートである。なお、図2に示すフローチャートは、図示しないカプセル型内視鏡を用いて消化器官等の臓器の内部を撮像し生成された一連の画像を表示する処理手順を例示する。
Here, processing and operations performed by the image display apparatus 1 will be described. FIG. 2 is a flowchart illustrating a processing procedure in which the image display apparatus 1 processes and displays a series of images stored in the
図2に示すように、画像分類部2bは、画像記憶部5aに記憶された一連の画像に含まれる各画像を画像グループに分類するグループ化処理を行い(ステップS101)、注目画像検出部2cは、一連の画像の中から注目画像を検出する注目画像検出処理を行い(ステップS103)、代表画像抽出部2dは、分類された各画像グループ内の注目画像および先頭画像を代表画像として抽出する代表画像抽出処理を行い(ステップS105)、画像表示制御部6aは、抽出された一連の代表画像を各代表画像に設定された表示レートをもとに順次表示する代表画像表示処理を行い(ステップS107)、制御部6は、一連の処理を終了する。
As shown in FIG. 2, the
つづいて、図2に示したステップS101のグループ化処理について説明する。図3は、グループ化処理の処理手順を示すフローチャートである。図3に示すように、画像処理制御部2aは、画像グループのグループ番号を示す変数GをG=0に初期化した後(ステップS111)、画像記憶部5aに記憶された一連の画像の中から時系列で先頭と2番目とにある2つの画像を読み込む(ステップS113)。
Next, the grouping process in step S101 shown in FIG. 2 will be described. FIG. 3 is a flowchart showing the processing procedure of the grouping process. As shown in FIG. 3, the image processing control unit 2a initializes a variable G indicating the group number of the image group to G = 0 (step S111), and then, among the series of images stored in the
そして、画像分類部2bは、この2番目の画像を処理対象の画像とし、先頭の画像であり時系列で前の時点の画像である前画像との相関値を算出し(ステップS115)、算出した相関値があらかじめ入力されたしきい値より大きいか否かを判断する(ステップS117)。相関値がしきい値よりも小さい場合(ステップS117:No)、画像分類部2bは、画像間の類似度が低いと判断し、変数Gをインクリメントしてグループ番号を更新し(ステップS119)、この更新したグループ番号を処理対象の画像に設定する(ステップS121)。一方、相関値がしきい値よりも大きい場合(ステップS117:Yes)、画像分類部2bは、画像間の類似度が高いと判断し、処理対象の画像に現時点の変数Gが示すグループ番号を設定する(ステップS121)。なお、画像分類部2bは、先頭画像にグループ番号「0」を設定する。
Then, the
その後、画像処理制御部2aは、グループ番号が設定された画像を画像記憶部5aに記録し(ステップS123)、一連の画像に含まれるすべての画像にグループ番号が設定されているか否かを判断する(ステップS125)。すべての画像にグループ番号が設定されていない場合(ステップS125:No)、画像処理制御部2aは、設定されていない画像に対してステップS113からの処理を繰り返すように制御を行う。一方、すべての画像にグループ番号が設定されている場合(ステップS125:Yes)、画像処理制御部2aは、ステップS101にリターンする。
Thereafter, the image processing control unit 2a records the image with the group number set in the
このようにして、ステップS101のグループ化処理では、前画像との類似度が高い画像は、前画像と同一の画像グループに対応付けられ、類似度の低い画像は、グループ番号を更新した新たな画像グループに対応付けられる。これによって、一連の画像は、互いに類似した画像群を1つの画像グループとして分類される。 In this way, in the grouping process in step S101, an image having a high similarity with the previous image is associated with the same image group as the previous image, and an image with a low similarity is a new group number updated. Corresponding to an image group. As a result, a series of images is classified into a group of images similar to each other.
つぎに、図2に示したステップS103の注目画像検出処理について説明する。図4は、注目画像検出処理の処理手順を示すフローチャートである。図4に示すように、画像処理制御部2aは、グループ番号が設定され画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS131)、注目画像検出部2cは、この読み込んだ画像の中から、特徴画像領域として出血部位を示す画像領域の検出を行い(ステップS133)、検出された出血部位があるか否かを判断する(ステップS135)。なお、注目画像検出部2cは、出血部位を検出する際、臓器内部の粘膜よりも赤みの強い画像領域を出血部位として検出するとよい。
Next, the attention image detection process in step S103 shown in FIG. 2 will be described. FIG. 4 is a flowchart showing the processing procedure of the attention image detection process. As shown in FIG. 4, the image processing control unit 2a reads the first image in time series among the series of images set with the group number and stored in the
検出された出血部位がある場合(ステップS135:Yes)、注目画像検出部2cは、処理対象の画像に注目画像情報を付加し(ステップS137)、画像処理制御部2aは、この注目画像情報が付加された画像を画像記憶部5aに記録した後(ステップS139)、一連のすべての画像を処理したか否かを判断する(ステップS141)。
When there is a detected bleeding site (step S135: Yes), the attention
すべての画像を処理していない場合(ステップS141:No)、画像処理制御部2aは、処理していない画像に対してステップS131からの処理を繰り返し、すべての画像を処理している場合(ステップS141:Yes)、ステップS103にリターンする。なお、ステップS135で、検出された出血部位がないと判断された場合(ステップS135:No)、画像処理制御部2aは、直ちにステップS141の判断を行う。 When all the images are not processed (step S141: No), the image processing control unit 2a repeats the processing from step S131 on the unprocessed images, and when all the images are processed (step S1). S141: Yes), the process returns to step S103. If it is determined in step S135 that there is no detected bleeding site (step S135: No), the image processing control unit 2a immediately determines in step S141.
このようにして、ステップS103の注目画像検出処理では、一連の画像の中から臓器内部で出血部位を撮像した画像を注目画像として検出することができる。なお、注目画像として検出する画像は出血部位を撮像した画像に限らず、たとえば、臓器内部の褪色部位、形状異常部位等、病変の疑いのある種々の部位を撮像した画像を注目画像として検出するようにしてもよい。この場合、注目画像検出部2cは、褪色、形状異常等の特徴を示す画像領域を特徴画像領域として検出するようにすればよい。
In this way, in the attention image detection process in step S103, an image obtained by imaging a bleeding site inside an organ can be detected as a attention image from a series of images. Note that the image to be detected as the attention image is not limited to the image in which the bleeding site is imaged, and for example, an image in which various sites that are suspected to be lesions, such as a faint region and an abnormal shape region in the organ, are detected as the attention image. You may do it. In this case, the attention
つぎに、図2に示したステップS105の代表画像抽出処理について説明する。図5は、代表画像抽出処理の処理手順を示すフローチャートである。図5に示すように、画像処理制御部2aは、グループ化処理および注目画像検出処理が施され画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS151)、代表画像抽出部2dは、この読み込んだ画像に注目画像情報が付加されているか否かを判断する(ステップS153)。
Next, the representative image extraction process in step S105 shown in FIG. 2 will be described. FIG. 5 is a flowchart showing a processing procedure of representative image extraction processing. As shown in FIG. 5, the image processing control unit 2a reads the first image in time series among the series of images subjected to the grouping process and the target image detection process and stored in the
注目画像情報が付加されている場合(ステップS153:Yes)、代表画像抽出部2dは、処理対象の画像に低速表示レートを設定し(ステップS155)、画像処理制御部2aは、この低速表示レートが設定された注目画像を代表画像として代表画像記憶部5bに記録する(ステップS157)。
When attention image information is added (step S153: Yes), the representative
一方、注目画像情報が付加されていない場合(ステップS153:No)、代表画像抽出部2dは、処理対象の画像が画像グループの先頭画像であるか否かを判断する(ステップS159)。先頭画像である場合(ステップS159:Yes)、代表画像抽出部2dは、処理対象の画像に通常表示レートを設定し(ステップS161)、画像処理制御部2aは、この通常表示レートが設定された先頭画像を代表画像として代表画像記憶部5bに記録する(ステップS163)。
On the other hand, when attention image information is not added (step S153: No), the representative
ステップS157またはステップS163の後、画像処理制御部2aは、一連のすべての画像を処理したか否かを判断し(ステップS165)、すべての画像を処理していない場合(ステップS165:No)、処理していない画像に対してステップS151からの処理を繰り返し、すべての画像を処理している場合(ステップS165:Yes)、ステップS105にリターンする。なお、ステップS159で、処理対象の画像が先頭画像ではないと判断された場合(ステップS159:No)、画像処理制御部2aは、直ちにステップS165の判断を行う。 After step S157 or step S163, the image processing control unit 2a determines whether or not a series of all images has been processed (step S165). When all the images have not been processed (step S165: No), If the processing from step S151 is repeated for the unprocessed image and all the images are processed (step S165: Yes), the process returns to step S105. If it is determined in step S159 that the image to be processed is not the top image (step S159: No), the image processing control unit 2a immediately determines in step S165.
このようにして、ステップS105の代表画像抽出処理では、たとえば図6に示すように、各画像グループの先頭画像と注目画像とを代表画像として抽出することができる。図6に示す例では、時系列でn番目の画像グループである画像グループnから先頭画像である「正常画像1」および注目画像である「出血画像1」〜「出血画像3」が、また、画像グループn+1から先頭画像である「正常画像3」が、それぞれ代表画像として抽出されている。なお、このように抽出された一連の代表画像は、代表画像記憶部5bに時系列に記憶される。
In this way, in the representative image extraction process in step S105, for example, as shown in FIG. 6, the head image and the target image of each image group can be extracted as representative images. In the example shown in FIG. 6, the “normal image 1” that is the first image and the “bleeding image 1” to “bleeding
つぎに、図2に示したステップS107の代表画像表示処理について説明する。図7は、代表画像表示処理の処理手順を示すフローチャートである。図7に示すように、画像表示制御部6aは、代表画像記憶部5bに記憶された一連の代表画像のうち時系列で先頭の画像を読み込み(ステップS171)、注目画像情報が付加されているか否かを判断する(ステップS173)。
Next, the representative image display process in step S107 shown in FIG. 2 will be described. FIG. 7 is a flowchart showing the processing procedure of the representative image display processing. As shown in FIG. 7, the image
注目画像情報が付加されている場合(ステップS173:Yes)、画像表示制御部6aは、記憶部5から注目画像マークを読み込み(ステップS175)、読み込んだ代表画像および注目画像マークを低速表示レートで表示部4に表示させる(ステップS177)。これによって、画像表示制御部6aは、観察の必要性が高い注目画像である代表画像を通常よりも長い時間表示させることができる。一方、注目画像情報が付加されていない場合(ステップS173:No)、画像表示制御部6aは、読み込んだ代表画像を通常表示レートで表示部4に表示させる(ステップS179)。
When attention image information is added (step S173: Yes), the image
その後、画像表示制御部6aは、一連の代表画像をすべて表示したか否かを判断し(ステップS181)、すべて表示していない場合(ステップS181:No)、表示していない代表画像に対してステップS171からの処理を繰り返し、すべて表示している場合(ステップS181:Yes)、ステップS107にリターンする。このようにして、画像表示制御部6aは、代表画像記憶部5bに記憶された一連の代表画像を各画像に設定された表示レートに応じて順次表示する。
Thereafter, the image
図8は、代表画像を表示する際に表示部4に表示されるGUI画面の一例を示す図である。図8に示す例では、「診察・診断」ウィンドウ内に、注目画像である代表画像Pi、注目画像マークMa、代表画像Piの各種属性を示す文字情報が表示されている。 FIG. 8 is a diagram illustrating an example of a GUI screen displayed on the display unit 4 when a representative image is displayed. In the example shown in FIG. 8, character information indicating various attributes of the representative image Pi that is the target image, the target image mark Ma, and the representative image Pi is displayed in the “diagnosis / diagnosis” window.
以上説明したように、この実施の形態1にかかる画像表示装置1では、画像記憶部5aに記憶された一連の画像に対して、画像分類部2bが、時系列で連続する画像の相関値を算出するとともに、算出した相関値に応じて一連の画像を画像グループに分類し、注目画像検出部2cが、各画像から特徴画像領域を検出するとともに、検出した特徴画像領域を有する特徴画像を注目画像として検出し、代表画像抽出部2dが、各画像グループ内の注目画像と先頭画像とを代表画像として抽出するとともに、抽出した各代表画像に表示レートを設定し、さらに、画像表示制御部6aが、設定された表示レートに応じて一連の代表画像を順次表示するようにしているため、たとえば、出血部位を含み観察の必要性が高い画像の観察を容易とし、出血部位を含まず通常の状態を示す観察の必要性が低い画像の表示を各画像グループの先頭画像のみに限定して表示時間を削減することができ、結果として一連の画像を効率的に観察することができる。
As described above, in the image display device 1 according to the first embodiment, the
(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、注目画像検出部2cが検出した注目画像をすべて代表画像として表示するようにしていたが、この実施の形態2では、複数の注目画像が同じ特徴を示す場合、この複数の注目画像の中から1つを代表画像として選択し表示するようにしている。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, all the target images detected by the target
図9は、この実施の形態2にかかる画像表示装置11の構成を示すブロック図である。図9に示すように、画像表示装置11は、画像表示装置1が備えた画像処理部2に替えて画像処理部12を備える。また、画像処理部12は、画像処理部2が備えた画像処理制御部2aおよび注目画像検出部2cに替えて画像処理制御部12aおよび注目画像検出部12cを備えるとともに、注目画像選択部12eを新たに備える。その他の構成は、実施の形態1と同じであり、同一構成部分には同一符号を付している。
FIG. 9 is a block diagram showing a configuration of the
画像処理制御部12aは、画像処理制御部2aと同様に、記憶部5に記憶された画像を取得して処理し、処理結果の画像を記憶部5に記憶させる。ただし、画像処理制御部12aは、注目画像検出部2cの替わりに注目画像検出部12cを制御するとともに、新たに注目画像選択部12eを制御することにより、同じ特徴を示す複数の注目画像のうち代表的な注目画像のみ代表画像として選択する。
Similar to the image processing control unit 2 a, the image processing control unit 12 a acquires and processes the image stored in the
注目画像検出部12cは、一連の画像の中から注目画像検出部2cと同様に注目画像を検出するとともに、検出した各注目画像の特徴画像領域の特徴量を算出し、算出した特徴量を示す情報を注目画像に対応付ける。具体的には、注目画像検出部12cは、特徴量として注目画像内の特徴画像領域の位置を算出し、この算出した位置を示す位置情報を生成し注目画像に付加する。なお、特徴画像領域の位置は、たとえば、特徴画像領域の重心位置、輝度の最大または最小位置、所定の色相を有する位置、特徴画像領域の最外周位置等の少なくとも1つによって示される。
The attention
注目画像選択部12eは、注目画像検出部12cによって検出された複数の注目画像の中から、時系列で連続する注目画像間で生じた特徴画像領域の位置変化をもとに、この複数の注目画像を代表する注目代表画像を選択する。具体的には、注目画像選択部12eは、連続する2つの注目画像間で生じた特徴画像領域の位置変化を示す動きベクトルを算出し、この算出した動きベクトルをもとに、2つの特徴画像領域が同じ特徴を示す画像領域であるか否かを判断し、同じ特徴を示す画像領域である場合、一方の注目画像を、代表画像として抽出しない注目キャンセル画像に変更する。注目画像選択部12eは、この処理を一連の注目画像に対して繰り返し、結果として注目キャンセル画像とならない注目画像を注目代表画像として選択する。
The attention
ここで、画像表示装置11が行う処理および動作について説明する。図10は、画像表示装置11が、制御部6の制御のもと、画像記憶部5aに記憶された一連の画像を処理して表示する処理手順を示すフローチャートである。なお、図10に示すフローチャートは、図示しないカプセル型内視鏡を用いて消化器官等の臓器の内部を撮像し生成された一連の画像を表示する処理手順を例示する。
Here, processing and operations performed by the
図10に示すように、画像分類部2bは、ステップS101と同様のグループ化処理を行い(ステップS201)、注目画像検出部12cは、一連の画像の中から注目画像を検出する注目画像検出処理を行い(ステップS203)、注目画像選択部12eは、ステップS203で検出された注目画像の中から注目代表画像を選択する注目画像選択処理を行い(ステップS205)、代表画像抽出部2dは、ステップS105と同様の代表画像抽出処理を行い(ステップS207)、画像表示制御部6aは、ステップS107と同様の代表画像表示処理を行い(ステップS209)、制御部6は、一連の処理を終了する。
As shown in FIG. 10, the
ステップS201のグループ化処理、ステップS207の代表画像抽出処理およびステップS209の代表画像表示処理の処理手順は、それぞれ図3、図5および図7に示したフローチャートによって示される。ここでは、ステップS203の注目画像検出処理およびステップS205の注目画像選択処理について説明する。 The processing procedures of the grouping process in step S201, the representative image extraction process in step S207, and the representative image display process in step S209 are shown by the flowcharts shown in FIGS. 3, 5, and 7, respectively. Here, the attention image detection process in step S203 and the attention image selection process in step S205 will be described.
図11は、ステップS203の注目画像検出処理の処理手順を示すフローチャートである。図11に示すように、画像処理制御部12aは、グループ番号が設定され画像記憶部5aに記憶された一連の画像のうち時系列で先頭の画像を読み込み(ステップS211)、注目画像検出部12cは、この読み込んだ画像の中から、特徴画像領域として出血部位を示す画像領域の検出を行うとともに、出血部位の位置を示す位置情報を生成する(ステップS213)。
FIG. 11 is a flowchart illustrating a processing procedure of the target image detection processing in step S203. As shown in FIG. 11, the image processing control unit 12a reads the first image in time series among the series of images set with the group number and stored in the
つづいて、注目画像検出部12cは、検出された出血部位があるか否かを判断し(ステップS215)、検出された出血部位がある場合(ステップS215:Yes)、処理対象の画像に注目画像情報とステップS213で生成した位置情報とを付加し(ステップS217)、画像処理制御部12aは、この注目画像情報および位置情報が付加された画像を画像記憶部5aに記録した後(ステップS219)、一連のすべての画像を処理したか否かを判断する(ステップS221)。
Subsequently, the attention
すべての画像を処理していない場合(ステップS221:No)、画像処理制御部12aは、処理していない画像に対してステップS211からの処理を繰り返し、すべての画像を処理している場合(ステップS221:Yes)、ステップS203にリターンする。なお、ステップS215で、検出された出血部位がないと判断された場合(ステップS215:No)、画像処理制御部12aは、直ちにステップS221の判断を行う。 When all the images have not been processed (step S221: No), the image processing control unit 12a repeats the processing from step S211 on the unprocessed image, and has processed all the images (step S21). S221: Yes), the process returns to step S203. If it is determined in step S215 that there is no detected bleeding site (step S215: No), the image processing control unit 12a immediately determines in step S221.
このようにして、ステップS203の注目画像検出処理では、一連の画像の中から臓器内部で出血部位を撮像した画像を注目画像として検出するとともに、検出した注目画像に出血部位の位置を示す位置情報を付加することができる。なお、特徴画像領域として検出する画像領域は出血部位を示す画像領域に限らず、臓器内部の褪色部位、形状異常部位等、病変の疑いのある種々の特徴を示す画像領域としてよい。 In this way, in the attention image detection process in step S203, an image obtained by imaging the bleeding site inside the organ is detected as a attention image from the series of images, and the position information indicating the position of the bleeding region in the detected attention image. Can be added. Note that the image area detected as the feature image area is not limited to the image area showing the bleeding part, but may be an image area showing various features suspected of being a lesion such as a faint part or an abnormal shape part inside the organ.
つぎに、図10に示したステップS205の注目画像選択処理について説明する。図12は、注目画像選択処理の処理手順を示すフローチャートである。図12に示すように、画像処理制御部12aは、注目画像検出処理が施され画像記憶部5aに記憶された一連の画像のうち時系列で先頭と2番目とにある2つの画像を読み込み(ステップS231)、注目画像選択部12eは、この2番目の画像を処理対象の画像とし、先頭の画像であり時系列で前の時点の画像である前画像とともに、注目画像情報が付加されているか否かを判断する(ステップS233)。
Next, the attention image selection process in step S205 shown in FIG. 10 will be described. FIG. 12 is a flowchart illustrating the processing procedure of the attention image selection process. As shown in FIG. 12, the image processing control unit 12a reads two images at the top and second in time series among a series of images subjected to the target image detection process and stored in the
処理対象画像および前画像に注目画像情報が付加されている場合(ステップS233:Yes)、注目画像選択部12eは、出血部位の位置を示す位置情報を参照し、前画像の出血部位を含む画像領域をパターンマッチング処理のテンプレートである出血部テンプレートとして抽出し(ステップS235)、この出血部テンプレートをもとに処理対象画像に対してパターンマッチング処理を行い、出血部テンプレートと相関の高い出血部位を示す画像領域を検出するとともに、前画像に対する処理対象画像の出血部位の位置変化を示す動きベクトルを検出する(ステップS237)。
When attention image information is added to the processing target image and the previous image (step S233: Yes), the attention
つづいて、注目画像選択部12eは、前画像の中から出血部位と所定の位置関係にある出血部位周辺部の画像領域を周辺部テンプレートとして抽出し(ステップS239)、この周辺部テンプレートをもとに処理対象画像に対してパターンマッチング処理を行い、周辺部テンプレートと相関の高い画像領域を検出するとともに、前画像に対する処理対象画像の出血部位周辺部の動きを示す動きベクトルを検出する(ステップS241)。
Subsequently, the attention
そして、注目画像選択部12eは、検出した出血部位の動きベクトルと出血部位周辺部の動きベクトルとがほぼ同じか否かを判断し(ステップS243)、ほぼ同じである場合(ステップS243:Yes)、注目キャンセル画像であることを示す注目画像キャンセル情報を処理対象画像に付加する(ステップS245)。
Then, the attention
その後、画像処理制御部12aは、注目画像キャンセル情報が付加された処理対象画像を画像記憶部5aに記録し(ステップS247)、一連のすべての画像を処理したか否かを判断し(ステップS249)、すべての画像を処理していない場合(ステップS249:No)、処理していない画像に対してステップS231からの処理を繰り返し、すべての画像を処理している場合(ステップS249:Yes)、ステップS205にリターンする。
Thereafter, the image processing control unit 12a records the processing target image to which attention image cancellation information is added in the
なお、ステップS233で、注目画像情報が付加されていないと判断された場合(ステップS233:No)と、ステップS243で、各動きベクトルが同じではないと判断された場合(ステップS243:No)には、画像処理制御部12aは、直ちにステップS249の判断を行う。 When it is determined in step S233 that attention image information is not added (step S233: No), and when it is determined in step S243 that the motion vectors are not the same (step S243: No). The image processing control unit 12a immediately determines in step S249.
また、ステップS237およびステップS241では、注目画像選択部12eは、前画像から抽出した各テンプレートと、パターンマッチングによって対応する処理対象画像内の画像領域とを同一画面上で比較し、たとえば、各画像領域の重心位置の変化を示す動きベクトルを検出する。ただし、ステップS237では、注目画像選択部12eは、パターンマッチングを行わず、前画像と処理対象画像との出血部の位置座標のみから動きベクトルを求めてもよい。
In step S237 and step S241, the target
さらに、ステップS243では、注目画像選択部12eは、検出した出血部位の動きベクトルと出血部位周辺部の動きベクトルとについて、たとえば、各動きベクトルの方位および大きさの差があらかじめ設定されたしきい値以下であるか否かによって、この各動きベクトルが同じであるか否かを判断する。他にも、注目画像選択部12eは、各動きベクトルのベクトル差、内積、外積等を演算し、これらの演算結果の少なくとも1つをもとに各動きベクトルが同じであるか否かを判断するようにしてもよい。
Further, in step S243, the target
なお、ステップS245では、注目画像選択部12eは、検出した出血部位の動きベクトルと出血部位周辺部の動きベクトルとがほぼ同じである場合、処理対象画像の出血部位と前画像の出血部位とが同じである可能性が高く、観察時に処理対象画像を表示させる必要性が低いものとして、処理対象画像に注目画像キャンセル情報を付加する。また、注目画像選択部12eは、この出血部位の同一性を高い精度で判断できるように、ステップS239では、複数の画像領域を周辺部テンプレートとして検出するとよい。
In step S245, when the detected motion vector of the bleeding site and the motion vector of the peripheral portion of the bleeding site are substantially the same, the attention
このようにして、ステップS205の注目画像選択処理では、連続する2つの注目画像間で出血部位と出血部位周辺部の画像領域の動きを比較することによって、この2つの注目画像の出血部位が同じであるか否かを判断することができ、同じである場合、一方の注目画像を注目キャンセル画像に変更することができる。なお、たとえば、ステップS237とステップS239の処理順序を交換するなど、ステップS235〜ステップS241の処理順序は適宜変更してもよい。 In this way, in the attention image selection process in step S205, the movement of the bleeding region and the image area around the bleeding portion are compared between two consecutive attention images, so that the bleeding portions of the two attention images are the same. It is possible to determine whether one of the images of interest is the same as the image of cancellation of attention. Note that the processing order of steps S235 to S241 may be changed as appropriate, for example, by exchanging the processing order of steps S237 and S239.
ここで、図12に示した注目画像選択処理を具体的に説明する。図13は、注目画像選択処理で処理される画像の一例を示す図である。図13に示すように、注目画像選択部12eは、前画像の出血部位BL1を含む画像領域TPa1を出血部テンプレートとして抽出するとともに、図上で出血部位BL1の左右に位置する画像領域TPb1,TPc1を周辺部テンプレートとして抽出する。その後、注目画像選択部12eは、これらのテンプレートをもとに、処理対象画像に対してテンプレートマッチングを行う。
Here, the attention image selection process shown in FIG. 12 will be specifically described. FIG. 13 is a diagram illustrating an example of an image processed in the attention image selection process. As illustrated in FIG. 13, the attention
テンプレートマッチングの結果、前画像の各画像領域TPa1,TPb1,TPc1に対して、処理対象画像の画像領域TPa2,TPb2,TPc2が検出された場合、注目画像選択部12eは、それぞれ対応する画像領域の重心の動きを示す動きベクトルVa2,Vb2,Vc2を検出し、この各動きベクトルの方位および大きさの差が所定のしきい値以下であるか否かを判断する。
As a result of template matching, when the image areas TPa2, TPb2, TPc2 of the processing target image are detected for the image areas TPa1, TPb1, TPc1 of the previous image, the target
図13に示す動きベクトルVa2,Vb2,Vc2の場合、注目画像選択部12eは、互いにほぼ同じ動きベクトルであると判断し、処理対象画像の出血部位BL2が出血部位BL1と同一の出血部位であるものとして、この処理対象画像に注目画像キャンセル情報を付加する。
In the case of the motion vectors Va2, Vb2, and Vc2 shown in FIG. 13, the attention
一方、テンプレートマッチングの結果、処理対象画像の画像領域TPa3,TPb3,TPc3が検出された場合、注目画像選択部12eは、動きベクトルVa3,Vb3,Vc3を検出し、この各動きベクトルの方位および大きさの差が所定のしきい値以下であるか否かを判断する。
On the other hand, when image regions TPa3, TPb3, and TPc3 of the processing target image are detected as a result of template matching, the target
図13に示す動きベクトルVa3,Vb3,Vc3の場合、注目画像選択部12eは、各動きベクトルが異なる動きベクトルであると判断し、処理対象画像の出血部位BL3が出血部位BL1とは異なる出血部位であるものとして、この処理対象画像を注目代表画像として選択する。
In the case of the motion vectors Va3, Vb3, and Vc3 shown in FIG. 13, the target
このように注目画像選択処理が行われた結果、ステップS207の代表画像抽出処理では、たとえば図14に示すように、各画像グループから先頭画像と注目代表画像とが代表画像として抽出される。図14に示す例では、時系列でn番目の画像グループである画像グループnから先頭画像である「正常画像1」および注目代表画像である「出血画像1」が、また、画像グループn+1から先頭画像である「正常画像3」が、それぞれ代表画像として抽出されている。なお、これら一連の代表画像は、代表画像記憶部5bに時系列に記憶される。
As a result of performing the attention image selection processing in this way, in the representative image extraction processing in step S207, for example, as shown in FIG. 14, the head image and the attention representative image are extracted as representative images from each image group. In the example shown in FIG. 14, the “normal image 1” that is the first image and the “bleeding image 1” that is the attention representative image from the image group n that is the nth image group in time series, and the first from the image group n + 1. “
以上説明したように、この実施の形態2にかかる画像表示装置11では、画像分類部2bによって画像グループに分類された一連の画像の中から、注目画像検出部12cが、注目画像を検出するとともに、検出した各注目画像の特徴画像領域の位置を算出し、算出した位置を示す位置情報を注目画像に付加し、注目画像選択部12eが、時系列で連続する注目画像間で生じた特徴画像領域および特徴画像領域周辺部の画像領域の位置変化を検出し、検出した位置変化をもとに、複数の類似した注目画像を代表する注目代表画像を選択し、代表画像抽出部2dが、各画像グループ内の注目代表画像と先頭画像とを代表画像として抽出するとともに、抽出した各代表画像に表示レートを設定し、さらに、画像表示制御部6aが、設定された表示レートに応じて一連の代表画像を順次表示するようにしているため、たとえば、出血部位を含む画像のうち時系列で前後の画像に類似性がなく観察の必要性が高い画像のみ表示させることができるとともに、出血部位を含まず通常の状態を示す観察の必要性が低い画像の表示を各画像グループの先頭画像のみに限定して表示時間を削減することができ、結果として一連の画像をさらに効率的に観察することができる。
As described above, in the
なお、上述した実施の形態1および2では、グループ化されていない一連の画像をはじめに読み込んでから各種処理を実行するように説明したが、同様の処理手順により、既にグループ番号、注目画像情報、表示レート等が対応づけられた画像を読み込んで、これらの情報を更新するように各処理を実行するようにしてもよい。 In the first and second embodiments described above, it has been described that a series of ungrouped images are first read and then various processes are performed. However, the group number, target image information, Each process may be executed by reading an image associated with a display rate or the like and updating the information.
また、上述した実施の形態1および2では、画像表示制御部6aは、一連の代表画像のうち時系列で先頭の画像から順次表示を行うとともに、この一連のすべての代表画像を表示するように説明したが、たとえば、あらかじめ入力された表示開始画像に関する指示情報をもとに、時系列で途中の代表画像から表示を開始し、また、あらかじめ入力された表示終了画像に関する指示情報をもとに、時系列で途中の代表画像まで表示して画像表示処理を終了するようにしてもよい。
In the first and second embodiments described above, the image
さらに、上述した実施の形態1および2では、画像表示制御部6aは、代表画像のみ表示するように説明したが、たとえば、所定のスイッチ等から入力される指示情報をもとに、代表画像のみの表示と、すべての画像の表示とを切り換えられるようにしてもよい。
Further, in the first and second embodiments described above, the image
また、上述した実施の形態1では、制御部6は、グループ化処理の後に注目画像検出処理を行うようにしたが、注目画像検出処理の後にグループ化処理を行うようにしてもよい。同様に、実施の形態2では、制御部6は、注目画像検出処理または注目画像選択処理の後にグループ化処理を行うようにしてもよい。
In Embodiment 1 described above, the
1,11 画像表示装置
2,12 画像処理部
2a,12a 画像処理制御部
2b 画像分類部
2c,12c 注目画像検出部
2d 代表画像検出部
12e 注目画像選択部
3 入力部
4 表示部
5 記憶部
5a 画像記憶部
5b 代表画像記憶部
6,16 制御部
6a 画像表示制御部
DESCRIPTION OF
Claims (8)
前記一連の画像に含まれる各画像を該各画像間の相関度に応じて1以上の画像グループに分類する画像分類手段と、
前記各画像の中から所定の特徴を有する特徴画像領域を検出し、該検出した特徴画像領域を有する各特徴画像を前記一連の画像の中から検出する特徴画像検出手段と、
前記画像分類手段によって分類された各画像グループ内の前記特徴画像を、該各画像グループを代表する代表画像として抽出する代表画像抽出手段と、
前記代表画像抽出手段によって抽出された代表画像を順次表示する制御を行う画像表示制御手段と、
を備えたことを特徴とする画像表示装置。 In an image display device that sequentially displays a series of input images,
Image classification means for classifying each image included in the series of images into one or more image groups according to the degree of correlation between the images;
Feature image detection means for detecting a feature image region having a predetermined feature from each of the images, and detecting each feature image having the detected feature image region from the series of images;
Representative image extraction means for extracting the feature images in each image group classified by the image classification means as a representative image representing each image group;
Image display control means for controlling to sequentially display the representative images extracted by the representative image extraction means;
An image display device comprising:
前記特徴画像検出手段は、検出した各特徴画像領域の前記所定の特徴量を算出し、
前記特徴画像選択手段は、前記特徴画像検出手段によって算出された特徴量をもとに前記変化量を算出し、
前記代表画像抽出手段は、各画像グループ内の特徴画像のうち前記特徴代表画像を代表画像として抽出することを特徴とする請求項1または2に記載の画像表示装置。 A change amount of a predetermined feature amount of the feature image region generated between feature images consecutive in a time series among a plurality of feature images detected by the feature image detection unit is calculated, and based on the calculated change amount Comprises a feature image selection means for selecting a feature representative image representing the plurality of feature images,
The feature image detection means calculates the predetermined feature amount of each detected feature image region,
The feature image selection unit calculates the change amount based on the feature amount calculated by the feature image detection unit,
The image display apparatus according to claim 1, wherein the representative image extraction unit extracts the feature representative image as a representative image among the feature images in each image group.
前記所定の特徴は、前記臓器の内部の病変を示す特徴であることを特徴とする請求項1〜5のいずれか一つに記載の画像表示装置。 Each of the images is an image of the inside of an organ,
The image display device according to claim 1, wherein the predetermined feature is a feature that indicates a lesion inside the organ.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005148670A JP4418400B2 (en) | 2005-05-20 | 2005-05-20 | Image display device |
CN200680015612A CN100577088C (en) | 2005-05-20 | 2006-02-02 | Image display apparatus |
PCT/JP2006/301795 WO2006123455A1 (en) | 2005-05-20 | 2006-02-02 | Image display device |
US11/631,273 US8830307B2 (en) | 2005-05-20 | 2006-02-02 | Image display apparatus |
EP06712938.7A EP1882440A4 (en) | 2005-05-20 | 2006-02-02 | Image display device |
US11/787,980 US8502861B2 (en) | 2005-05-20 | 2007-04-18 | Image display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005148670A JP4418400B2 (en) | 2005-05-20 | 2005-05-20 | Image display device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006320650A true JP2006320650A (en) | 2006-11-30 |
JP2006320650A5 JP2006320650A5 (en) | 2007-03-15 |
JP4418400B2 JP4418400B2 (en) | 2010-02-17 |
Family
ID=37431038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005148670A Expired - Fee Related JP4418400B2 (en) | 2005-05-20 | 2005-05-20 | Image display device |
Country Status (5)
Country | Link |
---|---|
US (2) | US8830307B2 (en) |
EP (1) | EP1882440A4 (en) |
JP (1) | JP4418400B2 (en) |
CN (1) | CN100577088C (en) |
WO (1) | WO2006123455A1 (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008278344A (en) * | 2007-05-02 | 2008-11-13 | Nikon System:Kk | Image output system |
JP2008278347A (en) * | 2007-05-02 | 2008-11-13 | Nikon System:Kk | Image display system |
JP2009160326A (en) * | 2008-01-10 | 2009-07-23 | Hitachi Medical Corp | Medical image management device and medical image diagnostic apparatus |
JP2009301307A (en) * | 2008-06-13 | 2009-12-24 | Konica Minolta Business Technologies Inc | Representative image extraction method and job analyzing program |
KR100942997B1 (en) * | 2009-08-07 | 2010-02-17 | 주식회사 인트로메딕 | Display system and method of capsule endoscope images |
JP2010142287A (en) * | 2008-12-16 | 2010-07-01 | Olympus Corp | Apparatus, method and program for processing image |
WO2011010598A1 (en) * | 2009-07-23 | 2011-01-27 | オリンパス株式会社 | Image processing device, image processing program and image processing method |
WO2011142189A1 (en) | 2010-05-10 | 2011-11-17 | オリンパスメディカルシステムズ株式会社 | Medical device |
JP2012196438A (en) * | 2011-03-10 | 2012-10-18 | Canon Inc | Ophthalmologic apparatus and control method of the same |
JP2013030105A (en) * | 2011-07-29 | 2013-02-07 | Olympus Corp | Image processing device, image processing method, and image processing program |
JP2013069120A (en) * | 2011-09-22 | 2013-04-18 | Canon Inc | Display control apparatus, display control method, and program |
JP2013517914A (en) * | 2010-01-28 | 2013-05-20 | ラドロジックス, インコーポレイテッド | Methods and systems for analyzing, prioritizing, visualizing, and reporting medical images |
WO2013133370A1 (en) * | 2012-03-08 | 2013-09-12 | オリンパス株式会社 | Image processing device, program, and image processing method |
JP2013183912A (en) * | 2012-03-08 | 2013-09-19 | Olympus Corp | Image summarization device and program |
WO2013157354A1 (en) * | 2012-04-18 | 2013-10-24 | オリンパス株式会社 | Image processing device, program, and image processing method |
JP2013240361A (en) * | 2012-05-17 | 2013-12-05 | Olympus Corp | Image processing apparatus, program, and image processing method |
WO2014050638A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
WO2014050637A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
WO2015015869A1 (en) * | 2013-08-02 | 2015-02-05 | オリンパス株式会社 | Image processing device, image processing method, and program |
WO2015137016A1 (en) * | 2014-03-14 | 2015-09-17 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
WO2015141302A1 (en) * | 2014-03-17 | 2015-09-24 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
US9576362B2 (en) | 2012-03-07 | 2017-02-21 | Olympus Corporation | Image processing device, information storage device, and processing method to acquire a summary image sequence |
WO2017199408A1 (en) * | 2016-05-19 | 2017-11-23 | オリンパス株式会社 | Image processing device, operation method for image processing device, and operation program for image processing device |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4418400B2 (en) * | 2005-05-20 | 2010-02-17 | オリンパスメディカルシステムズ株式会社 | Image display device |
JP2007195586A (en) * | 2006-01-23 | 2007-08-09 | Olympus Medical Systems Corp | Capsule type medical device, medical controlling device, medical image processing device, and program |
JP5089189B2 (en) * | 2007-02-09 | 2012-12-05 | キヤノン株式会社 | Information processing apparatus and method |
JP4959445B2 (en) | 2007-07-04 | 2012-06-20 | オリンパス株式会社 | Image processing apparatus and image processing program |
JP5085370B2 (en) * | 2008-02-19 | 2012-11-28 | オリンパス株式会社 | Image processing apparatus and image processing program |
CN101594450B (en) * | 2008-05-30 | 2012-11-21 | 鸿富锦精密工业(深圳)有限公司 | Method for automatically grading photo in digital photo frame |
US8218847B2 (en) | 2008-06-06 | 2012-07-10 | Superdimension, Ltd. | Hybrid registration method |
JP5409189B2 (en) * | 2008-08-29 | 2014-02-05 | キヤノン株式会社 | Imaging apparatus and control method thereof |
US20100097392A1 (en) * | 2008-10-14 | 2010-04-22 | Olympus Medical Systems Corp. | Image display device, image display method, and recording medium storing image display program |
JP5117353B2 (en) * | 2008-11-07 | 2013-01-16 | オリンパス株式会社 | Image processing apparatus, image processing program, and image processing method |
US20100165088A1 (en) * | 2008-12-29 | 2010-07-01 | Intromedic | Apparatus and Method for Displaying Capsule Endoscope Image, and Record Media Storing Program for Carrying out that Method |
JP5421627B2 (en) * | 2009-03-19 | 2014-02-19 | キヤノン株式会社 | Video data display apparatus and method |
EP2443569A1 (en) * | 2009-06-15 | 2012-04-25 | Koninklijke Philips Electronics N.V. | A method and apparatus for selecting a representative image |
JP2011009976A (en) * | 2009-06-25 | 2011-01-13 | Hitachi Ltd | Video reproducing apparatus |
DE102010006741A1 (en) * | 2010-02-03 | 2011-08-04 | Friedrich-Alexander-Universität Erlangen-Nürnberg, 91054 | Method for processing an endoscopic image |
US20120036466A1 (en) * | 2010-08-04 | 2012-02-09 | General Electric Company | Systems and methods for large data set navigation on a mobile device |
CN103201767A (en) * | 2010-10-19 | 2013-07-10 | 皇家飞利浦电子股份有限公司 | Medical image system |
US9516079B2 (en) * | 2012-07-16 | 2016-12-06 | Ricoh Company, Ltd. | Media stream modification based on channel limitations |
US9076044B2 (en) * | 2012-12-15 | 2015-07-07 | Joseph Ernest Dryer | Apparatus and method for monitoring hand washing |
US9386908B2 (en) * | 2013-01-29 | 2016-07-12 | Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) | Navigation using a pre-acquired image |
US10289939B2 (en) | 2014-07-21 | 2019-05-14 | Yulong Computer Telecommunication Scientific (Shenzhen) Co., Ltd. | Image classification method and image classification apparatus |
RU2736878C2 (en) * | 2016-03-03 | 2020-11-23 | Конинклейке Филипс Н.В. | Navigation system for medical images |
CN106775530B (en) * | 2016-12-16 | 2020-03-17 | 上海联影医疗科技有限公司 | Method and device for displaying medical image sequence |
WO2018138828A1 (en) * | 2017-01-26 | 2018-08-02 | オリンパス株式会社 | Image processing device, operation method, and program |
EP3603481B1 (en) * | 2017-03-30 | 2023-05-03 | FUJIFILM Corporation | Medical image processing device, endoscope system, and method for operating medical image processing device |
EP3682791B1 (en) * | 2017-09-15 | 2023-12-20 | FUJIFILM Corporation | Medical image processing device |
JP6949999B2 (en) * | 2017-12-26 | 2021-10-13 | 富士フイルム株式会社 | Image processing equipment, endoscopic systems, image processing methods, programs and recording media |
JP7015385B2 (en) | 2018-05-15 | 2022-02-02 | 富士フイルム株式会社 | Endoscopic image processing device, operation method of endoscopic device, and program |
CN112105286A (en) * | 2018-05-17 | 2020-12-18 | 富士胶片株式会社 | Endoscope device, endoscope operation method, and program |
JP7317954B2 (en) * | 2019-05-22 | 2023-07-31 | 三菱電機ビルソリューションズ株式会社 | Video processing device and video processing method |
EP4302679A4 (en) * | 2021-03-01 | 2024-04-24 | Nec Corp | Image processing device, image processing method, and storage medium |
KR102625668B1 (en) * | 2021-07-07 | 2024-01-18 | 성신여자대학교 연구 산학협력단 | A capsule endoscope apparatus and supporting methods for diagnosing the lesions |
US20230218146A1 (en) * | 2022-01-10 | 2023-07-13 | Endoluxe Inc. | Systems, apparatuses, and methods for endoscopy |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1175150A (en) * | 1997-08-29 | 1999-03-16 | Hitachi Denshi Ltd | Dynamic image editing method, device therefor and recording medium recorded with program for executing dynamic image editing operation |
US6709387B1 (en) * | 2000-05-15 | 2004-03-23 | Given Imaging Ltd. | System and method for controlling in vivo camera capture and display rate |
JP2001359039A (en) | 2000-06-09 | 2001-12-26 | Olympus Optical Co Ltd | Image recorder |
ES2365696T3 (en) * | 2001-03-14 | 2011-10-10 | Given Imaging Ltd. | METHOD AND SYSTEM TO DETECT COLORIMETRIC ABNORMALITIES. |
JP3460150B2 (en) * | 2001-11-28 | 2003-10-27 | 財団法人新産業創造研究機構 | Medical image editing program and medical image editing device |
WO2003069913A1 (en) | 2002-02-12 | 2003-08-21 | Given Imaging Ltd. | System and method for displaying an image stream |
US7474327B2 (en) | 2002-02-12 | 2009-01-06 | Given Imaging Ltd. | System and method for displaying an image stream |
JP4363843B2 (en) * | 2002-03-08 | 2009-11-11 | オリンパス株式会社 | Capsule endoscope |
US7309867B2 (en) * | 2003-04-18 | 2007-12-18 | Medispectra, Inc. | Methods and apparatus for characterization of tissue samples |
JP4758594B2 (en) * | 2002-09-24 | 2011-08-31 | セイコーエプソン株式会社 | Input device, information device, and control information generation method |
JP3810381B2 (en) * | 2003-04-25 | 2006-08-16 | オリンパス株式会社 | Image display device, image display method, and image display program |
JP4493386B2 (en) * | 2003-04-25 | 2010-06-30 | オリンパス株式会社 | Image display device, image display method, and image display program |
JP2005013573A (en) | 2003-06-27 | 2005-01-20 | Olympus Corp | Electronic endoscope system |
WO2005020147A1 (en) | 2003-08-21 | 2005-03-03 | Philips Intellectual Property & Standards Gmbh | Device and method for combining two images |
JP3993554B2 (en) | 2003-10-27 | 2007-10-17 | オリンパス株式会社 | Image processing apparatus, method, and program |
CN1284505C (en) * | 2004-02-28 | 2006-11-15 | 重庆金山科技(集团)有限公司 | Radio capsule like endoscope system for medical use |
JP4482795B2 (en) * | 2004-03-05 | 2010-06-16 | ソニー株式会社 | Image processing apparatus, moving object tracking method, moving object tracking program, monitoring apparatus, and game apparatus |
JP4418400B2 (en) * | 2005-05-20 | 2010-02-17 | オリンパスメディカルシステムズ株式会社 | Image display device |
-
2005
- 2005-05-20 JP JP2005148670A patent/JP4418400B2/en not_active Expired - Fee Related
-
2006
- 2006-02-02 WO PCT/JP2006/301795 patent/WO2006123455A1/en not_active Application Discontinuation
- 2006-02-02 EP EP06712938.7A patent/EP1882440A4/en not_active Withdrawn
- 2006-02-02 US US11/631,273 patent/US8830307B2/en active Active
- 2006-02-02 CN CN200680015612A patent/CN100577088C/en not_active Expired - Fee Related
-
2007
- 2007-04-18 US US11/787,980 patent/US8502861B2/en active Active
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008278347A (en) * | 2007-05-02 | 2008-11-13 | Nikon System:Kk | Image display system |
JP2008278344A (en) * | 2007-05-02 | 2008-11-13 | Nikon System:Kk | Image output system |
JP2009160326A (en) * | 2008-01-10 | 2009-07-23 | Hitachi Medical Corp | Medical image management device and medical image diagnostic apparatus |
JP2009301307A (en) * | 2008-06-13 | 2009-12-24 | Konica Minolta Business Technologies Inc | Representative image extraction method and job analyzing program |
JP4640713B2 (en) * | 2008-06-13 | 2011-03-02 | コニカミノルタビジネステクノロジーズ株式会社 | Representative image extraction method and job analysis program |
JP2010142287A (en) * | 2008-12-16 | 2010-07-01 | Olympus Corp | Apparatus, method and program for processing image |
US9186051B2 (en) | 2009-07-23 | 2015-11-17 | Olympus Corporation | Image processing device, computer-readable recording device, and image processing method |
WO2011010598A1 (en) * | 2009-07-23 | 2011-01-27 | オリンパス株式会社 | Image processing device, image processing program and image processing method |
JP2011024727A (en) * | 2009-07-23 | 2011-02-10 | Olympus Corp | Image processing device, program and method |
KR100942997B1 (en) * | 2009-08-07 | 2010-02-17 | 주식회사 인트로메딕 | Display system and method of capsule endoscope images |
JP2013517914A (en) * | 2010-01-28 | 2013-05-20 | ラドロジックス, インコーポレイテッド | Methods and systems for analyzing, prioritizing, visualizing, and reporting medical images |
JP2018163680A (en) * | 2010-01-28 | 2018-10-18 | ラドロジックス, インコーポレイテッド | Method and system for analyzing medical image, imparting order of priority to medical image, visualizing, and reporting the same |
US8355043B2 (en) | 2010-05-10 | 2013-01-15 | Olympus Medical Systems Corp. | Medical apparatus |
WO2011142189A1 (en) | 2010-05-10 | 2011-11-17 | オリンパスメディカルシステムズ株式会社 | Medical device |
JP2012196438A (en) * | 2011-03-10 | 2012-10-18 | Canon Inc | Ophthalmologic apparatus and control method of the same |
US9773185B2 (en) | 2011-07-29 | 2017-09-26 | Olympus Corporation | Image processing apparatus, image processing method, and computer readable recording device |
JP2013030105A (en) * | 2011-07-29 | 2013-02-07 | Olympus Corp | Image processing device, image processing method, and image processing program |
JP2013069120A (en) * | 2011-09-22 | 2013-04-18 | Canon Inc | Display control apparatus, display control method, and program |
US9372872B2 (en) | 2011-09-22 | 2016-06-21 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and storage medium for displaying a content of a file on a display apparatus |
US9576362B2 (en) | 2012-03-07 | 2017-02-21 | Olympus Corporation | Image processing device, information storage device, and processing method to acquire a summary image sequence |
WO2013133370A1 (en) * | 2012-03-08 | 2013-09-12 | オリンパス株式会社 | Image processing device, program, and image processing method |
US9672619B2 (en) | 2012-03-08 | 2017-06-06 | Olympus Corporation | Image processing device, information storage device, and image processing method |
US9547794B2 (en) | 2012-03-08 | 2017-01-17 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2013183912A (en) * | 2012-03-08 | 2013-09-19 | Olympus Corp | Image summarization device and program |
US10037468B2 (en) | 2012-04-18 | 2018-07-31 | Olympus Corporation | Image processing device, information storage device, and image processing method |
US9740939B2 (en) | 2012-04-18 | 2017-08-22 | Olympus Corporation | Image processing device, information storage device, and image processing method |
WO2013157354A1 (en) * | 2012-04-18 | 2013-10-24 | オリンパス株式会社 | Image processing device, program, and image processing method |
JP2013240361A (en) * | 2012-05-17 | 2013-12-05 | Olympus Corp | Image processing apparatus, program, and image processing method |
JP2014079562A (en) * | 2012-09-27 | 2014-05-08 | Olympus Corp | Image processing apparatus, program and image processing method |
JP2014071470A (en) * | 2012-09-27 | 2014-04-21 | Olympus Corp | Image processor, program and image processing method |
WO2014050638A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
WO2014050637A1 (en) * | 2012-09-27 | 2014-04-03 | オリンパス株式会社 | Image processing device, program, and image processing method |
US9684849B2 (en) | 2012-09-27 | 2017-06-20 | Olympus Corporation | Image processing device, information storage device, and image processing method |
US9652835B2 (en) | 2012-09-27 | 2017-05-16 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2015032127A (en) * | 2013-08-02 | 2015-02-16 | オリンパス株式会社 | Image processing device, image processing method and program |
WO2015015869A1 (en) * | 2013-08-02 | 2015-02-05 | オリンパス株式会社 | Image processing device, image processing method, and program |
US9898664B2 (en) | 2013-08-02 | 2018-02-20 | Olympus Corporation | Image processing device, image processing method, and information storage device |
WO2015137016A1 (en) * | 2014-03-14 | 2015-09-17 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
JP2015173827A (en) * | 2014-03-14 | 2015-10-05 | オリンパス株式会社 | image processing apparatus, image processing method, and image processing program |
US10223785B2 (en) | 2014-03-14 | 2019-03-05 | Olympus Corporation | Image processing apparatus, image processing method, and computer-readable recording medium extracting one or more representative images |
JP2015173921A (en) * | 2014-03-17 | 2015-10-05 | オリンパス株式会社 | image processing apparatus, image processing method, and image processing program |
US9959618B2 (en) | 2014-03-17 | 2018-05-01 | Olympus Corporation | Image processing apparatus, image processing method, and computer-readable recording medium |
WO2015141302A1 (en) * | 2014-03-17 | 2015-09-24 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
WO2017199408A1 (en) * | 2016-05-19 | 2017-11-23 | オリンパス株式会社 | Image processing device, operation method for image processing device, and operation program for image processing device |
JPWO2017199408A1 (en) * | 2016-05-19 | 2019-04-04 | オリンパス株式会社 | Image processing apparatus, method for operating image processing apparatus, and operation program for image processing apparatus |
US10776921B2 (en) | 2016-05-19 | 2020-09-15 | Olympus Corporation | Image processing apparatus, operation method for image processing apparatus, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
CN101170940A (en) | 2008-04-30 |
US8830307B2 (en) | 2014-09-09 |
US8502861B2 (en) | 2013-08-06 |
WO2006123455A1 (en) | 2006-11-23 |
CN100577088C (en) | 2010-01-06 |
EP1882440A4 (en) | 2016-06-15 |
JP4418400B2 (en) | 2010-02-17 |
EP1882440A1 (en) | 2008-01-30 |
US20070195165A1 (en) | 2007-08-23 |
US20080212881A1 (en) | 2008-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4418400B2 (en) | Image display device | |
US10803582B2 (en) | Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program | |
JP4602825B2 (en) | Image display device | |
JP5800468B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JPWO2018105063A1 (en) | Image processing device | |
EP3936026B1 (en) | Medical image processing device, processor device, endoscopic system, medical image processing method, and program | |
JP6741759B2 (en) | Image processing apparatus, image processing apparatus operating method, and image processing apparatus operating program | |
EP3932290B1 (en) | Medical image processing device, processor device, endoscope system, medical image processing method, and program | |
JP6949999B2 (en) | Image processing equipment, endoscopic systems, image processing methods, programs and recording media | |
JPWO2019087790A1 (en) | Examination support equipment, endoscopy equipment, examination support methods, and examination support programs | |
CN114004969A (en) | Endoscope image focal zone detection method, device, equipment and storage medium | |
JP6840263B2 (en) | Endoscope system and program | |
JP4472602B2 (en) | Image display device | |
JP6112859B2 (en) | Medical image processing device | |
JP4616076B2 (en) | Image display device | |
JP4464894B2 (en) | Image display device | |
JPWO2019088008A1 (en) | Image processing equipment, image processing methods, programs, and endoscopic systems | |
JP2009273644A (en) | Medical imaging apparatus, medical image processing device, and medical image processing program | |
US20220202284A1 (en) | Endoscope processor, training device, information processing method, training method and program | |
WO2024018713A1 (en) | Image processing device, display device, endoscope device, image processing method, image processing program, trained model, trained model generation method, and trained model generation program | |
JP2019216948A (en) | Image processing device, operation method for image processing device, and operation program of image processing device | |
JP2019037692A (en) | Image processing device, image processing method, and image processing program | |
WO2022208615A1 (en) | Image processing device, image processing method, and storage medium | |
JPWO2016056408A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2024008474A (en) | Inspection support device, inspection support method, and inspection support program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091127 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4418400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121204 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131204 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |