WO2019064704A1 - 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法 - Google Patents

内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法 Download PDF

Info

Publication number
WO2019064704A1
WO2019064704A1 PCT/JP2018/021598 JP2018021598W WO2019064704A1 WO 2019064704 A1 WO2019064704 A1 WO 2019064704A1 JP 2018021598 W JP2018021598 W JP 2018021598W WO 2019064704 A1 WO2019064704 A1 WO 2019064704A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
endoscopic
unit
clusters
Prior art date
Application number
PCT/JP2018/021598
Other languages
English (en)
French (fr)
Inventor
律郎 西村
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2018549366A priority Critical patent/JP6425868B1/ja
Publication of WO2019064704A1 publication Critical patent/WO2019064704A1/ja
Priority to US16/672,635 priority patent/US11556731B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Definitions

  • the present invention relates to an endoscopic image observation support system.
  • Patent Document 1 discloses that in-vivo image data acquired by a capsule endoscope is classified for each predetermined region inside a subject.
  • the present invention has been made in view of these circumstances, and its object is to provide a technique by which a reader can easily find an image of the boundary of a part.
  • an observation support system is an observation support system that supports observation of a plurality of images captured by a capsule endoscope, and it is possible to discriminate each of the plurality of images.
  • a determination unit that outputs a determination accuracy indicating an accuracy that is an image of a target part, a classification unit that classifies a plurality of images into a plurality of clusters based on the determination accuracy, and a plurality of classifications based on a plurality of clusters
  • a specification unit that specifies a candidate image of the boundary of the part from the image.
  • Another aspect of the present invention is an observation support apparatus.
  • the plurality of images are classified into the plurality of clusters based on the determination accuracy indicating the accuracy as the image of the portion to be determined which is output for each of the plurality of images captured by the capsule endoscope.
  • a display control unit configured to display information on a candidate image of a boundary of a part extracted from the plurality of images based on the classification of the cluster on the display unit.
  • Another aspect of the present invention is also an observation support apparatus.
  • the plurality of images are classified into a plurality of clusters based on the determination accuracy indicating the accuracy as the image of the region to be determined which is output for each of the plurality of images captured by the capsule endoscope and displayed
  • a specifying unit that specifies a candidate image of the boundary of the region from among the plurality of images based on the classification of the plurality of clusters.
  • Yet another aspect of the present invention is an observation support method.
  • the method includes, for each of a plurality of images captured by the capsule endoscope, outputting a determination accuracy indicating the accuracy of the region to be determined, and a plurality of images based on the determination accuracy. Classifying into clusters, and identifying a candidate image of the boundary of the region from among the plurality of images based on the classification of the plurality of clusters.
  • any combination of the above-described constituent elements, one obtained by converting the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program and the like is also effective as an aspect of the present invention.
  • FIG. 12 It is a figure which shows another example of the interpretation screen of an endoscopic image. It is a figure which shows the flowchart of the candidate image identification process which concerns on 2nd Embodiment. It is a figure which shows the structure of the management server of the endoscopic image observation assistance system which concerns on 3rd Embodiment, and a recording device. It is a figure for demonstrating the outline
  • FIG. 1 is a view for explaining an outline of an image observation support system for a capsule endoscope according to the first embodiment.
  • the endoscopic image observation support system 1 supports observation of a capsule endoscopic image by a reader.
  • a doctor observes an image taken by the endoscope inserted into a patient's body in real time on a display to make a diagnosis.
  • a reader reads a capsule This is different from ordinary endoscopy in that a large number of images captured in the past by the endoscope are collectively observed.
  • the patient has a plurality of antennas (not shown) attached to the abdomen, and the receiver 4 is attached to the waist by a belt, and the capsule endoscope 3 incorporating a microminiature camera is Swallow from.
  • the capsule endoscope 3 periodically captures a still image while passing through the digestive tract, and transmits an image file obtained by adding an image ID and shooting time information to the captured image to the receiving device 4 via an antenna.
  • the capsule endoscope 3 according to the present embodiment has a variable function of the imaging frame rate, and for example, imaging may be performed with the imaging frame rate increased as the moving speed increases.
  • the receiving device 4 incorporates a recording medium 5, and the receiving device 4 records the received image file on the recording medium 5.
  • the capsule endoscope 3 captures an image of the body every 0.5 seconds, when imaging in the body is completed in about 8 hours, about 60,000 endoscope image files are recorded on the recording medium 5.
  • the image ID is information for identifying an image, and may be information to which a serial number indicating the imaging order is added. For example, “1” may be added to the image ID of the endoscope image captured first, and “2” may be added to the image ID of the endoscope image captured second.
  • the image ID and the photographing time information may be added to the photographed image by the receiving device 4 when the receiving device 4 receives the photographed image. In any case, the image captured by the capsule endoscope 3 is recorded in the recording medium 5 in association with the image ID and the imaging time information.
  • the data terminal of the receiving device 4 is connected to the data reading device connected to the management server 10, and the data reading device is about 60,000 sheets recorded on the recording medium 5.
  • the endoscope image file is read out and transmitted to the management server 10.
  • the data reading device may be an external device connected to the management server 10 by a USB cable or the like.
  • the recording medium 5 may be a memory card that can be attached to and detached from the receiving device 4, and even if the recording medium 5 is removed from the receiving device 4 and attached to the data reading device, the endoscope image file is read. Good.
  • the recording medium 5 may be attached to a data reading slot provided in the management server 10 to read an endoscopic image file.
  • the management server 10 performs predetermined image processing on the endoscope image read from the recording medium 5 and records the image in the recording device 12.
  • the recording device 12 may be configured by an HDD (hard disk drive) or may be configured by a flash memory.
  • the endoscopic image recorded in the recording medium 5 is an uncompressed RAW (raw) image or a RAW image subjected to only lossless compression, so the data size is very large. Therefore, the management server 10 performs predetermined lossy compression processing on the endoscopic image which is the RAW image, reduces the data size, and records the result in the recording device 12.
  • the management server 10 is in charge of image processing of the endoscope raw image, but another device, for example, the terminal device 20 performs image processing on the endoscope raw image and records it in the recording device 12
  • the recording device 12 may be provided in the terminal device 20.
  • a reference image is set, and the ratio of the covered area of the reference image to the determination target image to be determined to be similar to the reference image is calculated as the coverage.
  • the determination target image is an image captured later than the reference image.
  • the analysis application determines the determination target image as a similar image of the reference image when the coverage is equal to or greater than the threshold.
  • the management server 10 adds flag information indicating that it is the reference image, and when compressing the endoscopic RAW image which is the similar image, the similar image And flag information indicating that the
  • the playback application of the embodiment is configured to have four playback modes.
  • the first reproduction mode is a manual reproduction mode using an operation of a user interface connected to the terminal device 20.
  • the endoscope image can be frame-by-frame displayed one by one by rotating the wheel of the mouse. Therefore, the first reproduction mode is used when specifying the image in which the lesion is most clearly imaged among a plurality of images in which the lesion is imaged.
  • the endoscopic image is continuously reproduced and displayed in the forward direction (direction from the old image to the new image at the photographing time), and when the user rotates the wheel forward, the endoscopic view The mirror image is continuously reproduced and displayed in the reverse direction (direction from the new image at the shooting time to the old image).
  • the fourth reproduction mode is an automatic reproduction mode in which the display of the similar image specified by the image summarizing process is omitted, and only the reference image is reproduced and displayed in the forward or reverse direction at the set reproduction speed.
  • the fourth reproduction mode realizes shortening of the observation time as compared with the third reproduction mode by omitting the display of the similar image.
  • a fourth back reproduction mode which is a back mode may be set to the fourth reproduction mode.
  • the fourth reverse reproduction mode is an automatic reproduction mode in which the display of the reference image is omitted and only the similar image is reproduced and displayed in the forward direction or the reverse direction at the set reproduction speed.
  • the fourth back reproduction mode is used to confirm that there is no observation omission after the observation in the fourth reproduction mode.
  • small intestine cluster It identifies as a cluster (hereinafter also referred to as "small intestine cluster") which is likely to have been done (S162).
  • the cluster 162 located near the coordinates (0, 1, 0) is identified as the small intestine cluster.
  • the identifying unit 54 calculates the inner product of the representative vector of each of the plurality of clusters and the standard basis vector (0, 0, 1) corresponding to the large intestine, and the endoscope image of the small intestine classifies the cluster having the largest inner product. It identifies as a cluster (hereinafter also referred to as "large intestine cluster”) which is highly likely to have been done (S164).
  • the cluster 164 located near the coordinates (0, 0, 1) is identified as a large intestine cluster.
  • the display control unit 42 displays a time bar 120 below the playback area 100, one end of which is the shooting start time and the other end of which is the shooting end time.
  • the time bar 120 is a horizontally long rectangular bar with the left end as the imaging start time and the right end as the imaging end time
  • the slider 122 is the temporal position of the endoscopic image displayed in the reproduction area 100 Indicates The time position represented by the slider 122 is also displayed in the time display area 124 as relative time information from the shooting start time.
  • the user places the mouse pointer on any part of the time bar 120 and clicks the left button of the mouse, an endoscopic image at that time position is displayed in the reproduction area 100. Further, even if the user drags the slider 122 and drops it at an arbitrary position in the time bar 120, an endoscopic image at that time position is displayed in the reproduction area 100.
  • the display control unit 42 refers to the additional information from among the plurality of reference images and determines the boundary of the region in the body. A candidate image which may have been taken is specified, and a candidate image list display screen including the candidate image is generated and displayed on the display device 22.
  • the display control unit 42 displays a selection window including an option for selecting “display candidate screen list screen”. May be displayed, and when the option is selected, a candidate image list screen may be generated and displayed on the display device 22.
  • FIG. 7 shows an example of the candidate image list screen.
  • a list of candidate images is displayed in a grid.
  • the user can switch the image by operating the page switch buttons 138a and 138b.
  • the candidate image is enlarged. Since the candidate images are displayed in a list, it is possible to easily find out the boundaries of parts in the body.
  • the same effect as the endoscopic image observation support system 1 according to the first embodiment can be obtained.
  • the management server 10 includes a RAW image acquisition unit 30, an image processing unit 32, a display control unit 42, and a reproduction processing unit 46.
  • the image processing unit 32 includes a redness determination unit 34, an image summary processing unit 36, a candidate image specification unit 38, and a compression processing unit 40.
  • the candidate image specifying unit 38 includes a determining unit 50 and a specifying unit 54.
  • the discrimination unit 50 outputs, for each endoscopic image, among the certainty that is the endoscopic image of each part that is the distinction object, the certainty for the part with the highest certainty is determined as the judgment certainty .
  • the determination unit 50 may output a vector whose component is the accuracy of the endoscopic image of each part, and may output the absolute value as the determination accuracy. In any case, the determination unit 50 outputs the determination accuracy of the scalar amount.
  • the identifying unit 54 identifies an endoscopic image having a relatively low determination accuracy, specifically, an endoscopic image having a determination accuracy below a predetermined threshold (0 ⁇ threshold ⁇ 1) as a candidate image.
  • a threshold value a value that can accurately identify the candidate image may be set based on experiments and various findings.
  • the same effect as the endoscopic image observation support system 1 according to the first embodiment can be obtained.
  • FIG. 13 is a diagram showing the configuration of the management server 10, the recording device 12, and the cloud server 14.
  • FIG. 13 corresponds to FIG. 1 of the first embodiment.
  • the management server 10 includes a RAW image acquisition unit 30, a display control unit 42, and a reproduction processing unit 46.
  • the cloud server 14 includes an image processing unit 32. That is, in this modification, instead of the management server 10 having the function of the image processing unit 32, the cloud server 14 has the function of the image processing unit 32.
  • the image processing unit 32 of the cloud server 14 performs specification of a reddish image, image summary processing, and specification of a boundary candidate image on the endoscopic RAW image primarily stored in the recording device 12.
  • the compression processing unit 40 generates an image file to which predetermined information is added, transmits the image file to the recording device 12 and causes the endoscope image recording unit 60 to record the image file.
  • Reference Signs List 1 endoscope image observation support system, 10 management server, 12 recording devices, 32 image processing units, 38 candidate image identification units, 42 display control units, 50 discrimination units, 52 classification units, 54 identification units.
  • the present invention can be used for an endoscopic image observation support system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡画像観察支援システムは、カプセル内視鏡により撮影された複数の画像の観察を支援する。内視鏡画像観察支援システムは、複数の画像のそれぞれについて、判別対象の部位の画像である確度を示す判別確度を出力する判別部と、判別確度に基づいて、複数の画像を複数のクラスタに分類する分類部と、複数のクラスタの分類に基づいて、複数の画像の中から部位の境界の候補画像を特定する特定部と、を備える。

Description

内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法
 本発明は、内視鏡画像観察支援システムに関する。
 特許文献1は、カプセル内視鏡で取得された体内画像データを、被検者内部の所定部位ごとに分類することを開示する。
特開2004-321603号公報
 カプセル内視鏡検査では数万枚の画像が撮影される。読影者は、再生表示される内視鏡画像を観察して異常所見を含む画像を抽出するが、画像数が膨大であるために読影にかかる負担は大きい。特許文献1に記載される装置では、画像観察を効率化して読影にかかる負担を低減する目的で、部位の範囲、言い換えれば部位の境界を画像の色に基づいて自動判別し、画像の色を時系列で示したバーとともに自動判別の結果を表示する。この自動判別の結果には誤差が含まれるため、実際の部位の境界を自動判別の結果を参考に探す必要があるが、どの時系列範囲の画像を探せばよいか明確でないため、探す作業に手間がかかっている。
 本発明はこうした状況に鑑みなされたものであり、その目的は、部位の境界の画像を読影者が容易に見つけられる技術を提供する。
 上記課題を解決するために、本発明のある態様の観察支援システムは、カプセル内視鏡により撮影された複数の画像の観察を支援する観察支援システムであって、複数の画像のそれぞれについて、判別対象の部位の画像である確度を示す判別確度を出力する判別部と、判別確度に基づいて、複数の画像を複数のクラスタに分類する分類部と、複数のクラスタの分類に基づいて、複数の画像の中から部位の境界の候補画像を特定する特定部と、を備える。
 本発明の別の態様は、観察支援装置である。この装置は、カプセル内視鏡により撮影された複数の画像のそれぞれについて出力された判別対象の部位の画像である確度を示す判別確度に基づいて、複数の画像が複数のクラスタに分類され、複数のクラスタの分類に基づいて複数の画像の中から抽出された部位の境界の候補画像に関する情報を、表示部に表示させる表示制御部を備える。
 本発明のさらに別の態様もまた、観察支援装置である。この装置は、カプセル内視鏡により撮影された複数の画像のそれぞれについて出力された判別対象の部位の画像である確度を示す判別確度に基づいて、複数の画像が複数のクラスタに分類され、表示部に表示させるために、複数のクラスタの分類に基づいて複数の画像の中から部位の境界の候補画像を特定する特定部を備える。
 本発明のさらに別の態様は、観察支援方法である。この方法は、カプセル内視鏡により撮影された複数の画像のそれぞれについて、判別対象の部位の画像である確度を示す判別確度を出力するステップと、判別確度に基づいて、複数の画像を複数のクラスタに分類するステップと、複数のクラスタの分類に基づいて、複数の画像の中から部位の境界の候補画像を特定するステップと、を含む。
 なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、読影者による画像観察を効率的に実施させるための支援技術を提供できる。
第1の実施の形態に係る画像観察支援システムの概要を説明するための図である。 図1の管理サーバおよび記録装置の構成を示す図である。 候補画像特定処理のフローチャートを示す図である。 複数の内視鏡画像の判別確度を、直交座標系にプロットした図である。 内視鏡画像の読影画面の例を示す図である。 内視鏡画像のオーバービュー画面の例を示す図である。 候補画像一覧画面の例を示す図である。 内視鏡画像の読影画面の別の例を示す図である。 内視鏡画像の読影画面のさらに別の例を示す図である。 第2の実施の形態に係る候補画像特定処理のフローチャートを示す図である。 第3の実施の形態に係る内視鏡画像観察支援システムの管理サーバおよび記録装置の構成を示す図である。 変形例に係る内視鏡画像観察支援システムの概要を説明するための図である。 図12の管理サーバ、記録装置およびクラウドサーバの構成を示す図である。 別の変形例に係る内視鏡画像観察支援システムの管理サーバ、記録装置およびクラウドサーバの構成を示す図である。
 以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
(第1の実施の形態)
 図1は、第1の実施の形態にかかるカプセル内視鏡の画像観察支援システムの概要を説明するための図である。内視鏡画像観察支援システム1は、読影者によるカプセル内視鏡画像の観察を支援する。通常の内視鏡を使用した検査では、医師が患者体内に挿入した内視鏡により撮影される画像をディスプレイでリアルタイムに観察して診断を行うが、カプセル内視鏡検査は、読影者がカプセル内視鏡により過去に撮影された大量の画像をまとめて観察する点で、通常の内視鏡検査と異なる。
 カプセル内視鏡検査において、患者は腹部に複数のアンテナ(図示せず)を貼り付けられ、受信装置4をベルトで腰に付けた状態で、超小型カメラを内蔵したカプセル内視鏡3を口から飲み込む。カプセル内視鏡3は消化管を通過しながら静止画像を周期的に撮影して、撮影画像に、画像IDおよび撮影時刻情報を付加した画像ファイルをアンテナ経由で受信装置4に送信する。なお本実施の形態のカプセル内視鏡3は、撮影フレームレートの可変機能を有し、たとえば移動速度が大きくなると撮影フレームレートを高くして、撮影を行ってもよい。
 受信装置4には、記録媒体5が内蔵されており、受信装置4は受信した画像ファイルを記録媒体5に記録する。カプセル内視鏡3が0.5秒ごとに体内を撮影する場合、約8時間で体内の撮影を終了すると、約6万枚の内視鏡画像ファイルが記録媒体5に記録される。
 画像IDは画像を識別するための情報であり、撮影順を示すシリアルな番号を付加された情報であってよい。たとえば最初に撮影された内視鏡画像の画像IDには「1」が付加され、2番目に撮影された内視鏡画像の画像IDには「2」が付加されてよい。このように画像IDを生成することで、画像IDに含まれるシリアル番号が撮影順を表現するとともに、画像IDの重複を回避できる。なお画像IDおよび撮影時刻情報は、受信装置4が撮影画像を受信したときに、受信装置4により撮影画像に付加されてもよい。いずれにしてもカプセル内視鏡3で撮影された画像は、画像IDおよび撮影時刻情報を対応付けられて記録媒体5に記録される。
 患者からアンテナと受信装置4が回収されると、受信装置4のデータ端子が、管理サーバ10に接続したデータ読出装置に接続され、データ読出装置が、記録媒体5に記録された約6万枚の内視鏡画像ファイルを読み出し、管理サーバ10に送信する。データ読出装置は、管理サーバ10にUSBケーブルなどで接続される外部装置であってよい。なお記録媒体5は、受信装置4に着脱可能なメモリカードであってもよく、記録媒体5が受信装置4から取り外されてデータ読出装置に装着され、内視鏡画像ファイルを読み出されてもよい。記録媒体5は、管理サーバ10に設けられたデータ読出用スロットに装着されて内視鏡画像ファイルを読み出されてもよい。
 管理サーバ10は、記録媒体5から読み出された内視鏡画像に所定の画像処理を施して、記録装置12に記録する。記録装置12は、HDD(ハードディスクドライブ)で構成されてよく、またフラッシュメモリで構成されてもよい。記録媒体5に記録された内視鏡画像は、無圧縮のRAW(生の)画像であるか、または可逆圧縮のみを施したRAW画像であるため、データサイズは非常に大きい。そこで管理サーバ10は、RAW画像である内視鏡画像に所定の非可逆圧縮処理を施し、データサイズを低減して記録装置12に記録する。なお本実施の形態では管理サーバ10が内視鏡RAW画像の画像処理を担当するが、他の機器、たとえば端末装置20が内視鏡RAW画像に画像処理を施して、記録装置12に記録してもよく、記録装置12は、端末装置20に設けられてもよい。
 複数の端末装置20はLAN(ローカルエリアネットワーク)などのネットワーク2によって管理サーバ10に接続される。端末装置20はたとえば医師や技師(以下、単に「ユーザ」と呼ぶこともある)に割り当てられたパーソナルコンピュータなどであって、画面出力可能に表示装置22に接続されるが、端末装置20は表示装置と一体となったラップトップコンピュータであってもよく、また携帯型タブレットであってもよい。端末装置20は管理サーバ10にアクセスして、記録装置12に記録された内視鏡画像を表示装置22に表示する。
 管理サーバ10は、内視鏡RAW画像を圧縮する際に、解析アプリケーションを実行して内視鏡画像を解析する機能をもつ。解析アプリケーションによる画像解析は、一つのカプセル内視鏡検査において撮影された全ての内視鏡RAW画像に対して実施され、画像解析の結果は、圧縮した内視鏡画像に付加情報として付加される。
 カプセル内視鏡検査の目的の一つは、消化管における出血源を探すことにある。管理サーバ10は、記録媒体5から内視鏡RAW画像を取得すると、解析アプリケーションを実行して画像処理することで、出血状態を撮影した可能性のある内視鏡RAW画像を特定する。たとえば管理サーバ10は、内視鏡画像の赤みが所定の閾値を超える場合に、出血状態を撮影した可能性のある画像であることを判定し、その内視鏡RAW画像を圧縮する際に、赤み画像であることを示すフラグ情報を付加する。
 また消化管内におけるカプセル内視鏡3の移動速度には差があり、移動速度の遅い箇所では、撮影される内視鏡画像の変化も小さい。そのため読影者が、ほぼ変化のない複数の内視鏡画像を含む全ての内視鏡画像を等しく観察することは、効率的でなく、負担が大きい。そこで解析アプリケーションは、時間的に連続して撮影された内視鏡RAW画像を比較して、変化が小さい画像(類似画像)を特定する処理を行う。以下、この処理を「画像要約処理」と呼ぶ。
 画像要約処理では、基準画像を設定し、基準画像に類似しているか否かを判定する対象となる判定対象画像に占める基準画像の被覆領域の割合を被覆率として算出する。判定対象画像は、基準画像よりも後に撮影された画像である。解析アプリケーションは、被覆率が閾値以上である場合に、判定対象画像を基準画像の類似画像として判定する。管理サーバ10は、基準画像である内視鏡RAW画像を圧縮する際に、基準画像であることを示すフラグ情報を付加し、類似画像である内視鏡RAW画像を圧縮する際に、類似画像であることを示すフラグ情報を付加する。
 また解析アプリケーションは、複数の基準画像の中から、体内の部位の境界を撮影した可能性のある候補画像を特定する。読影者が、所定の部位をメインターゲットとする診断を行う場合、撮影した内視鏡画像のどこからどこまでが当該対象となる部位の撮影画像であるかを容易に認識できることが好ましい。カプセル内視鏡3は、「胃」、「小腸」、「大腸」の各消化管内部を撮影するため、解析アプリケーションが、各消化管の入口(開始位置)を撮影した可能性のある候補画像を事前に特定しておくことで、読影者が画像診断時に、各消化管の境界を容易に探し出すことが可能となる。
 管理サーバ10ないしは端末装置20において実行される再生アプリケーションは、画像要約処理により付加されたフラグ情報を参照して、内視鏡画像の再生時間を短縮する再生モードを有しており、読影者が、この再生モードを選択することで、観察時間の短縮化を実現できる。
 実施例の再生アプリケーションは、4つの再生モードを有して構成される。
(第1再生モード)
 第1再生モードは、端末装置20に接続されたユーザインタフェースの操作を利用した手動再生モードである。第1再生モードでは、ユーザがマウスのホイールを回転させることで、内視鏡画像を1枚ずつコマ送り表示させることができる。そのため第1再生モードは、病変を撮影した複数枚の画像のなかで最も鮮明に病変を撮影した画像を特定する際に利用される。ユーザがホイールを奥向きに回転させると、内視鏡画像は順方向(撮影時刻の古い画像から新しい画像に向かう方向)に連続再生表示され、ユーザがホイールを手前向きに回転させると、内視鏡画像は逆方向(撮影時刻の新しい画像から古い画像に向かう方向)に連続再生表示される。
(第2再生モード)
 第2再生モードは、設定された再生速度で内視鏡画像を順方向または逆方向に連続再生表示する自動再生モードである。第2再生モードは、通常の内視鏡画像観察に利用される。
(第3再生モード)
 第3再生モードは、画像要約処理により特定された基準画像を設定された再生速度で順方向または逆方向に連続再生表示しつつ、類似画像を、設定された再生速度よりも高速で順方向または逆方向に連続再生表示する自動再生モードである。第3再生モードは、基準画像に対して変化の小さい類似画像を高速再生することで、第2再生モードと比べて観察時間の短縮を実現する。
(第4再生モード)
 第4再生モードは、画像要約処理により特定された類似画像の表示を省略して、設定された再生速度で基準画像のみを順方向または逆方向に再生表示する自動再生モードである。第4再生モードは、類似画像の表示を省略することで、第3再生モードと比べて観察時間の短縮を実現する。なお第4再生モードに対して、裏モードである第4裏再生モードが設定されてよい。第4裏再生モードは、基準画像の表示を省略して、設定された再生速度で類似画像のみを順方向または逆方向に再生表示する自動再生モードである。第4裏再生モードは、第4再生モードでの観察後に、観察漏れのないことを確認するために利用される。
 第1~第3再生モードは、時間的に連続する内視鏡画像を順番に再生表示する連続再生モードであり、第4再生モード(第4裏再生モード)は、時間的に連続する内視鏡画像を間引いて再生表示する間引き再生モードである。再生アプリケーションは、ユーザにより選択された再生モードに応じて、内視鏡画像の再生処理を実施する。再生アプリケーションは、管理サーバ10で実行されてもよく、また端末装置20で実行されてもよい。
 端末装置20には、キーボードやマウスなどのユーザインタフェースが接続されている。端末装置20は、管理サーバ10と協働して、読影者による読影作業を支援する機能をもつ。端末装置20は、表示装置22に内視鏡画像の読影画面を表示させ、ユーザは読影画面において再生表示される内視鏡画像を観察して、病変等を撮影した内視鏡画像をキャプチャする。
 図2は、管理サーバ10および記録装置12の構成を示す。管理サーバ10は、RAW画像取得部30、画像処理部32、表示制御部42および再生処理部46を備える。画像処理部32は、赤み判定部34、画像要約処理部36、候補画像特定部38および圧縮処理部40を有する。候補画像特定部38は、判別部50、分類部52および特定部54を有する。管理サーバ10の各機能は、解析アプリケーション、再生アプリケーションなど、各種アプリケーションを実行することによって実現されてよい。なお実施の形態では、管理サーバ10が各種アプリケーションを実行するが、端末装置20が各種アプリケーションを実行してもよい。
 記録装置12は、内視鏡画像記録部60、検査情報記録部62および観察内容記録部64を備える。内視鏡画像記録部60は、画像処理部32により画像処理を施された内視鏡画像を記録する。検査情報記録部62は、内視鏡検査に関する情報を記録する。観察内容記録部64は、内視鏡画像の観察内容、たとえばユーザがキャプチャした画像や入力した所見情報などを記録する。
 管理サーバ10の構成はハードウエア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 RAW画像取得部30は、データ読出装置から送信される約6万枚の内視鏡RAW画像を取得し、記録装置12に一時記憶させる。画像処理部32は、すべての内視鏡RAW画像に対して、以下に示す画像処理を実施する。
<赤み画像の特定>
 赤み判定部34は、赤みを帯びた内視鏡RAW画像を画像解析により探索し、赤みが所定の閾値より強い画像を特定する。赤み判定部34は、特定した赤み画像の画像IDを、圧縮処理部40に提供する。
<画像要約処理>
 画像要約処理部36は、全ての内視鏡画像を、基準画像と、基準画像に類似する類似画像とに分類する画像要約処理を実施する。まず画像要約処理部36は、最初に撮影された画像を基準画像として設定する。画像要約処理部36は、基準画像の次に撮影された判定対象画像が基準画像に類似しているか否かの類似判定を実施する。画像要約処理部36は、判定対象画像において、基準画像を変形した変形画像が含まれる被覆領域を求め、判定対象画像に占める被覆領域の割合を被覆率として算出する。
 画像要約処理部36は、被覆率が閾値以上である場合に、判定対象画像を基準画像の類似画像として判定する。画像要約処理部36は、類似画像と判定した画像の次に撮影された画像を判定対象画像として、基準画像に類似しているか否かの類似判定を実施する。カプセル内視鏡3の移動速度が遅ければ、基準画像の後に撮影された数十枚の画像が類似画像として判定されることもある。
 一方で、画像要約処理部36は、被覆率が閾値未満である場合に、判定対象画像を非類似画像として判定する。画像要約処理部36は、非類似画像と判定した画像を、新たな基準画像として設定し、次に撮影された画像を判定対象画像として、類似判定を実施する。画像要約処理部36は、この画像要約処理を、約6万枚の全ての画像に対して実施し、基準画像と類似画像とに分類する。
 基準画像と類似画像の枚数比は、閾値の設定によって調整される。閾値を大きくすれば、基準画像が多くなり、また閾値を小さくすれば、基準画像が少なくなる。第4再生モードでは、基準画像のみを再生表示するため、閾値の設定は、病変の見落とし等を抑制するために重要であるが、これまでの実績により、約6万枚の内視鏡画像のうち、約2万枚を基準画像として抽出するような閾値を設定することで、基準画像のみの読影により病変画像の見落としを防げることが分かってきている。画像要約処理部36は、分類した基準画像の画像IDおよび類似画像の画像IDを、それぞれ圧縮処理部40に提供する。
<境界候補画像の特定>
 体内部位の境界の撮影位置をタイムバー上にランドマークとして設定することは、読影者が、部位毎の撮影画像の範囲を認識できるようになるため、特定の部位画像を診断する際に都合がよい。カプセル内視鏡3は、胃、小腸、大腸の各消化管内部を撮影するが、読影者が小腸の撮影画像のみを観察する場合、胃と小腸の境界の画像の撮影位置と、小腸と大腸の境界の画像の撮影位置とを画像診断の前にタイムバーにランドマークとして設定しておけば、小腸の撮影画像の範囲を容易に認識できるようになる。そこで候補画像特定部38は、読影者が体内部位の境界を容易に探し出すことが可能となるように、複数の内視鏡画像の中から、体内の部位の境界を撮影した可能性のある候補画像を特定する処理を、読影者による画像観察の前に実施する。
 図3は、候補画像特定処理のフローチャートを示す。判別部50は、全ての内視鏡画像を対象として、各内視鏡画像が、判別対象である各部位の内視鏡画像である確度(以下、「判別確度」とも呼ぶ)を出力する(S10)。判別部50が実行する処理は、SVM(Support Vector Machine)、ニューラルネットワーク等の機械学習手法など、既知の技術を用いて実現できる。本実施の形態では、胃、小腸および大腸の各部位が判別対象の部位であり、判別確度は次式で表されるベクトル量である。確度は、判別の確からしさを表す数値であり、0~1の間の実数値を取る。
 判別確度=(胃の内視鏡画像である確度,小腸の内視鏡画像である確度,大腸の内視鏡画像である確度)
 分類部52は、複数の内視鏡画像のそれぞれの判別確度に基づいて、クラスタリング手法により、その複数の内視鏡画像を複数(K個)のクラスタに分類する(S12)。このクラスタリングは、既知の技術を利用してよい。なお、階層的手法(たとえばウォード法など)を利用する場合、クラスタの数がK個になった時点でクラスタの併合を停止し、非階層的手法(たとえばK-means法など)を利用する場合、初期値として、分類すべきクラスタ数にKを与える。
 図4は、複数の内視鏡画像の判別確度を、直交座標系にプロットした図である。胃を撮影した内視鏡画像は、基本的に、胃の内視鏡画像である確度は高く、小腸および大腸の内視鏡画像である確度は低く判別されるため、座標(1,0,0)の近傍に集まる。小腸を撮影した内視鏡画像は、基本的に、小腸の内視鏡画像である確度は高く、胃および大腸の内視鏡画像である確度は低く判別されるため、座標(0,1,0)の近傍に集まる。大腸を撮影した内視鏡画像は、基本的に、大腸の内視鏡画像である確度は高く、胃および小腸の内視鏡画像である確度は低く判別されるため、座標(0,0,1)の近傍に集まる。胃と小腸との境界を撮影した内視鏡画像、および小腸と大腸との境界を撮影した内視鏡画像は、基本的に、胃、小腸、および大腸の内視鏡画像である確度はいずれも低く判別されるため、座標(0,0,0)の近傍に集まる。したがって、判定対象の部位をL個とすると、K(≧L+1)個のクラスタに分類することで、各判別対象部位の内視鏡画像のクラスタと、それ以外、すなわち候補画像のクラスタとに分類されることが期待される。
 なお胃と小腸との境界を撮影した内視鏡画像、および小腸と大腸との境界を撮影した内視鏡画像は、前者は胃および小腸の内視鏡画像である確度が大腸の内視鏡画像である確度よりも高く判別され、後者は小腸および大腸の内視鏡画像である確度が胃の内視鏡画像である確度よりも高く判別されるため、多少離れた位置に分布する。したがって、これらが異なるクラスタに分類されるように分類するクラスタの個数を設定すると、クラスタリングの精度が向上する。つまり複数の内視鏡画像をK(=2L-1)個、すなわち判別対象である部位の個数に部位の境界の個数を加えた個数のクラスタに分類することが好ましい。
 変形例では、分類部52は、複数の内視鏡画像のそれぞれの判別確度に加え、複数の内視鏡画像のそれぞれの撮影開始時刻からの相対的な時間情報に基づいて、すなわち判別確度の各成分および時間情報を各成分とするベクトルに基づいて、クラスタリング手法により、その複数の内視鏡画像を複数のクラスタに分類してもよい。クラスタリングに時間情報が使われることにより、時間情報が近い内視鏡画像が同じクラスタに分類されやすくなり、クラスタリングの精度が向上する。また、たとえば、胃と小腸との境界を撮影した内視鏡画像と、小腸と大腸との境界を撮影した内視鏡画像のように時間情報が遠い内視鏡画像は、クラスタリングに時間情報が使われることにより、位置が離れるため、クラスタリングの精度が向上する。
 以下では、分類部52により、それぞれ点線で囲まれた5つのクラスタに分類された場合を例に説明する。
 特定部54は、全てのクラスタを対象として、各クラスタの代表ベクトルを特定する(S14)。代表ベクトルは、たとえばクラスタに属する1以上の内視鏡画像の判別確度(ベクトル)の平均値や中央値である。特定部54は、複数のクラスタの中から、各部位の内視鏡画像が分類された可能性の高いクラスタを特定する(S16)。
 具体的に特定部54は、複数のクラスタのそれぞれの代表ベクトルと胃に対応する標準基底ベクトル(1,0,0)との内積を算出し、内積が最大となるクラスタを胃の内視鏡画像が分類された可能性が高いクラスタ(以下、「胃クラスタ」とも呼ぶ)として特定する(S160)。図4の例では、座標(1,0,0)の近傍に位置するクラスタ160が胃クラスタとして特定される。特定部54は、複数のクラスタのそれぞれの代表ベクトルと小腸に対応する標準基底ベクトル(0,1,0)との内積を算出し、内積が最大となるクラスタを小腸の内視鏡画像が分類された可能性が高いクラスタ(以下、「小腸クラスタ」とも呼ぶ)として特定する(S162)。図4の例では、座標(0,1,0)の近傍に位置するクラスタ162が小腸クラスタとして特定される。特定部54は、複数のクラスタのそれぞれの代表ベクトルと大腸に対応する標準基底ベクトル(0,0,1)との内積を算出し、内積が最大となるクラスタを小腸の内視鏡画像が分類された可能性が高いクラスタ(以下、「大腸クラスタ」とも呼ぶ)として特定する(S164)。図4の例では、座標(0,0,1)の近傍に位置するクラスタ164が大腸クラスタとして特定される。
 特定部54は、胃クラスタ、小腸クラスタおよび大腸クラスタ以外のクラスタを、部位の境界の画像が分類された可能性が高いクラスタ(以下、「境界クラスタ」とも呼ぶ)として特定する(S18)。図4の例では、座標(0,0,0)の近傍に位置するクラスタ166、168が境界クラスタとして特定される。特定部54は、境界クラスタに分類された内視鏡画像を候補画像として特定する(S20)。なお特定部54は、境界クラスタに分類された内視鏡画像に加えて、他のクラスタに分類された内視鏡画像のうち、境界クラスタに分類された任意の2つの内視鏡画像に撮影時刻が挟まれる内視鏡画像を、候補画像として特定してもよい。特定部54は、特定した候補画像の画像IDを、圧縮処理部40に提供する。
<内視鏡RAW画像の圧縮処理>
 赤み判定部34、画像要約処理部36および候補画像特定部38による画像解析処理は、圧縮処理部40による内視鏡RAW画像の圧縮処理の際に実施される。圧縮処理部40は、内視鏡RAW画像に非可逆の圧縮処理を施して、画像IDおよび撮影時刻情報を付加した画像ファイルを生成し、内視鏡画像記録部60に記録する。たとえば圧縮処理部40は、JPEGなどの画像フォーマットで内視鏡RAW画像を圧縮してよい。
 圧縮処理部40は、圧縮した画像ファイルに、赤み判定部34、画像要約処理部36および候補画像特定部38から提供された解析結果を示す情報を付加する。具体的に圧縮処理部40は、赤み判定部34から提供される画像IDをもつ圧縮画像に、赤み画像であることを示す情報を付加する。この情報は、フラグ情報として付加されてよい。また圧縮処理部40は、画像要約処理部36による画像要約処理の結果をもとに、基準画像に、基準画像であることを示すフラグ情報を付加し、類似画像に、類似画像であることを示すフラグ情報を付加する。基準画像であるか類似画像であるかは表裏の関係にあるため、フラグ値1が基準画像を、フラグ値0が類似画像を表現してもよい。また圧縮処理部40は、候補画像特定部38から提供される画像IDをもつ圧縮画像に、候補画像であることを示す情報を付加する。
 実施例では、赤み判定部34、画像要約処理部36および候補画像特定部38が、圧縮処理部40による内視鏡RAW画像の圧縮処理の前に、内視鏡RAW画像に対してそれぞれ画像処理を実施している。変形例では、赤み判定部34、画像要約処理部36および候補画像特定部38が、圧縮画像に対して、それぞれ画像解析を実施して、解析結果を示す情報が圧縮画像に付加されてよい。内視鏡画像記録部60には、画像処理部32により画像処理された画像ファイルが記録され、ユーザは、内視鏡画像記録部60に記録された画像ファイルを用いて、内視鏡画像の観察を実施する。
 以下、読影時に表示装置22に表示される画面について説明する。
 ユーザである医師Bは、端末装置20にユーザIDおよびパスワードを入力してログインする。ユーザがログインすると、管理サーバ10が検査情報記録部62に記録された検査情報を端末装置20に提供し、表示装置22には、カプセル内視鏡検査の一覧が表示される。検査一覧画面には、患者ID、患者氏名、検査ID、検査日時などの検査情報が表示され、ユーザは、読影レポート作成の対象となる検査を選択する。検査一覧から患者IDが「1111」、患者氏名「A」、検査IDが「0001」の検査が選択されると、表示制御部42は、ユーザが内視鏡画像を読影するための読影画面を生成して、表示装置22に表示させる。
 図5は、内視鏡画像の読影画面の例を示す。読影画面中央上部には、内視鏡画像を切り替えて再生表示するための再生領域100が設けられる。読影画面は、画面左上隅にある再生モード選択ボタン102aが選択された状態で、表示装置22に表示される。なおオーバービューモード選択ボタン102bが選択されると、表示制御部42は、図6に示すオーバービュー画面を生成して、表示装置22に表示させる。また候補画像選択ボタンが選択されると、表示制御部42は、図7に示す候補画像選択画面を生成して、表示装置22に表示させる。
 再生枚数切替ボタン108は、再生領域100に表示する画像枚数を切り替えるための操作ボタンである。図5には、1枚表示が選択されている例を示しているが、ユーザは再生枚数切替ボタン108を操作することで、2枚表示または4枚表示を選択できる。
 第2再生モード選択ボタン110は、第2再生モードを選択するための操作ボタンである。第3再生モード選択ボタン112は、第3再生モードを選択するための操作ボタンである。第4再生モード選択ボタン114は、基準画像のみを再生表示する第4再生モードを選択するための操作ボタンである。第4裏再生モード選択ボタン116は、類似画像のみを再生表示する第4裏再生モードを選択するための操作ボタンである。第4再生モードでは、類似画像の再生表示が省略されるため、ユーザは、第4再生モードを選択して読影した場合には、第4裏再生モードでも読影して、全ての内視鏡画像を観察することが推奨される。
 ユーザは、第2再生モード選択ボタン110、第3再生モード選択ボタン112、第4再生モード選択ボタン114および第4裏再生モード選択ボタン116のいずれかを選択して、再生モードを設定する。なおデフォルトの状態では、第2再生モード選択ボタン110が選択されている。再生領域100の下方に設けられた再生ボタン表示領域104には再生ボタン104aと逆再生ボタン104bとが表示され、再生ボタン104aが選択されると、再生領域100において内視鏡画像が順方向(撮影時刻の古い画像から新しい画像に向かう方向)に再生表示され、逆再生ボタン104bが選択されると、再生領域100において内視鏡画像が逆方向(撮影時刻の新しい画像から古い画像に向かう方向)に再生表示される。再生速度調節部106は、再生速度(1枚の内視鏡画像の表示時間)を調節するためのスライダを備える。再生速度調節部106は、スライダの位置により、再生速度、すなわち内視鏡画像の表示フレームレートを設定する。たとえば20fpsの表示フレームレートは、1秒あたり20枚の内視鏡画像を切替表示して、1枚あたりの表示時間が0.05秒であることを意味する。
 再生処理部46は、再生モード選択領域130において選択された再生モード、および再生速度調節部106により設定された再生速度(表示フレームレート)にしたがって、再生領域100に内視鏡画像を再生表示する。再生ボタン104aまたは逆再生ボタン104bが選択されると、再生処理部46は再生表示を開始するが、選択された再生ボタン104aまたは逆再生ボタン104bの場所には、代わりに一時停止ボタンが表示される。内視鏡画像の再生表示中に、ユーザが一時停止ボタンを操作すると、再生処理部46は、内視鏡画像の再生表示を一時停止する。この状態でユーザがマウスホイールを操作すると、再生処理部46が、マウスホイールの回転に応じて、第1再生モードで内視鏡画像をコマ送り表示する。
 ユーザは再生領域100に表示された画像にマウスポインタを合わせてマウスの左ボタンをダブルクリックすると、その画像がキャプチャされてキャプチャ画像表示領域128に表示される。キャプチャ画像表示領域128に表示されるキャプチャ画像は、後に読影レポートに添付する画像の選択肢となる。この例では、8枚のキャプチャ画像128a~128hが選択されている様子が示される
 表示制御部42は、一端を撮影開始時刻、他端を撮影終了時刻とするタイムバー120を再生領域100の下方に表示する。実施の形態においてタイムバー120は、左端を撮影開始時刻、右端を撮影終了時刻とする横長矩形のバーであり、スライダ122は、再生領域100に表示されている内視鏡画像の時間的な位置を示す。スライダ122により表現される時間位置は、時間表示領域124に撮影開始時刻からの相対的な時間情報としても表示される。ユーザがタイムバー120の任意の箇所にマウスポインタをあててマウスの左ボタンをクリックすると、その時間位置における内視鏡画像が再生領域100に表示される。またユーザがスライダ122をドラッグしてタイムバー120内の任意の位置でドロップしても、その時間位置における内視鏡画像が再生領域100に表示される。
 表示制御部42は、タイムバー120において、内視鏡画像の平均色値を示す表示を行う。表示制御部42は各内視鏡画像の平均色値を算出し、タイムバー120の矩形領域内部を、各内視鏡画像の時間位置に合わせて、各内視鏡画像の平均色値で色塗りする。これによりタイムバー120は、内視鏡画像の時間的な色味を表現するカラーバーとして表示されることになる。カプセル内視鏡3により撮影された内視鏡画像は、その撮影した消化管の太さ等により色味が異なるため、表示制御部42が、タイムバー120に、画像平均色値による色を付加することで、読影者は、撮影時刻と撮影部位との関係を感覚的に認識できるようになる。
 表示制御部42はさらに、タイムバー120において、候補画像の撮影時刻を示す指標134を表示する。図5で指標134は、タイムバー120上に網掛けとして表示されているが、所定色で塗りつぶされてもよい。指標134が表示されることで、ユーザは、候補画像を撮影した可能性の高い画像の存在を認識できる。なお表示制御部42は、後述のようにランドマーク設定された場合、指標134の表示態様を、ランドマーク設定前と比べて異ならせてよい。表示制御部42は、ランドマーク 設定された後は、候補画像に関する情報をユーザに提示する必要がないため、指標134を非表示としてよい。
 赤色画像表示ボタン126は、タイムバー120において、赤み画像の撮影時刻に赤色マークを表示させるためのボタンである。赤色画像表示ボタン126が操作されると、表示制御部42は、赤み画像の撮影時刻に、赤色マークを表示する。タイムバー120に赤色マークが表示されることで、ユーザは、出血を撮影した可能性の高い画像の存在を認識できる。
 拡大表示ボタン118は、再生領域100を拡大するためのボタンである。拡大表示ボタン118が操作されると、キャプチャ画像表示領域128は非表示とされて、その分だけ再生領域100が拡大される。
 ユーザはタイムバー120に、部位の開始位置を示すためのマークを付加できる。このマーク付加はランドマーク設定とも呼ばれ、画像診断を効率化する目的で、撮影画像の部位の範囲を特定するために実施される。ユーザは、マウス操作により、指標134の左端の時間位置あるいはそれより僅かに前の時間位置から再生表示を開始する。ユーザは、再生領域100で再生表示される内視鏡画像を観察しながら、新たな部位画像が再生されると、再生領域100の再生表示を停止させ、再生領域100に表示された境界画像上にマウスポインタを配置して、右クリックする。表示制御部42は、ランドマーク設定用の選択肢を含む選択ウィンドウを表示する。選択ウィンドウには、胃、小腸、大腸の開始位置をランドマーク設定するための3つの項目が表示される。ユーザは、項目を選択することで、当該項目で特定される部位の開始位置を、タイムバー120にランドマーク設定できる。ランドマークは、読影者が境界を認識できるような態様で、タイムバー120に表示される。読影者がランドマーク設定を行うことで、内視鏡画像を見直す際に、部位の開始位置を容易に知ることができる。
 画面左上隅にあるオーバービューモード選択ボタン102bが選択されると、表示制御部42は、オーバービュー画面を生成して、表示装置22に表示させる。オーバービュー画面では、画像要約処理により特定された複数の基準画像から抽出された画像が表示される。
 図6は、内視鏡画像のオーバービュー画面の例を示す。画像表示領域132には、複数の基準画像から抽出された画像が格子状に並べて表示される。たとえば約6万枚の内視鏡画像から約2万枚の基準画像が特定されているとき、表示制御部42は、約2万枚の基準画像の中から所定の間隔で抽出した画像を、オーバービュー画面に表示する。抽出する枚数は、2千枚を上限として、ユーザにより自由に設定されてよい。基準画像の枚数をN枚、オーバービュー画面に含める画像枚数をM枚とすると、表示制御部42は、時系列に並べた基準画像の中から(N/M)枚ごとに画像を抽出する。たとえばN=2万枚、M=2千枚であるとき、表示制御部42は、撮影時刻順に基準画像を10枚ごとに1枚を抽出し、オーバービュー画面に配列する。抽出画像は、画像表示領域132において格子状に配列され、ユーザはページ送りボタン140a、140bを操作して、画像を切り替えることができる。オーバービュー画面に表示される内視鏡画像は基準画像であり、互いに非類似のものに限定されるため、ユーザは、検査全体の概要を効率よく把握できる。
 図5に戻って、画面左上隅にある候補画像一覧選択ボタン102cが選択されると、表示制御部42は、複数の基準画像の中から、付加情報を参照して、体内の部位の境界を撮影した可能性のある候補画像を特定し、候補画像を含む候補画像一覧表示画面を生成して、表示装置22に表示させる。なおタイムバー120に表示された指標134上にマウスポインタを配置して右クリックしたときに、表示制御部42は、「候補画面一覧画面を表示する」ことを選択するための選択肢を含む選択ウィンドウを表示し、その選択肢が選択された場合に候補画像一覧画面を生成して、表示装置22に表示させてもよい。
 図7は、候補画像一覧画面の例を示す。画像表示領域136には、候補画像の一覧が格子状に並べて表示される。ユーザは、ページ送りボタン138a、138bを操作して、画像を切り替えることができる。ユーザが候補画像をマウスでダブルクリックすると、候補画像は拡大表示される。候補画像が一覧で表示されるため、体内の部位の境界を容易に探し出すことが可能となる。
 ユーザは、候補画像が小腸の入口を撮影した画像であることを確認すると、候補画像上にマウスポインタを配置して、右クリックする。表示制御部42は、ランドマーク設定用の選択肢を含む選択ウィンドウ150を表示する。選択ウィンドウ150には、胃、小腸、大腸の開始位置をランドマーク設定するための3つの項目が表示される。ユーザは選択枠152を所望の項目に合わせて、決定操作(たとえばマウスのダブルクリック)を行うことで、候補画像を、体内部位の開始位置画像として、ランドマーク設定できる。ランドマーク設定された画像の画像IDは、観察内容記録部64にランドマーク画像の画像IDとして記録され、タイムバー120上の候補画像の撮影位置に、小腸の開始位置であることを示すマークが付加される。ユーザは、まず図7に示す候補画像一覧画面でランドマーク設定してから、図4に示す読影画面や図5に示すオーバービュー画面で画像観察を行ってもよい。
 図8は、内視鏡画像の読影画面の別の例を示す。表示制御部42は、タイムバー120の下方に、候補画像の撮影時刻を示す指標134を中括弧として表示する。中括弧の指標134が表示されることで、ユーザは、候補画像を撮影した可能性の高い画像の範囲を認識できる。
 図9は、内視鏡画像の読影画面のさらに別の例を示す。表示制御部42は、タイムバー120の下方に、タイムバー120に隣接する部位バー142を表示する。部位バー142は、タイムバー120と同じ長さの横長矩形のバーであり、再生領域100に表示されている内視鏡画像が、胃、小腸または大腸の各部位の内視鏡画像であるか、または候補画像であるか識別できるような態様で表示される。たとえば部位バー142において、胃に対応する部分142a、小腸に対応する部分142b、大腸に対応する部分142cおよび境界に対応する部分142dがそれぞれ異なる色で表示されてもよい。
 以上説明した第1の実施の形態に係る内視鏡画像観察支援システム1によると、判別確度をクラスタリングすることにより、部位の境界を探すべき範囲が特定される。これにより、読影者は部位の境界を容易に見つけることができる。
(第2の実施の形態)
 図10は、候補画像特定処理のフローチャートを示す。図10は、第1の実施の形態の図3に対応する。第1の実施の形態に係る内視鏡画像観察支援システム1との主な違いは、候補画像特定部38による処理である。以下、第1の実施の形態に係る内視鏡画像観察支援システム1との違いを中心に説明する。
 S14までは図3と同様であるため、S26から説明する。特定部54は、複数のクラスタの中から、境界クラスタを特定する(S26)。具体的に特定部54は、複数のクラスタのそれぞれの代表ベクトルと各標準基底ベクトルとの内積を算出し(S260)、クラスタごとに内積を合計する(S262)。特定部54は、内積の合計が小さいものから順に(K-N)個のクラスタを、すなわち判定対象の部位に対応するクラスタの数を除いた数のクラスタを、境界クラスタとして特定する(S264)。特定部54は、そのクラスタに分類された内視鏡画像を候補画像として特定する(S20)。
 以上説明した第2の実施の形態に係る内視鏡画像観察支援システムによれば、第1の実施の形態に係る内視鏡画像観察支援システム1と同様の効果を奏することができる。
(第3の実施の形態)
 図11は、第3の実施の形態に係る内視鏡画像観察支援システムの管理サーバ10および記録装置12の構成を示す。図11は、第1の実施の形態の図2に対応する。第1の実施の形態に係る内視鏡画像観察支援システム1との主な違いは、候補画像特定部38による処理である。以下、第1の実施の形態に係る内視鏡画像観察支援システム1との違いを中心に説明する。
 管理サーバ10は、RAW画像取得部30、画像処理部32、表示制御部42および再生処理部46を備える。画像処理部32は、赤み判定部34、画像要約処理部36、候補画像特定部38および圧縮処理部40を有する。候補画像特定部38は、判別部50および特定部54を有する。
 本実施の形態では、判別部50は、各内視鏡画像について、判別対象である各部位の内視鏡画像である確度のうち、確度が最も高い部位についての確度を、判別確度として出力する。なお、判別部50は、第1の実施の形態と同様に、各部位の内視鏡画像である確度を成分とするベクトルを出力し、その絶対値を判別確度として出力してもよい。いずれにしても判別部50は、スカラー量の判別確度を出力する。
 特定部54は、判別確度が比較的低い内視鏡画像を、具体的には判別確度が所定の閾値(0<閾値<1)を下回る内視鏡画像を候補画像として特定する。閾値には、実験や各種知見に基づき、候補画像を的確に特定できる値が設定されればよい。
 変形例では、特定部54は、所定枚数連続して閾値を上回る領域以外における内視鏡画像を、候補画像として特定してもよい。
 以上説明した第3の実施の形態に係る内視鏡画像観察支援システムによれば、第1の実施の形態に係る内視鏡画像観察支援システム1と同様の効果を奏することができる。
 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
(変形例1)
 図12は、変形例に係る内視鏡画像観察支援システムの概要を説明するための図である。図12は、第1の実施の形態の図1に対応する。本変形例では、内視鏡画像観察支援システム1は、クラウドサーバ14をさらに備える。クラウドサーバ14は、クラウドサービス事業者が提供するサーバである。
 図13は、管理サーバ10、記録装置12およびクラウドサーバ14の構成を示す図である。図13は、第1の実施の形態の図1に対応する。管理サーバ10は、RAW画像取得部30、表示制御部42および再生処理部46を備える。クラウドサーバ14は、画像処理部32を備える。すなわち、本変形例では、管理サーバ10が画像処理部32の機能を有しない代わりに、クラウドサーバ14が画像処理部32の機能を有する。クラウドサーバ14の画像処理部32は、記録装置12に一次記憶された内視鏡RAW画像に対して、赤み画像の特定、画像要約処理、境界候補画像の特定を実施する。圧縮処理部40は、所定の情報が付加された画像ファイルを生成し、記録装置12に送信して内視鏡画像記録部60に記録させる。
(変形例2)
 変形例1では、クラウドサーバ14が候補画像特定部38のすべての機能を有する場合について説明した。クラウドサーバ14は、候補画像特定部38の一部の機能だけを有してもよい。図14は、別の変形例に係る内視鏡画像観察支援システムの管理サーバ10、記録装置12およびクラウドサーバ14の構成を示す図である。管理サーバ10の画像処理部32の候補画像特定部38は、分類部52および特定部54を有する。クラウドサーバ14は判別部50を有する。すなわち、本変形例では、管理サーバ10の画像処理部32の候補画像特定部38が判別部50の機能を有しない代わりに、クラウドサーバ14が画像処理部32判別部50の機能を有する。判別部50は、記録装置12に一次記憶された内視鏡RAW画像に対して、判別確度を出力する処理を実施する。判別部50は、出力した判別確度を、管理サーバ10の候補画像特定部38に提供する。
 1 内視鏡画像観察支援システム、 10 管理サーバ、 12 記録装置、 32 画像処理部、 38 候補画像特定部、 42 表示制御部、 50 判別部、 52 分類部、 54 特定部。
 本発明は、内視鏡画像観察支援システムに利用できる。

Claims (15)

  1.  カプセル内視鏡により撮影された複数の画像の観察を支援する観察支援システムであって、
     前記複数の画像のそれぞれについて、判別対象の部位の画像である確度を示す判別確度を出力する判別部と、
     前記判別確度に基づいて、前記複数の画像を複数のクラスタに分類する分類部と、
     前記複数のクラスタの分類に基づいて、前記複数の画像の中から前記部位の境界の候補画像を特定する特定部と、
     を備えることを特徴とする内視鏡画像観察支援システム。
  2.  前記分類部は、前記複数の画像を、第1クラスタと、前記第1クラスタとは異なる第2クラスタと、に分類し、
     前記特定部は、前記第1クラスタを前記判別対象の部位の画像が分類されたクラスタであると特定した場合、前記第2クラスタに分類された画像を前記候補画像として特定する、
     ことを特徴とする請求項1に記載の内視鏡画像観察支援システム。
  3.  前記判別対象の部位がL個(Lは1以上の整数)であるとき、
     前記分類部は、前記複数の画像を(L+1)個以上のクラスタに分類する、
     ことを特徴とする請求項1に記載の内視鏡画像観察支援システム。
  4.  前記判別対象の部位が複数個であるとき、
     前記判別部は、前記複数の画像のそれぞれについて、前記複数の判別対象の部位のそれぞれの画像である確度を成分に含むベクトルを判別確度として出力し、
     前記特定部は、
     前記複数のクラスタのそれぞれについて、分類された1以上の画像の判別確度を代表する代表ベクトルを特定し、
     前記複数のクラスタのうち、前記代表ベクトルと前記複数の判別対象の部位のうちの或る部位に対応する標準基底ベクトルとの内積が最大になるクラスタを、その部位の画像が分類されたクラスタとして特定する、
     ことを特徴とする請求項1から3のいずれかに記載の内視鏡画像観察支援システム。
  5.  前記判別対象の部位が複数個であるとき、
     前記判別部は、前記複数の画像のそれぞれについて、前記複数の判別対象の部位のそれぞれの画像である確度を成分に含むベクトルを判別確度として出力し、
     前記特定部は、
     前記複数のクラスタのそれぞれについて、分類された1以上の画像の判別確度を代表する代表ベクトルを特定し、
     前記複数のクラスタのうち、前記代表ベクトルと前記複数の判別対象の部位のそれぞれに対応する各標準基底ベクトルとの内積の合計が小さいものから順に所定数のクラスタを、前記候補画像が分類されたクラスタとして特定する、
     ことを特徴とする請求項1から3のいずれかに記載の内視鏡画像観察支援システム。
  6.  前記複数の画像のそれぞれの撮影開始時刻からの相対的な時間情報および判別確度に基づいて、前記複数の画像を前記複数のクラスタに分類することを特徴とする請求項1に記載の内視鏡画像観察支援システム。
  7.  前記判別部は、前記複数の画像のそれぞれについて、少なくとも胃、小腸、大腸のいずれかの画像である確度を示す判別確度を出力することを特徴とする請求項1に記載の内視鏡画像観察支援システム。
  8.  前記特定部により特定された前記候補画像に関する情報を表示部に表示させる表示制御部をさらに備えることを特徴とする請求項1から7のいずれかに記載の内視鏡画像観察支援システム。
  9.  前記表示制御部は、前記特定部により特定された前記候補画像を表示部に一覧表示させることを特徴とする請求項8に記載の内視鏡画像観察支援システム。
  10.  前記表示制御部は、一端を撮影開始時刻、他端を撮影終了時刻とするタイムバーを表示するとともに、前記候補画像に対応する指標をタイムバーに対応付けて表示させることを特徴とする請求項8に記載の内視鏡画像観察支援システム。
  11.  前記表示制御部は、各撮影時刻における画像が、所定部位の画像または前記候補画像であることを表示するバーを、画像の撮影時刻に対応付けて表示させることを特徴とする請求項8に記載の内視鏡画像観察支援システム。
  12.  カプセル内視鏡により撮影された複数の画像のそれぞれについて出力された判別対象の部位の前記画像である確度を示す判別確度に基づいて、前記複数の画像が複数のクラスタに分類され、前記複数のクラスタの分類に基づいて前記複数の画像の中から特定された部位の境界の候補画像に関する情報を、表示部に表示させる表示制御部を備えることを特徴とする内視鏡画像観察支援装置。
  13.  カプセル内視鏡により撮影された複数の画像のそれぞれについて出力された判別対象の部位の画像である確度を示す判別確度に基づいて、前記複数の画像が複数のクラスタに分類され、表示部に表示させるために、前記複数のクラスタの分類に基づいて前記複数の画像の中から部位の境界の候補画像を特定する特定部を備えることを特徴とする内視鏡画像観察支援装置。
  14.  カプセル内視鏡により撮影された複数の画像のそれぞれについて、判別対象の部位の画像である確度を示す判別確度を出力するステップと、
     前記判別確度に基づいて、前記複数の画像を複数のクラスタに分類するステップと、
     前記複数のクラスタの分類に基づいて、前記複数の画像の中から部位の境界の候補画像を特定するステップと、
     を含むことを特徴とする内視鏡画像観察支援方法。
  15.  カプセル内視鏡により撮影された複数の画像のそれぞれについて、判別対象の部位の画像である確度を示す判別確度を出力する機能と、
     前記判別確度に基づいて、前記複数の画像を複数のクラスタに分類する機能と、
     前記複数のクラスタの分類に基づいて、前記複数の画像の中から部位の境界の候補画像を特定する機能と、
     をコンピュータに実行させることを特徴とする内視鏡画像観察支援プログラム。
PCT/JP2018/021598 2017-09-29 2018-06-05 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法 WO2019064704A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018549366A JP6425868B1 (ja) 2017-09-29 2018-06-05 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法
US16/672,635 US11556731B2 (en) 2017-09-29 2019-11-04 Endoscopic image observation system, endosopic image observation device, and endoscopic image observation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017191730 2017-09-29
JP2017-191730 2017-09-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/672,635 Continuation US11556731B2 (en) 2017-09-29 2019-11-04 Endoscopic image observation system, endosopic image observation device, and endoscopic image observation method

Publications (1)

Publication Number Publication Date
WO2019064704A1 true WO2019064704A1 (ja) 2019-04-04

Family

ID=65901185

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/021598 WO2019064704A1 (ja) 2017-09-29 2018-06-05 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法

Country Status (2)

Country Link
US (1) US11556731B2 (ja)
WO (1) WO2019064704A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021101900A (ja) * 2019-12-25 2021-07-15 富士フイルム株式会社 学習データ作成装置、方法及びプログラム並びに医療画像認識装置
JPWO2021181440A1 (ja) * 2020-03-09 2021-09-16
WO2021241695A1 (ja) * 2020-05-27 2021-12-02 富士フイルム株式会社 内視鏡画像処理装置
WO2022074992A1 (ja) * 2020-10-09 2022-04-14 富士フイルム株式会社 医療画像処理装置およびその作動方法
US20220183616A1 (en) * 2019-03-06 2022-06-16 San Diego State University (SDSU) Foundation, dba San Diego State University Research Foundation Methods and systems for continuous measurement of anomalies for dysmorphology analysis
WO2022209657A1 (ja) * 2021-03-30 2022-10-06 テルモ株式会社 コンピュータプログラム、情報処理方法及び情報処理装置
US12041385B2 (en) 2022-09-08 2024-07-16 Olympus Corporation Image recording system, image recording method, and recording medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6501029B1 (ja) * 2018-07-26 2019-04-17 オムロン株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP7283230B2 (ja) * 2019-05-30 2023-05-30 コニカミノルタ株式会社 医用画像管理装置及びプログラム
EP4111696A1 (en) * 2020-02-28 2023-01-04 Google LLC System and method for playback of augmented reality content triggered by image recognition

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040225223A1 (en) * 2003-04-25 2004-11-11 Olympus Corporation Image display apparatus, image display method, and computer program
US20110032259A1 (en) * 2009-06-09 2011-02-10 Intromedic Co., Ltd. Method of displaying images obtained from an in-vivo imaging device and apparatus using same
WO2012063623A1 (ja) * 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム
US20130152020A1 (en) * 2011-03-30 2013-06-13 Olympus Medical Systems Corp. Image management apparatus, method, and computer-readable recording medium and capsule endoscope system
JP2015112431A (ja) * 2013-12-13 2015-06-22 オリンパスメディカルシステムズ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
WO2016110993A1 (ja) * 2015-01-09 2016-07-14 オリンパス株式会社 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3810381B2 (ja) 2003-04-25 2006-08-16 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
EP1969992B1 (en) * 2005-12-28 2012-05-02 Olympus Medical Systems Corp. Image processing device and image processing method in the image processing device
US20120316421A1 (en) * 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
US20110206250A1 (en) * 2010-02-24 2011-08-25 Icad, Inc. Systems, computer-readable media, and methods for the classification of anomalies in virtual colonography medical image processing
WO2012039171A1 (ja) * 2010-09-24 2012-03-29 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム
US8873816B1 (en) * 2011-04-06 2014-10-28 Given Imaging Ltd. Method and system for identification of red colored pathologies in vivo
US8929629B1 (en) * 2011-06-29 2015-01-06 Given Imaging Ltd. Method and system for image-based ulcer detection
CN105828691B (zh) * 2013-12-19 2017-12-12 奥林巴斯株式会社 图像处理装置、图像处理方法
US10861151B2 (en) * 2015-08-07 2020-12-08 The Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
US10482313B2 (en) * 2015-09-30 2019-11-19 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040225223A1 (en) * 2003-04-25 2004-11-11 Olympus Corporation Image display apparatus, image display method, and computer program
US20110032259A1 (en) * 2009-06-09 2011-02-10 Intromedic Co., Ltd. Method of displaying images obtained from an in-vivo imaging device and apparatus using same
WO2012063623A1 (ja) * 2010-11-08 2012-05-18 オリンパスメディカルシステムズ株式会社 画像表示装置及びカプセル型内視鏡システム
US20130152020A1 (en) * 2011-03-30 2013-06-13 Olympus Medical Systems Corp. Image management apparatus, method, and computer-readable recording medium and capsule endoscope system
JP2015112431A (ja) * 2013-12-13 2015-06-22 オリンパスメディカルシステムズ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム
WO2016110993A1 (ja) * 2015-01-09 2016-07-14 オリンパス株式会社 内視鏡システム、内視鏡装置及び内視鏡システムの制御方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220183616A1 (en) * 2019-03-06 2022-06-16 San Diego State University (SDSU) Foundation, dba San Diego State University Research Foundation Methods and systems for continuous measurement of anomalies for dysmorphology analysis
US11883186B2 (en) * 2019-03-06 2024-01-30 San Diego State University (Sdsu) Foundation Methods and systems for continuous measurement of anomalies for dysmorphology analysis
JP2021101900A (ja) * 2019-12-25 2021-07-15 富士フイルム株式会社 学習データ作成装置、方法及びプログラム並びに医療画像認識装置
JP7335157B2 (ja) 2019-12-25 2023-08-29 富士フイルム株式会社 学習データ作成装置、学習データ作成装置の作動方法及び学習データ作成プログラム並びに医療画像認識装置
JPWO2021181440A1 (ja) * 2020-03-09 2021-09-16
WO2021181440A1 (ja) * 2020-03-09 2021-09-16 オリンパス株式会社 画像記録システム及び画像記録方法
JP7295333B2 (ja) 2020-03-09 2023-06-20 オリンパス株式会社 画像記録システム、画像記録方法及びraw画像データ作成プログラム
WO2021241695A1 (ja) * 2020-05-27 2021-12-02 富士フイルム株式会社 内視鏡画像処理装置
JP7463507B2 (ja) 2020-05-27 2024-04-08 富士フイルム株式会社 内視鏡画像処理装置
WO2022074992A1 (ja) * 2020-10-09 2022-04-14 富士フイルム株式会社 医療画像処理装置およびその作動方法
WO2022209657A1 (ja) * 2021-03-30 2022-10-06 テルモ株式会社 コンピュータプログラム、情報処理方法及び情報処理装置
US12041385B2 (en) 2022-09-08 2024-07-16 Olympus Corporation Image recording system, image recording method, and recording medium

Also Published As

Publication number Publication date
US20200065614A1 (en) 2020-02-27
US11556731B2 (en) 2023-01-17

Similar Documents

Publication Publication Date Title
WO2019064704A1 (ja) 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法
US11574403B2 (en) Systems and methods for processing real-time video from a medical image device and detecting objects in the video
US20200320336A1 (en) Control method and recording medium
JP2024075635A (ja) 敵対的生成ネットワークをトレーニングするシステム及び方法、並びに、トレーニング済みの敵対的生成ネットワークの使用
Riegler et al. Eir—efficient computer aided diagnosis framework for gastrointestinal endoscopies
EP3998579A1 (en) Medical image processing method, apparatus and device, medium and endoscope
US10204411B2 (en) System and method for sequential image analysis of an in vivo image stream
EP3005934A1 (en) Medical device
US10918260B2 (en) Endoscopic image observation support system
KR20170099066A (ko) 혀 이미지를 기반으로 한 설진 방법 및 시스템
JP2019526304A (ja) 胸部サーモグラフィ画像による悪性腫瘍性組織のホルモン受容体状態の分類
JP6425868B1 (ja) 内視鏡画像観察支援システム、内視鏡画像観察支援装置、内視鏡画像観察支援方法
WO2018230074A1 (ja) 内視鏡画像観察支援システム
JP6335412B1 (ja) 内視鏡画像観察支援システム
US20200268237A1 (en) Image observation support system, image observation support method and recording medium
Mikhaylov et al. Review of software for automated analysis of digestive tract images
JP2018142072A (ja) 情報端末の制御方法及びプログラム
WO2018198525A1 (ja) 内視鏡画像観察支援システム
Fisher et al. Colour image analysis of wireless capsule endoscopy video: A review
WO2019116630A1 (ja) 内視鏡画像観察支援システム
JP2019088553A (ja) 内視鏡画像観察支援システム
JP2019030502A (ja) 内視鏡画像観察支援システム
JP2018183420A (ja) 内視鏡画像観察支援システム
US20230084954A1 (en) Learning device, operation method of learning device, and medical image processing terminal
US20220183616A1 (en) Methods and systems for continuous measurement of anomalies for dysmorphology analysis

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018549366

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18862076

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18862076

Country of ref document: EP

Kind code of ref document: A1