JP7260060B2 - 情報処理装置、表示方法、及びプログラム - Google Patents

情報処理装置、表示方法、及びプログラム Download PDF

Info

Publication number
JP7260060B2
JP7260060B2 JP2022512893A JP2022512893A JP7260060B2 JP 7260060 B2 JP7260060 B2 JP 7260060B2 JP 2022512893 A JP2022512893 A JP 2022512893A JP 2022512893 A JP2022512893 A JP 2022512893A JP 7260060 B2 JP7260060 B2 JP 7260060B2
Authority
JP
Japan
Prior art keywords
lesion
image
time point
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022512893A
Other languages
English (en)
Other versions
JPWO2021199152A1 (ja
JPWO2021199152A5 (ja
Inventor
郁磨 ▲高▼橋
達 木村
公康 田光
憲一 上條
弘泰 齊賀
翔太 大塚
元靖 奥津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021199152A1 publication Critical patent/JPWO2021199152A1/ja
Publication of JPWO2021199152A5 publication Critical patent/JPWO2021199152A5/ja
Application granted granted Critical
Publication of JP7260060B2 publication Critical patent/JP7260060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/987Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Endoscopes (AREA)

Description

本開示は、情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
内視鏡を用いた医療を支援するシステムが知られている。例えば、特許文献1は、カプセル型内視鏡により撮影された画像を表示する画像表示装置について開示している。この画像表示装置では、「Auto」アイコンを選択する操作が行なわれると、出血部位の画像を自動的に抽出する処理が行われる。
特開2006-061469号公報
内視鏡を用いた生体内の検査中に、ユーザ(例えば医師)による病変の検出に加え、内視鏡の撮影画像に対する検出処理によるリアルタイムな病変の検出が行われる場合、ユーザによる検出結果と検出処理による検出結果とが食い違うことがある。しかしながら、このような食い違いを容易に認識することが困難であった。これに対し特許文献1に開示された技術では、自動的に出血部位の画像を抽出するだけであり、自動的な抽出結果とユーザによる検出結果との比較については考慮されていない。
本開示はこのような問題点を解決するためになされたものであり、内視鏡の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる情報処理装置、表示方法、及びプログラムを提供することを目的とする。
本開示の第1の態様にかかる情報処理装置は、
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
を有する。
本開示の第2の態様にかかる表示方法では、
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得し、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
ユーザが保存を指示した病変画像の撮影時点である第一の撮影時点と、前記検出処理により検出された病変画像の撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う。
本開示の第3の態様にかかるプログラムは、
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
をコンピュータに実行させる。
本開示によれば、内視鏡の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる情報処理装置、表示方法、及びプログラムを提供できる。
実施の形態1にかかる情報処理装置の構成の一例を示すブロック図である。 実施の形態2にかかる検査支援システムの構成を示すブロック図である。 プロセッサ装置が生成する表示画面の一例を示す模式図である。 実施の形態2にかかる情報処理装置の機能構成の一例を示すブロック図である。 入出力制御部の制御に基づく表示例を示す模式図である。 図5に示した時間軸のスケールを拡大した場合の表示例を示している。 図6に示した時間軸のスケールを拡大した場合の表示例を示している。 実施の形態1にかかる情報処理装置のハードウェア構成の一例を示す模式図である。 実施の形態1にかかる情報処理装置の動作の一例を示すフローチャートである。 実施の形態3にかかる情報処理装置の機能構成の一例を示すブロック図である。 実施の形態3にかかる情報処理装置の動作の一例を示すフローチャートである。 実施の形態4にかかる情報処理装置の機能構成の一例を示すブロック図である。 失敗検出部が失敗を検出した場合の表示例を示す模式図である。 実施の形態4にかかる情報処理装置の動作の一例を示すフローチャートである。 実施の形態5にかかる情報処理装置の機能構成の一例を示すブロック図である。 フィードバックデータの生成のために表示される画面の表示例を示す模式図である。 フィードバックデータの生成のために表示される画面の表示例を示す模式図である。 実施の形態5にかかる情報処理装置の動作の一例を示すフローチャートである。
説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、各実施の形態の特徴は、技術的な矛盾が生じない限り組み合わせることができる。
<実施の形態1>
図1は、実施の形態1にかかる情報処理装置1の構成の一例を示すブロック図である。情報処理装置1は、内視鏡を用いたユーザ(例えば医師)による検査を支援する装置であり、病変の検出に関する表示処理を行う。図1に示すように、情報処理装置1は、第一の取得部2と、第二の取得部3と、表示制御部4とを有する。
第一の取得部2は、内視鏡を用いた検査の最中に当該内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する。なお、この撮影時点は、撮影が行われた時点のシステム時刻などのような絶対的な時刻であってもよいし、撮影開始時点を基準とした相対的な時刻であってもよい。例えば、第一の取得部2は、内視鏡システムのログデータに基づいて、上述した撮影時点を取得してもよいし、内視鏡システムから出力される動画を解析することにより、上述した撮影時点を特定して、この撮影時点を取得してもよい。病変画像とは、病変部位を含む画像、すなわち、病変部位が検出された画像をいう。ここで、病変とは、病気等に起因する生体組織の異常を言い、例えばポリープ又は腫瘍などが含まれるが、これらに限られない。ユーザは、内視鏡を用いた検査中にユーザが視認した病変部位が写った画像を保存するよう内視鏡システムに対して指示する。このため、ユーザが保存を指示した病変画像は、ユーザが視認した病変部位が写った病変画像であるとみなすことができる。
第二の取得部3は、検査の最中に内視鏡が撮影した一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する。この検出処理は、任意の画像認識処理を行って、画像に写された病変部位を検出する処理である。したがって、第二の取得部3は、検出処理により病変部位が検出された画像(病変画像)の撮影時点、換言すると、検出処理により検出された病変部位が写された病変画像の撮影時点を取得する。
表示制御部4は、表示装置における情報の表示を制御する。具体的には、表示制御部4は、第一の取得部2が取得した撮影時点である第一の撮影時点と、第二の取得部3が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う。
本実施の形態によれば、内視鏡を用いた検査の最中にユーザが保存を指示した病変画像の撮影時点、すなわち、ユーザが検出した病変についての病変画像の撮影時点と、検出処理が検出した病変についての病変画像の撮影時点とが時間軸にプロットされる。このため、両者の撮影時点を時間軸上で対比させることができる。つまり、本実施の形態によれば、ユーザによる検出と、検出処理による検出とについて、それぞれ、検査中のどの時点で撮影対象となった病変を検出しているかを対比して示すことができる。このため、内視鏡の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる。例えば、検査中のある時間帯において、一方の検出では病変画像が得られており、他方の検出では病変画像が得られていない場合、当該時間帯の検出において、検出結果の食い違いが生じている可能性があることを容易に把握することができる。
なお、情報処理装置1は、図示しない構成としてプロセッサ及びメモリを備えるものである。当該プロセッサは、当該メモリから、情報処理装置1の上述の処理が実装されたコンピュータプログラムを読み出して、当該コンピュータプログラムを実行する。これにより、当該プロセッサは、第一の取得部2、第二の取得部3、及び表示制御部4の機能を実現する。
または、第一の取得部2、第二の取得部3、及び表示制御部4は、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等を用いることができる。
また、情報処理装置1の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、情報処理装置1の機能がSaaS(Software as a Service)形式で提供されてもよい。
以下、実施の形態1をより具体的にした実施の形態について説明する。
<実施の形態2>
図2は、実施の形態2にかかる検査支援システム10の構成を示すブロック図である。検査支援システム10は、内視鏡システム100と情報処理装置200と表示装置300とを備える。内視鏡システム100は、検査対象者の生体内の管腔を検査するために用いられる。例えば、大腸を検査するために用いられるが、他の消化管などの検査に用いられてもよい。
内視鏡システム100は、内視鏡110と、光源装置120と、プロセッサ装置130と、表示装置140とを有する。内視鏡110は、光源装置120と光学的に接続され、さらに、プロセッサ装置130と電気的に接続している。
内視鏡110は、検査対象者である人物の体内に挿入される挿入部111と、挿入部111の先端の方向などを操作するための操作部112とを有する。内視鏡110には、体内を撮影する撮像部113が設けられている。撮像部113は、例えば、各種レンズ、撮像センサ、信号処理回路などを有している。この撮像センサとしては、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal-Oxide Semiconductor)などのセンサが用いられる。各種レンズ及び撮像センサは、例えば、挿入部111の先端に配置されており、その他の信号処理回路は、例えば、操作部112に配置されている。撮像部113は、プロセッサ装置130の制御に従い、撮影した画像についての画像信号をプロセッサ装置130に出力する。
挿入部111の内部には、光源装置120からの照明光を挿入部111の先端まで伝搬するライトガイドが設けられており、体内を照明光により照らすことができる。また、挿入部111には、電子メスなどの処置具を操作部112から挿入部111の先端へと導く処置具挿通路が設けられている。このため、ユーザ(医師)は、内視鏡110の撮影画像を見ながら、処置具により病変部位の切除などを行うことができる。また、挿入部111には、空気又は水などを挿入部111の先端から射出するためのノズルが設けられている。
光源装置120は、プロセッサ装置130の制御に従って、内視鏡110内に設けられた上述したライトガイドに、照明光を供給する装置である。光源装置120から出力された照明光は、ライトガイドを通って、内視鏡110の先端から射出される。これにより、体内の観察部位が照射される。
プロセッサ装置130は、内視鏡110、光源装置120、表示装置140、及び情報処理装置200と電気的に接続している。また、プロセッサ装置130は、ユーザからの指示の入力を受付ける入力装置と接続されている。特に、本実施の形態では、この入力装置は、内視鏡110を用いた検査の最中に内視鏡110が撮影した画像の保存を指示する入力を受付ける。このような入力装置は、操作部112の機能として設けられてもよいし、表示装置140がタッチパネルにより構成されている場合には、このタッチパネルがそのような入力装置として機能してもよい。なお、キーボード又はマウスなどのように、上述した構成とは独立して設けられた入力装置が用いられてもよい。
プロセッサ装置130は、内視鏡システム100の動作を統括的に制御する。特に、プロセッサ装置130は、内視鏡110から受信した画像信号に対して所定の画像処理を行って、表示装置140に表示するための撮影画像を生成する。また、プロセッサ装置130は、図3に示すように、撮影画像領域50に撮影画像を配置し、非撮影画像領域51に検査対象者の情報などの様々な参考情報の文字又は画像を配置した表示画像52を生成する。表示画像52は、表示装置140の画面全体に表示される画像である。プロセッサ装置130は、表示画像52を表示装置140に表示するよう制御する。また、プロセッサ装置130は、表示画像52を情報処理装置200に出力する。なお、プロセッサ装置130は、撮影画像を情報処理装置200に出力してもよい。このように、プロセッサ装置130は、表示画像52又は撮影画像を情報処理装置200に出力することにより、内視鏡110による現在の撮影画像を情報処理装置200に順次出力する。換言すると、プロセッサ装置130は、内視鏡110が撮影した動画、すなわち、生体内の管腔を時間的に連続して撮影した一連の画像をリアルタイムに情報処理装置200に出力する。なお、本実施の形態では、後述する情報処理装置200において検査中にリアルタイムに病変部位を検出するために、プロセッサ装置130は情報処理装置200にリアルタイムに画像を出力するが、必ずしもリアルタイムに画像を出力しなくてもよい。すなわち、情報処理装置200によるリアルタイムな病変部位の検出が必要とされない場合においては、プロセッサ装置130は、リアルタイムに撮影画像を出力しなくてもよい。例えば、検査が終了し、一連の撮影が終わった後の任意の時点で、検査中に撮影された撮影画像を情報処理装置200に出力してもよい。このように、プロセッサ装置130は、内視鏡110が撮影した画像を出力する画像出力装置として機能する。
また、プロセッサ装置130は、内視鏡110の撮影中に、撮影画像の保存を指示する入力を受付けると、当該入力を受付けたタイミングの撮影画像の画像データをメモリ等の記憶装置に保存する。ユーザは、例えば、病変部位が写った撮影画像を保存対象とする。したがって、プロセッサ装置130は、内視鏡110の撮影中に、ユーザが病変画像の保存を指示する入力をすると、当該入力が受付けられたタイミングの撮影画像の画像データを保存する。すなわち、プロセッサ装置130は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像のうち、ユーザが保存を指示した病変画像を保存する。
ここで、本実施の形態では、プロセッサ装置130は、内視鏡110を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像を出力する。具体的には、例えば、プロセッサ装置130は、指示時点から一定の時間が経過するまでの間、保存対象の撮影画像を出力する。すなわち、この間、プロセッサ装置130は、同じ画像を連続して出力する。換言すると、プロセッサ装置130は、この間、一つ前の画像と同じであるという特徴を有する画像を出力する。これにより、表示装置140及び情報処理装置200には、この間の一連の画像による映像として、フリーズした映像が出力される。このような処理により、表示装置140には、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像が表示される。このため、ユーザは、自らの指示に応じて、プロセッサ装置130による撮影画像の保存処理が行われたことを把握することができる。
なお、所定の特徴としては上述に限らず他の特徴であってもよい。例えば、指示時点から一定の時間が経過するまでの間、撮影画像だけではなく、保存対象となった画像のサムネイル画像も配置された表示画像52を表示装置140及び情報処理装置200に出力してもよい。この場合、プロセッサ装置130は、この間、所定の領域にサムネイル画像が配置されているという特徴を有する画像を出力する。
プロセッサ装置130は、例えば、メモリと、CPU、GPUなどのプロセッサとを備え、プロセッサが1以上の命令を含むソフトウェア(コンピュータプログラム)をメモリから読み出して実行することで、プロセッサ装置130の処理を実現する。
表示装置140は、プロセッサ装置130が生成した表示画像52を表示する。表示装置140は、具体的には、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro-Luminescence)ディスプレイなどのプラットパネルディスプレイである。
次に、情報処理装置200及び表示装置300について説明する。
表示装置300は、情報処理装置200と電気的に接続されており、情報処理装置200の制御にしたがって画像を表示する装置である。表示装置300は、具体的には、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどのプラットパネルディスプレイである。本実施の形態では、表示装置300は、タッチパネルとして構成され、ユーザからの入力を受付ける入力装置としても機能する。
情報処理装置200は、図1の情報処理装置1に対応しており、ユーザ(例えば医師)の検査を支援する装置である。以下、情報処理装置200の詳細について説明する。
図4は、情報処理装置200の機能構成の一例を示すブロック図である。図4に示すように、情報処理装置200は、出力画像取得部210と、病変検出部220と、操作ログ取得部230と、検出ログ取得部240と、画像選択部250と、入出力制御部260とを有する。
出力画像取得部210は、プロセッサ装置130が出力した画像群(撮影された動画を構成する各フレーム画像(静止画))を取得する。すなわち、出力画像取得部210は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像を取得する。より詳細には、出力画像取得部210は、生体内の管腔を時間的に連続して撮影した一連の画像をプロセッサ装置130から取得する。本実施の形態では、出力画像取得部210は、内視鏡110による現在の撮影画像をリアルタイムに順次取得するが、必ずしもリアルタイムに取得しなくてもよい。なお、プロセッサ装置130からの出力が表示画像52である場合、出力画像取得部210は、病変検出部220の処理に用いる撮影画像を得るために、表示画像52から撮影画像領域50に配置された撮影画像を切り出す処理を行う。
病変検出部220は、出力画像取得部210が取得した画像に対して、病変部位の検出処理を順次行う。すなわち、撮影された動画を構成する各フレーム画像に対して、順次、病変部位の検出処理を行う。本実施の形態では、病変検出部220は、病変部位の検出処理をリアルタイムに行う。例えば、病変検出部220は、撮影された動画のフレームレートよりも早い処理速度で検出処理を行うことが好ましい。病変検出部220は、公知の画像認識処理を行なって、画像から病変部位を検出する。この検出処理では、病変部位の画像内における位置も検出される。例えば、病変検出部220は、機械学習アルゴリズムにより予め学習されたモデルに対して、出力画像取得部210が取得した画像を入力することにより、病変部位の検出処理を行う。このモデルは、例えば、CNN(Convolution Neural Network)などの深層学習により学習されたモデルであるが、他の機械学習アルゴリズムを用いて学習されたモデルであってもよい。病変検出部220は、例えば、上述したモデルから出力された、画像に病変部位が写されている確率を表わす指標値(確度)が、所定の閾値を超えるか否かに基づいて、当該画像に病変部位が写されているか否かを判定する。
病変検出部220は、病変部位を検出すると、後述するメモリ291などの記憶装置に、病変画像と、検出された病変部位の画像内の位置情報と、上述した指標値と、病変画像の撮影時点を表わす情報(以下、撮影時点情報と称す)とをログとして記憶する。ここで、撮影時点情報は、撮影が行われた時点が特定できる情報であればよい。例えば、撮影時点情報は、撮影が行われた時点のシステム時刻である。上述の通り、撮影された画像はリアルタイムで出力画像取得部210に取得され、リアルタイムで病変検出処理が行われる。このため、病変検出部220は、情報処理装置200が画像を取得した時刻を当該画像の撮影時点情報としてもよいし、病変検出部220が病変検出処理を行った時刻を当該画像の撮影時点情報としてもよい。また、撮影時点情報は、プロセッサ装置130が付帯情報として画像データに付帯したものであってもよい。なお、撮影時点情報は、上述の通り、撮影が行われた時点を特定できる情報であればよいため、システム時刻ではなく、動画のフレーム番号が用いられてもよい。
操作ログ取得部230は、図1の第一の取得部2に対応している。操作ログ取得部230は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する。また、操作ログ取得部230は、ユーザが保存を指示した病変画像を取得する。以下の説明では、取得された撮影時点及び病変画像をログと称すことがある。
本実施の形態では、操作ログ取得部230は、プロセッサ装置130が出力した一連のフレーム画像(すなわち動画)を解析することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。具体的には、操作ログ取得部230は、取得した撮影画像における所定の特徴の有無に基づいて、当該撮影画像の撮影時点が、保存の指示の発生時点であるか否かを判定する。操作ログ取得部230は、取得した撮影画像に所定の特徴が存在する場合、当該撮影画像の撮影時点に、保存の指示が入力されたと判定する。そして、操作ログ取得部230は、この撮影画像をユーザが保存を指示した病変画像として取得するととともに、当該撮影画像の撮影時点を、ユーザが保存を指示した病変画像の撮影時点として取得する。なお、操作ログ取得部230は、当該撮影画像の撮影時点から所定の時間だけ前後した時点をユーザが保存を指示した病変画像の撮影時点として取得してもよい。このように、操作ログ取得部230は、出力画像取得部210が取得した画像における所定の特徴の有無に基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。
上述の通り、本実施の形態では、プロセッサ装置130は、内視鏡110を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、撮影画像としてフリーズした映像を出力する。したがって、本実施の形態では、操作ログ取得部230は、判定対象の画像が、この画像の1フレーム前の画像と同じであるか否かに基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。なお、プロセッサ装置130が、指示時点から一定の時間が経過するまでの間、所定の特徴として他の特徴を有する画像を出力する場合には、操作ログ取得部230は、この他の特徴の有無を判定すればよい。例えば、操作ログ取得部230は、出力画像取得部210が取得した画像にサムネイル画像が配置されているか否かを判定してもよい。
このような操作ログ取得部230の処理によれば、プロセッサ装置130からログデータを取得することなく、ユーザが保存を指示した病変画像と当該病変画像の撮影時点を表わす情報(撮影時点情報)とが取得される。なお、操作ログ取得部230が取得する病変画像は、上述の通り、ユーザが保存を指示した病変画像であると推定された画像である。すなわち、操作ログ取得部230は、出力画像取得部210が取得した画像群の中から、ユーザが保存を指示した病変画像であると推定される画像を探して、これを取得する。また、操作ログ取得部230が取得する撮影時点情報は、病変検出部220により記憶される撮影時点情報と同様、例えば、撮影が行われた時点のシステム時刻であってもよい。この場合、操作ログ取得部230は、出力画像取得部210がリアルタイムに画像を取得した時刻を当該画像の撮影時点情報としてもよいし、病変検出部220がリアルタイムに病変検出処理を行った時刻を当該画像の撮影時点情報としてもよい。また、操作ログ取得部230が取得する撮影時点情報は、プロセッサ装置130が付帯情報として画像データに付帯したものであってもよい。また、撮影時点情報は、システム時刻ではなく、動画のフレーム番号が用いられてもよい。
なお、操作ログ取得部230は、上述の処理により、検査中の保存指示の操作に関する情報を取得したが、ログデータをプロセッサ装置130から取得してもよい。すなわち、操作ログ取得部230は、プロセッサ装置130がログデータとして出力した、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得してもよい。この場合、操作ログ取得部230において、上述した、所定の特徴の有無に基づく、保存の指示の発生時点の判定処理は省略できる。
検出ログ取得部240は、図1の第二の取得部3に対応している。検出ログ取得部240は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する。また、検出ログ取得部240は、当該検出処理により検出された病変画像を取得する。本実施の形態では、検出ログ取得部240は、病変検出部220がログデータとして記憶装置に記憶した病変画像及び当該病変画像の撮影時点情報を当該記憶装置から取得する。
画像選択部250は、病変検出部220の検出処理で同一の病変部位が検出された複数の病変画像を特定し、特定された当該複数の病変画像の中から一つの画像(以下、代表画像と称す)を選択する。本実施の形態では、画像選択部250は、検出ログ取得部240が取得した病変画像群から、同一の病変部位が検出された複数の病変画像を特定し、それらの中から代表画像を選択する。例えば、画像選択部250は、病変画像を相互に比較することにより、同一の病変部位が検出された複数の病変画像を特定する。より詳細には、画像選択部250は、検出ログ取得部240が取得した病変画像のうち、撮影された動画を構成する連続する撮影画像(フレーム画像)に対して、病変部位の特徴点を用いた物体追跡処理を行う。これにより、画像選択部250は、同一の病変部位が検出された複数の病変画像を特定する。このような処理により、同一の病変部位が時間的に連続して撮影され続けた際に得られる、同一の病変部位が写った複数の画像が特定される。そして、画像選択部250は、同一の病変部位が検出された複数の病変画像の中から代表画像を選択する。画像選択部250は、例えば、これら複数の病変画像のうち、検出処理における検出の確度が最も高い病変画像を選択する。なお、検出処理における検出の確度が最も高い病変画像が複数存在する場合には、これらのうち、病変部位を見やすい画像を選択してもよい。例えば、画像選択部250は、病変部位を見やすい画像として、病変部位の画像内での位置が最も中心に近い画像を選択してもよいし、病変部位と病変部位以外のコントラストが最大である画像を選択してもよい。なお、画像選択部250は、物体追跡処理ではなく、画像の類似度を算出する処理を行うことにより、同一の病変部位が検出された複数の病変画像を特定してもよい。この場合、同一の病変部位が時間的に連続して撮影されていなくても、同一の病変部位が写った複数の画像の特定が可能である。
なお、画像選択部250は、代表画像として、複数の画像を選択してもよい。特に、画像選択部250は、同一の病変部位が検出された複数の病変画像の中から、撮影条件が異なる2以上の画像を選択してもよい。例えば、画像選択部250は、撮影アングルが異なる2以上の画像を選択してもよいし、撮影距離が異なる2以上の画像を選択してもよい。これにより、代表画像として、様々な画像が表示されることとなる。
入出力制御部260は、情報処理装置200における情報の入出力を制御する。情報処理装置200は、ユーザからの指示の入力を受付ける入力装置と接続されており、入出力制御部260は、当該入力装置からの入力の受付処理を行う。特に、本実施の形態では、この入力装置は、表示装置300の表示を見るユーザからの入力を受付ける。本実施の形態では、表示装置300がタッチパネルとして構成され、表示装置300が入力装置としても機能する。なお、キーボード又はマウスなどのように、表示装置300とは独立して設けられた入力装置が用いられてもよい。
また、入出力制御部260は、表示装置300の表示を制御する。入出力制御部260は、図1の表示制御部4に対応している。したがって、特に、入出力制御部260は、操作ログ取得部230が取得した撮影時点と、検出ログ取得部240が取得した撮影時点とを、時間軸にプロットした表示を、表示装置300に行う。すなわち、入出力制御部260は、ユーザからの指示により保存が行われた病変画像の撮影時点と、病変検出部220により病変が検出された病変画像の撮影時点とを、時間軸にプロットした表示を行うよう制御する。また、本実施の形態では、入出力制御部260は、さらに、撮影時点と対応付けて病変画像を表示する。すなわち、入出力制御部260は、ユーザからの指示により保存が行われた病変画像の撮影時点と対応付けて、この病変画像を表示する。同様に、入出力制御部260は、病変検出部220により病変が検出された病変画像の撮影時点と対応付けて、この病変画像を表示する。より詳細には、後述する図5などに示されるように、入出力制御部260は、病変画像のサムネイル画像を表示する。
図5は、入出力制御部260の制御に基づく表示装置300の表示例を示す模式図である。図5を参照しつつ、本実施の形態の入出力制御部260の表示制御について説明する。
入出力制御部260は、表示装置300の画面におけるログ一覧領域60に、ログの表示が可能な検査のリストを表示する。図5に示した例では、2019年7月19日に行われた3つの検査がリストに挙げられている。図5に示した例では、リストの各項目として、検査が行われた時間が表示されている。すなわち、検査の開始時刻と終了時刻が表示されている。入出力制御部260は、例えば、出力画像取得部210が取得した一連の画像の最初の画像の撮影時刻を検査の開始時刻とし、当該一連の画像の最後の画像の撮影時刻を検査の終了時刻と特定し、図5のような表示を行う。
入出力制御部260は、ログ一覧領域60に表示されているリストの中からいずれかの項目を選択する入力をユーザから受付けると、表示装置300の画面におけるログ表示領域61に、操作ログ取得部230及び検出ログ取得部240が取得した情報を表示する。図5に示した例では、検査時刻が14時00分から14時33分である検査についてのログが表示されている。
入出力制御部260は、ログ表示領域61に、時間軸62と、操作ログ取得部230が取得した撮影時点を時間軸62上で明示する印63と、検出ログ取得部240が取得した撮影時点を時間軸62上で明示する印64とを表示する。また、さらに、入出力制御部260は、操作ログ取得部230が取得した撮影時点に対応する病変画像と、検出ログ取得部240が取得した撮影時点に対応する病変画像を表示する。なお、より詳細には、病変画像のサムネイル画像が表示される。図5に示した例では、操作ログ取得部230が取得した撮影時点に対応する病変画像として病変画像65a及び65bが表示されており、検出ログ取得部240が取得した撮影時点に対応する病変画像として病変画像66a、66b、及び66cが表示されている。また、図5に示した例では、印63及び印64は、一例として矢印である。また、図5に示した例では、時間軸62の上側に、操作ログ取得部230が取得した情報についての表示が行われている。すなわち、時間軸62の上側に、ユーザが保存した病変画像についての表示が行われている。入出力制御部260は、操作ログ取得部230が取得した病変画像をユーザ(たとえば医師)の検出した病変画像として表示する。これに対し、時間軸62の下側に、検出ログ取得部240が取得した情報についての表示が行われている。すなわち、時間軸62の下側に、病変検出部220が検出処理により自動的に検出された病変についての表示が行われている。なお、図5に示した例は、一例に過ぎず、時間軸62の上側の表示内容と下側の表示内容が逆であってもよいことは言うまでもない。また、図5に示した例では、時間軸62は画面の横方向に延在しているが、もちろん、時間軸62は他の方向に延在していてもよい。
また、図5に示した例では、入出力制御部260は、時間軸62の目盛りを表示しているが、時間軸62の目盛りの表示が省略されてもよい。なお、図5に示した例では、時間軸62の始端の目盛りとして、検査開始時刻が表示され、時間軸62の終端の目盛りとして、検査終了時刻が表示されているが、必ずしも、目盛りを検査時刻と対応付けていなくてもよい。例えば、時間軸62の始端の目盛りの値を0とし、時間軸62の終端の目盛りの値を、撮影された映像の時間長に相当する値としてもよい。
なお、入出力制御部260は、病変検出部220により検出された病変部位の画像内の位置を示すよう表示してもよい。図5に示した例では、具体的には、入出力制御部260は、病変部位を囲む枠67を表示している。
また、図5から図7に示すように、入出力制御部260は、ユーザから入力された指示に基づいて、時間軸62のスケールを拡大又は縮小して表示する。入出力制御部260は、そのような指示として、例えば、時間軸62をタッチ(タップ)又はクリックする操作が行なわれると、時間軸62のスケールを変更してもよい。このようにすることにより、ログの閲覧における利便性を向上することができる。
図6は、図5に示した時間軸62のスケールを拡大した場合の表示例を示している。図6に示した例では、図5に示した例よりも時間軸62のスケールが拡大され、検査時刻が14時15分から14時18分までの時間帯のログが表示されている。また、図7は、図6に示した時間軸62のスケールを拡大した場合の表示例を示している。図7に示した例では、図6に示した例よりも時間軸62のスケールが拡大され、検査時刻が14時16分20秒から14時16分50秒までの時間帯のログが表示されている。
入出力制御部260は、表示対象の時間帯のログのうち、実際に表示するログを、時間軸62のスケールに応じて変更してもよい。図5に示したように、スケールが縮小されている表示では、表示対象の時間帯(図5では、具体的には14時00分から14時33分)に属する全てのログを表示すると、表示が煩雑になる恐れがある。このため、例えば、入出力制御部260は、所定のスケールよりも縮小されたスケールの時間軸62を用いて表示される場合、表示対象の時間帯のログのうち一部のログだけを表示するようにしてもよい。すなわち、入出力制御部260は、一部の撮影時点及び当該撮影時点に対応する撮影画像だけを表示してもよい。なお、この場合において、撮影時点については、表示対象の時間帯の全ての撮影時点を表示し、撮影画像についてだけ、一部の撮影画像に表示を限定してもよい。入出力制御部260は、一部の撮影画像を選択する際、任意の選択基準により選択すればよい。例えば、入出力制御部260は、検出処理における検出の確度の大きさに基づいて選択してもよい。
図を参照し、上述した一部のログの表示について具体的に説明する。図6に示した例では、14時15分から14時18分の間に、病変検出部220の検出処理のログとして、病変画像66a、66d、66bが表示されている。これに対して、図5に示した例では、図6と同じ時間帯に着目すると、病変検出部220の検出処理のログとして、病変画像66a、66bだけが表示されている。同様に、図7に示した例では、14時16分20秒から14時16分50秒の間に、病変検出部220の検出処理のログとして、病変画像66d、66b、66eが表示されている。これに対して、図6に示した例では、図7と同じ時間帯に着目すると、病変検出部220の検出処理のログとして、病変画像66d、66bだけが表示されている。
また、入出力制御部260は、同一の病変部位が検出された複数の病変画像のうち、上述した画像選択部250により代表画像として選択された病変画像だけを表示してもよい。すなわち、同一の病変部位が検出された複数の病変画像のうち、代表画像として選択されていない病変画像については、表示を割愛してもよい。このとき、入出力制御部260は、代表画像として選択されている病変画像の撮影時点を表示し、同一の病変部位が検出された複数の病変画像のうち代表画像として選択されていない病変画像の撮影時点の表示を割愛してもよい。このようにすることにより、重複した病変についての表示が割愛され、視認性が向上する。本実施の形態では、所定のスケールよりも縮小されたスケールの時間軸62を用いて表示される場合に、入出力制御部260は、同一の病変部位が検出された複数の病変画像のうち代表画像として選択された病変画像だけを表示する。これについて、図を参照して具体例を述べる。図7に示した例では、同一の病変部位が撮影されてる病変画像66bと病変画像66eが表示されているのに対し、図6に示した例では、それら撮影画像のうち代表画像である病変画像66bだけが表示されている。
次に、情報処理装置200のハードウェア構成の一例について説明する。図8は、情報処理装置200のハードウェア構成の一例を示す模式図である。図8に示すように、情報処理装置200は、入出力インタフェース290、メモリ291、及びプロセッサ292を含む。
入出力インタフェース290は、プロセッサ装置130、及び表示装置300などの他の任意の装置と通信するための入出力回路である。
メモリ291は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ291は、プロセッサ292により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)、及び情報処理装置200の各種処理に用いるデータなどを格納するために使用される。
プロセッサ292は、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで、図4に示した各構成要素の処理を行う。具体的には、プロセッサ292は、出力画像取得部210、病変検出部220、操作ログ取得部230、検出ログ取得部240、画像選択部250、及び入出力制御部260の処理を行う。
プロセッサ292は、例えば、CPU、GPUなどであってもよい。プロセッサ292は、複数のプロセッサを含んでもよい。
このように、情報処理装置200は、コンピュータとしての機能を備えている。
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
次に、情報処理装置200の動作例について説明する。図9は、情報処理装置200の動作の一例を示すフローチャートである。以下、図9のフローチャートを参照しつつ、動作例について説明する。
ステップS100において、出力画像取得部210は、プロセッサ装置130が出力した、撮影された動画を構成する各フレーム画像を取得する。ステップS100の後、処理はステップS110及びステップS120へ移行する。ステップS110からステップS112までの処理と、ステップS120からステップS121までの処理は、例えば並行して行われるが、順番に行われてもよい。
ステップS110からステップS112の処理について説明する。
ステップS110において、病変検出部220は、ステップS110で取得した画像に対して、病変部位の検出処理を順次行う。病変検出部220は、病変部位を検出すると、ログを記憶する。
次に、ステップS111において、検出ログ取得部240は、ログとして記憶された病変画像及び当該病変画像の撮影時点情報を取得する。
次に、ステップS112において、画像選択部250は、ステップS111で取得された病変画像に対し、同一の病変部位が検出された複数の病変画像を特定し、特定された当該複数の病変画像の中から代表画像を選択する。なお、同一の病変部位が検出された複数の病変画像を集約した表示を入出力制御部260が行わない場合には、本ステップは省略されてもよい。
ステップS120からステップS121の処理について説明する。
ステップS120において、操作ログ取得部230は、ステップS100で取得された画像を解析することにより、ユーザが保存を指示したタイミングを特定する。すなわち、操作ログ取得部230は、静止画(病変画像)の保存操作の発生タイミングを特定する。そして、ステップS121において、操作ログ取得部230は、検査中に行われた保存指示の操作についてのログを取得する。具体的には、操作ログ取得部230は、ステップS120で特定されたタイミングに基づいて、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。
ステップS112及びステップS121の処理の後、処理はステップS130へ移行する。ステップS130において、入出力制御部260は、表示装置300において、ログを表示する。
以上、実施の形態2について説明した。本実施の形態によれば、内視鏡を用いた検査の最中にユーザが保存を指示した病変画像の撮影時点と、情報処理装置200が検出した病変についての病変画像の撮影時点とが病変画像とともに時間軸にプロットされる。すなわち、ユーザが検出した病変についての病変画像の撮影時点と、自動的に検出された病変についての病変画像の撮影時点とが病変画像とともに時間軸にプロットされる。このため、両者の検出状況を時間軸上で対比させることができる。したがって、自動的な検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる。
<実施の形態3>
次に、実施の形態3について説明する。例えば、大腸の内視鏡検査では、まず、内視鏡110を大腸の始端側(小腸と接続している端部側)まで挿入する。その後、実質的な検査が開始される。つまり、大腸の始端側から大腸の終端側(肛門と接続している端部側)に向けて順番に内視鏡110による観察が行われる。このように、内視鏡110の位置が検査のスタート位置に到達した後に、実際の検査が開始される。つまり、ユーザは、内視鏡110の位置が検査のスタート位置に到達するまでは、病変の検出は行わない、すなわち病変画像の保存指示は行わないことが想定される。一方、病変検出部220は、内視鏡110の位置が検査のスタート位置に到達するまでの間に撮影された画像からも病変画像を検出しうる。しかしながら、上述した通り、ユーザの実質的な検査は、内視鏡110の位置が検査のスタート位置に到達した後に行われるため、内視鏡110の位置が検査のスタート位置に到達するまでの間のログを表示装置300に表示する利点は乏しい。
そこで、本実施の形態では、内視鏡110の位置が検査のスタート位置に到達した後のログを表示装置300に表示する構成について説明する。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置201が用いられる。
図10は、実施の形態3にかかる情報処理装置201の機能構成の一例を示すブロック図である。図10に示すように、情報処理装置201は、所定部位画像特定部265をさらに有する点で、実施の形態2にかかる情報処理装置200と異なっている。なお、所定部位画像特定部265の処理は、例えば、プロセッサ292が、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで実現される。
所定部位画像特定部265は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定する。例えば、大腸の内視鏡検査の場合、この所定の部位は、大腸の始端側に存在する部位であってもよい。この場合、具体的には、例えば、所定の部位は、回盲弁であってもよいし、虫垂の入口部であってもよい。なお、これらは一例に過ぎず、所定の部位は、検査のスタート位置の近傍の部位であればよい。所定部位画像特定部265は、内視鏡110が撮影した画像に対して、公知の画像認識処理を行って、所定の部位が撮影された画像を特定する。例えば、所定部位画像特定部265は、機械学習アルゴリズムにより予め学習されたモデルに対して、画像を入力することにより、当該画像が所定の部位が撮影された画像であるか否かを判定する。このモデルは、例えば、CNNなどの深層学習により学習されたモデルであるが、他の機械学習アルゴリズムを用いて学習されたモデルであってもよい。
本実施の形態の入出力制御部260は、所定の部位が撮影された画像の撮影時点以降のログを表示対象とする。すなわち、入出力制御部260は、所定の部位が撮影された画像の撮影時点以降の撮影時点を時間軸62にプロットする。同様に、入出力制御部260は、所定の部位が撮影された画像の撮影時点以降に撮影された病変画像を表示する。すなわち、入出力制御部260は、所定の部位が撮影された画像の撮影時点までのログ(すなわち、病変画像の撮影時点及び当該病変画像)については表示対象から除外する。上述の通り、ユーザは、内視鏡110の位置が検査のスタート位置に到達するまでは、病変画像の保存指示は行わないことが想定されるが、病変検出部220は、内視鏡110の位置が検査のスタート位置に到達した後であるかにかかわらず病変画像を検出しうる。このため、入出力制御部260は、特に、病変検出部220の検出処理のログの表示に対して、上述のような表示の制限を行うことが好ましい。
次に、情報処理装置201の動作例について説明する。図11は、情報処理装置201の動作の一例を示すフローチャートである。図11に示したフローチャートは、ステップS140及びステップS141が追加されている点で、図9に示したフローチャートと異なっている。以下、図9に示したフローチャートと異なる点について説明する。
情報処理装置201は、ステップS100の処理の後、さらにステップS140及びステップS141の処理を行う。ステップS110からステップS112までの処理と、ステップS120からステップS121までの処理と、ステップS140からステップS141までの処理とは、例えば並行して行われるが、順番に行われてもよい。
ステップS140において、所定部位画像特定部265は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像から、所定の部位が撮影された画像を特定する。
次に、ステップS141において、入出力制御部260は、ステップS140による処理結果に基づいて、検査の実際の開始時点を特定する。すなわち、入出力制御部260は、所定の部位が撮影された画像の撮影時点を検査の実際の開始時点とする。
そして、ステップS130では、入出力制御部260は、ステップS141で特定された時点以降のログを表示対象とする。
以上、実施の形態3について説明した。本実施の形態によれば、情報処理装置201は、所定の部位が撮影された時点以降をログの表示対象とする。このため、内視鏡110の位置が実質的な検査のスタート位置に到達した後のログだけを表示対象とすることができる。すなわち、実質的な検査の開始前のログの表示をしないようにすることができる。このため、実質的な検査のログの表示の視認性を向上できる。
<実施の形態4>
次に、実施の形態4について説明する。上述した実施の形態では、内視鏡110の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いについては、表示装置300の表示を見たユーザにより見出される。本実施の形態では、この食い違いを自動的に検出するための構成について説明する。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置202が用いられる。
図12は、実施の形態4にかかる情報処理装置202の機能構成の一例を示すブロック図である。図12に示すように、情報処理装置202は、失敗検出部270をさらに有する点で、実施の形態2にかかる情報処理装置200と異なっている。なお、失敗検出部270の処理は、例えば、プロセッサ292が、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで実現される。
失敗検出部270は、ユーザ又は検出処理における病変部位の検出の失敗を検出する。すなわち、失敗検出部270は、内視鏡110を用いた検査中におけるユーザによる病変部位の検出の失敗、又は、病変検出部220による病変部位の検出の失敗を検出する。ここで、検出の失敗は、病変部位の検出漏れによる失敗と、正常な部位を誤って病変部位として検出する失敗(すなわち、誤検出による失敗)とを含む。失敗検出部270は、操作ログ取得部230が取得したログと検出ログ取得部240が取得したログとの対応関係をチェックすることにより、失敗を検出する。なお、失敗検出部270による検出された失敗は、実際には失敗ではない可能性もある。このため、失敗検出部270は、失敗候補を検出していると言うこともできる。
本実施の形態の失敗検出部270は、操作ログ取得部230が取得した病変画像と検出ログ取得部240が取得した病変画像とを比較することにより、ユーザ又は検出処理における病変部位の検出の失敗を検出する。具体的には、失敗検出部270は、操作ログ取得部230が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が検出ログ取得部240により取得されているか否かを判定する。同様に、失敗検出部270は、検出ログ取得部240が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が操作ログ取得部230により取得されているか否かを判定する。失敗検出部270は、例えば、操作ログ取得部230が取得した病変画像と検出ログ取得部240が取得した病変画像の類似度を算出することにより、一方の病変画像に写されている病変部位が他方の病変画像に写されているか否かを判定する。
操作ログ取得部230が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が検出ログ取得部240により取得されていない場合、病変検出部220による検出漏れ、又は、ユーザによる誤検出が発生している恐れがある。したがって、失敗検出部270は、操作ログ取得部230が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が検出ログ取得部240により取得されていない場合、当該病変部位についての検出の失敗を検出する。すなわち、失敗検出部270は、当該病変部位が写されている病変画像に関して失敗が発生していることを検出する。
また、検出ログ取得部240が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が操作ログ取得部230により取得されていない場合、ユーザによる検出漏れ、又は、病変検出部220による誤検出が発生している恐れがある。したがって、失敗検出部270は、検出ログ取得部240が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が操作ログ取得部230により取得されていない場合、当該病変部位についての検出の失敗を検出する。すなわち、失敗検出部270は、当該病変部位が写されている病変画像に関して失敗が発生していることを検出する。
本実施の形態の入出力制御部260は、失敗検出部270が失敗を検出した場合、どの病変画像に関して失敗を検出したかを表わす表示を行う。図13は、失敗検出部270が失敗を検出した場合の表示装置300の表示例を示す。図13に示した例では、病変画像66b、病変画像65b、及び病変画像66cに関して失敗が検出されたことが表示されている。
なお、上述した説明では、失敗検出部270は、病変画像を比較することにより失敗を検出したが、失敗検出部270は、撮影時点を比較することにより失敗を検出してもよい。例えば、失敗検出部270は、操作ログ取得部230により取得された撮影時点と検出ログ取得部240により取得された撮影時点とを比較することにより、ユーザ又は検出処理における病変部位の検出の失敗を検出してもよい。すなわち、失敗検出部270は、ユーザが保存を指示した病変画像の撮影時点と検出処理により検出された病変画像の撮影時点とを比較することにより、失敗を検出してもよい。具体的には、失敗検出部270は、所定の単位時間毎に、ユーザが保存を指示した病変画像の撮影時点と検出処理により検出された病変画像の撮影時点のうち、いずれか一方だけが取得されていないかどうかをチェックする。
チェック対象の単位時間において、ユーザが保存を指示した病変画像の撮影時点だけが取得されている場合、病変検出部220による検出漏れ、又は、ユーザによる誤検出が発生している恐れがある。したがって、この場合、失敗検出部270は、この単位時間において撮影された病変部位についての検出の失敗を検出する。また、チェック対象の単位時間において、検出処理により検出された病変画像の撮影時点だけが取得されている場合、ユーザによる検出漏れ、又は、病変検出部220による誤検出が発生している恐れがある。したがって、この場合、失敗検出部270は、この単位時間において撮影された病変部位についての検出の失敗を検出する。撮影時点の比較により失敗検出部270が失敗を検出した場合、入出力制御部260は、どの撮影時点に関して失敗を検出したかを表わす表示を行ってもよい。
このように、病変検出部220は、病変画像を比較することにより失敗を検出してもよいし、撮影時点を比較することにより失敗を検出してもよい。ただし、病変画像を比較することにより失敗を検出する方が、以下の点で好ましい。撮影時点を比較する場合、同一の病変部位に対してユーザ及び病変検出部220が適切に検出を行っていたとしても、病変画像に時間的な対応関係がない場合には検出の失敗が発生していると判定されてしまう。これに対して、病変画像を比較する場合、画像内容の比較が行われるため、そのような判定結果の発生を抑制することができる。
次に、情報処理装置202の動作例について説明する。図14は、情報処理装置202の動作の一例を示すフローチャートである。図14に示したフローチャートは、ステップS150が追加され、ステップS130がステップS151に置き換わっている点で、図9に示したフローチャートと異なっている。以下、図9に示したフローチャートと異なる点について説明する。
図14に示したフローチャートでは、ステップS112及びステップS121の処理の後、処理はステップS150へ移行する。ステップS150において、失敗検出部270は、操作ログ取得部230が取得したログと検出ログ取得部240が取得したログとの対応関係をチェックすることにより、ユーザ又は検出処理における病変部位の検出の失敗を検出する。ステップS150の後、処理はステップS151へ移行する。ステップS151において、入出力制御部260は、表示装置300において、ログと、失敗の検出結果とを表示する。
以上、実施の形態4について説明した。本実施の形態によれば、操作ログ取得部230が取得したログと検出ログ取得部240が取得したログとの対応関係をチェックすることにより、病変部位の検出の失敗が検出される。このため、ユーザは、より簡単に、内視鏡110の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いについて把握することができる。
<実施の形態5>
次に、実施の形態5について説明する。本実施の形態では、病変検出部220の検出精度を改善するためのフィードバックデータを生成する構成について説明する。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置203が用いられる。
図15は、実施の形態5にかかる情報処理装置203の機能構成の一例を示すブロック図である。図15に示すように、情報処理装置203は、フィードバックデータ生成部275をさらに有する点で、実施の形態2にかかる情報処理装置200と異なっている。なお、フィードバックデータ生成部275の処理は、例えば、プロセッサ292が、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで実現される。
フィードバックデータ生成部275は、ユーザから入力された情報に基づいて、フィードバックデータを生成する。フィードバックデータ生成部275は、具体的には、フィードバックデータとして、病変画像と検出失敗情報とを対応付けたデータを生成する。ここで、検出失敗情報は、病変検出部220による検出の失敗についての分析情報であり、検出の失敗の種類(病変の検出漏れによる失敗か、病変の誤検出による失敗か)と失敗の要因とを含む。ただし、検出失敗情報は、必ずしも失敗の要因を含まなくてもよい。フィードバックデータ生成部275は、ユーザから入力された、病変画像を選択する指示と、選択された病変画像に対する、当該ユーザから入力された検出失敗情報とに基づいて、フィードバックデータを生成する。
本実施の形態では、入出力制御部260は、さらに、フィードバックデータを生成するためのユーザインタフェースを提供する。つまり、入出力制御部260は、病変画像を選択する指示の入力の受け付け処理、選択された病変画像に対する検出失敗情報の入力の受け付け処理を行う。また、入出力制御部260は、それらの処理のための画面の表示を行う。
図16及び図17は、フィードバックデータの生成のために表示装置300に表示される画面の表示例を示す模式図である。入出力制御部260は、表示装置300の画面における失敗情報領域70に、検出失敗情報を入力するための表示を行う。入出力制御部260は、図5などに示したログの表示画面において表示されている病変画像のいずれかを選択する入力をユーザから受け付けると、検出失敗情報を入力するための画面の表示を行う。なお、病変画像の選択は、検出ログ取得部240が取得した病変画像を選択するものであってもよいし、操作ログ取得部230が取得した病変画像を選択するものであってもよい。例えば、いずれかの病変画像をタッチ(タップ)又はクリックする操作がユーザによって行なわれることにより、当該病変画像が選択される。
失敗情報領域70には、選択された病変画像71が表示されるとともに、検出失敗情報の入力欄72が表示される。入力欄72は、検出の失敗の種類についての入力欄である種類入力欄721と、検出の失敗の要因についての入力欄である要因入力欄722とを含む。ユーザは、病変画像71を見て、検出失敗情報を入力する。例えば、ユーザは、失敗の検出の種類として適切なものを選択肢から選ぶとともに、失敗が発生した要因として適切なものを選択肢から選ぶ。
図16は、病変検出部220により誤検出された病変が写った病変画像についての検出失敗情報の入力画面の一例を示している。図16に示した例では、誤検出の要因の選択肢として、器具の映り込みによる誤検出、撮影画像がボケていることによる誤検出、泡などを病変として検出したことによる誤検出、撮影画像が暗すぎることによる誤検出、などが示されている。
図17は、病変検出部220により検出が見過ごされたもののユーザにより検出された病変が写った病変画像についての検出失敗情報の入力画面の一例を示している。図17では、検出漏れの要因の選択肢として、器具の映り込みによる検出漏れ、撮影画像がボケていることによる検出漏れ、泡などの映り込みによる検出漏れ、平坦型の病変のため検出が困難であったと推測される検出漏れ、などが示されている。
フィードバックデータ生成部275は、フィードバックデータとして、選択された病変画像と入力された検出失敗情報とを対応付けたデータを生成する。なお、フィードバックデータ生成部275は、選択された病変画像と類似する病変画像に対しても、選択された病変画像に対して入力された検出失敗情報と対応付けられたフィードバックデータを生成してもよい。フィードバックデータ生成部275は、生成したフィードバックデータをメモリ291などの記憶装置に記憶してもよいし、他の装置に提供してもよい。また、入出力制御部260は、生成されたフィードバックデータを、履歴として表示装置300に表示してもよい
次に、情報処理装置203の動作例について説明する。図18は、情報処理装置203の動作の一例を示すフローチャートである。図18に示したフローチャートは、ステップS160からステップS162が追加されている点で、図9に示したフローチャートと異なっている。以下、図9に示したフローチャートと異なる点について説明する。
図18に示したフローチャートでは、ステップS130の処理の後、処理はステップS160へ移行する。ステップS160において、入出力制御部260は、病変画像を選択する入力を受け付ける。そして、入出力制御部260は、上述した検出失敗情報の入力画面を表示する。次に、ステップS161において、入出力制御部260は、検出失敗情報の入力を受け付ける。そして、ステップS162において、フィードバックデータ生成部275は、ステップS160及びステップS161で受け付けられた入力に基づいて、フィードバックデータを生成する。
以上、実施の形態5について説明した。本実施の形態によれば、病変検出部220の検出の失敗についてのフィードバックデータが生成される。このため、病変検出部220の検出処理の精度の改善に有益なデータを得ることができる。
上述した各実施の形態については、様々な変形例が考えられ得る。例えば、上述した実施の形態では、出力画像取得部210がプロセッサ装置130からリアルタイムに撮影画像を取得し、病変検出部220がリアルタイムに病変の検出処理を行ったが、これらの処理はリアルタイムに行われなくてもよい。また、上述した実施の形態では、情報処理装置200、201、202、203が病変検出部220を有したが、情報処理装置200、201、202、203は、検出処理のログを取得できればよいため、病変検出部220は他の装置に設けられていてもよい。この場合、検出ログ取得部240は、当該他の装置から検出処理のログを取得する。また、上述した実施の形態2乃至5の特徴を任意に組み合わせてもよい。また、上述した実施の形態では、検査支援システム10は、表示装置140及び表示装置300を含んだが、いずれか一つの表示装置に全ての表示が行われてもよい。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
を有する情報処理装置。
(付記2)
前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記表示制御部は、前記第一の撮影時点と対応付けて前記第一の病変画像を表示し、前記第二の撮影時点と対応付けて前記第二の病変画像を表示する
付記1に記載の情報処理装置。
(付記3)
同一の病変部位が検出された複数の前記第二の病変画像を特定し、当該複数の前記第二の病変画像の中から代表画像を選択する画像選択部をさらに有し、
前記表示制御部は、同一の病変部位が検出された複数の前記第二の病変画像のうち、前記代表画像として選択された前記第二の病変画像を表示する
付記2に記載の情報処理装置。
(付記4)
ユーザから入力された前記第一の病変画像又は前記第二の病変画像を選択する指示と、選択された病変画像に対する、当該ユーザから入力された検出失敗情報とに基づいて、当該病変画像と当該検出失敗情報とを対応付けたフィードバックデータを生成するフィードバックデータ生成部
をさらに有し、
前記検出失敗情報は、病変の誤検出又は病変の検出漏れのいずれかを検出の失敗の種類として示す情報である
付記2または3に記載の情報処理装置。
(付記5)
前記一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定する所定部位画像特定部をさらに有し、
前記表示制御部は、前記所定の部位が撮影された画像の撮影時点以降の前記第二の撮影時点を前記時間軸にプロットする
付記1乃至4のいずれか1項に記載の情報処理装置。
(付記6)
前記内視鏡が撮影した画像を出力する画像出力装置が出力した前記一連の画像を取得する出力画像取得部をさらに有し、
前記画像出力装置は、前記内視鏡を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像を出力する装置であり、
前記第一の取得部は、前記出力画像取得部が取得した画像における前記特徴の有無に基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する
付記2に記載の情報処理装置。
(付記7)
前記表示制御部は、ユーザから入力された指示に基づいて、前記時間軸のスケールを拡大又は縮小して表示する
付記1乃至6のいずれか一項に記載の情報処理装置。
(付記8)
前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記情報処理装置は、前記第一の病変画像と前記第二の病変画像とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
付記1乃至7のいずれか一項に記載の情報処理装置。
(付記9)
前記第一の撮影時点と前記第二の撮影時点とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
付記1乃至7のいずれか一項に記載の情報処理装置。
(付記10)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得し、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
ユーザが保存を指示した病変画像の撮影時点である第一の撮影時点と、前記検出処理により検出された病変画像の撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う
表示方法。
(付記11)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
1 情報処理装置
2 第一の取得部
3 第二の取得部
4 表示制御部
10 検査支援システム
62 時間軸
63 印
64 印
100 内視鏡システム
110 内視鏡
111 挿入部
112 操作部
113 撮像部
120 光源装置
130 プロセッサ装置
140 表示装置
200 情報処理装置
201 情報処理装置
202 情報処理装置
203 情報処理装置
210 出力画像取得部
220 病変検出部
230 操作ログ取得部
240 検出ログ取得部
250 画像選択部
260 入出力制御部
265 所定部位画像特定部
270 失敗検出部
275 フィードバックデータ生成部
300 表示装置

Claims (10)

  1. 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点と、ユーザが保存を指示した病変画像である第一の病変画像とを取得する第一の取得部と、
    前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点と、前記検出処理により検出された病変画像である第二の病変画像とを取得する第二の取得部と、
    同一の病変部位が検出された複数の前記第二の病変画像を特定し、当該複数の前記第二の病変画像の中から代表画像を選択する画像選択部と、
    前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行うとともに、前記第一の撮影時点と対応付けて前記第一の病変画像を表示し、前記第二の撮影時点と対応付けて、同一の病変部位が検出された複数の前記第二の病変画像のうち、前記代表画像として選択された前記第二の病変画像を表示する表示制御部と
    を有する情報処理装置。
  2. 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点と、ユーザが保存を指示した病変画像である第一の病変画像とを取得する第一の取得部と、
    前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点と、前記検出処理により検出された病変画像である第二の病変画像とを取得する第二の取得部と、
    前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行うとともに、前記第一の撮影時点と対応付けて前記第一の病変画像を表示し、前記第二の撮影時点と対応付けて前記第二の病変画像を表示する表示制御部と、
    ユーザから入力された前記第一の病変画像又は前記第二の病変画像を選択する指示と、選択された病変画像に対する、当該ユーザから入力された検出失敗情報とに基づいて、当該病変画像と当該検出失敗情報とを対応付けたフィードバックデータを生成するフィードバックデータ生成部と
    を有し、
    前記検出失敗情報は、病変の誤検出又は病変の検出漏れのいずれかを検出の失敗の種類として示す情報である
    情報処理装置。
  3. 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
    前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
    前記一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定する所定部位画像特定部と、
    前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
    を有し、
    前記表示制御部は、前記所定の部位が撮影された画像の撮影時点以降の前記第二の撮影時点を前記時間軸にプロットする
    情報処理装置。
  4. 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
    前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
    前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
    を有し、
    前記表示制御部は、ユーザから入力された指示に基づいて、前記時間軸のスケールを拡大又は縮小して表示する
    情報処理装置。
  5. 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点と、ユーザが保存を指示した病変画像である第一の病変画像とを取得する第一の取得部と、
    前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点と、前記検出処理により検出された病変画像である第二の病変画像とを取得する第二の取得部と、
    前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と、
    前記第一の病変画像と前記第二の病変画像とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部と
    を有する情報処理装置。
  6. 第一の取得部と第二の取得部と画像選択部と表示制御部とを有する情報処理装置が行う表示方法であって、
    前記第一の取得部が、内視鏡が撮影した一連の画像のうち、記憶装置に保存された病変画像の撮影時点と、当該病変画像である第一の病変画像とを取得し、
    前記第二の取得部が、前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点と、前記検出処理により検出された病変画像である第二の病変画像とを取得し、
    前記画像選択部は、同一の病変部位が検出された複数の前記第二の病変画像を特定し、当該複数の前記第二の病変画像の中から代表画像を選択し、
    前記表示制御部は、前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行うとともに、前記第一の撮影時点と対応付けて前記第一の病変画像を表示し、前記第二の撮影時点と対応付けて、同一の病変部位が検出された複数の前記第二の病変画像のうち、前記代表画像として選択された前記第二の病変画像を表示する
    表示方法。
  7. 第一の取得部と第二の取得部と所定部位画像特定部と表示制御部とを有する情報処理装置が行う表示方法であって、
    前記第一の取得部が、内視鏡が撮影した一連の画像のうち、記憶装置に保存された病変画像の撮影時点を取得し、
    前記第二の取得部が、前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
    前記所定部位画像特定部が、前記一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定し、
    前記表示制御部が、前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行い、
    前記表示制御部が、前記所定の部位が撮影された画像の撮影時点以降の前記第二の撮影時点前記時間軸にプロット
    表示方法。
  8. 第一の取得部と第二の取得部と表示制御部とを有する情報処理装置が行う表示方法であって、
    前記第一の取得部が、内視鏡が撮影した一連の画像のうち、記憶装置に保存された病変画像の撮影時点を取得し、
    前記第二の取得部が、前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
    前記表示制御部が、前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行い、
    前記表示制御部が、ユーザから入力された指示に基づいて、前記時間軸のスケールを拡大又は縮小して表示する
    表示方法。
  9. 第一の取得部と第二の取得部と表示制御部と失敗検出部とを有する情報処理装置が行う表示方法であって、
    前記第一の取得部が、内視鏡が撮影した一連の画像のうち、記憶装置に保存された病変画像の撮影時点と、当該病変画像である第一の病変画像とを取得し、
    前記第二の取得部が、前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点と、前記検出処理により検出された病変画像である第二の病変画像とを取得し、
    前記表示制御部が、前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行い、
    前記失敗検出部が、前記第一の病変画像と前記第二の病変画像とを比較することにより、ユーザ又は前記検出処理における病変部位の検出の失敗を検出する
    表示方法。
  10. 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
    前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
    前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
    をコンピュータに実行させ、
    前記表示制御ステップでは、ユーザから入力された指示に基づいて、前記時間軸のスケールを拡大又は縮小して表示する
    プログラム。
JP2022512893A 2020-03-30 2020-03-30 情報処理装置、表示方法、及びプログラム Active JP7260060B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/014537 WO2021199152A1 (ja) 2020-03-30 2020-03-30 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2021199152A1 JPWO2021199152A1 (ja) 2021-10-07
JPWO2021199152A5 JPWO2021199152A5 (ja) 2022-04-27
JP7260060B2 true JP7260060B2 (ja) 2023-04-18

Family

ID=77928008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022512893A Active JP7260060B2 (ja) 2020-03-30 2020-03-30 情報処理装置、表示方法、及びプログラム

Country Status (4)

Country Link
US (4) US12080059B2 (ja)
EP (1) EP4129150A4 (ja)
JP (1) JP7260060B2 (ja)
WO (1) WO2021199152A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023089717A1 (ja) * 2021-11-18 2023-05-25 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007307396A (ja) 2003-04-25 2007-11-29 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
WO2018198327A1 (ja) 2017-04-28 2018-11-01 オリンパス株式会社 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法
WO2018216617A1 (ja) 2017-05-25 2018-11-29 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4104036B2 (ja) * 1999-01-22 2008-06-18 富士フイルム株式会社 異常陰影検出処理方法およびシステム
JP4253497B2 (ja) * 2002-12-03 2009-04-15 株式会社東芝 コンピュータ支援診断装置
CN101288582A (zh) 2003-04-25 2008-10-22 奥林巴斯株式会社 图像显示装置和图像显示方法
JP4537803B2 (ja) 2004-08-27 2010-09-08 オリンパス株式会社 画像表示装置
US20090054755A1 (en) * 2006-03-02 2009-02-26 Takao Shiibashi Medical imaging system
US20120316421A1 (en) 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
JP6116899B2 (ja) * 2012-01-16 2017-04-19 東芝メディカルシステムズ株式会社 医用画像診断装置及び制御プログラム
DE102013016204A1 (de) * 2013-09-28 2015-04-02 Fresenius Medical Care Deutschland Gmbh Sensorik zur Detektion von Phasen und/oder Phasenübergängen bei Peritonealdialysebehandlungen
JP6196922B2 (ja) * 2014-03-17 2017-09-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6785941B2 (ja) * 2017-03-01 2020-11-18 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2018163600A1 (ja) * 2017-03-07 2018-09-13 ソニー・オリンパスメディカルソリューションズ株式会社 医療情報管理装置、医療情報管理方法、及び医療情報管理システム
KR20190046530A (ko) * 2017-10-26 2019-05-07 아주대학교산학협력단 캡슐내시경의 위치 추적 방법 및 장치
JP7148534B2 (ja) * 2017-10-31 2022-10-05 富士フイルム株式会社 画像処理装置、プログラム、及び内視鏡システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007307396A (ja) 2003-04-25 2007-11-29 Olympus Corp 画像表示装置、画像表示方法および画像表示プログラム
WO2018198327A1 (ja) 2017-04-28 2018-11-01 オリンパス株式会社 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法
WO2018216617A1 (ja) 2017-05-25 2018-11-29 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
EP4129150A4 (en) 2023-05-24
US20220343644A1 (en) 2022-10-27
JPWO2021199152A1 (ja) 2021-10-07
US12080059B2 (en) 2024-09-03
WO2021199152A1 (ja) 2021-10-07
EP4129150A1 (en) 2023-02-08
US20240119728A1 (en) 2024-04-11
US20240119727A1 (en) 2024-04-11
US20240119726A1 (en) 2024-04-11

Similar Documents

Publication Publication Date Title
CN113544743B (zh) 内窥镜用处理器、程序、信息处理方法和信息处理装置
CN111295127B (zh) 检查支持装置、内窥镜装置及记录介质
US20200090548A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US20240119727A1 (en) Information processing device, display method, and non-transitory computer-readable medium for storing program
JPWO2020165978A1 (ja) 画像記録装置、画像記録方法および画像記録プログラム
JP7248098B2 (ja) 検査装置、検査方法及び記憶媒体
US20220361739A1 (en) Image processing apparatus, image processing method, and endoscope apparatus
CN116075902A (zh) 用于识别医疗程序期间未检查区域的设备、系统和方法
US11564560B2 (en) Image processing apparatus, operating method of image processing apparatus, and computer-readable recording medium
US11992177B2 (en) Image processing device for endoscope, image processing method for endoscope, and recording medium
US20240000299A1 (en) Image processing apparatus, image processing method, and program
JPWO2019087969A1 (ja) 内視鏡システム、報知方法、及びプログラム
JP7448923B2 (ja) 情報処理装置、情報処理装置の作動方法、及びプログラム
JP2021194268A (ja) 血管観察システムおよび血管観察方法
US20230225709A1 (en) Medical image processing device, ultrasonic diagnostic apparatus, and storage medium
US20240188798A1 (en) Endoscope system, medical information processing apparatus, medical information processing method, medical information processing program, and recording medium
EP4434435A1 (en) Information processing device, information processing method, and recording medium
US20230105682A1 (en) Endoscope processor device
US20240148235A1 (en) Information processing apparatus, information processing method, endoscope system, and report creation support device
WO2023282143A1 (ja) 情報処理装置、情報処理方法、内視鏡システム及びレポート作成支援装置
US20240335093A1 (en) Medical support device, endoscope system, medical support method, and program
WO2022208615A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023053991A1 (ja) 医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム
US20210401511A1 (en) Surgery support system and surgery support method
CN118285721A (zh) 内窥镜系统及内窥镜系统的数据保存方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7260060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151