JP2021040324A - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2021040324A
JP2021040324A JP2020187459A JP2020187459A JP2021040324A JP 2021040324 A JP2021040324 A JP 2021040324A JP 2020187459 A JP2020187459 A JP 2020187459A JP 2020187459 A JP2020187459 A JP 2020187459A JP 2021040324 A JP2021040324 A JP 2021040324A
Authority
JP
Japan
Prior art keywords
moving image
abnormal
image frame
detected
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020187459A
Other languages
English (en)
Inventor
郁磨 ▲高▼橋
郁磨 ▲高▼橋
Ikuma Takahashi
真貴 佐野
Maki Sano
真貴 佐野
元靖 奥津
Motoyasu OKUTSU
元靖 奥津
千恵美 田中
Chiemi Tanaka
千恵美 田中
雅弘 西光
Masahiro Nishimitsu
雅弘 西光
仁 今岡
Hitoshi Imaoka
仁 今岡
上條 憲一
Kenichi Kamijo
憲一 上條
齋藤 豊
Yutaka Saito
豊 齋藤
真善 山田
Masayoshi Yamada
真善 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NAT CANCER CT
NATIONAL CANCER CENTER
NEC Corp
Original Assignee
NAT CANCER CT
NATIONAL CANCER CENTER
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NAT CANCER CT, NATIONAL CANCER CENTER, NEC Corp filed Critical NAT CANCER CT
Publication of JP2021040324A publication Critical patent/JP2021040324A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被検者の体内が撮像された動画を用いた検査の精度を向上させる。【解決手段】情報処理装置(2000)は、動画データ(12)から異常領域(30)を検出する。情報処理装置(2000)は、異常領域(30)が検出された動画フレーム(14)を、ディスプレイ装置(20)の第1領域(22)に表示させる。さらに情報処理装置(2000)は、第1領域に表示された動画フレーム(14)よりも後に生成された動画フレーム(14)を含む動画データ(12)を、ディスプレイ装置(20)の第2領域(24)に表示させる。【選択図】図1

Description

本発明は、情報処理装置、制御方法、及びプログラムに関する。
人や動物の体内が撮像された画像を利用することで、体内に異常がないかどうかを調べる検査が行われている。例えば特許文献1から3には、過去(例えば一年前)の検査で得られた画像(CT画像やMRI画像)と、今回の検査で得られた画像を並べて表示する技術が開示されている。また、特許文献1と4には、画像から病変を検出し、検出した病変にマークを付す技術が開示されている。
特開2007−159934号公報 特開2016−048426号公報 特開2016−202722号公報 国際公開第2011/132468号
体内を検査する方法の一つに、内視鏡システムなどを利用して、体内の様子をディスプレイ装置に描出される動画を見ながら検査する方法がある。具体的には、医師が、先端にカメラが設けられたスコープを被検者の鼻や口、肛門などから挿入して、そのスコープを体内で動かす。こうすることにより、体内の様子がカメラによって撮像される。医師は、カメラによって撮像されている体内の様子をディスプレイ装置に描出される動画を見ながら、被検者の体内に異常な部位がないかチェックしていく。
上述のように被検者の体内でカメラを動かして検査する方法では、体内でカメラを移動させていくため、医師が観察できる部位が時間と共に変わっていく。そのため、医師が異常な部位を見逃してしまう可能性があり、実際に、検査を担当する医師によって病変発見率に差が生じている。前述した各先行技術文献では、このように医師が観察できる部位が時間と共に変わっていく状況は想定されていない。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、被検者の体内が撮像された動画を用いた検査の質を向上させる技術を提供することである。
本発明の情報処理装置は、体内が撮影された動画から前記体内の異常領域を検出し、前記異常領域が検出された動画フレームを記憶手段に記憶させる検出手段と、
前記動画を構成する動画フレームのうち、前記異常領域が検出された前記動画フレームをディスプレイ装置の第1領域に表示させ、さらに当該動画フレームよりも後に生成された動画フレームが含まれる前記動画を前記ディスプレイ装置の第2領域に表示させる表示制御手段と、
前記動画を構成する複数の動画フレームのうちの1つを指定する入力を受け付け、その指定された動画フレームを前記記憶手段に記憶させる指定受付手段と、を有し、
前記検出手段は、前記異常領域が検出された前記動画フレームと、前記指定受付手段によって前記記憶手段に記憶された前記動画フレームとを区別可能な態様で前記記憶手段に記憶させる。
本発明の制御方法は、コンピュータによって実行される。
本発明の第1の制御方法は、体内が撮影された動画から前記体内の異常領域を検出し、前記異常領域が検出された動画フレームを記憶手段に記憶させる検出ステップと、
前記動画を構成する動画フレームのうち、前記異常領域が検出された前記動画フレームをディスプレイ装置の第1領域に表示させ、なおかつその動画フレームよりも後に生成された前記動画フレームが含まれる前記動画を前記ディスプレイ装置の第2領域に表示させる表示制御ステップと、
前記動画を構成する複数の動画フレームのうちの1つを指定する入力を受け付け、その指定された動画フレームを前記記憶手段に記憶させる指定受付ステップと、を有し、
前記検出ステップは、前記異常領域が検出された前記動画フレームと、前記指定受付手段によって前記記憶手段に記憶された前記動画フレームとを区別可能な態様で前記記憶手段に記憶させる。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、被検者の体内が撮像された動画を用いた検査の精度を向上させる技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1の情報処理装置の動作を概念的に例示する図である。 情報処理装置の機能構成を例示するブロック図である。 情報処理装置を実現するための計算機を例示する図である。 ディスプレイ装置の構成を例示する図である。 情報処理装置の利用環境の具体例を示す図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 異常領域に重畳される種々の重畳マークを例示する図である。 異常領域を指し示す指示マークを例示する図である。 画像記憶部と接続されている情報処理装置を例示する図である。 実施形態2の情報処理装置を例示するブロック図である。 異常領域情報をテーブル形式で例示する図である。 ディスプレイ装置の表示が更新される様子を例示する図である。 異常領域の異同を考慮した第1表示を例示する図である。 強調表示を例示する図である。 第1表示を強調表示させる例を示す図である。 実施形態3の情報処理装置を例示するブロック図である。 画像記憶部に記憶される情報のフォーマットをテーブル形式で例示する図である。 実施形態4の情報処理装置を例示するブロック図である。 ユーザの所定行為の対象となった異常領域が含まれる動画フレームが強調表示される様子を例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。
[実施形態1]
図1は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。なお、図1は、情報処理装置2000の理解を容易にするためにその動作の一例を示しているにすぎず、情報処理装置2000の機能を何ら限定するものではない。
カメラ10は、人その他の動物の検査に利用される。以下、検査対象の人などを被検者と呼ぶ。カメラ10は、被検者の体内を撮像可能な任意のカメラであり、その撮像結果を表す動画フレーム14を生成する。例えばカメラ10は、内視鏡カメラである。動画データ12は、互いに異なる時間に生成された複数の動画フレーム14で構成される。
カメラ10によって生成される動画データ12は、ディスプレイ装置20に表示される。ディスプレイ装置20は、動画データ12を表示可能な任意のディスプレイ装置である。なお、動画データ12がディスプレイ装置20に表示されることは、動画データ12を構成する複数の動画フレーム14が順にディスプレイ装置20に表示されることを意味する。
情報処理装置2000のユーザ(例えば医師)は、ディスプレイ装置20に表示された動画データ12を見ることで、被検者の体内の様子を把握する。より具体的には、ユーザは、被検者の体内に異常な部分があるか否かや、その異常の程度などを把握する。ここで、「体内の異常な部分」は、例えば病変がある部分、傷ついている部分、又は異物がある部分などである。病変とは、病気が原因で起こる生体の変化であり、例えば腫瘍などである。
ここで、被検者の体内をカメラで観察しながら体内の異常部位を探す内視鏡検査などでは、異常部位がカメラによって撮像されたにもかかわらず、医師がそれを見逃してしまう可能性がある。そのため、医師が異常部位を把握しやすいようにサポートを行い、異常部位の見逃しを防ぐことが好適である。
そこで本実施形態の情報処理装置2000は、以下のように動作する。情報処理装置2000は、動画データ12を取得して、動画データ12を構成する動画フレーム14を画像解析する。具体的には、情報処理装置2000は、動画フレーム14から異常領域30を検出する。異常領域30は、被検者の体内の異常な部分を表すと推測される領域である。例えば図1の異常領域30は、腫瘍を含む領域(病変を表す領域)である。
情報処理装置2000は、異常領域30が検出された動画フレーム14をディスプレイ装置20の第1領域22に表示させ、動画データ12をディスプレイ装置20の第2領域24に表示させる。別の表現をすれば、ディスプレイ装置20には、異常領域30が検出された動画フレーム14が、その動画フレーム14よりも後に生成された動画フレーム14を含んで構成される動画データ12と共に表示される。第1領域22と第2領域24は、互いに異なる領域である。
例えば第2領域24には、カメラ10によって生成された動画データ12がリアルタイムで表示される。つまり、第2領域24に表示される動画データ12は、被検者の現時点での様子をリアルタイムで表す。一方、第1領域22には、同じ検査の中で現時点よりも前に生成された動画フレーム14であって、体内の異常部位が撮像されている動画フレーム14が表示される。
このように本実施形態の情報処理装置2000によれば、異常領域30が検出された動画フレーム14が動画データ12と共にディスプレイ装置20に表示される。こうすることにより、情報処理装置2000のユーザが被検者の体内の異常部位を容易に把握することができる。また、仮に第2領域に或る異常部位が表示されている時にユーザがその異常部位を見逃してしまったとしても、その異常部位を含む動画フレーム14がディスプレイ装置20の第1領域22に表示されて残るため、ユーザは第1領域22を閲覧することで後からその異常部位を把握することができる。以上により、本実施形態の情報処理装置2000によれば、ユーザが異常部位を見逃す蓋然性を低くすることができる。よって、カメラ10を用いて行われる体内の検査の精度を向上させることができる。
以下、本実施形態についてさらに詳細を述べる。
<機能構成>
図2は、情報処理装置2000の機能構成を例示するブロック図である。情報処理装置2000は、検出部2020及び表示制御部2040を有する。検出部2020は、動画データ12から異常領域30を検出する。表示制御部2040は、異常領域30が検出された動画フレーム14を、ディスプレイ装置20の第1領域22に表示させる。さらに表示制御部2040は、第1領域に表示された動画フレーム14よりも後に生成された動画フレーム14を含む動画データ12を、ディスプレイ装置20の第2領域24に表示させる。
<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は種々の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算処理装置である。メモリ1060は、RAM(Random Access Memory)などで実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、ROM、又はメモリカードなどで実現される補助記憶装置である。ただしストレージデバイス1080は、RAM など、主記憶装置の実現に用いられるハードウエアと同様のハードウエアで実現されてもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、カメラ10やディスプレイ装置20が接続される。
ネットワークインタフェース1120は、WAN(Wide Area Network)や LAN(Local Area Network)などの通信網に接続するためのインタフェースである。
ストレージデバイス1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、そのプログラムモジュールに対応する各機能を実現する。
<ディスプレイ装置20について>
ディスプレイ装置20は、1つの画面を有していてもよいし、複数の画面を有していてもよい。前者の場合、第1領域22と第2領域24は、1つの画面上のそれぞれ異なる領域である。後者の場合、第1領域22と第2領域24は、1つの画面上のそれぞれ異なる領域であってもよいし、それぞれ異なる画面上の領域であってもよい。
図4は、ディスプレイ装置20の構成を例示する図である。図4(a)のディスプレイ装置20は、1つの表示画面26を有する。第1領域22と第2領域24は、表示画面26上のそれぞれ異なる領域である。図4(b)のディスプレイ装置20は、2つの表示画面26(表示画面26−1と表示画面26−2)を有する。第1領域22は、表示画面26−1全体の領域又はその一部の領域である。一方、第2領域24は、表示画面26−2全体の領域又はその一部の領域である。以降の記載では、特に言及しない限り、ディスプレイ装置20が1つの表示画面26で構成されるケース(図4(a)のケース)を例として説明する。
<情報処理装置2000の利用環境の具体例>
図5は、情報処理装置2000の利用環境の具体例を示す図である。例えば情報処理装置2000は、スコープ40及び内視鏡システム50と共に利用される。スコープ40は内視鏡システム50と接続されている。また、スコープ40にはカメラ10が設けられている。このケースでは、動画データ12は、スコープ40に設けられたカメラ10によって生成される複数の動画フレーム14で構成される。内視鏡システム50は、動画データ12を情報処理装置2000へ出力する。例えば動画データ12は、内視鏡システム50に設けられている映像出力用のインタフェース(例えば HDMI(High-Definition Multimedia Interface)(登録商標)インタフェース)から、情報処理装置2000が有する映像入力用のインタフェースへ出力される。そして情報処理装置2000は、内視鏡システム50から取得した動画データ12を処理して、ディスプレイ装置20の表示を制御する(図1参照)。
なお、図5に示した構成はあくまで例示であり、情報処理装置2000の利用環境は図5に示した構成に限定されない。例えば動画データ12は、カメラ10から情報処理装置2000へ出力されてもよい。この場合、情報処理装置2000は、内視鏡システム50と接続されなくてもよい。
<処理の流れ>
図6は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。S102からS112は、カメラ10から取得する各動画フレーム14について実行されるループ処理である。S102において、情報処理装置2000は、まだループ処理Aの対象としていない動画フレーム14のうち、最も生成時点が早い動画フレーム14を選択する。ここで選択される動画フレーム14を、動画フレームiと表記する。なお、既に全ての動画フレーム14についてループ処理Aが実行されている場合、例えば情報処理装置2000は、新たな動画フレーム14が生成されるまで待機する。または、図6の処理を終了させてもよい。
検出部2020は、動画フレームiから異常領域30を検出する(S104)。動画フレームiから異常領域30が検出された場合(S106:YES)、表示制御部2040は、第1領域22に動画フレームiを表示させる(S108)。よって、第1領域22には、異常領域30が検出された動画フレーム14が表示される。
S110において、表示制御部2040は、第2領域24に動画フレームiを表示させる。よって、第2領域24には、異常領域30が検出されたか否かにかかわらず、動画フレームiが表示される。
S112はループ処理Aの終端であるため、図6の処理はS102に戻る。
なお、異常領域30を検出する処理(S104)の対象とされる動画フレーム14は、動画データ12に含まれる全ての動画フレーム14であってもよいし、一部の動画フレーム14であってもよい。後者の場合、例えば検出部2020は、所定数ごとに1つ(例えば10枚ごとに1枚)の動画フレーム14についてのみ、S104を実行する。
<動画データ12の取得>
検出部2020が動画データ12を取得する方法は任意である。例えば検出部2020は、動画データ12が記憶されている記憶装置にアクセスすることで、動画データ12を取得する。動画データ12が記憶されている記憶装置は、カメラ10の内部に設けられていてもよいし、カメラ10の外部に設けられていてもよい。また例えば、検出部2020は、カメラ10から送信される動画データ12を受信することで、動画データ12を取得してもよい。さらに検出部2020は、カメラ10に接続されている他の装置(例えば前述した内視鏡システム50)から動画データ12を取得してもよい。
<異常領域30の検出:S104>
検出部2020は、動画データ12を構成する各動画フレーム14から異常領域30を検出する。ここで、体内が撮像されている画像を解析して異常な部位を検出する技術には、既存の技術を利用することができる。例えば、特徴量マッチングやテンプレートマッチングなどの手法が利用できる。例えば特徴量マッチングで腫瘍を検出する場合、腫瘍の外観(色、模様、又は形状など)の特徴を表す値(特徴量)を予め1つ以上定義しておく。検出部2020は、動画フレーム14の画像領域の中から、予め定めておいた腫瘍の特徴量との類似度が高い画像領域を、動画フレーム14から検出する。そして、検出部2020は、検出された画像領域を、異常領域30を表す画像領域として扱う。傷や異物を検出するケースについても同様の方法を採用できる。
なお、異物を検出したいケースにおいて、体内に入ってしまった異物が特定されているとする。この場合、その異物の特徴量を情報処理装置2000に対して指定できるようにしておくことが好適である。例えば、体内に入ってしまった異物の写真を情報処理装置2000に対して入力する。情報処理装置2000は、この写真を画像解析することで、検出対象の異物の特徴量を算出する。そして、検出部2020は、算出した特徴量を持つ異物を動画フレーム14から検出する。
<第1領域22と第2領域24について>
前述したように、第1領域22には、異常領域30が含まれる動画フレーム14が表示される。また、第2領域24には動画データ12が表示される。第1領域22と第2領域24は、互いに異なる任意の領域とすることができる。ディスプレイ装置20における第1領域22と第2領域24の位置や大きさは、固定であってもよいし、固定でなくてもよい。後者の場合、例えば表示制御部2040は、第1領域22や第2領域24の位置や大きさを変更するユーザ操作を受け付ける。そして、表示制御部2040は、受け付けたユーザ操作に応じて、第1領域22や第2領域24の位置や大きさを変更する。
<第1領域22における動画フレーム14の表示:S108>
表示制御部2040は、異常領域30が検出された動画フレーム14をディスプレイ装置20の第1領域22に表示させる。ここで、ディスプレイ装置20上の領域に画像を表示させる技術には、既存の技術を利用することができる。
第1領域22に表示される動画フレーム14は、一つであってもよいし、複数であってもよい。後者の場合、例えば表示制御部2040は、異常領域30が検出された動画フレーム14を、生成時刻が早いものから順に第1領域22に表示させる。ここで、異常領域30が検出された動画フレーム14の数が多いため、第1領域22に収まりきらない場合も考えられる。この場合、例えば表示制御部2040は、スクロールバーなどをディスプレイ装置20に表示することで、第1領域22に表示される動画フレーム14を変更可能としてもよい。
なお、異常領域30が検出された動画フレーム14をディスプレイ装置20に表示させるタイミングは任意である。例えば表示制御部2040は、動画フレーム14から異常領域30が検出されたタイミングで、その動画フレーム14をディスプレイ装置20に表示させる。その他にも例えば、表示制御部2040は、動画フレーム14から異常領域30が検出されてから所定時間が経過した後に、その動画フレーム14をディスプレイ装置20に表示させる。この所定時間は、予め表示制御部2040に設定されていてもよいし、表示制御部2040からアクセス可能な記憶装置に記憶させておいてもよい。
<動画データ12の表示:S110>
表示制御部2040は、動画データ12をディスプレイ装置20の第2領域24に表示させる。動画データをディスプレイ装置に表示させる技術には、既存の技術を利用することができる。
<異常領域30を表す表示>
表示制御部2040は、第1領域22に表示する動画フレーム14について、その動画フレーム14に含まれる異常領域30を表す表示を行ってもよい。こうすることで、ユーザが動画フレーム14に含まれる異常領域30を容易に把握することができるようになる。以下、この表示を第1表示と呼ぶ。
第1表示としては、様々なものを採用することができる。例えば表示制御部2040は、第1領域22に表示される動画フレーム14の異常領域30に重畳するように、所定のマークを異常領域30に表示させる。以下、このマークを重畳マークと呼ぶ。そしてこの例では、重畳マークが第1表示である。図7は、異常領域30に重畳される種々の重畳マーク60を例示する図である。
その他にも例えば、表示制御部2040は、動画フレーム14の付近に、異常領域30を指し示す第1表示(以下、指示マーク)を行ってもよい。図8は、異常領域30を指し示す指示マーク70を例示する図である。
<動画フレーム14の記憶>
検出部2020は、異常領域30が検出された動画フレーム14を記憶装置に記憶させてもよい。以下、動画フレーム14を記憶させる記憶装置を画像記憶部80と呼ぶ。図9は、画像記憶部80と接続されている情報処理装置2000を例示する図である。なお、画像記憶部80は、情報処理装置2000の内部に設けられていてもよい。
検出部2020は、異常領域30が検出された動画フレーム14をそのまま画像記憶部80に記憶させてもよいし、その動画フレーム14を適宜加工して画像記憶部80に記憶させてもよい。例えば検出部2020は、異常領域30の位置が分かる画像(重畳マーク60など)を重畳させた動画フレーム14を画像記憶部80に記憶させる。こうすることで、動画フレーム14のどこに異常領域30があるかを容易に把握することができる。その他にも例えば、検出部2020は、動画フレーム14と、その動画フレーム14に含まれる異常領域30の位置を特定する情報とを対応づけて、画像記憶部80に記憶させる。
[実施形態2]
図10は、実施形態2の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様である。
一般に、カメラは 30fps(frames per second)などの頻度で動画フレームを生成する。そのため、複数の動画フレーム14が同一の部位を含みうる。例えば或る異常領域30が1秒間カメラ10の撮像範囲に入っていると、最大で30枚の動画フレーム14からその異常領域30が検出される。このように互いに同一の異常領域30が複数の動画フレーム14から検出された場合、必ずしもこれら複数の動画フレーム14の全てを第1領域22に表示させる必要は無い。これら複数の動画フレーム14のうちの一部(例えば1つ)を第1領域22に表示させれば、ユーザはその動画フレーム14に含まれる異常領域30を認識することができる。
そこで実施形態2の情報処理装置2000は、このように互いに同一の異常領域30を含む動画フレーム14が複数ある場合に、その中の一部の動画フレーム14のみをディスプレイ装置20に表示させる。そのために、実施形態2の情報処理装置2000は判定部2060を有する。判定部2060は、複数の動画フレーム14それぞれから検出された異常領域30が互いに同一であるか否かを判定する。そして、実施形態2の表示制御部2040は、互いに同一であると判定された異常領域30を含む複数の動画フレーム14のうち、一部の動画フレーム14のみをディスプレイ装置20に表示させる。
<判定部2060による判定>
判定部2060は、各動画フレーム14から検出された異常領域30を比較することで、動画フレーム14から検出された異常領域30が同一であるか否かを判定する。例えば判定部2060は、或る動画フレーム14に含まれる異常領域30を表す画像領域と他の動画フレーム14に含まれる異常領域30を表す画像領域との類似度を算出する。そして、その類似度が所定値以上である場合に、判定部2060は上記2つの動画フレーム14に含まれる異常領域30が互いに同一であると判定する。一方、その類似度が所定値以上である場合に、判定部2060は上記2つの動画フレーム14に含まれる異常領域30が互いに異なると判定する。ここで、画像領域同士を比較して類似度を算出する技術には、既存の技術を利用することができる。
なお、判定部2060は、複数の動画フレーム14について、異常領域30及びその周辺を含む所定の大きさ又は形状の画像領域を比較してもよい。その他にも例えば、判定部2060は、複数の動画フレーム14について、異常領域30ではなく、異常領域30の周辺の画像領域の比較を行ってもよい。
各動画フレーム14に含まれる異常領域30が同一であるか否かを判定する方法について、より具体的な例を説明する。検出部2020は、動画フレーム14から異常領域30を検出した際に、その異常領域30を表す画像領域の特徴量(例えばその画像領域の形状や模様を表すパラメタ)を算出する。そして、検出部2020は、算出した特徴量と動画フレーム14の識別子(例えばフレーム番号)とを対応づけて、記憶装置に記憶させる。この記憶装置は、動画データ12から検出された異常領域30を管理するための情報が記憶されたデータベースとして扱うことができる。以下、この記憶装置に記憶される情報を異常領域情報と呼ぶ。
図11は、異常領域情報をテーブル形式で例示する図である。図11に示されるテーブルをテーブル300と呼ぶ。テーブル300は、異常領域識別子302及びデータ304という2つの列を持つ。異常領域識別子302は、異常領域30に割り当てる識別子である。データ304は、「異常領域30の特徴量、その異常領域30が検出された動画フレーム14の識別子」という組を示す。例えばテーブル300の1行目のレコードは、r1 という識別子を持つ異常領域30が、img001 という識別子を持つ動画フレーム14及び img004 というから識別子を持つ動画フレーム14から検出されたことを表している。また、img001 という識別子を持つ動画フレーム14から検出された異常領域30の特徴量は v1 であり、img004 という識別子を持つ動画フレーム14から検出された異常領域30の特徴量は v5 であることを表している。そして、特徴量 v1 と v5 の類似度が高いため、(v1, img001) と (v5, img005) が同じレコードに記憶されている。
検出部2020は、動画フレーム14から異常領域30が検出された場合に、「その異常領域30の特徴量、その動画フレーム14の識別子」の組をテーブル300に加える。この際、判定部2060は、検出された異常領域30の特徴量との類似度が高い特徴量をテーブル300から検索する。上記検索の結果、その特徴量との類似度が高い特徴量をデータ304に示すレコードが見つかったとする。この場合、判定部2060は、上記検索で得られたレコードを更新することで、検出された異常領域30の特徴量とその異常領域30が検出された動画フレーム14の識別子を、テーブル300に加える。具体的には、判定部2060は、上記検索で得られたレコードのデータ304に、「検出された異常領域30の特徴量、その異常領域30が検出された動画フレーム14の識別子」の組を加える。
一方、上記検索の結果、検出された異常領域30の特徴量との類似度が高い特徴量をデータ304に示すレコードが見つからなかったとする。この場合、判定部2060は、「検出された異常領域30の特徴量、その異常領域30が検出された動画フレーム14の識別子」を示す新たなレコードを生成し、そのレコードをテーブル300に加える。
なお、1つの動画フレーム14から複数の異常領域30が検出された場合、これら複数の異常領域30それぞれについて上述の処理を行う。
このように各動画フレーム14から検出された異常領域30を管理することで、複数の動画フレーム14に同一の異常領域30が含まれているか否かを容易に判定することができる。具体的には、判定部2060は、テーブル300において、或る動画フレーム14の識別子を示すレコードが、それとは別の動画フレーム14の識別子を示すレコードと同一であれば、それらの動画フレーム14には同一の異常領域30が含まると判定する。一方、判定部2060は、テーブル300において、或る動画フレーム14の識別子を示すレコードが、それとは別の動画フレーム14の識別子を示すレコードと異なれば、それらの動画フレーム14には互いに異なる異常領域30が含まれると判定する。
<ディスプレイ装置20に表示させる動画フレーム14を決定する方法>
例えば表示制御部2040は、互いに同一であると判定された異常領域30を含む複数の動画フレーム14のうち、ユーザにとって異常領域30が最も把握しやすい1つの動画フレーム14を特定し、特定した動画フレーム14をディスプレイ装置20に表示させる。上記の特定には、様々な方法を採用することができる。以下、上記特定の方法について、具体例を説明する。
<<異常を表す確度を利用する方法>>
表示制御部2040は、互いに同一であると判定された異常領域30を含む複数の動画フレーム14のうち、異常領域30を表す画像領域が体内の異常を表す確度を特定する。例えば特徴量マッチングやテンプレートマッチングで動画フレーム14から異常領域30を検出する場合、異常領域30を表す画像領域が体内の異常を表す確度は、その画像領域と、予め定義しておいた特徴量やテンプレートとの類似度の高さで表される。表示制御部2040は、この確度が最も高い動画フレーム14を、ディスプレイ装置20に表示させる動画フレーム14として特定する。
動画フレーム14に含まれる異常領域30が体内の異常を表す確度が高いほど、その動画フレーム14に含まれる異常領域30が体内の異常をよく表していると言える。そのため、異常領域30が体内の異常を表す確度が高い動画フレーム14をディスプレイ装置20に表示させることで、被検者の体内にある異常をユーザがより正確に把握できるようになる。
<<異常領域30の位置を利用する方法>>
そこで表示制御部2040は、互いに同一であると判定された異常領域30を含む複数の動画フレーム14の中から、異常領域30の位置が動画フレーム14の中心位置に最も近いものを特定し、特定された動画フレーム14を、ディスプレイ装置20に表示させる動画フレーム14とする。具体的には、表示制御部2040は、各動画フレーム14について、動画フレーム14に含まれる異常領域30と動画フレーム14の中心座標との距離を算出する。そして、表示制御部2040は、その距離が最も小さい動画フレーム14を、ディスプレイ装置20に表示させる動画フレーム14として特定する。
一般に、カメラによって生成される画像に含まれる物は、その物が画像の中心付近にあるほど見やすい。そのため、このように異常領域30の位置が動画フレーム14の中心位置に近い動画フレーム14をディスプレイ装置20に表示させることで、ユーザにとって異常領域30が見やすくなる。
<<動画フレーム14全体のコントラストを利用する方法>>
表示制御部2040は、互いに同一であると判定された異常領域30を含む複数の動画フレーム14のうち、動画フレーム14全体のコントラストが最も大きいものを、ディスプレイ装置20に表示させる動画フレーム14として特定する。具体的には、表示制御部2040は、各動画フレーム14について、動画フレーム14全体のコントラストを表す指標値を算出する。そして表示制御部2040は、算出した指標値を比較することにより、コントラストが最も大きい動画フレーム14を特定し、特定された動画フレーム14を、ディスプレイ装置20に表示させる動画フレーム14とする。なお、コントラストを表す指標値には、例えば Michelson コントラストなどを利用することができる。
一般に、画像のコントラストが大きいほど、その画像に含まれる個々の物を判別しやすい。そのため、このように動画フレーム14全体のコントラストが大きい動画フレーム14をディスプレイ装置20に表示させることで、ユーザにとって異常領域30が見やすくなる。
<<異常領域30を表す画像領域のコントラストを利用する方法>>
表示制御部2040は、動画フレーム14全体のコントラストではなく、異常領域30を表す画像領域のコントラストを利用してもよい。つまり、表示制御部2040は、互いに同一であると判定された異常領域30を含む複数の動画フレーム14それぞれについて、異常領域30を表す画像領域のコントラストの指標値を算出する。そして、表示制御部2040は、算出された指標値を比較することにより、異常領域30を表す画像領域のコントラストが最も大きい動画フレーム14を特定し、この特定した動画フレーム14をディスプレイ装置20に表示させる。
この方法によれば、コントラストが大きい異常領域30がディスプレイ装置20に表示されるため、異常領域30の中がユーザにとって見やすくなる。
<動画フレーム14をディスプレイ装置20に表示させるタイミング>
前述したように、異常領域30が検出された動画フレーム14をディスプレイ装置20に表示させるタイミングは任意である。例えば表示制御部2040は、動画フレーム14から異常領域30が検出されたタイミングで、その動画フレーム14をディスプレイ装置20に表示させる。この場合、例えば表示制御部2040は、既にディスプレイ装置20に表示されている動画フレーム14と、その動画フレーム14に含まれる異常領域30と同一の異常領域30が検出された新たな動画フレーム14とを比較して、どちらをディスプレイ装置20に表示させるかを決定する。新たな動画フレーム14をディスプレイ装置20に表示させると決定した場合、ディスプレイ装置20に表示を更新する。一方、既に動画フレーム14に表示されている動画フレーム14をディスプレイ装置20に表示させると決定した場合、表示制御部2040は、新たな動画フレーム14をディスプレイ装置20に表示させない。
例えば表示制御部2040は、既にディスプレイ装置20に表示されている動画フレーム14に含まれる異常領域30が異常を表す確度と、新たな動画フレーム14に含まれる異常領域30が異常を表す確度とを比較する。新たな動画フレーム14に含まれる異常領域30の方が異常を表す確度が高い場合、表示制御部2040は、ディスプレイ装置20の表示を更新して、新たな動画フレーム14をディスプレイ装置20に表示させる。一方、既にディスプレイ装置20に表示されている動画フレーム14に含まれる異常領域30の方が異常を表す確度が高い場合、表示制御部2040は、ディスプレイ装置20の表示を更新しない。
図12は、ディスプレイ装置20の表示が更新される様子を例示する図である。上段のディスプレイ装置20において、第1領域22には動画フレーム14−1が表示されている。その後、動画フレーム14−1よりも後に生成された動画フレーム14−2から、動画フレーム14−1に含まれる異常領域30と同じ異常領域30が検出されたとする。また、動画フレーム14−2に含まれる異常領域30が異常を表す確度が、動画フレーム14−1に含まれる異常領域30が異常を表す確度よりも高いとする。
この場合、表示制御部2040は、第1領域22に表示させる動画フレーム14を、動画フレーム14−1から動画フレーム14−2に変更する(図12下段参照)。一方で、動画フレーム14−2に含まれる異常領域30が異常を表す確度が、動画フレーム14−1に含まれる異常領域30が異常を表す確度よりも低い場合、表示制御部2040は、第1領域22に表示させる動画フレーム14を変更しない(図示せず)。
表示制御部2040が動画フレーム14をディスプレイ装置20に表示させるタイミングは、前述したタイミングに限定されない。例えば表示制御部2040は、時系列で連続する複数の動画フレーム14から同じ異常領域30が検出される間、動画フレーム14をディスプレイ装置20に表示させない。そして表示制御部2040は、同一の異常領域30が動画フレーム14から検出されなくなった後に、これまでにその異常領域30が検出された複数の動画フレーム14の中から、ディスプレイ装置20に表示する動画フレーム14を一つ特定する。そして表示制御部2040は、特定した動画フレーム14をディスプレイ装置20に表示させる。
<動画フレーム14の画像記憶部80への記憶について>
実施形態2の検出部2020は、同一の異常領域30が検出された動画フレーム14のうち、一部の動画フレーム14のみを画像記憶部80に記憶させてもよい。例えば検出部2020は、同一の異常領域30が検出された動画フレーム14のうち、検出部2020が第1領域22に表示させる動画フレーム14(前述の各方法で特定された動画フレーム14)のみを画像記憶部80に記憶させる。こうすることで、異常領域30をよく表す動画フレーム14を保存しつつ、画像記憶部80の記憶領域を節約することができる。
ここで、検出部2020が画像記憶部80に動画フレーム14を記憶させるタイミングは任意である。例えば検出部2020は、動画フレーム14から異常領域30が検出されたタイミングで、その動画フレーム14を画像記憶部80に記憶させる。この場合、検出部2020は、既に画像記憶部80に記憶されている動画フレーム14と、その動画フレーム14に含まれる異常領域30と同じ異常領域30が検出された新たな動画フレーム14のうち、どちらを画像記憶部80に記憶させておくかを決定する。新たな動画フレーム14を画像記憶部80に記憶させておくと決定した場合、検出部2020は、既に画像記憶部80に記憶されている動画フレーム14を削除し、新たな動画フレーム14を画像記憶部80に記憶させる。一方、既に画像記憶部80に記憶されている動画フレーム14を画像記憶部80に記憶させておくと決定した場合、検出部2020は、新たな動画フレーム14を画像記憶部80に記憶させない。
その他にも例えば、検出部2020は、時系列で連続する複数の動画フレーム14から同じ異常領域30が検出される間、動画フレーム14を画像記憶部80に記憶させない。そして検出部2020は、同一の異常領域30が動画フレーム14から検出されなくなった後に、これまでにその異常領域30が検出された複数の動画フレーム14の中から、画像記憶部80に記憶させる動画フレーム14を一つ特定する。そして検出部2020は、特定した動画フレーム14を画像記憶部80に記憶させる。
<第1表示について>
前述したように、表示制御部2040は、異常領域30を表す第1表示をディスプレイ装置20に表示させてもよい。この場合、互いに同一の異常領域30に対しては互いに同一の第1表示を利用し、互いに異なる異常領域30に対しては互いに異なる異常領域30を利用することが好ましい。こうすることで、ディスプレイ装置20に表示されている複数の動画フレーム14それぞれに含まれる異常領域30が同一であるか否かを容易に判別することができる。よって、情報処理装置2000を利用した検査をよりスムーズに行うことができるようになる。
互いに異なる異常領域30ごとに第1表示を異ならせる方法は様々である。例えば表示制御部2040は、互いに同一の異常領域30に対しては互いに同一の色や形状の第1表示を利用し、互いに異なる異常領域30に対しては互いに異なる色や形状の第1表示を利用する。図13は、異常領域30の異同を考慮した第1表示を例示する図である。図13(a)において、動画フレーム14−1に含まれる異常領域30−1と、動画フレーム14−2に含まれる異常領域30−2は、同一の異常領域30である。一方、動画フレーム14−3に含まれる異常領域30−3は、異常領域30−1や異常領域30−2とは異なる異常領域30である。そこで表示制御部2040は、異常領域30−1と異常領域30−2にはそれぞれ、同じ柄(ドット柄)の重畳マーク60−1と重畳マーク60−2を表示させている。一方、表示制御部2040は、異常領域30−3には、ドット柄とは異なる格子柄の重畳マーク60−3を表示させている。
<第1領域22と第2領域24の双方に表示される異常領域30について>
情報処理装置2000のユーザは、被検者の体内でカメラ10を動かしながら検査を行う。そのため、一度カメラ10の撮像範囲から外れた異常領域30が、再度カメラ10の撮像範囲に入ることがある。例えば医師が、第1領域22に表示された動画フレーム14を見て、その動画フレーム14に含まれる異常領域30を見逃してしまった(その異常領域30が動画として第2領域24に表示されていたときに、その異常領域30を見ていなかった)ことを把握したとする。この場合、医師は、その異常領域30を動画で見てその詳細を把握するために、再度その異常領域30がカメラ10の撮像範囲に入るようにカメラ10を操作する(例えばスコープ40を操作する)ことが考えられる。その結果として、第1領域22と第2領域24に同一の異常領域30が表示されるようになる。言い換えれば、過去の様子を表す動画フレームと、リアルタイムの様子を表す動画に、同じ異常領域30が表示されるようになる。
このように第1領域22と第2領域24に同一の異常領域30が表示される場合、表示制御部2040はその旨の通知を行うことが好適である。例えば表示制御部2040は、第2領域24に表示させる動画フレーム14から異常領域30が検出された場合に、その異常領域30を含む動画フレーム14が第1領域22に表示されているか否かを判定する。そして、その異常領域30を含む動画フレーム14が第1領域22に表示されている場合、表示制御部2040は所定の通知を行う。
上記通知の方法は任意である。例えば表示制御部2040は、第1領域22に表示されている動画フレーム14のうち、第2領域24に表示させる動画フレーム14から検出された異常領域30と同一の異常領域30を含む動画フレーム14を強調させる表示を行ってもよい。
図14は、強調表示を例示する図である。図14において、第1領域22には2つの動画フレーム14(動画フレーム14−1及び動画フレーム14−2)が表示されている。動画フレーム14−1と動画フレーム14−2からはそれぞれ、異常領域30−1と異常領域30−2が検出されている。これらは、互いに異なる異常領域30である。また、第2領域24に表示されている動画データ12の現在のフレームである動画フレーム14−3からは、異常領域30−3が検出されている。そして、異常領域30−2と異常領域30−3は、互いに同一の異常領域30を表している。
この場合、表示制御部2040は、動画フレーム14−3に含まれる異常領域30と同じ異常領域30が含まれる動画フレーム14−2を、強調して表示させる。図14では、動画フレーム14−2の枠線を太くすることにより、動画フレーム14−2を強調表示させている。こうすることにより、医師は、カメラ10によってリアルタイムで撮像されている異常領域30(第2領域24に表示されている異常領域30)が、過去に撮像された異常領域30のうち、動画フレーム14−2に含まれている異常領域30と同一であることを容易に把握することができる。
なお、動画フレーム14を強調表示する方法は、図14の例に示した「動画フレーム14の枠線を太くする」という方法に限定されない。例えば、動画フレーム14を点滅させる方法や動画フレーム14の色を変える方法など、様々な方法を採用することができる。
表示制御部2040は、第1領域22に表示されている異常領域30を示す第1表示と、第2領域24に表示されている異常領域30を示す第1表示とを強調表示させてもよい。こうすることで、情報処理装置2000のユーザは、動画に含まれる異常領域30と同じ異常領域30が、過去の動画フレームのどこに含まれているかを容易に把握することができる。図15は、第1表示を強調表示させる例を示す図である。図15は、第1表示が強調表示されている点を除き、図14と同じ状況を表している。図15において、異常領域30の上には重畳マーク60が表示されている。
図15では、図14と同様に、動画フレーム14−2に含まれる異常領域30−2と、動画フレーム14−3に含まれる異常領域30とが、同一の異常領域30である。そこで表示制御部2040は、これら2つの異常領域30を示す重畳マーク60の枠線を太くしている。こうすることで、情報処理装置2000のユーザは、重畳マーク60−1によって示されている異常領域30−1と、重畳マーク60−2によって示されている異常領域30−2とが同一であるということを容易に把握できる。
なお、このように第1領域22に表示される異常領域30と第2領域24に表示される異常領域30が同一である場合、これらに対して同様の第1表示を表示させてもよい。例えば図15の重畳マーク60−1と重畳マーク60−2は同じ形状をしている。こうすることで、リアルタイムの動画に含まれる異常領域30と、過去の動画フレームに含まれる異常領域30が同一であるか否かを、容易に把握することができる。
第1領域22と第2領域24に同じ異常領域30が表示されていることを通知する方法は、上述の強調表示に限定されない。例えばこの通知は、ビープ音など、所定の音声の出力であってもよい。その他にも例えば、この通知は、所定の振動を出力する通知であってもよい。
<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
[実施形態3]
図16は、実施形態3の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態3の情報処理装置2000は、実施形態1又は実施形態2の情報処理装置2000と同様である。
実施形態3の情報処理装置2000は指定受付部2080を有する。判定部2060は、動画データ12を構成する複数の動画フレーム14のうちの1つを指定する入力をユーザから受け付ける。そして、判定部2060は、指定された動画フレーム14を画像記憶部80に記憶させる。また、実施形態3の検出部2020は、異常領域30が検出された動画フレーム14を画像記憶部80に記憶させる。
ここで検出部2020は、異常領域30が検出された動画フレーム14を、指定受付部2080によって画像記憶部80に記憶される動画フレーム14(指定受付部2080に対して指定された動画フレーム14)と識別可能に記憶させる。言い換えれば、検出部2020によって画像記憶部80に記憶される動画フレーム14と、指定受付部2080によって画像記憶部80に記憶される動画フレーム14とは、互いに識別可能に記憶される。以下、検出部2020によって画像記憶部80に記憶される動画フレーム14を自動保存フレームと呼ぶ。また、指定受付部2080によって画像記憶部80に記憶される動画フレーム14を自動保存フレームと呼ぶ。
指定受付部2080に対する指定は、例えば検査を担当している医師によって行われる。例えば医師は、第2領域24に表示される動画データ12を見ながら検査を行う中で異常な部位を見つけると、その部位が含まれる動画フレーム14を保存しておこうとする。その他にも例えば、医師は、注目すべき所定の部位については、その部位に異常があるか否かにかかわらず、その部位が含まれる動画フレーム14を保存することがある。
このような場合、例えば医師は、第2領域24に表示されている動画フレーム14にその部位が含まれている状態でキーボードや所定のボタンなどの入力装置を操作することで、その部位を含む動画フレーム14を指定する。指定受付部2080は、このようにして指定された動画フレーム14を画像記憶部80に記憶させる。ユーザの視点からすると、上記の操作は、いわばカメラのシャッターを切って写真を撮るような操作である。
これに対し、検出部2020によって画像記憶部80に記憶される自動保存フレームは、ユーザによって指定されたものではなく、情報処理装置2000による画像解析によって自動的に検出された異常領域30が含まれる動画フレーム14である。つまり、自動保存フレームは、情報処理装置2000によって自動的に画像記憶部80に記憶される動画フレーム14である。
このように、指定保存フレームと自動保存フレームは、画像記憶部80に記憶される契機や、これらがユーザにとって持つ意味が異なる。よって、画像記憶部80に記憶されている動画フレーム14が指定保存フレームと自動保存フレームのどちらであるのかをユーザが容易に判別できるようにすることが好適である。
この点、本実施形態の情報処理装置2000によれば、検出部2020によって画像記憶部80に記憶される動画フレーム14と、指定受付部2080によって画像記憶部80に記憶される動画フレーム14とを互いに識別可能に画像記憶部80に記憶させる。よって、画像記憶部80に記憶されている動画フレーム14が、指定保存フレームと自動保存フレームのどちらであるのかを容易に判別することができる。
<識別の方法>
指定保存フレームと自動保存フレームを識別可能に画像記憶部80に記憶させる方法は任意である。例えば、情報処理装置2000は、動画フレーム14と対応づけて、その動画フレーム14が指定保存フレームと自動保存フレームのどちらであるかを表すフラグを画像記憶部80に記憶させる。図17は、画像記憶部80に記憶される情報のフォーマットをテーブル形式で例示する図である。図17に示されるテーブルをテーブル200と表記する。テーブル200は、動画フレーム202及び種別フラグ204という2つの列を有する。動画フレーム202は、動画フレーム14自体を表す。種別フラグ204は、動画フレーム202に示される動画フレーム14が指定保存フレームと自動保存フレームのどちらであるかを表す。
<表示制御部2040による表示について>
表示制御部2040は、第1領域22に表示される動画フレーム14の中に、指定保存フレームに含まれる異常領域30と同じ異常領域30を含む動画フレーム14がある場合、その動画フレーム14を他の動画フレーム14と識別可能にする。例えば表示制御部2040は、指定保存フレームに含まれる異常領域30と同じ異常領域30を含む動画フレーム14又はその周辺に対して所定の表示を行う。この所定の表示を第2表示と表記する。例えば第2表示は、指定保存フレームに含まれる異常領域30と同じ異常領域30を含む動画フレーム14を強調する表示である。なお、特定の動画フレーム14を強調する方法には、実施形態2で説明した方法を利用することができる。
異常領域30が検出された動画フレーム14を第1領域22に表示させる目的の一つは、ユーザが異常領域30を見逃してしまうことを防ぐことにある。この点、ユーザによって指定された動画フレーム14である指定保存フレームに含まれる異常領域30は、ユーザがその存在に気付いたものであり、ユーザによって見逃されていないと言える。
そこで検出部2020は、指定保存フレームに含まれる異常領域30と同じ異常領域30を含む動画フレーム14が第1領域22に表示されている場合に、その動画フレーム14をユーザが把握できるようにする。こうすることで、ユーザは、第1領域22に表示されている異常領域30を自身が認識できたことを容易に把握することができる。
ただし、表示制御部2040は、第1領域22に表示される動画フレーム14のうち、指定保存フレームに含まれる異常領域30とは異なる異常領域30を含む動画フレーム14に対して第2表示を行い、指定保存フレームに含まれる異常領域30と同一の異常領域30を含む動画フレーム14には第2表示を行わないようにしてもよい。こうすることで、情報処理装置2000によって自動的に検出された異常領域30のうち、ユーザによってその存在が認識されていない蓋然性が高い異常領域30を含む動画フレーム14が強調表示される。よって、ユーザは、自身が認識していない異常領域30を容易に把握することができる。
その他にも例えば、表示制御部2040は、検出部2020によって異常領域30が検出された動画フレーム14のうち、指定保存フレームに含まれる異常領域30と同じ異常領域30を含むものを第1領域22に表示しない(第1領域22から消去する)ようにしてもよい。こうすることで、第1領域22には、検出部2020によって異常領域30が検出された動画フレーム14のうち、ユーザがその異常領域30の存在を認識していない蓋然性が高いもののみがディスプレイ装置20に表示されるようになる。よって、ユーザは、自身が認識していない異常領域30を容易に把握することができる。
<ハードウエア構成の例>
実施形態3の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
[実施形態4]
図18は、実施形態4の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態4の情報処理装置2000は、実施形態1、実施形態2、又は実施形態3の情報処理装置2000と同様である。
実施形態4の情報処理装置2000は第2検出部2100を有する。第2検出部2100は、異常領域30又はその周辺に対するユーザの所定行為を検出する。被検者の体内を検査するユーザは、異常がありそうな部位を見つけると、その部位をより詳しく観察するために種々の行為を行う。例えばこの行為は、1)異常領域30やその周辺に対して照射される光の色や強度を変える、2)異常領域30又はその周辺へ色素散布や染色をする、3)異常領域30やその周辺に対して水や薬を投与する、又は4)異常領域30やその周辺の組織を採取するといった行為である。これらの行為の対象となった異常領域30は、指定受付部2080に対してユーザ操作による指定が行われた異常領域30と同様に、ユーザによって認識された蓋然性が高い部位であるといえる。ここで、「所定行為の対象となった異常領域30」とは、その異常領域30又はその異常領域30の周辺に対するユーザの所定行為が第2検出部2100によって検出された異常領域30を意味する。
そこで例えば、表示制御部2040は、指定保存フレームに含まれる異常領域30と同じ異常領域30について行った表示の制御(実施形態3参照)と同様の制御を、ユーザの所定行為の対象となった異常領域30について行う。より具体的には、例えば表示制御部2040は、ユーザの所定行為の対象となった異常領域30であって第1領域22に表示されているものやその周辺に所定の表示を表示させたり、この異常領域30を含む動画フレーム14やその周辺に所定の表示を表示させたりする。この所定の表示を第3表示と呼ぶ。第3表示は、例えば異常領域30や動画フレーム14を強調する表示である。こうすることでユーザは、第1領域22に表示されている異常領域30のうち、自身が認識した異常領域30を容易に把握することができる。なお、特定の異常領域30や動画フレーム14を強調する表示には、前述した種々の表示を利用できる。
図19は、ユーザの所定行為の対象となった異常領域30が含まれる動画フレーム14が強調表示される様子を例示する図である。この例におけるユーザの所定行為は、異常領域30の周辺を染色する行為である。
図19において、第2領域24に表示されている動画フレーム14−3から、異常領域30−3が検出されている。また、異常領域30−3の周辺が染色されている。
ここで、第1領域22に表示されている動画フレーム14のうち、動画フレーム14−2から、異常領域30−3と同じ異常領域を表す異常領域30−2が検出されている。そこで、動画フレーム14−2の枠線を太くする強調表示が行われている。
なお、ユーザの所定行為を検出した際に行う処理は、前述した第3表示の表示に限定されない。例えば表示制御部2040は、ユーザの所定行為の対象となった異常領域30が含まれる動画フレーム14を、第1領域22に表示しないようにしてもよい。こうすることで、第1領域22には、検出部2020によって異常領域30が検出された動画フレーム14のうち、ユーザがその異常領域30の存在を認識していない蓋然性が高いもののみがディスプレイ装置20に表示されるようになる。よって、ユーザは、自身が認識していない異常領域30を容易に把握することができる。
<ユーザの所定行為を検出する方法>
前述した各種のユーザの所定行為は、ユーザが内視鏡システムなどに対して所定の入力操作を行うことによって行われる。例えば一般の内視鏡システムでは、カメラが設けられているスコープに、光を照射する機構(光源など)、色素や染色液を噴射する機構、水や薬を投与する機構、及び組織を採取するための機構などが設けられている。そして、これらの機構はユーザが内視鏡視システムに対して行う所定の入力操作に応じて動作する。言い換えれば、前述した各種の所定行為が行われる際には、その所定行為を実現する機構を動作させるための入力操作が行われる。
そこで、例えば第2検出部2100は、これらの機構を動作させるための入力操作が行われたことを検出することで、ユーザによって所定行為が行われたことを検出する。例えば第2検出部2100は、内視鏡システムなどから上記入力操作が行われたことを示す通知を受信することで、上記入力操作が行われたことを検出する。
ここで、第2検出部2100は、この入力操作が検出されたタイミングにおいて第2領域24に表示されている動画フレーム14に含まれる部位(カメラ10によって撮影されている部位)を、ユーザの所定行為の対象となった部位として扱う。つまり第2検出部2100は、上記入力操作が検出されたタイミングにおいて第2領域24に表示されている動画フレーム14に異常領域30が含まれる場合に、その異常領域30を、ユーザの所定行為の対象となった異常領域30として扱う。
なお、第2検出部2100がユーザの所定行為を検出する方法は、上述した入力操作を検出する方法に限定されない。例えば第2検出部2100は、動画データ12を画像解析することにより、ユーザの所定行為を検出してもよい。例えば第2検出部2100は、動画データ12に含まれる各動画フレーム14の明るさの分布や色の分布を比較することで、カメラ10の撮像範囲の明るさや色の変化を検出する。こうすることで第2検出部2100は、カメラ10の撮像範囲を照らしている光の色や強度が変更されたことや、染色液が噴射されたことを検出する。
このように画像解析を利用する場合、例えば第2検出部2100は、明るさや色が変化したと判定された動画フレーム14に含まれる部位を、ユーザの所定行為の対象となった部位として扱う。つまり第2検出部2100は、明るさや色が変化したと判定された動画フレーム14に異常領域30が含まれる場合に、その異常領域30を、ユーザの所定行為の対象となった異常領域30として扱う。
<ハードウエア構成の例>
実施形態4の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 体内が撮影された動画から前記体内の異常領域を検出する検出手段と、
前記動画を構成する動画フレームのうち、前記異常領域が検出された前記動画フレームをディスプレイ装置の第1領域に表示させ、なおかつその動画フレームよりも後に生成された前記動画フレームが含まれる前記動画を前記ディスプレイ装置の第2領域に表示させる表示制御手段と、を有する情報処理装置。
2. 前記表示制御手段は、前記ディスプレイ装置に表示される前記異常領域が検出された前記動画フレームにおいて、その異常領域の位置を示す第1表示を表示させる、1.に記載の情報処理装置。
3. 前記表示制御手段は、前記異常領域が検出された複数の前記動画フレームを共に前記第1領域に表示させる、2.に記載の情報処理装置。
4. 複数の動画フレームそれぞれから検出された異常領域が互いに同一の異常を表しているか否かを判定する判定手段を有し、
前記表示制御手段は、
複数の動画フレームそれぞれから検出された異常領域が互いに同一であると判定された場合、これらの異常領域に対して同一の前記第1表示を表示させ、
複数の動画フレームそれぞれから検出された異常領域が互いに異なると判定された場合、これらの異常領域に対して互いに異なる前記第1表示を表示させる、3.に記載の情報処理装置。
5. 複数の動画フレームそれぞれから検出された異常領域が互いに同一であるか否かを判定する判定手段を有し、
前記検出手段は、複数の前記動画フレームから検出された前記異常領域が互いに同一であると判定された場合、それら複数の前記動画フレームのうちの一部の動画フレームを前記第1領域に表示させる、1.乃至4.いずれか一つに記載の情報処理装置。
6. 前記検出手段は、互いに同一の前記異常領域が検出された複数の前記動画フレームのうち、前記異常領域が異常を表す確度が最も高い前記動画フレーム、前記異常領域と動画フレームの中心位置との距離が最も短い動画フレーム、画像領域全体のコントラストが最も大きい前記動画フレーム、又は前記異常領域のコントラストが最も大きい前記動画フレームを前記第1領域に表示させる、5.に記載の情報処理装置。
7. 前記検出手段は、前記異常領域が検出された前記動画フレームを記憶手段に記憶させる、1.乃至6.いずれか一つに記載の情報処理装置。
8. 前記動画を構成する複数の動画フレームのうちの1つを指定する入力を受け付け、その指定された動画フレームを前記記憶手段に記憶させる指定受付手段を有し、
前記検出手段は、前記異常領域が検出された前記動画フレームを、前記指定受付手段によって前記記憶手段に記憶された前記動画フレームと識別可能な態様で前記記憶手段に記憶させる、7.に記載の情報処理装置。
9. 複数の動画フレームそれぞれから検出された異常領域が互いに同一であるか否かを判定する判定手段を有し、
前記表示制御手段は、第1の前記動画フレームから検出された前記異常領域と同一の前記異常領域を含むと判定された第2の前記動画フレームが、前記指定受付手段に対する入力で指定された場合に、前記第1領域に表示される第1の前記動画フレーム又はその周辺に所定の表示を表示させる、8.に記載の情報処理装置。
10. 複数の動画フレームそれぞれから検出された前記異常領域が互いに同一であるか否かを判定する判定手段を有し、
前記表示制御手段は、第1の前記動画フレームから検出された前記異常領域と同一の前記異常領域を含むと判定された第2の前記動画フレームが、前記指定受付手段に対する入力で指定された場合、第1の前記動画フレームを前記第1領域に表示しない、8.に記載の情報処理装置。
11. 前記検出された異常領域又はその周辺に対するユーザの所定行為を検出する第2検出手段を有し、
前記表示制御手段は、前記検出された異常領域又はその周辺に対するユーザの所定行為が検出された場合、その異常領域を含んでおりなおかつ前記第1領域に表示される前記動画フレーム又はその周辺に所定の表示を表示させる、1.乃至10.いずれか一つに記載の情報処理装置。
12. 前記検出された異常領域又はその周辺に対するユーザの所定行為を検出する第2検出手段を有し、
前記表示制御手段は、前記検出された異常領域又はその周辺に対するユーザの所定行為が検出された場合、その異常領域を含む前記動画フレームを前記第1領域に表示しない、1.乃至10.いずれか一つに記載の情報処理装置。
13. 前記ユーザの所定行為は、前記検出された異常領域若しくはその周辺対して照射される光の色若しくは強度を変更する行為、前記検出された異常領域若しくはその周辺へ色素散布若しくは染色をする行為、前記検出された異常領域若しくはその周辺に対して水若しくは薬を投与する行為、又は前記検出された異常領域若しくはその周辺の組織を採取する行為である、11.又は12.に記載の情報処理装置。
14. コンピュータによって実行される制御方法であって、
体内が撮影された動画から前記体内の異常領域を検出する検出ステップと、
前記動画を構成する動画フレームのうち、前記異常領域が検出された前記動画フレームをディスプレイ装置の第1領域に表示させ、なおかつその動画フレームよりも後に生成された前記動画フレームが含まれる前記動画を前記ディスプレイ装置の第2領域に表示させる表示制御ステップと、を有する制御方法。
15. 前記表示制御ステップにおいて、前記ディスプレイ装置に表示される前記異常領域が検出された前記動画フレームにおいて、その異常領域の位置を示す第1表示を表示させる、14.に記載の制御方法。
16. 前記表示制御ステップにおいて、前記異常領域が検出された複数の前記動画フレームを共に前記第1領域に表示させる、15.に記載の制御方法。
17. 複数の動画フレームそれぞれから検出された異常領域が互いに同一の異常を表しているか否かを判定する判定ステップを有し、
前記表示制御ステップにおいて、
複数の動画フレームそれぞれから検出された異常領域が互いに同一であると判定された場合、これらの異常領域に対して同一の前記第1表示を表示させ、
複数の動画フレームそれぞれから検出された異常領域が互いに異なると判定された場合、これらの異常領域に対して互いに異なる前記第1表示を表示させる、16.に記載の制御方法。
18. 複数の動画フレームそれぞれから検出された異常領域が互いに同一であるか否かを判定する判定ステップを有し、
前記検出ステップにおいて、複数の前記動画フレームから検出された前記異常領域が互いに同一であると判定された場合、それら複数の前記動画フレームのうちの一部の動画フレームを前記第1領域に表示させる、14.乃至17.いずれか一つに記載の制御方法。
19. 前記検出ステップにおいて、互いに同一の前記異常領域が検出された複数の前記動画フレームのうち、前記異常領域が異常を表す確度が最も高い前記動画フレーム、前記異常領域と動画フレームの中心位置との距離が最も短い動画フレーム、画像領域全体のコントラストが最も大きい前記動画フレーム、又は前記異常領域のコントラストが最も大きい前記動画フレームを前記第1領域に表示させる、18.に記載の制御方法。
20. 前記検出ステップは、前記異常領域が検出された前記動画フレームを記憶手段に記憶させる、14.乃至19.いずれか一つに記載の制御方法。
21. 前記動画を構成する複数の動画フレームのうちの1つを指定する入力を受け付け、その指定された動画フレームを前記記憶手段に記憶させる指定受付ステップを有し、
前記検出ステップにおいて、前記異常領域が検出された前記動画フレームを、前記指定受付ステップによって前記記憶手段に記憶された前記動画フレームと識別可能な態様で前記記憶手段に記憶させる、20.に記載の制御方法。
22. 複数の動画フレームそれぞれから検出された異常領域が互いに同一であるか否かを判定する判定ステップを有し、
前記表示制御ステップにおいて、第1の前記動画フレームから検出された前記異常領域と同一の前記異常領域を含むと判定された第2の前記動画フレームが、前記指定受付ステップに対する入力で指定された場合に、前記第1領域に表示される第1の前記動画フレーム又はその周辺に所定の表示を表示させる、21.に記載の制御方法。
23. 複数の動画フレームそれぞれから検出された前記異常領域が互いに同一であるか否かを判定する判定ステップを有し、
前記表示制御ステップにおいて、第1の前記動画フレームから検出された前記異常領域と同一の前記異常領域を含むと判定された第2の前記動画フレームが、前記指定受付ステップに対する入力で指定された場合、第1の前記動画フレームを前記第1領域に表示しない、21.に記載の制御方法。
24. 前記検出された異常領域又はその周辺に対するユーザの所定行為を検出する第2検出ステップを有し、
前記表示制御ステップにおいて、前記検出された異常領域又はその周辺に対するユーザの所定行為が検出された場合、その異常領域を含んでおりなおかつ前記第1領域に表示される前記動画フレーム又はその周辺に所定の表示を表示させる、14.乃至23.いずれか一つに記載の制御方法。
25. 前記検出された異常領域又はその周辺に対するユーザの所定行為を検出する第2検出ステップを有し、
前記表示制御ステップにおいて、前記検出された異常領域又はその周辺に対するユーザの所定行為が検出された場合、その異常領域を含む前記動画フレームを前記第1領域に表示しない、14.乃至23.いずれか一つに記載の制御方法。
26. 前記ユーザの所定行為は、前記検出された異常領域若しくはその周辺対して照射される光の色若しくは強度を変更する行為、前記検出された異常領域若しくはその周辺に色素散布若しくは染色をする行為、前記検出された異常領域若しくはその周辺に対して水若しくは薬を投与する行為、又は前記検出された異常領域若しくはその周辺の組織を採取する行為である、24.又は25.に記載の制御方法。
27. 14.乃至26.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
この出願は、2017年5月25日に出願された日本出願特願2017−103348号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (13)

  1. 体内が撮影された動画から前記体内の異常領域を検出し、前記異常領域が検出された動画フレームを記憶手段に記憶させる検出手段と、
    前記動画を構成する動画フレームのうち、前記異常領域が検出された前記動画フレームをディスプレイ装置の第1領域に表示させ、さらに当該動画フレームよりも後に生成された動画フレームが含まれる前記動画を前記ディスプレイ装置の第2領域に表示させる表示制御手段と、
    前記動画を構成する複数の動画フレームのうちの1つを指定する入力を受け付け、その指定された動画フレームを前記記憶手段に記憶させる指定受付手段を有し、
    前記検出手段は、前記異常領域が検出された前記動画フレームと、前記指定受付手段によって前記記憶手段に記憶された前記動画フレームとを区別可能な態様で前記記憶手段に記憶させる、
    情報処理装置。
  2. 前記表示制御手段は、前記ディスプレイ装置に表示される前記異常領域が検出された前記動画フレームにおいて、その異常領域の位置を示す第1表示を表示させる、請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記異常領域が検出された複数の前記動画フレームを共に前記第1領域に表示させる、請求項2に記載の情報処理装置。
  4. 複数の動画フレームそれぞれから検出された異常領域が互いに同一の異常を表しているか否かを判定する判定手段を有し、
    前記表示制御手段は、
    複数の動画フレームそれぞれから検出された異常領域が互いに同一であると判定された場合、これらの異常領域に対して同一の前記第1表示を表示させ、
    複数の動画フレームそれぞれから検出された異常領域が互いに異なると判定された場合、これらの異常領域に対して互いに異なる前記第1表示を表示させる、請求項3に記載の情報処理装置。
  5. 複数の動画フレームそれぞれから検出された異常領域が互いに同一であるか否かを判定する判定手段を有し、
    前記検出手段は、複数の前記動画フレームから検出された前記異常領域が互いに同一であると判定された場合、それら複数の前記動画フレームのうちの一部の動画フレームを前記第1領域に表示させる、請求項1乃至4いずれか一項に記載の情報処理装置。
  6. 前記検出手段は、互いに同一の前記異常領域が検出された複数の前記動画フレームのうち、前記異常領域が異常を表す確度が最も高い前記動画フレーム、前記異常領域と動画フレームの中心位置との距離が最も短い動画フレーム、画像領域全体のコントラストが最も大きい前記動画フレーム、又は前記異常領域のコントラストが最も大きい前記動画フレームを前記第1領域に表示させる、請求項5に記載の情報処理装置。
  7. 複数の動画フレームそれぞれから検出された異常領域が互いに同一であるか否かを判定する判定手段を有し、
    前記表示制御手段は、第1の前記動画フレームから検出された前記異常領域と同一の前記異常領域を含むと判定された第2の前記動画フレームが、前記指定受付手段に対する入力で指定された場合に、前記第1領域に表示される第1の前記動画フレーム又はその周辺に所定の表示を表示させる、請求項1乃至6いずれか一項に記載の情報処理装置。
  8. 複数の動画フレームそれぞれから検出された前記異常領域が互いに同一であるか否かを判定する判定手段を有し、
    前記表示制御手段は、第1の前記動画フレームから検出された前記異常領域と同一の前記異常領域を含むと判定された第2の前記動画フレームが、前記指定受付手段に対する入力で指定された場合、第1の前記動画フレームを前記第1領域に表示しない、請求項1乃至7いずれか一項に記載の情報処理装置。
  9. 前記検出された異常領域又はその周辺に対するユーザの所定行為を検出する第2検出手段を有し、
    前記表示制御手段は、前記検出された異常領域又はその周辺に対するユーザの所定行為が検出された場合、その異常領域を含んでおりなおかつ前記第1領域に表示される前記動画フレーム又はその周辺に所定の表示を表示させる、請求項1乃至8いずれか一項に記載の情報処理装置。
  10. 前記検出された異常領域又はその周辺に対するユーザの所定行為を検出する第2検出手段を有し、
    前記表示制御手段は、前記検出された異常領域又はその周辺に対するユーザの所定行為が検出された場合、その異常領域を含む前記動画フレームを前記第1領域に表示しない、請求項1乃至9いずれか一項に記載の情報処理装置。
  11. 前記ユーザの所定行為は、前記検出された異常領域若しくはその周辺対して照射される光の色若しくは強度を変更する行為、前記検出された異常領域若しくはその周辺へ色素散布若しくは染色をする行為、前記検出された異常領域若しくはその周辺に対して水若しくは薬を投与する行為、又は前記検出された異常領域若しくはその周辺の組織を採取する行為である、請求項9又は10に記載の情報処理装置。
  12. コンピュータによって実行される制御方法であって、
    体内が撮影された動画から前記体内の異常領域を検出し、前記異常領域が検出された動画フレームを記憶手段に記憶させる検出ステップと、
    前記動画を構成する動画フレームのうち、前記異常領域が検出された前記動画フレームをディスプレイ装置の第1領域に表示させ、なおかつその動画フレームよりも後に生成された前記動画フレームが含まれる前記動画を前記ディスプレイ装置の第2領域に表示させる表示制御ステップと、
    前記動画を構成する複数の動画フレームのうちの1つを指定する入力を受け付け、その指定された動画フレームを前記記憶手段に記憶させる指定受付ステップと、を有し、
    前記検出ステップは、前記異常領域が検出された前記動画フレームと、前記指定受付ステップによって前記記憶手段に記憶された前記動画フレームとを区別可能な態様で前記記憶手段に記憶させる、
    制御方法。
  13. 体内が撮影された動画から前記体内の異常領域を検出し、前記異常領域が検出された動画フレームを記憶手段に記憶させる検出ステップと、
    前記動画を構成する動画フレームのうち、前記異常領域が検出された前記動画フレームをディスプレイ装置の第1領域に表示させ、なおかつその動画フレームよりも後に生成された前記動画フレームが含まれる前記動画を前記ディスプレイ装置の第2領域に表示させる表示制御ステップと、
    前記動画を構成する複数の動画フレームのうちの1つを指定する入力を受け付け、その指定された動画フレームを前記記憶手段に記憶させる指定受付ステップと、をコンピュータに実行させ、
    前記検出ステップは、前記異常領域が検出された前記動画フレームと、前記指定受付ステップによって前記記憶手段に記憶された前記動画フレームとを区別可能な態様で前記記憶手段に記憶させる、
    制御プログラム。
JP2020187459A 2017-05-25 2020-11-10 情報処理装置、制御方法、及びプログラム Pending JP2021040324A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017103348 2017-05-25
JP2017103348 2017-05-25

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019520217A Division JP6799301B2 (ja) 2017-05-25 2018-05-18 情報処理装置、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2021040324A true JP2021040324A (ja) 2021-03-11

Family

ID=64396438

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019520217A Active JP6799301B2 (ja) 2017-05-25 2018-05-18 情報処理装置、制御方法、及びプログラム
JP2020187459A Pending JP2021040324A (ja) 2017-05-25 2020-11-10 情報処理装置、制御方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019520217A Active JP6799301B2 (ja) 2017-05-25 2018-05-18 情報処理装置、制御方法、及びプログラム

Country Status (5)

Country Link
US (1) US20200129042A1 (ja)
EP (1) EP3636134A4 (ja)
JP (2) JP6799301B2 (ja)
CN (1) CN110662477B (ja)
WO (1) WO2018216617A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153069A1 (ja) * 2022-02-09 2023-08-17 富士フイルム株式会社 医療画像装置、内視鏡システム、及び、診断書作成システム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110662476B (zh) * 2017-05-25 2022-02-11 日本电气株式会社 信息处理装置、控制方法和程序
WO2019078237A1 (ja) * 2017-10-18 2019-04-25 富士フイルム株式会社 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
CN112512398B (zh) * 2018-07-27 2024-03-29 富士胶片株式会社 医疗图像处理装置
WO2020071086A1 (ja) * 2018-10-04 2020-04-09 日本電気株式会社 情報処理装置、制御方法、及びプログラム
WO2020166528A1 (ja) * 2019-02-13 2020-08-20 日本電気株式会社 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
WO2020170809A1 (ja) * 2019-02-19 2020-08-27 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理方法
WO2021044910A1 (ja) * 2019-09-03 2021-03-11 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
JP7179707B2 (ja) * 2019-10-03 2022-11-29 富士フイルム株式会社 診療支援装置、診療支援方法、及び診療支援プログラム
WO2021199152A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
JP7402314B2 (ja) * 2020-04-02 2023-12-20 富士フイルム株式会社 医用画像処理システム、医用画像処理システムの作動方法
EP4183318A4 (en) 2020-07-15 2023-12-06 FUJIFILM Corporation ENDOSCOPE SYSTEM AND METHOD OF OPERATION THEREFOR
WO2023238609A1 (ja) * 2022-06-09 2023-12-14 富士フイルム株式会社 情報処理装置、内視鏡装置、情報処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198106A (ja) * 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
JP2015032127A (ja) * 2013-08-02 2015-02-16 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
WO2015029584A1 (ja) * 2013-08-30 2015-03-05 オリンパスメディカルシステムズ株式会社 画像管理装置
WO2016061553A1 (en) * 2014-10-17 2016-04-21 Silverside Detectors Inc. Fissile neutron detector
WO2017073337A1 (ja) * 2015-10-27 2017-05-04 オリンパス株式会社 内視鏡装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6708054B2 (en) * 2001-04-12 2004-03-16 Koninklijke Philips Electronics, N.V. MR-based real-time radiation therapy oncology simulator
EP1262882A3 (en) * 2001-05-29 2006-01-11 MeVis BreastCare GmbH & Co. KG A method and computer system for prefetching of images
US6616634B2 (en) * 2001-09-21 2003-09-09 Semler Technologies, Inc. Ergonomic syringe
JP4370121B2 (ja) * 2003-06-02 2009-11-25 オリンパス株式会社 内視鏡装置
US6997910B2 (en) * 2004-05-03 2006-02-14 Infusive Technologies, Llc Multi-chamber, sequential dose dispensing syringe
EP1850689A4 (en) * 2005-02-10 2013-05-22 G I View Ltd TECHNIQUES FOR DISPLACING A GASTROINTESTINAL TOOL EQUIPPED WITH A GUIDING ELEMENT
AU2006285699B2 (en) * 2005-09-02 2010-05-27 Olympus Corporation Portable simplified image display device and receiving system
JP4823614B2 (ja) * 2005-09-02 2011-11-24 オリンパス株式会社 可搬型簡易画像表示装置及び受信システム
JP2007159934A (ja) 2005-12-15 2007-06-28 Hitachi Medical Corp 比較読影支援装置
JP4891636B2 (ja) * 2006-03-14 2012-03-07 オリンパスメディカルシステムズ株式会社 画像解析装置
JP5005981B2 (ja) * 2006-08-03 2012-08-22 オリンパスメディカルシステムズ株式会社 画像表示装置
JP2008301968A (ja) * 2007-06-06 2008-12-18 Olympus Medical Systems Corp 内視鏡画像処理装置
JP5186929B2 (ja) * 2008-01-21 2013-04-24 日本電気株式会社 認証用撮像装置
US9007475B2 (en) * 2009-12-17 2015-04-14 Lenovo Innovations Limited (Hong Kong) Communication apparatus and electronic mail creation method
JPWO2011132468A1 (ja) 2010-04-21 2013-07-18 コニカミノルタ株式会社 医用画像表示装置及びプログラム
JP5537261B2 (ja) * 2010-05-25 2014-07-02 株式会社東芝 医用画像診断装置、画像情報処理装置及び治療支援データ表示用制御プログラム
US20130236891A1 (en) * 2010-08-20 2013-09-12 3-D Matrix, Ltd. Method and composition for the treatment, prevention, and diagnosis of cancer containing or derived from cancer stem cells
CN103153155B (zh) * 2011-03-15 2014-09-10 奥林巴斯医疗株式会社 医疗装置
JP5329593B2 (ja) * 2011-04-01 2013-10-30 富士フイルム株式会社 生体情報取得システムおよび生体情報取得システムの作動方法
JP2012223363A (ja) * 2011-04-20 2012-11-15 Tokyo Institute Of Technology 手術用撮像システム及び手術用ロボット
JP2012248070A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、メタデータ設定方法、及びプログラム
US20130044927A1 (en) * 2011-08-15 2013-02-21 Ian Poole Image processing method and system
WO2013039395A1 (en) * 2011-09-14 2013-03-21 Ec Solution Group B.V. Active matrix display smart card
EP2573403B1 (en) * 2011-09-20 2017-12-06 Grundfos Holding A/S Pump
JP5713959B2 (ja) * 2012-05-23 2015-05-07 株式会社東芝 電子機器、方法、およびプログラム
KR101323646B1 (ko) * 2012-08-17 2013-11-05 한국전기연구원 형광 내시경을 위한 텔레비전 카메라의 필터 교환 장치
CN202843579U (zh) * 2012-09-28 2013-04-03 北京锐视觉科技有限公司 一种裂隙灯
JP2015195845A (ja) * 2014-03-31 2015-11-09 富士フイルム株式会社 内視鏡システム、内視鏡システムの作動方法、プロセッサ装置、プロセッサ装置の作動方法
CN106659368B (zh) * 2014-07-21 2020-04-17 恩多巧爱思股份有限公司 多焦、多相机内窥镜系统
CN104161493B (zh) * 2014-07-22 2016-04-20 清华大学深圳研究生院 偏振成像内窥镜系统及内窥成像方法
JP6503167B2 (ja) 2014-08-27 2019-04-17 株式会社Nobori 読影レポートシステム
JP6536153B2 (ja) 2015-04-27 2019-07-03 コニカミノルタ株式会社 医用画像表示装置及びプログラム
JP6422816B2 (ja) * 2015-04-28 2018-11-14 富士フイルム株式会社 内視鏡システム
JP6246431B2 (ja) * 2015-11-10 2017-12-13 オリンパス株式会社 内視鏡装置
CN105512473A (zh) * 2015-11-30 2016-04-20 广州三瑞医疗器械有限公司 一种阴道镜图像的智能识别方法及装置
JP6597242B2 (ja) 2015-12-02 2019-10-30 株式会社明電舎 静止誘導機器の制振構造
WO2018159363A1 (ja) * 2017-03-01 2018-09-07 富士フイルム株式会社 内視鏡システム及びその作動方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006198106A (ja) * 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
JP2015032127A (ja) * 2013-08-02 2015-02-16 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
WO2015029584A1 (ja) * 2013-08-30 2015-03-05 オリンパスメディカルシステムズ株式会社 画像管理装置
WO2016061553A1 (en) * 2014-10-17 2016-04-21 Silverside Detectors Inc. Fissile neutron detector
WO2017073337A1 (ja) * 2015-10-27 2017-05-04 オリンパス株式会社 内視鏡装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153069A1 (ja) * 2022-02-09 2023-08-17 富士フイルム株式会社 医療画像装置、内視鏡システム、及び、診断書作成システム

Also Published As

Publication number Publication date
JPWO2018216617A1 (ja) 2020-04-09
WO2018216617A1 (ja) 2018-11-29
EP3636134A1 (en) 2020-04-15
CN110662477A (zh) 2020-01-07
JP6799301B2 (ja) 2020-12-16
EP3636134A4 (en) 2021-03-10
CN110662477B (zh) 2022-06-28
US20200129042A1 (en) 2020-04-30

Similar Documents

Publication Publication Date Title
JP6799301B2 (ja) 情報処理装置、制御方法、及びプログラム
JP6716853B2 (ja) 情報処理装置、制御方法、及びプログラム
US9959618B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US8442280B2 (en) Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading
US20160133014A1 (en) Marking And Tracking An Area Of Interest During Endoscopy
CN113015476A (zh) 用于生成和显示体内图像流的研究的系统和方法
CN103717122A (zh) 眼科诊断支持设备和眼科诊断支持方法
US20150080652A1 (en) Lesion detection and image stabilization using portion of field of view
CN110619318B (zh) 基于人工智能的图像处理方法、显微镜、系统和介质
JP6097949B2 (ja) グラフ表示装置およびグラフ表示装置の作動方法並びにグラフ表示プログラム
JPWO2019087790A1 (ja) 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム
CN101208042A (zh) 异常阴影候选检测方法、异常阴影候选检测装置
US20140233788A1 (en) System, method, and software for optical device recognition association
JP2023015232A5 (ja) 医療画像処理装置及び内視鏡システム
JP7232424B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2014184068A (ja) 携帯型医用画像表示端末及びその作動方法
JP2023546698A (ja) 医療用画像及び映像の撮像、表示、操作のためのシステムおよび方法
JP7253152B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2020081280A5 (ja) 画像表示制御システム、画像表示システム、画像解析装置、画像表示制御プログラム及び画像表示制御方法
JP2010075354A (ja) 毛細血管血流測定装置、毛細血管血流測定方法およびプログラム
CN116912247A (zh) 医疗图像处理方法、装置、存储介质及电子设备
ES2904749T3 (es) Método y sistema para ayudar a la exploración visual de una imagen durante una búsqueda de objetivo
CN116849593A (zh) 具有器官识别功能的可视喉镜系统以及器官识别方法
JPWO2021176852A5 (ja)
JPWO2022224869A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823