JPWO2018216618A1 - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JPWO2018216618A1
JPWO2018216618A1 JP2019520218A JP2019520218A JPWO2018216618A1 JP WO2018216618 A1 JPWO2018216618 A1 JP WO2018216618A1 JP 2019520218 A JP2019520218 A JP 2019520218A JP 2019520218 A JP2019520218 A JP 2019520218A JP WO2018216618 A1 JPWO2018216618 A1 JP WO2018216618A1
Authority
JP
Japan
Prior art keywords
moving image
image frame
notification
abnormal region
predetermined range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019520218A
Other languages
English (en)
Other versions
JP6716853B2 (ja
Inventor
郁磨 ▲高▼橋
郁磨 ▲高▼橋
真貴 佐野
真貴 佐野
元靖 奥津
元靖 奥津
千恵美 田中
千恵美 田中
雅弘 西光
雅弘 西光
仁 今岡
仁 今岡
上條 憲一
憲一 上條
齋藤 豊
豊 齋藤
真善 山田
真善 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
National Cancer Center Japan
Original Assignee
NEC Corp
National Cancer Center Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, National Cancer Center Japan filed Critical NEC Corp
Publication of JPWO2018216618A1 publication Critical patent/JPWO2018216618A1/ja
Application granted granted Critical
Publication of JP6716853B2 publication Critical patent/JP6716853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

情報処理装置(2000)は、動画フレーム(14)の所定範囲(16)から異常領域(30)を検出する。情報処理装置(2000)は、或る動画フレーム(14)の所定範囲(16)から異常領域(30)が検出され、その動画フレーム(14)よりも後に生成された動画フレーム(14)の所定範囲(16)からは異常領域(30)が検出されなかった場合に、所定条件が満たされているか否かを判定する。この所定条件が満たされていない場合、情報処理装置(2000)は、所定の通知を行う。

Description

本発明は、情報処理装置、制御方法、及びプログラムに関する。
人や動物の体内が撮像された画像を利用することで、体内に異常がないかどうかを調べる検査が行われている。例えば特許文献1から3には、過去(例えば一年前)の検査で得られた画像(CT 画像や MRI 画像)と、今回の検査で得られた画像を並べて表示する技術が開示されている。また、特許文献1と4には、画像から病変を検出し、検出した病変にマークを付す技術が開示されている。
特開2007−159934号公報 特開2016−048426号公報 特開2016−202722号公報 国際公開第2011/132468号
体内を検査する方法の一つに、内視鏡システムなどを利用して、体内の様子をディスプレイ装置に描出された動画を見ながら検査する方法がある。具体的には、医師が、先端にカメラが設けられたスコープを被検者の鼻や口、肛門などから挿入して、そのスコープを体内で動かす。こうすることにより、体内の様子がカメラによって撮像される。医師は、カメラによって撮像されている体内の様子をディスプレイ装置に描出される動画を見ながら、被検者の体内に異常な部位がないかどうかをチェックしていく。
上述のように被検者の体内でカメラを動かして検査する方法では、体内でカメラを移動させていくため、医師が観察できる部位が時間と共に変わっていく。そのため、医師が異常な部位を見逃してしまう可能性があり、実際に、検査を担当する医師によって病変発見率に差が生じている。前述した各先行技術文献では、このように医師が観察できる部位が時間と共に変わっていく状況は想定されていない。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、被検者の体内が撮像された動画を用いた検査の質を向上させる技術を提供することである。
本発明の情報処理装置は、1)体内が撮影された動画から前記体内の異常領域を検出する検出手段と、2)前記動画の第1動画フレームの所定範囲内から前記異常領域が検出され、なおかつ前記第1動画フレームよりも後に生成された前記動画の第2動画フレームの前記所定範囲内からはその異常領域が検出されない場合に、所定条件が満たされているか否かを判定する判定手段と、3)前記所定条件が満たされていないと判定された場合に第1通知を行う通知手段と、を有する。
本発明の制御方法は、コンピュータによって実行される。
当該制御方法は、1)体内が撮影された動画から前記体内の異常領域を検出する検出ステップと、2)前記動画の第1動画フレームの所定範囲内から前記異常領域が検出され、なおかつ前記第1動画フレームよりも後に生成された前記動画の第2動画フレームの前記所定範囲内からはその異常領域が検出されない場合に、所定条件が満たされているか否かを判定する判定ステップと、3)前記所定条件が満たされていないと判定された場合に第1通知を行う通知ステップと、を有する。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、被検者の体内が撮像された動画を用いた検査の精度を向上させる技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1の情報処理装置を概念的に例示する図である。 情報処理装置の機能構成を例示するブロック図である。 情報処理装置を実現するための計算機を例示する図である。 情報処理装置の利用環境の具体例を示す図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 第2所定範囲が設定されている動画フレームを例示する図である。 動画データにおける異常領域の動きを例示する図である。 動画データの強調表示を例示する図である。 異常領域が最後に検出された所定範囲内の位置を示す表示を例示する図である。 上述のガイドを例示する図である。 異常領域が所定範囲の中に含まれる動画フレームが第1通知として表示される様子を例示する図である。 画像記憶部と接続されている情報処理装置を例示する図である。 画像記憶部に記憶される情報のフォーマットをテーブル形式で例示する図である。 異常領域に重畳される種々の重畳マークを例示する図である。 異常領域を指し示す指示マークを例示する図である。 実施形態2の情報処理装置を例示するブロック図である。 実施形態2の情報処理装置によって実行される処理の流れを例示する図である。 第1領域に表示されている動画フレームを強調表示させる第2通知を例示する図である。 履歴情報をテーブル形式で例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。
[実施形態1]
図1は、実施形態1の情報処理装置2000を概念的に例示する図である。図1(a)は、情報処理装置2000の利用環境を概念的に示している。図1(b)は、情報処理装置2000の動作を概念的に示している。なお、図1は、情報処理装置2000の理解を容易にするためにその動作の一例を示しているにすぎず、情報処理装置2000の機能を何ら限定するものではない。
カメラ10は、人その他の動物の検査に利用される。以下、検査対象の人などを被検者と呼ぶ。カメラ10は、被検者の体内を撮像可能な任意のカメラであり、その撮像結果を表す動画フレーム14を生成する。例えばカメラ10は、内視鏡カメラである。動画データ12は、互いに異なる時間に生成された複数の動画フレーム14で構成される。
カメラ10によって生成される動画データ12は、ディスプレイ装置20に表示される。ディスプレイ装置20は、動画データ12を表示可能な任意のディスプレイ装置である。なお、動画データ12がディスプレイ装置20に表示されることは、動画データ12を構成する複数の動画フレーム14が順にディスプレイ装置20に表示されることを意味する。
情報処理装置2000のユーザ(例えば医師)は、ディスプレイ装置20に表示された動画データ12を見ることで、被検者の体内の様子を把握する。より具体的には、ユーザは、被検者の体内に異常な部分があるか否かや、その異常の程度などを把握する。ここで、「体内の異常な部分」は、例えば病変がある部分、傷ついている部分、又は異物がある部分などである。病変とは、病気が原因で起こる生体の変化であり、例えば腫瘍などである。
ここで、被検者の体内をカメラで観察しながら体内の異常部位を探す内視鏡検査などでは、異常部位がカメラによって撮像されたにもかかわらず、医師がそれを見逃してしまう可能性がある。そのため、医師が異常部位を把握しやすいようにサポートを行い、異常部位の見逃しを防ぐことが好適である。
そこで本実施形態の情報処理装置2000は、以下のような動作を行う。まず情報処理装置2000は、動画データ12を取得して、動画データ12を構成する動画フレーム14を画像解析する。具体的には、情報処理装置2000は、動画フレーム14の所定範囲16から異常領域30を検出する。異常領域30は、被検者の体内の異常な部分を表すと推測される領域である。例えば図1の異常領域30は、腫瘍を含む領域(病変を表す領域)である。所定範囲16は、動画フレーム14の全体であってもよいし、動画フレーム14の全体よりも小さい画像領域(動画フレーム14の一部の画像領域)であってもよい。
ここで、或る動画フレーム14の所定範囲16から異常領域30が検出され、その動画フレーム14よりも後に生成された動画フレーム14の所定範囲16からは異常領域30が検出されなかったとする。言い換えれば、異常領域30が、カメラ10の撮像範囲の全体又は一部の中に入った(フレームインした)後、カメラ10の撮像範囲の全体又は一部から外に出た(フレームアウトした)とする。
この場合、情報処理装置2000は、所定条件が満たされているか否かを判定し、この所定条件が満たされていない場合に所定の通知(以下、第1通知)を行う。この所定条件は、情報処理装置2000のユーザが動画データ12に含まれる異常領域30を認識していると推測される場合に満たされる条件とする。言い換えれば、この所定条件は、情報処理装置2000のユーザが動画データ12に含まれる異常領域30を認識していないと推測される場合には満たされない条件とする。
図1(b)を用いて、上述した情報処理装置2000の動作を説明する。なお、図1(b)では説明のために所定範囲16が点線で表示されているが、必ずしも所定範囲16を表す枠線がディスプレイ装置20に表示される必要はない。以降の各図についても同様である。
図1(b)には、時点 t においてディスプレイ装置20に表示されている画面と、その後の時点 t+a においてディスプレイ装置20に表示されている画面が示されている。時点 t においてディスプレイ装置20に表示されている動画フレーム14の所定範囲16には、異常領域30が含まれている。一方、時点 t+a において、ディスプレイ装置20に表示されている動画フレーム14の所定範囲16には、異常領域30が含まれていない。
そこで情報処理装置2000は、前述した所定条件が満たされているか否かの判定を行う。ここで、図1(b)の例では、所定条件が満たされていないとする。つまり、ユーザが異常領域30を認識していないと推測されるとする。よって、情報処理装置2000は、前述した第1通知を行う。例えば図1では、動画フレーム14の枠線を太くして強調するという第1通知を行っている。
このような情報処理装置2000の動作によれば、異常領域30が動画データ12の所定範囲内に含まれなくなり、なおかつユーザがその異常領域30を認識していないと推測される場合に、通知が行われるようになる。こうすることで、認識していない異常領域30の存在をユーザに気付かせることができるため、ユーザが異常領域30を見逃してしまうことを防ぐことができる。よって、カメラ10を用いて行われる体内の検査の精度を向上させることができる。
以下、本実施形態についてさらに詳細を述べる。
<機能構成>
図2は、情報処理装置2000の機能構成を例示するブロック図である。情報処理装置2000は、検出部2020、判定部2040、及び通知部2060を有する。検出部2020は、動画データ12から異常領域30を検出する。判定部2040は、動画データ12の或る動画フレーム14(第1動画フレームと呼ぶ)の所定範囲16から異常領域30が検出され、その動画フレーム14よりも後に生成された動画フレーム14(第2動画フレームと呼ぶ)の所定範囲16からはその異常領域30が検出されない場合に、前述した所定条件が満たされているか否かを判定する。通知部2060は、この所定条件が満たされていないと判定された場合に前述した第1通知を行う。
<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は種々の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算処理装置である。メモリ1060は、RAM(Random Access Memory)などで実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、ROM、又はメモリカードなどで実現される補助記憶装置である。ただしストレージデバイス1080は、RAM など、主記憶装置の実現に用いられるハードウエアと同様のハードウエアで実現されてもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、カメラ10やディスプレイ装置20が接続される。
ネットワークインタフェース1120は、WAN(Wide Area Network)や LAN(Local Area Network)などの通信網に接続するためのインタフェースである。
ストレージデバイス1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、そのプログラムモジュールに対応する各機能を実現する。
<情報処理装置2000の利用環境の具体例>
図4は、情報処理装置2000の利用環境の具体例を示す図である。例えば情報処理装置2000は、スコープ40及び内視鏡システム50と共に利用される。スコープ40は内視鏡システム50と接続されている。また、スコープ40にはカメラ10が設けられている。このケースでは、動画データ12は、スコープ40に設けられたカメラ10によって生成される複数の動画フレーム14で構成される。内視鏡システム50は、動画データ12を情報処理装置2000へ出力する。例えば動画データ12は、内視鏡システム50に設けられている映像出力用のインタフェース(例えば HDMI(High-Definition Multimedia Interface)(登録商標)インタフェース)から、情報処理装置2000が有する映像入力用のインタフェースへ出力される。そして情報処理装置2000は、内視鏡システム50から取得した動画データ12を処理して、第1通知を行う。
ここで、後述するように、第1通知はディスプレイ装置20を用いて行われる表示であってもよいし、それ以外であってもよい。前者の場合、情報処理装置2000は、ディスプレイ装置20を制御して、第1通知を含めた動画データ12をディスプレイ装置20に表示させる。一方、後者の場合、動画データ12をディスプレイ装置20に表示させる処理は、情報処理装置2000によって行われてもよいし、他の装置(例えば内視鏡システム50)によって行われてもよい。動画データ12をディスプレイ装置20に表示させる処理が内視鏡システム50によって行われる場合、ディスプレイ装置20が情報処理装置2000に接続されている必要は無い。
なお、図4に示した構成はあくまで例示であり、情報処理装置2000の利用環境は図4に示した構成に限定されない。例えば動画データ12は、カメラ10から情報処理装置2000へ出力されてもよい。この場合、情報処理装置2000は、内視鏡システム50と接続されなくてもよい。
<処理の流れ>
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。S102からS114は、カメラ10から取得する各動画フレーム14について実行されるループ処理である。S102において、情報処理装置2000は、まだループ処理Aの対象としていない動画フレーム14のうち、最も生成時点が早い動画フレーム14を選択する。ここで選択される動画フレーム14を、動画フレームiと表記する。なお、既に全ての動画フレーム14についてループ処理Aが実行されている場合、例えば情報処理装置2000は、新たな動画フレーム14が生成されるまで待機する。その他にもこの場合、図5の処理は終了してもよい。
検出部2020は、動画フレームiの所定範囲16から異常領域30を検出する(S104)。動画フレームiの所定範囲16から異常領域30が検出される場合(S106:YES)、図5の処理はS114に進む。動画フレームiの所定範囲16から異常領域30が検出されない場合(S106:NO)、判定部2040は、動画フレームiよりも前にS104の対象となった動画フレームの所定範囲16から異常領域30が検出されているか否かを判定する(S108)。動画フレームiよりも前にS104の対象となった動画フレームの所定範囲16から異常領域30が検出されていない場合(S108:NO)、図5の処理はS114に進む。
動画フレームiよりも前にS104の対象となった動画フレームの所定範囲16から異常領域30が検出されている場合(S108:YES)、判定部2040は所定条件が満たされているか否かを判定する(S110)。所定条件が満たされていない場合(S110:NO)、通知部2060は第1通知を行う(S112)。一方、所定条件が満たされている場合(S110:YES)、図5の処理はS114に進む。
S114はループ処理Aの終端である。そのため、図5の処理は、S114の次にS102に進む。
なお、異常領域30を検出する処理(S104)の対象とされる動画フレーム14は、動画データ12に含まれる全ての動画フレーム14であってもよいし、一部の動画フレーム14であってもよい。後者の場合、例えば検出部2020は、所定数ごとに1つ(例えば10枚ごとに1枚)の動画フレーム14についてのみ、S104を実行する。
<動画データ12の取得:S102>
検出部2020が動画データ12を取得する方法は任意である。例えば検出部2020は、動画データ12が記憶されている記憶装置にアクセスすることで、動画データ12を取得する。動画データ12が記憶されている記憶装置は、カメラ10の内部に設けられていてもよいし、カメラ10の外部に設けられていてもよい。また例えば、検出部2020は、カメラ10から送信される動画データ12を受信することで、動画データ12を取得してもよい。さらに検出部2020は、カメラ10に接続されている他の装置(例えば前述した内視鏡システム50)から動画データ12を取得してもよい。
<異常領域30の検出:S104>
検出部2020は、動画データ12を構成する各動画フレーム14から異常領域30を検出する。ここで、体内が撮像されている画像を解析して異常な部位を検出する技術には、既存の技術を利用することができる。例えば、特徴量マッチングやテンプレートマッチングなどの手法が利用できる。例えば特徴量マッチングで腫瘍を検出する場合、腫瘍の外観(色、模様、又は形状など)の特徴を表す値(特徴量)を予め1つ以上定義しておく。検出部2020は、動画フレーム14の画像領域の中から、予め定めておいた腫瘍の特徴量との類似度が高い画像領域を、動画フレーム14から検出する。そして、検出部2020は、検出された画像領域を、異常領域30を表す画像領域として扱う。傷や異物を検出するケースについても同様の方法を採用できる。
なお、異物を検出したいケースにおいて、体内に入ってしまった異物が特定されているとする。この場合、その異物の特徴量を情報処理装置2000に対して指定できるようにしておくことが好適である。例えば、体内に入ってしまった異物の写真を情報処理装置2000に対して入力する。情報処理装置2000は、この写真を画像解析することで、検出対象の異物の特徴量を算出する。そして、検出部2020は、算出した特徴量を持つ異物を動画フレーム14から検出する。
<判定部2040による判定>
判定部2040は、第1動画フレームの所定範囲16から検出された異常領域30が、その後に生成された動画フレーム14の所定範囲16から検出されないことを特定する(S106)。言い換えれば、判定部2040は、第1動画フレームよりも後に生成された動画フレーム14のうち、その所定範囲16から、第1動画フレームの所定範囲16から検出された異常領域30が検出されないものを、第2動画フレームとして特定する。
例えば判定部2040は、異常領域30のトラッキングを行う。具体的には、判定部2040は、第1動画フレームの所定範囲16から検出される異常領域30について、その後に生成される各動画フレーム14でトラッキングを行う。そして、判定部2040は、このトラッキング対象の異常領域30が所定範囲16に含まれない動画フレーム14を、第2動画フレームとして特定する。なお、判定部2040は、或る動画フレーム14から異常領域30が検出され、なおかつその異常領域30がこれまでトラッキング対象になっていなかった場合に、その動画フレーム14を第1動画フレームとして扱う。動画データから検出されるオブジェクトをトラッキングする技術には、既存の技術を利用することができる。なお、判定部2040は、異常領域30を表す画像領域をトラッキングしてもよいし、異常領域30の周辺を含む所定の大きさ又は形状の画像領域をトラッキングしてもよい。また、判定部2040は、異常領域30ではなく、異常領域30の周辺の画像領域をトラッキングしてもよい。
なお、判定部2040が第2フレームを特定する方法は、トラッキングに限定されない。例えば判定部2040は、第1動画フレームの所定範囲16から検出された異常領域30を表す画像領域の特徴量を、その後に生成された各動画フレーム14の所定範囲16内で探索し、その特徴量を持つ画像領域が含まれない動画フレーム14のうちの1つを、第2動画フレームとしてもよい。
<所定条件が満たされているか否かの判定:S110>
判定部2040は、或る動画フレーム14の所定範囲16から異常領域30が検出された後(S106:YES)、その動画フレーム14よりも後に生成された動画フレーム14の所定範囲16からはその異常領域30が検出されない場合に(S108:NO)、前述した所定条件が満たされているか否かを判定する(S110)。この所定条件としては、様々なものを採用できる。以下、この所定条件について例示する。なお、特に言及しない限り、所定範囲16は、動画フレーム14の画像領域に含まれる任意の範囲とすることができ、動画フレーム14の画面領域全体とすることもできる。所定範囲16が動画フレーム14の中のどの範囲を表すかは、情報処理装置2000に予め設定されていてもよいし、情報処理装置2000からアクセス可能な記憶装置に記憶させておいてもよい。
<所定条件の例1>
動画データ12に含まれる異常領域30がユーザによって認識された場合、ユーザは、カメラ10の移動をやめたり、カメラ10の移動速度を遅くしたりすることにより、異常領域30を詳しく観察しようとする蓋然性が高い。よって、異常領域30がユーザによって認識された場合、動画データ12における異常領域30の移動速度が比較的遅いと考えられる。言い換えれば、異常領域30がユーザによって認識されていない場合、動画データ12における異常領域30の移動速度が比較的速いと考えられる。
そこで例えば、所定条件を、「第1動画フレームから第2動画フレームまでの動画データ12において、所定範囲16に含まれる異常領域30の移動速度の大きさを表す統計値が、所定値以下である」という条件とする。移動速度の大きさを表す統計値は、例えば最小値、最大値、又は平均値などである。上記所定値は、予め判定部2040に設定されていてもよいし、判定部2040からアクセス可能な記憶装置に記憶されていてもよい。
この所定条件によれば、第1動画フレームから第2動画フレームまでにおける異常領域30の移動速度が比較的遅い場合には、通知部2060による第1通知が行われない。よって、例えばユーザが異常領域30を認識してカメラ10の移動速度を遅くしたり、カメラ10の移動を一時的に停止したりした場合には、通知部2060による第1通知が行われない。一方で、第1動画フレームから第2動画フレームまでにおける異常領域30の移動速度が速い場合には、通知部2060による第1通知が行われる。よって、例えばユーザが異常領域30を認識せずにカメラ10を速く移動させ続けた場合には、通知部2060による第1通知が行われる。よって、ユーザが異常領域30を見逃してしまうことを防止することができる。
なお、動画データを解析することでその動画データから検出されるオブジェクト(本発明では異常領域30)の移動速度を算出する技術には、既存の技術を利用することができる。
<所定条件の例2>
動画データ12に含まれる異常領域30がユーザによって認識された場合、ユーザが何らかの行為をする蓋然性が高い。そこで例えば、上記所定条件を、「第1動画フレームの所定範囲16から異常領域30が検出された後、第2動画フレームの所定範囲16から異常領域30が検出されないと判定されるまでの間に、異常領域30に対するユーザによる所定の行為が検出される」という条件とする。第1動画フレームの所定範囲16から異常領域30が検出された後、第2動画フレームの所定範囲16から異常領域30が検出されないと判定されるまでの間に、ユーザによる所定の行為が検出された場合、判定部2040は、上記所定条件が満たされていると判定する。よって、通知部2060による第1通知が行われない。一方、上記の期間にユーザによる所定の行為が検出されない場合、判定部2040は、上記所定条件が満たされていないと判定する。よって、通知部2060による第1通知が行われる。
上述した所定の行為としては、様々なものを採用できる。例えば異常領域30を認識したユーザは、異常領域30が含まれる動画フレーム14を記憶装置に記憶させるために、キーボード入力やシャッターボタンの押下などの入力操作を行いうる。そこで、このような動画フレーム14を記憶装置に記憶させる入力操作を、上記所定の行為とする。
なお、このような所定の入力操作を認識する技術には、既存の技術を利用することができる。また、判定部2040は、記憶装置に記憶された動画フレーム14の所定範囲16に含まれる全ての異常領域30を、上記の入力操作の対象として扱う。
その他にも例えば、異常領域30を認識したユーザは、異常領域30に関する所見などを記録するために、文字入力操作を行いうる。そこで、このような文字入力操作を、上記所定の行為とする。このような文字入力操作を認識する技術には、既存の技術を利用することができる。
ここで、上記文字入力操作が特定の異常領域30を指定して行われるものである場合、判定部2040は、その指定された異常領域30を、ユーザの所定行為の対象とされた異常領域30として扱う。一方、上記文字入力操作が異常領域30を指定せずに行われる物である場合、例えば判定部2040は、上記文字入力操作が行われた際に動画フレーム14の所定範囲16に含まれる全ての異常領域30を、ユーザの所定行為の対象とされた異常領域30として扱う。
その他にも例えば、異常領域30を認識したユーザは、マウスなどのポインティングデバイスを使って異常領域30やその周辺をポインティングする入力操作を行いうる。例えば検査中、医師が被検者に対して異常領域30に関する説明を行う場合、ディスプレイ装置20に表示されている異常領域30をポインティングしながら説明することが考えられる。そこで、このように異常領域30やその周辺をポインティングする操作を、上記所定の行為とする。
なお、このようなポインティング操作を認識する技術には、既存の技術を利用することができる。また、判定部2040は、ポインティング操作でポインティングされた異常領域30を、ユーザの所定行為の対象とされた異常領域30として扱う。
その他にも例えば、異常領域30を認識したユーザは、1)異常領域30やその周辺に対して照射される光の色や強度を変える行為、2)異常領域30又はその周辺へ色素散布や染色をする行為、3)異常領域30やその周辺に対して薬を投与する行為、又は4)異常領域30やその周辺の組織を採取する行為などを行いうる。そこで、例えばこのような行為を、上記所定行為とする。
上記1)から4)の行為は、ユーザが内視鏡システムなどに対して所定の入力操作を行うことによって行われる。例えば一般の内視鏡システムでは、カメラが設けられているスコープに、光を照射する機構(光源など)、色素や染色液を噴射する機構、水や薬を投与する機構、及び組織を採取するための機構などが設けられている。そして、これらの機構はユーザが内視鏡視システムに対して行う所定の入力操作に応じて動作する。言い換えれば、前述した各種の行為が行われる際には、その行為を実現する機構を動作させるための入力操作が行われる。
そこで、例えば判定部2040は、これらの機構を動作させるための入力操作が行われたことを検出することで、ユーザによって上記所定の行為が行われたことを検出する。例えば判定部2040は、内視鏡システムなどから上記入力操作が行われたことを示す通知を受信することで、上記入力操作が行われたことを検出する。
ここで、判定部2040は、この入力操作が検出されたタイミングにおいてディスプレイ装置20に表示されている動画フレーム14の所定範囲16に含まれる異常領域30(カメラ10によって撮影されている異常領域30)を、ユーザの所定行為の対象とされた異常領域30として扱う。言い換えれば、判定部2040は、生成時点が上記入力操作の検出時点の直近である動画フレーム14の所定範囲16に含まれる異常領域30を、ユーザの所定行為の対象とされた異常領域30として扱う。
なお、1)から4)の行為を判定部2040が検出する方法は、上述した入力操作を検出する方法に限定されない。例えば判定部2040は、動画データ12を画像解析することにより、上述の行為を検出してもよい。例えば判定部2040は、第1の動画フレーム14から第2の動画フレーム14までの各動画フレーム14について明るさの分布や色の分布を比較することで、カメラ10の撮像範囲の明るさや色の変化を検出する。こうすることで判定部2040は、カメラ10の撮像範囲を照らしている光の色や強度が変更されたことや、染色液が噴射されたことを検出する。
このように画像解析を利用する場合、例えば判定部2040は、明るさや色が変化したと判定された動画フレーム14の所定範囲16に含まれる異常領域30を、ユーザの所定行為の対象とされた異常領域30として扱う。
<所定条件の例3>
ここでは、所定範囲16が動画フレーム14の画像領域全体であるとする。さらに、動画フレーム14の中に、所定範囲16よりも小さい第2所定範囲18が設定されているとする。図6は、第2所定範囲18が設定されている動画フレーム14を例示する図である。例えば第2所定範囲18は、その中心位置が動画フレーム14の中心位置にあり、動画フレーム14と同じ形状であり、なおかつその面積が動画フレーム14の80%であるという範囲である。
所定範囲16内であって第2所定範囲18の外である領域は、カメラ10の撮像範囲の中心から外れている部分と言える。ここで一般に、ディスプレイ装置に表示される動画を閲覧する場合、表示画面の中心に近い領域ほどユーザが認識しやすい。そのため、所定範囲16内であって第2所定範囲18の外にある領域は、ユーザが認識しにくい領域であると言える。よって、所定範囲16の中に入らなかった異常領域30は、ユーザに認識されていない蓋然性が高い。
そこで、例えば所定条件を、「第1動画フレームと第2動画フレームとの間に生成された1つ以上の動画フレーム14のうち、少なくとも1つの動画フレーム14の第2所定範囲18から異常領域30が検出される」という条件にする。この所定条件によれば、異常領域30が所定範囲16に入ったものの、第2所定範囲18には入らないまま所定範囲16の外に出た場合に、通知部2060による第1通知が行われる。よって、ユーザが異常領域30を認識していない蓋然性が高い状況下で、通知部2060による第1通知が行われる。そのため、異常領域30がユーザに見逃されてしまうことを防ぐことができる。
図7は、動画データ12における異常領域30の動きを例示する図である。図7(a)において、異常領域30は、所定範囲16に入った後、第2所定範囲18を通過して、所定範囲16から出ている。よってこの場合、通知部2060による通知は行われない。
一方、図7(b)において、異常領域30は、所定範囲16に入った後、第2所定範囲18に入ることなく、所定範囲16から出ている。よってこの場合、通知部2060による通知が行われる。
なお、画像に含まれるオブジェクトが画像内の所定範囲に含まれるかどうかを判定する技術には、既存の技術を利用することができる。
<<所定条件の組み合わせ>>
判定部2040は、上述した所定条件のいずれか1つのみを利用してもよいし、いずれか2つ以上を利用してもよい。後者の場合、例えば判定部2040は、複数の所定条件の少なくとも1つが満たされている場合に「所定条件が満たされている」と判定し、複数の所定条件のいずれもが満たされていない場合に「所定条件が満たされていない」と判定する。このケースでは、複数の所定条件のいずれもが満たされていない場合に第1通知が行われる。
その他にも例えば、判定部2040は、複数の所定条件の全てが満たされている場合に「所定条件が満たされている」と判定し、複数の所定条件のいずれか一つでも満たされていない場合に「所定条件が満たされていない」と判定する。このケースでは、複数の所定条件のいずれか一つでも満たされていない場合に第1通知が行われる。
その他にも例えば、判定部2040は、複数の所定条件のうち、満たされている所定条件の数が所定値以上である場合に「所定条件が満たされている」と判定し、満たされている所定条件の数が所定値未満である場合に「所定条件が満たされていない」と判定する。このケースでは、満たされている所定条件の数が所定値未満である場合に第1通知が行われる。
<通知部2060による第1通知:S112>
上述した所定条件が満たされていない場合(S110:NO)、通知部2060による第1通知が行われる(S112)。通知部2060による第1通知には、様々なものを採用できる。以下、その具体例について説明する。
<<第1通知の例1>>
通知部2060は、第1通知として、ビープ音や音声メッセージなどの所定の音声をスピーカから出力させる。この場合、情報処理装置2000にはスピーカが接続されている。この所定の音声は、通知部2060に予め設定されていてもよいし、通知部2060からアクセス可能な記憶装置に記憶されていてもよい。
<<第1通知の例2>>
通知部2060は、第1通知として、動画データ12を強調させる表示をディスプレイ装置20に行わせる。例えば動画データ12の強調表示は、動画データ12を囲う枠線を表示させたり、既に表示されている動画データ12の枠線を太くしたりする表示である。その他にも例えば、動画データ12の強調表示は、動画データ12やその枠線を点滅させる表示である。
図8は、動画データ12の強調表示を例示する図である。図8(a)は、第1通知が行われる前のディスプレイ装置20である。一方、図8(b)は、第1通知が行われた後のディスプレイ装置20である。図8(b)では、動画データ12を囲う枠線の太さが、図8(a)の場合よりも太くなっている。
<<第1通知の例3>>
通知部2060は、第1通知として、ディスプレイ装置20に、第1動画フレーム以降の動画データ12の所定範囲16内において異常領域30が最後に検出された位置を示す表示を行わせてもよい。図9は、異常領域30が最後に検出された所定範囲16内の位置を示す表示を例示する図である。図9において、所定範囲16は動画フレーム14の画像領域全体である。図9(a)は、動画データ12における異常領域30の移動の軌跡を表している。図9(b)は、図9(a)に示す軌跡で異常領域30が移動した場合において行われる第1通知を例示している。
異常領域30が所定範囲16から出たときの異常領域30の位置は、位置80である(図9(a)参照)。そこで、通知部2060は、位置80を示す表示90をディスプレイ装置20に表示させている。
<<第1通知の例4>>
通知部2060は、第1通知として、所定範囲16から出た異常領域30を再び所定範囲16の中に入れるためのガイドとなる表示をディスプレイ装置20に表示させてもよい。図10は、上述のガイドを例示する図である。図10(a)は、動画データ12における異常領域30の移動の軌跡を表している。図10(b)は、図10(a)に示す軌跡で異常領域30が移動した場合において行われる第1通知を例示している。
所定範囲16の外へ異常領域30が移動した場合、その異常領域30の動きを追跡すれば、異常領域30を再度所定範囲16の中に入れることができる。よってユーザは、異常領域30が移動した方向と同じ方向へカメラ10の撮像範囲を動かせ、異常領域30を所定範囲16の中に入れることができる。
図10(a)において、所定範囲16から外で出たときの異常領域30の移動方向は方向100で表される。そこで図10(b)において、通知部2060は、方向100を表すガイド110(第1通知)をディスプレイ装置20に表示させている。こうすることで、ユーザは、異常領域30を再度所定範囲16に入れるための操作を容易に行うことができる。このガイドの表示は、所定範囲16が動画フレーム14の画像領域全体であるケースにおいて特に有効である。このケースでは、所定範囲16の外にある異常領域30がディスプレイ装置20に表示されないためである。
ここで、動画データから検出されるオブジェクトの移動方向を算出する技術には、例えばオプティカルフローを算出する方法などの既存技術を利用することができる。
<<第1通知の例5>>
通知部2060は、第1通知として、第1動画フレームと第2動画フレームの間の動画フレーム14であって異常領域30が所定範囲16の中に含まれるものをディスプレイ装置20に表示させてもよい。図11は、異常領域30が所定範囲16の中に含まれる動画フレーム14が第1通知として表示される様子を例示する図である。図11(a)は、動画データ12における異常領域30の軌跡を表している。異常領域30は、時点 t1 と時点 t2 の間において所定範囲16の中に含まれている。そこで通知部2060は、時点 t1 と時点 t2 の間に生成された動画フレーム14の内の一つを、ディスプレイ装置20に表示させる。図11(b)は、時点 t1 と時点 t2 の間に生成された動画フレーム14がディスプレイ装置20に表示されている様子を示している。図11(b)において、情報処理装置2000は、第1通知として表示される動画フレーム14を、ディスプレイ装置20の第1領域22に表示させている。また、情報処理装置2000は、動画データ12を、ディスプレイ装置20の第2領域24に表示させている。
動画データ12を見ながら検査を行っているユーザの視点からすると、第1領域22に表示される動画フレーム14は、ユーザによって認識されなかった蓋然性が高い異常領域30を含む過去の動画フレーム14であると言える。このようにユーザによって認識されなかった蓋然性が高い異常領域30を含む動画フレーム14を、動画データ12と共にディスプレイ装置20に表示させることにより、ユーザは、ディスプレイ装置20の第1領域22を見ることで後からその異常領域30を認識することができる。よって、ユーザが異常部位を見逃してしまうことを防ぐことができる。
ここで、通知部2060が第1領域22に表示させる動画フレーム14を決定する方法は様々である。以下、その方法を具体的に例示する。
<<<生成時点を利用する方法>>>
通知部2060は、第1動画フレームと第2動画フレームとの間に生成された動画フレーム14のうち、異常領域30が含まれる最後の(最も新しい)動画フレーム14を、第1領域22に表示させる動画フレーム14として決定する。この方法によれば、ユーザは、異常領域30がカメラ10によって撮像されていた最後の位置を把握することができる。
<<<異常を表す確度を利用する方法>>>
通知部2060は、第1動画フレームと第2動画フレームとの間に生成された各動画フレーム14について、異常領域30を表す画像領域が体内の異常を表す確度を特定する。例えば特徴量マッチングやテンプレートマッチングで動画フレーム14から異常領域30を検出する場合、異常領域30を表す画像領域が体内の異常を表す確度は、その画像領域と、予め定義しておいた特徴量やテンプレートとの類似度の高さで表される。通知部2060は、この確度が最も高い動画フレーム14を、第1領域22に表示させる動画フレーム14として決定する。
動画フレーム14に含まれる異常領域30が体内の異常を表す確度が高いほど、その動画フレーム14に含まれる異常領域30が体内の異常をよく表していると言える。そのため、異常領域30が体内の異常を表す確度が高い動画フレーム14を第1領域22に表示させることで、被検者の体内にある異常をユーザがより正確に把握できるようになる。
<<<異常領域30の位置を利用する方法>>>
通知部2060は、第1動画フレームと第2動画フレームとの間に生成された各動画フレーム14の中から、異常領域30の位置が動画フレーム14の中心位置に最も近いものを特定し、特定された動画フレーム14を、第1領域22に表示させる動画フレーム14とする。具体的には、通知部2060は、各動画フレーム14について、動画フレーム14に含まれる異常領域30と動画フレーム14の中心座標との距離を算出する。そして、通知部2060は、その距離が最も小さい動画フレーム14を、第1領域22に表示させる動画フレーム14として決定する。
一般に、カメラによって生成される画像に含まれる物は、その物が画像の中心付近にあるほど見やすい。そのため、このように異常領域30の位置が動画フレーム14の中心位置に近い動画フレーム14を第1領域22に表示させることで、ユーザにとって異常領域30が見やすくなる。
<<<動画フレーム14全体のコントラストを利用する方法>>>
通知部2060は、第1動画フレームと第2動画フレームとの間に生成された各動画フレーム14のうち、動画フレーム14全体のコントラストが最も大きいものを、第1領域22に表示させる動画フレーム14として決定する。具体的には、通知部2060は、各動画フレーム14について、動画フレーム14全体のコントラストを表す指標値を算出する。そして通知部2060は、算出した指標値を比較することにより、コントラストが最も大きい動画フレーム14を特定し、特定された動画フレーム14を、第1領域22に表示させる動画フレーム14とする。なお、コントラストを表す指標値には、例えば Michelson コントラストなどを利用することができる。
一般に、画像のコントラストが大きいほど、その画像に含まれる個々の物を判別しやすい。そのため、このように動画フレーム14全体のコントラストが大きい動画フレーム14を第1領域22に表示させることで、ユーザにとって異常領域30が見やすくなる。
<<<異常領域30を表す画像領域のコントラストを利用する方法>>>
通知部2060は、動画フレーム14全体のコントラストではなく、異常領域30を表す画像領域のコントラストを利用してもよい。つまり、通知部2060は、第1動画フレームから第2動画フレームの間に生成された各動画フレーム14について、異常領域30を表す画像領域のコントラストの指標値を算出する。そして、通知部2060は、算出された指標値を比較することにより、異常領域30を表す画像領域のコントラストが最も大きい動画フレーム14を特定し、この特定した動画フレーム14を第1領域22に表示させる。
この方法によれば、コントラストが大きい異常領域30がディスプレイ装置20に表示されるため、異常領域30の中がユーザにとって見やすくなる。
<動画フレーム14の記憶>
通知部2060は、前述した第1領域22に表示させる動画フレーム14を、第1領域22に表示させると共に、又は第1領域22に表示させることに代えて、記憶装置に記憶させてもよい。以下、動画フレーム14を記憶させる記憶装置を画像記憶部120と呼ぶ。図12は、画像記憶部120と接続されている情報処理装置2000を例示する図である。なお、画像記憶部120は、情報処理装置2000の内部に設けられていてもよい。
画像記憶部120に記憶させる動画フレーム14を決定する方法は、前述した第1領域に表示させる動画フレーム14を決定する方法と同様である。
通知部2060は、画像記憶部120に記憶させる動画フレーム14を適宜加工してもよい。例えば通知部2060は、異常領域30の位置が分かる画像(後述する重畳マーク60など)を重畳させた動画フレーム14を画像記憶部120に記憶させる。こうすることで、動画フレーム14のどこに異常領域30があるかを容易に把握することができる。その他にも例えば、通知部2060は、動画フレーム14と、その動画フレーム14に含まれる異常領域30の位置を特定する情報とを対応づけて、画像記憶部120に記憶させる。
ここで前述したように、ユーザがキーボードやシャッターボタンなどを操作することで、動画フレーム14を記憶装置に記憶させることがある。例えば一般に、内視鏡システムではシャッターボタンが設けられており、そのシャッターボタンをユーザが押すことで、その押されたタイミングでカメラによって生成された動画フレームが記憶装置に記憶される。
情報処理装置2000は、このようにユーザの操作に応じ、その操作で指定された動画フレーム14を画像記憶部120に記憶させてもよい。以下、このようにユーザの操作に応じて画像記憶部120に記憶される動画フレーム14を、指定保存フレームと呼ぶ。一方、通知部2060によって画像記憶部120に記憶された動画フレーム14(情報処理装置2000が自動的に画像記憶部120に記憶させた動画フレーム14)を、自動保存フレームと呼ぶ。
指定保存フレームと自動保存フレームは、画像記憶部120に記憶される契機や、これらがユーザにとって持つ意味が異なる。例えば、指定保存フレームは、ユーザによって認識された蓋然性が高い異常領域30を含む動画フレーム14である一方、自動保存フレームは、ユーザによって認識されていない蓋然性が高い異常領域30を含む動画フレーム14である。このような違いから、指定保存フレームと自動保存フレームは、互いに識別可能な態様で画像記憶部120に記憶されることが好ましい。
指定保存フレームと自動保存フレームを識別可能に画像記憶部120に記憶させる方法は任意である。例えば、情報処理装置2000は、動画フレーム14と対応づけて、その動画フレーム14が指定保存フレームと自動保存フレームのどちらであるかを表すフラグを画像記憶部120に記憶させる。図13は、画像記憶部120に記憶される情報のフォーマットをテーブル形式で例示する図である。図13に示されるテーブルをテーブル200と表記する。テーブル200は、動画フレーム202及び種別フラグ204という2つの列を有する。動画フレーム202は、動画フレーム14自体を表す。種別フラグ204は、動画フレーム202に示される動画フレーム14が指定保存フレームと自動保存フレームのどちらであるかを表す。
なお、指定保存フレームと自動保存フレームとを識別可能に記憶させる方法は、前述したフラグを設ける方法に限定されない。例えば情報処理装置2000は、指定保存フレームと自動保存フレームを、互いに異なる記憶装置に記憶させるようにしてもよい。
<異常領域30を表す表示>
情報処理装置2000は、ディスプレイ装置20に表示される動画フレーム14について、その動画フレーム14に含まれる異常領域30を表す表示を行う機能を有していてもよい。こうすることで、ユーザが動画フレーム14に含まれる異常領域30を容易に把握することができるようになる。以下、この表示を第1表示と呼ぶ。
第1表示としては、様々なものを採用することができる。例えば情報処理装置2000は、第1領域22に表示される動画フレーム14の異常領域30に重畳するように、所定のマークを異常領域30に表示させる。以下、このマークを重畳マークと呼ぶ。そしてこの例では、重畳マークが第1表示である。図14は、異常領域30に重畳される種々の重畳マーク60を例示する図である。
その他にも例えば、情報処理装置2000は、動画フレーム14の付近に、異常領域30を指し示す第1表示(以下、指示マーク)を行ってもよい。図15は、異常領域30を指し示す指示マーク70を例示する図である。
[実施形態2]
図16は、実施形態2の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様である。
実施形態2の情報処理装置2000は第2通知部2080を有する。第2通知部2080は、第2動画フレームよりも後に生成された動画フレーム14の所定範囲16から、第1通知の対象となった異常領域30が検出された場合に、所定の通知を行う。この所定の通知を第2通知と呼ぶ。
ここで、「第2動画フレームよりも後に生成された動画フレーム14の所定範囲16から、第1通知の対象となった異常領域30が検出された」ことは、ユーザに認識されないまま或る異常領域30が所定範囲16の外に出た蓋然性が高い状況において、その異常領域30が再度所定範囲16の中に入ったことを意味する。通知部2060による第1通知を受けたユーザは、カメラ10を操作して、第1通知の対象となった異常領域30が所定範囲16に入れようとすると考えられる。そのため、その異常領域30が所定範囲16に入ったことは、ユーザが意図通りにカメラ10を操作できたことを意味する。よって、このことをユーザが認識できるように、ユーザへ何らかの通知を行うと、ユーザにとって情報処理装置2000の利便性が高くなる。そこで本実施形態の情報処理装置2000は、上述の第2通知を行う。
実施形態1で説明したように、情報処理装置2000は、動画データ12から検出される各異常領域30について、その異常領域30が検出された第1動画フレームよりも後に生成された第2動画フレームからその異常領域30が検出されず、なおかつ所定条件が満たされない場合に、その異常領域30を対象とした第1通知を行う。本実施形態の通知部2060は、この第1通知を行った際に、第1通知の対象とした異常領域30を特定するための情報を記憶装置に記憶させておく。この情報を履歴情報と呼ぶ。
第2通知部2080は、動画フレーム14から異常領域30が検出された場合に、その異常領域30が履歴情報に示されているか否かを判定する。その異常領域30が履歴情報に示されている場合、第2通知部2080は、その異常領域30を対象として第2通知を行う。一方、その異常領域30が履歴情報に示されていない場合、第2通知部2080は、その異常領域30を対象とした第2通知を行わない。
<処理の流れ>
図17は、実施形態2の情報処理装置2000によって実行される処理の流れを例示する図である。図17に示される一連の処理は、検出部2020によって動画フレーム14から異常領域30が検出された後(S106:YES)に実行される。
第2通知部2080は、検出部2020によって検出された異常領域30が、履歴情報に含まれるか否かを判定する(S202)。異常領域30が履歴情報に含まれる場合(S202:YES)、第2通知部2080は、その異常領域30を対象として第2通知を行う(S204)。一方、異常領域30が履歴情報に含まれない場合(S202:NO)、図17の処理は終了する。
<第2通知の態様>
第2通知としては、様々なものを採用できる。以下、その具体例を説明する。
<<第2通知の例1>>
第2通知部2080は、第2通知として、所定の音声をスピーカから出力させる。通知として所定の音声を利用する方法については、「第1通知の例1」として実施形態1で説明した通りである。なお、第1通知も音声とする場合、第1通知と第2通知には、互いに異なる音声を利用することが好適である。
<<第2通知の例2>>
第2通知部2080は、第2通知として、動画データ12を強調させる表示をディスプレイ装置20に行わせる。動画データ12を強調させる方法については、「第1通知の例2」として実施形態1で説明した通りである。なお、第1通知も動画データ12を強調させる表示とする場合、第1通知と第2通知とで、動画データ12を強調させる態様に差異をつけることが好適である。例えば、第1通知は、動画データ12の枠線を太くする表示とし、第2通知は、動画データ12を点滅させる表示とする。
<<第2通知の例3>>
前提として、「第1通知の例5」として説明したように、第1通知として「第1動画フレームと第2動画フレームの間の動画フレーム14であって異常領域30が所定範囲16の中に含まれるもの」がディスプレイ装置20の第1領域22に表示されるとする。つまり、ユーザが認識していない蓋然性が高い異常領域30が所定範囲16に含まれる動画フレーム14が、第1領域22に表示されるケースである。
このケースにおいて、例えば第2通知部2080は、第2通知として、第1領域22に表示されている動画フレーム14のうち、第2通知の対象とする異常領域30が含まれる動画フレーム14を強調する表示を行う。
図18は、第1領域22に表示されている動画フレーム14を強調表示させる第2通知を例示する図である。図18において、第1領域22には2つの動画フレーム14(動画フレーム14−1及び動画フレーム14−2)が表示されている。そして、これらの動画フレーム14に含まれる異常領域30は互いに異なる。これは、ユーザによって認識されていない異常領域30が複数あることを意味する。
ここで、第2領域に表示されている動画フレーム14−3(カメラ10によって生成された最新の動画フレーム14)の所定範囲16から、異常領域30−3が検出されている。そして、この異常領域30は、動画フレーム14−2に含まれる異常領域30−2と同じであるとする。
そこで第2通知部2080は、第2通知として、動画フレーム14−2の枠線を太くする強調表示を行わせている。こうすることで、ユーザは、カメラ10の撮像範囲の所定範囲16に含まれている異常領域30が、動画フレーム14−2に含まれる異常領域30と同じものであることを把握することができる。言い換えれば、ユーザは、自分が認識していなかった異常領域30のうち、どの異常領域30を動画データ12で現在確認しているのかを把握することができる。
<履歴情報について>
通知部2060は、第1通知の対象となった異常領域30を特定できる情報を履歴情報に記憶させておく。例えばこの情報は、異常領域30を表す画像領域の特徴量(例えばその画像領域の色、形状、又は模様を表すパラメタ)である。以下、履歴情報の構成の具体例を示す。
図19は、履歴情報をテーブル形式で例示する図である。図19に示されるテーブルをテーブル300と呼ぶ。テーブル300は、異常領域識別子302及びデータ304という2つの列を持つ。異常領域識別子302は、異常領域30に割り当てる識別子である。データ304は、「異常領域30の特徴量、その異常領域30が検出された動画フレーム14の識別子」という組を示す。通知部2060は、第1通知を行う際、第1通知の対象となった異常領域30について、「その異常領域30の特徴量、その異常領域30が検出された動画フレーム14の識別子」という組をデータ304に示すレコードを生成して、テーブル300に格納する。
第2通知部2080は、動画フレーム14の所定範囲16から検出された異常領域30の特徴量と類似する特徴量を示すレコードを、テーブル300から検索する。そして、第2通知部2080は、動画フレーム14から検出された異常領域30の特徴量と類似する特徴量を示すレコードがあった場合、第2通知を行う。一方、そのようなレコードがなかった場合、第2通知部2080は第2通知を行わない。
例えば、検出部2020によって動画フレーム14の所定範囲16から検出された異常領域30の特徴量が v6 であるとする。そして、この v6 が、図19のテーブル300に示されている特徴量 v3 に類似するとする。この場合、第2通知部2080が v6 に類似する特徴量をテーブル300から検索すると、その結果として、図19のテーブル300の3行目のレコードが見つかる。よって、第2通知部2080は、第2通知を行う。例えば、img3 という識別子を持つ動画フレーム14がディスプレイ装置20の第1領域22に表示されている場合、第2通知部2080は、この動画フレーム14を強調表示させる第2通知を行う。
なお、通知部2060は、同じ異常領域30を表す複数の動画フレーム14から得られる情報を、履歴情報の1つのレコードに格納してもよい。例えば前述したように、第1動画フレームから検出された異常領域30がその後に生成された各動画フレーム14でトラッキングされる場合、その異常領域30が複数の動画フレーム14から検出されうる。そこで、第1通知の対象である異常領域30が検出された複数の動画フレーム14それぞれについての「異常領域30の特徴量、動画フレーム14の識別子」という組を、テーブル300の1つのレコードに格納しておく。
異常領域30の特徴量は、異常領域30が撮像された角度などによって異なりうる。そのため、第1通知の対象となった異常領域30について複数の特徴量を記憶させておくことで、第2通知の対象とすべき異常領域30をより高い精度で特定できる。
<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 体内が撮影された動画から前記体内の異常領域を検出する検出手段と、
前記動画の第1動画フレームの所定範囲内から前記異常領域が検出され、なおかつ前記第1動画フレームよりも後に生成された前記動画の第2動画フレームの前記所定範囲内からはその異常領域が検出されない場合に、所定条件が満たされているか否かを判定する判定手段と、
前記所定条件が満たされていないと判定された場合に第1通知を行う通知手段と、を有する情報処理装置。
2. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体である、1.に記載の情報処理装置。
3. 前記所定条件は、前記第1動画フレームと前記第2動画フレームの間に生成されたいずれか1つ以上の動画フレームにおいて、前記所定範囲に含まれなおかつ前記所定範囲よりも小さい第2所定範囲から前記異常領域が検出されることである、2.に記載の情報処理装置。
4. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体よりも小さい領域である、1.に記載の情報処理装置。
5. 前記所定条件は、前記第1動画フレームから前記第2動画フレームまでの動画において、前記所定範囲に含まれる前記異常領域の移動速度が所定値以下であることである、2.又は4.に記載の情報処理装置。
6. 前記所定条件は、前記第1動画フレームの所定範囲から前記異常領域が検出された後、前記第2動画フレームの所定範囲から前記異常領域が検出されないと判定されるまでの間に、前記異常領域に対するユーザによる所定の行為が検出されることである、2.又は4.に記載の情報処理装置。
7. 前記動画はディスプレイ装置に表示されており、
前記通知手段は、前記所定条件が満たされていないと判定された前記異常領域を含む動画フレームを前記ディスプレイ装置に表示させる、1.乃至6に記載の情報処理装置。
8. 前記第1通知の対象となった前記異常領域が検出された前記第2動画フレームよりも後に生成された動画フレームからその異常領域が検出された場合に、第2通知を行う第2通知手段を有する、1.乃至7.いずれか一つに記載の情報処理装置。
9. 前記第2通知は、ディスプレイ装置に表示されておりなおかつ前記第2通知の対象となる前記異常領域が含まれる動画フレームに対する強調表示である、8.に記載の情報処理装置。
10. コンピュータによって実行される制御方法であって、
体内が撮影された動画から前記体内の異常領域を検出する検出ステップと、
前記動画の第1動画フレームの所定範囲内から前記異常領域が検出され、なおかつ前記第1動画フレームよりも後に生成された前記動画の第2動画フレームの前記所定範囲内からはその異常領域が検出されない場合に、所定条件が満たされているか否かを判定する判定ステップと、
前記所定条件が満たされていないと判定された場合に第1通知を行う通知ステップと、を有する制御方法。
11. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体である、10.に記載の制御方法。
12. 前記所定条件は、前記第1動画フレームと前記第2動画フレームの間に生成されたいずれか1つ以上の動画フレームにおいて、前記所定範囲に含まれなおかつ前記所定範囲よりも小さい第2所定範囲から前記異常領域が検出されることである、11.に記載の制御方法。
13. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体よりも小さい領域である、10.に記載の制御方法。
14. 前記所定条件は、前記第1動画フレームから前記第2動画フレームまでの前記動画において、前記所定範囲に含まれる前記異常領域の移動速度が所定値以下であることである、11.又は13.に記載の制御方法。
15. 前記所定条件は、前記第1動画フレームの所定範囲から前記異常領域が検出された後、前記第2動画フレームの所定範囲から前記異常領域が検出されないと判定されるまでの間に、前記異常領域に対するユーザによる所定の行為が検出されることである、11.又は13.に記載の制御方法。
16. 前記動画はディスプレイ装置に表示されており、
前記通知ステップは、前記所定条件が満たされていないと判定された前記異常領域を含む動画フレームを前記ディスプレイ装置に表示させる、10.乃至15に記載の制御方法。
17. 前記第1通知の対象となった前記異常領域が検出された前記第2動画フレームよりも後に生成された前記動画の動画フレームからその異常領域が検出された場合に、第2通知を行う第2通知ステップを有する、10.乃至16.いずれか一つに記載の制御方法。
18. 前記第2通知は、ディスプレイ装置に表示されておりなおかつ前記第2通知の対象となる前記異常領域が含まれる動画フレームに対する強調表示である、17.に記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
この出願は、2017年5月25日に出願された日本出願特願2017−103349号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (19)

  1. 体内が撮影された動画から前記体内の異常領域を検出する検出手段と、
    前記動画の第1動画フレームの所定範囲内から前記異常領域が検出され、なおかつ前記第1動画フレームよりも後に生成された前記動画の第2動画フレームの前記所定範囲内からはその異常領域が検出されない場合に、所定条件が満たされているか否かを判定する判定手段と、
    前記所定条件が満たされていないと判定された場合に第1通知を行う通知手段と、を有する情報処理装置。
  2. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体である、請求項1に記載の情報処理装置。
  3. 前記所定条件は、前記第1動画フレームと前記第2動画フレームの間に生成されたいずれか1つ以上の動画フレームにおいて、前記所定範囲に含まれなおかつ前記所定範囲よりも小さい第2所定範囲から前記異常領域が検出されることである、請求項2に記載の情報処理装置。
  4. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体よりも小さい領域である、請求項1に記載の情報処理装置。
  5. 前記所定条件は、前記第1動画フレームから前記第2動画フレームまでの動画において、前記所定範囲に含まれる前記異常領域の移動速度が所定値以下であることである、請求項2又は4に記載の情報処理装置。
  6. 前記所定条件は、前記第1動画フレームの所定範囲から前記異常領域が検出された後、前記第2動画フレームの所定範囲から前記異常領域が検出されないと判定されるまでの間に、前記異常領域に対するユーザによる所定の行為が検出されることである、請求項2又は4に記載の情報処理装置。
  7. 前記動画はディスプレイ装置に表示されており、
    前記通知手段は、前記所定条件が満たされていないと判定された前記異常領域を含む動画フレームを前記ディスプレイ装置に表示させる、請求項1乃至6に記載の情報処理装置。
  8. 前記第1通知の対象となった前記異常領域が検出された前記第2動画フレームよりも後に生成された動画フレームからその異常領域が検出された場合に、第2通知を行う第2通知手段を有する、請求項1乃至7いずれか一項に記載の情報処理装置。
  9. 前記第2通知は、ディスプレイ装置に表示されておりなおかつ前記第2通知の対象となる前記異常領域が含まれる動画フレームに対する強調表示である、請求項8に記載の情報処理装置。
  10. コンピュータによって実行される制御方法であって、
    体内が撮影された動画から前記体内の異常領域を検出する検出ステップと、
    前記動画の第1動画フレームの所定範囲内から前記異常領域が検出され、なおかつ前記第1動画フレームよりも後に生成された前記動画の第2動画フレームの前記所定範囲内からはその異常領域が検出されない場合に、所定条件が満たされているか否かを判定する判定ステップと、
    前記所定条件が満たされていないと判定された場合に第1通知を行う通知ステップと、を有する制御方法。
  11. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体である、請求項10に記載の制御方法。
  12. 前記所定条件は、前記第1動画フレームと前記第2動画フレームの間に生成されたいずれか1つ以上の動画フレームにおいて、前記所定範囲に含まれなおかつ前記所定範囲よりも小さい第2所定範囲から前記異常領域が検出されることである、請求項11に記載の制御方法。
  13. 前記動画の各動画フレームの前記所定範囲はその動画フレーム全体よりも小さい領域である、請求項10に記載の制御方法。
  14. 前記所定条件は、前記第1動画フレームから前記第2動画フレームまでの前記動画において、前記所定範囲に含まれる前記異常領域の移動速度が所定値以下であることである、請求項11又は13に記載の制御方法。
  15. 前記所定条件は、前記第1動画フレームの所定範囲から前記異常領域が検出された後、前記第2動画フレームの所定範囲から前記異常領域が検出されないと判定されるまでの間に、前記異常領域に対するユーザによる所定の行為が検出されることである、請求項11又は13に記載の制御方法。
  16. 前記動画はディスプレイ装置に表示されており、
    前記通知ステップは、前記所定条件が満たされていないと判定された前記異常領域を含む動画フレームを前記ディスプレイ装置に表示させる、請求項10乃至15に記載の制御方法。
  17. 前記第1通知の対象となった前記異常領域が検出された前記第2動画フレームよりも後に生成された前記動画の動画フレームからその異常領域が検出された場合に、第2通知を行う第2通知ステップを有する、請求項10乃至16いずれか一項に記載の制御方法。
  18. 前記第2通知は、ディスプレイ装置に表示されておりなおかつ前記第2通知の対象となる前記異常領域が含まれる動画フレームに対する強調表示である、請求項17に記載の制御方法。
  19. 請求項10乃至18いずれか一項に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
JP2019520218A 2017-05-25 2018-05-18 情報処理装置、制御方法、及びプログラム Active JP6716853B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017103349 2017-05-25
JP2017103349 2017-05-25
PCT/JP2018/019310 WO2018216618A1 (ja) 2017-05-25 2018-05-18 情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018216618A1 true JPWO2018216618A1 (ja) 2020-04-02
JP6716853B2 JP6716853B2 (ja) 2020-07-01

Family

ID=64396429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019520218A Active JP6716853B2 (ja) 2017-05-25 2018-05-18 情報処理装置、制御方法、及びプログラム

Country Status (5)

Country Link
US (1) US11553829B2 (ja)
EP (1) EP3632295A4 (ja)
JP (1) JP6716853B2 (ja)
CN (1) CN110662476B (ja)
WO (1) WO2018216618A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7093833B2 (ja) * 2018-04-26 2022-06-30 オリンパス株式会社 移動支援システム及び移動支援方法
EP3861921A4 (en) * 2018-10-04 2021-12-01 NEC Corporation INFORMATION PROCESSING DEVICE, CONTROL METHOD AND PROGRAM
WO2020166528A1 (ja) * 2019-02-13 2020-08-20 日本電気株式会社 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
CN110536177B (zh) * 2019-09-23 2020-10-09 北京达佳互联信息技术有限公司 视频生成方法、装置、电子设备及存储介质
WO2021149169A1 (ja) 2020-01-21 2021-07-29 日本電気株式会社 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
JP7427766B2 (ja) 2020-03-03 2024-02-05 富士フイルム株式会社 画像選択支援装置、画像選択支援方法、及び画像選択支援プログラム
JPWO2021220822A1 (ja) * 2020-04-27 2021-11-04

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512173A (ja) * 2006-08-21 2010-04-22 エスティーアイ・メディカル・システムズ・エルエルシー 内視鏡からの映像を用いるコンピュータ支援解析
JP2010172673A (ja) * 2009-02-02 2010-08-12 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法
JP2011036371A (ja) * 2009-08-10 2011-02-24 Tohoku Otas Kk 医療画像記録装置
WO2011132468A1 (ja) * 2010-04-21 2011-10-27 コニカミノルタエムジー株式会社 医用画像表示装置及びプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1166342C (zh) 2000-01-20 2004-09-15 深圳市辉大高科技发展有限公司 导纳式血液循环自动检测方法
JP4434698B2 (ja) 2003-11-13 2010-03-17 株式会社東芝 X線ct装置
US7480528B2 (en) 2004-07-23 2009-01-20 Cardiac Pacemakers, Inc. Method and apparatus for monitoring heart failure patients with cardiopulmonary comorbidities
US20070268280A1 (en) * 2004-08-23 2007-11-22 Manabu Fujita Image Display Apparatus, Image Display Method, and Image Display Program
JP2006198106A (ja) * 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
US8005279B2 (en) 2005-03-22 2011-08-23 Osaka University Capsule endoscope image display controller
CN1333552C (zh) 2005-03-23 2007-08-22 北京首信科技有限公司 基于机器学习的用户行为异常的检测方法
JP2007159934A (ja) 2005-12-15 2007-06-28 Hitachi Medical Corp 比較読影支援装置
JP5165872B2 (ja) 2006-10-11 2013-03-21 住友電気工業株式会社 フェルール及び該フェルールを用いた光導波路用コネクタの製造方法及び光導波路用コネクタ
JP5281826B2 (ja) 2008-06-05 2013-09-04 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
EP2423323A4 (en) * 2009-04-21 2012-11-28 Nec Corp METHOD OF TUMOR ASSESSMENT
JP5056798B2 (ja) * 2009-06-08 2012-10-24 日本電気株式会社 判定装置、指紋入力装置、判定方法および判定プログラム
JP5385713B2 (ja) 2009-07-16 2014-01-08 学校法人東京女子医科大学 臨床検査データ解析表示装置
JP5597021B2 (ja) * 2010-04-15 2014-10-01 オリンパス株式会社 画像処理装置及びプログラム
JP5211269B2 (ja) 2010-12-14 2013-06-12 オリンパスメディカルシステムズ株式会社 撮像装置
JP2012170774A (ja) 2011-02-24 2012-09-10 Fujifilm Corp 内視鏡システム
CN103442628B (zh) 2011-03-16 2016-06-15 皇家飞利浦有限公司 用于检查宫颈的医疗器械
JP6045417B2 (ja) 2012-12-20 2016-12-14 オリンパス株式会社 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
WO2014181782A1 (ja) 2013-05-07 2014-11-13 独立行政法人国立がん研究センター 胃がんの再発を予測する方法
WO2015098235A1 (ja) * 2013-12-25 2015-07-02 オリンパス株式会社 内視鏡システムおよび画素補正方法
JP6425125B2 (ja) 2014-01-31 2018-11-21 パナソニックIpマネジメント株式会社 歯茎マッサージ装置
JP6334288B2 (ja) 2014-06-23 2018-05-30 オリンパス株式会社 撮像装置およびカプセル内視鏡
JP6503167B2 (ja) 2014-08-27 2019-04-17 株式会社Nobori 読影レポートシステム
CN105249549A (zh) 2014-11-14 2016-01-20 北京至感传感器技术研究院有限公司 用于检测乳房生理变化的装置
KR102381140B1 (ko) 2015-02-25 2022-03-31 엘지전자 주식회사 디지털 디바이스 및 그의 운전자 모니터링 방법
JP6536153B2 (ja) 2015-04-27 2019-07-03 コニカミノルタ株式会社 医用画像表示装置及びプログラム
JP6549711B2 (ja) 2015-06-11 2019-07-24 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
EP3360461A4 (en) * 2015-11-10 2019-05-08 Olympus Corporation ENDOSCOPE DEVICE
JP6591880B2 (ja) 2015-12-02 2019-10-16 APRESIA Systems株式会社 通信装置およびその制御方法
JP6602969B2 (ja) * 2016-05-23 2019-11-06 オリンパス株式会社 内視鏡画像処理装置
WO2018180250A1 (ja) * 2017-03-28 2018-10-04 富士フイルム株式会社 計測支援装置、内視鏡システム、及びプロセッサ
WO2018216617A1 (ja) * 2017-05-25 2018-11-29 日本電気株式会社 情報処理装置、制御方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512173A (ja) * 2006-08-21 2010-04-22 エスティーアイ・メディカル・システムズ・エルエルシー 内視鏡からの映像を用いるコンピュータ支援解析
JP2010172673A (ja) * 2009-02-02 2010-08-12 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡検査支援方法
JP2011036371A (ja) * 2009-08-10 2011-02-24 Tohoku Otas Kk 医療画像記録装置
WO2011132468A1 (ja) * 2010-04-21 2011-10-27 コニカミノルタエムジー株式会社 医用画像表示装置及びプログラム

Also Published As

Publication number Publication date
US20200170485A1 (en) 2020-06-04
EP3632295A1 (en) 2020-04-08
CN110662476B (zh) 2022-02-11
JP6716853B2 (ja) 2020-07-01
EP3632295A4 (en) 2021-03-10
US11553829B2 (en) 2023-01-17
WO2018216618A1 (ja) 2018-11-29
CN110662476A (zh) 2020-01-07

Similar Documents

Publication Publication Date Title
JP6716853B2 (ja) 情報処理装置、制御方法、及びプログラム
JP6799301B2 (ja) 情報処理装置、制御方法、及びプログラム
EP3968272A1 (en) Medical endoscope image identification method and system, and endoscope image system
US9805469B2 (en) Marking and tracking an area of interest during endoscopy
KR102203565B1 (ko) 해부학적 영역들의 비디오 영상들의 콘텐츠 관리를 위한 방법 및 시스템
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
US11074732B2 (en) Computer-aided diagnostic apparatus and method based on diagnostic intention of user
JP6217632B2 (ja) 撮像制御装置、記憶システムおよび記憶媒体
JP2022106849A5 (ja) 画像処理装置、撮像装置、制御方法、プログラム、及び記憶媒体
US11957300B2 (en) Information processing apparatus, control method, and program
US9569838B2 (en) Image processing apparatus, method of controlling image processing apparatus and storage medium
EP3945459A1 (en) Devices, systems, and methods for labeling objects of interest during a medical procedure
JP7253152B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023546698A (ja) 医療用画像及び映像の撮像、表示、操作のためのシステムおよび方法
CN108968892B (zh) 一种肠镜下盲区监测的系统及方法
CN115019940A (zh) 基于眼部图像的消化道疾病的预测方法、装置及电子设备
US20220343644A1 (en) Information processing device, display method, and nontransitory computer-readable medium for storing program
JP7448923B2 (ja) 情報処理装置、情報処理装置の作動方法、及びプログラム
EP4024405A1 (en) An apparatus and method for moderating a skin lesion detection model

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R150 Certificate of patent or registration of utility model

Ref document number: 6716853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250