JP7253152B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7253152B2
JP7253152B2 JP2020550252A JP2020550252A JP7253152B2 JP 7253152 B2 JP7253152 B2 JP 7253152B2 JP 2020550252 A JP2020550252 A JP 2020550252A JP 2020550252 A JP2020550252 A JP 2020550252A JP 7253152 B2 JP7253152 B2 JP 7253152B2
Authority
JP
Japan
Prior art keywords
output
threshold
abnormal
group
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020550252A
Other languages
English (en)
Other versions
JPWO2020071086A1 (ja
Inventor
郁磨 ▲高▼橋
真貴 佐野
公康 田光
元靖 奥津
千恵美 田中
雅弘 西光
仁 今岡
憲一 上條
隆二 浜本
豊 齋藤
真善 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
National Cancer Center Japan
Original Assignee
NEC Corp
National Cancer Center Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, National Cancer Center Japan filed Critical NEC Corp
Publication of JPWO2020071086A1 publication Critical patent/JPWO2020071086A1/ja
Application granted granted Critical
Publication of JP7253152B2 publication Critical patent/JP7253152B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Endoscopes (AREA)

Description

本発明は、撮像画像を用いた人その他の動物の体内の検査に関する。
人や動物の体内が撮像された画像を利用することで、体内に異常がないかどうかを調べる検査が行われている。その一例として、内視鏡検査がある。内視鏡検査では、医師が、先端にカメラが設けられたスコープを被検者の鼻や口、肛門などから挿入して、そのスコープを体内で動かす。こうすることにより、体内の様子がカメラによって撮像される。医師は、カメラによって撮像されている体内の様子をディスプレイ装置に描出される動画を見ながら、被検者の体内に異常な部位がないかどうかをチェックしていく。
このような画像を利用した検査をサポートする技術が開発されている。例えば特許文献1は、画像から病変を検出し、検出した病変を他の部分とは異なる色調に変更することで、病変を他の部分と容易に識別できるようにする技術を開示している。特許文献2は、画像に含まれる病変の検出及びその重症度を算出し、病変の位置やその重症度を示す印を画像にマーキングする技術を開示している。特許文献3は、画像から病変を検出した際、その病変の大きさに応じた表示態様で、その病変に関するアイコンを出力する技術を開示している。特許文献4は、内視鏡装置によって生成される観察画像を表示するシステムにおいて、観察画像から病変候補領域が継続して検出された場合に、その病変候補領域に対応する位置を強調して表示する技術を開示している。
特開2017-060806号公報 特開2016-158681号公報 特開2015-112429号公報 国際公開第2017/081976号
被検者の体内でカメラを動かして検査する方法では、体内でカメラを移動させていくため、医師が観察できる部位が時間と共に変わっていく。そのため、医師が異常な部位を見逃してしまう可能性があり、実際に、検査を担当する医師によって病変発見率に差が生じている。そこで、被検者の体内が撮像された画像を用いた検査の質を向上させるために、検査をサポートする多様な技術が求められている。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、被検者の体内が撮像された画像を用いた検査の質を向上させる新たな技術を提供することである。
本発明の情報処理装置は、1)体内が撮影された動画を構成する複数の動画フレームそれぞれから、体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出部と、2)検出された異常領域に関する出力情報を出力する出力部と、を有する。
出力部は、出力情報の出力が行われていない状態において、異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、出力情報の出力を開始し、出力情報の出力が行われている状態において、スコアが第2閾値以下になったら、出力情報の出力を終了する。第2閾値は第1閾値よりも小さい。
本発明の制御方法は、コンピュータによって実行される。当該制御方法は、1)体内が撮影された動画を構成する複数の動画フレームそれぞれから、体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出ステップと、2)検出された異常領域に関する出力情報を出力する出力ステップと、を有する。
出力ステップにおいて、出力情報の出力が行われていない状態において、異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、出力情報の出力を開始し、出力情報の出力が行われている状態において、スコアが第2閾値以下になったら、出力情報の出力を終了する。第2閾値は第1閾値よりも小さい。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、被検者の体内が撮像された画像を用いた検査の質を向上させる新たな技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1の情報処理装置を概念的に例示する図である。 情報処理装置の機能構成を例示するブロック図である。 情報処理装置を実現するための計算機を例示する図である。 情報処理装置の利用環境の具体例を示す図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 異常領域の位置を表すマークのバリエーションを例示する図である。 動画フレームに異常領域が含まれることを表すメッセージを例示する図である。 実施形態2の情報処理装置の機能構成を例示するブロック図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。
[実施形態1]
図1は、実施形態1の情報処理装置2000を概念的に例示する図である。図1は、情報処理装置2000の理解を容易にするためにその動作の一例を示しているにすぎず、情報処理装置2000の機能を何ら限定するものではない。
カメラ10は、人その他の動物の検査に利用される。以下、検査対象の人などを被検者と呼ぶ。カメラ10は、被検者の体内を撮像可能な任意のカメラであり、その撮像結果を表す動画フレーム14を生成する。例えばカメラ10は、内視鏡カメラである。動画データ12は、互いに異なる時間に生成された複数の動画フレーム14で構成される。
情報処理装置2000のユーザ(例えば医師)は、動画データ12を見ることで、被検者の体内の様子を把握する。より具体的には、ユーザは、被検者の体内に異常な部分があるか否かや、その異常の程度などを把握する。ここで、「体内の異常な部分」は、例えば病変がある部分、傷ついている部分、又は異物がある部分などである。病変とは、病気が原因で起こる生体の変化であり、例えば腫瘍などである。
ここで、動画データ12を解析して得られる有用な情報を提示することで、内視鏡検査などの精度向上が期待できる。例えば内視鏡検査では、医師などが、被検者の体内をカメラで観察しながら体内の異常部位を探す。この際、異常部位がカメラによって撮像されたにもかかわらず、医師がそれを見逃してしまう可能性がある。そのため、医師が異常部位を把握しやすいようにサポートを行い、異常部位の見逃しを防ぐことが好適である。
そこで本実施形態の情報処理装置2000は、以下のような動作を行う。まず情報処理装置2000は、動画データ12を取得して、動画データ12を構成する動画フレーム14を画像解析する。具体的には、情報処理装置2000は、動画フレーム14から異常領域30を検出する。異常領域30は、被検者の体内の異常な部分を表すと推測される領域である。例えば図1の異常領域30は、腫瘍を含む領域(病変を表す領域)である。言い換えれば、情報処理装置2000は、動画フレーム14の中から、体内の異常な部位を表す確率が高い(例えば、所定の閾値以上である)画像領域を1つ以上検出し、検出した各画像領域を、異常領域30として扱う。
情報処理装置2000は、異常領域30の検出に基づいて、出力情報を出力する。例えば出力情報は、動画フレーム14における異常領域30の位置を表すマーク(枠など)である。例えば情報処理装置2000は、ユーザが閲覧できるように動画データ12をディスプレイ装置に出力する際、異常領域30が検出された動画フレーム14については、その異常領域30の位置を表すマークを重畳して出力するようにする。こうすることで、動画データ12を見たユーザが、体内の異常な部分を容易に把握できるようになる。
その他にも例えば、出力情報は、ビープ音などの所定の音声を表すデータであってもよい。このような所定の音声を出力させることにより、この音声を聞いたユーザが、体内から異常な部分が検出されたことを容易に把握できるようになる。
ここで、このように異常領域30の検出に基づく出力を行う際、ナイーブな手法として、「異常領域30が検出されたら出力情報を出力し、異常領域30が検出されなかったら出力情報を出力しない」という方法が考えられる。例えば前述の、動画フレーム14に異常領域30の位置を表すマークを重畳させる例で考えれば、異常領域30が検出された動画フレーム14には異常領域30の位置を表すマークを重畳させ、異常領域30が検出されなかった動画フレーム14にはそのようなマークを重畳させないという方法になる。
しかしながらこの方法では、ユーザにとって出力情報が扱いにくい(見にくい又は聞きにくい)ものとなる蓋然性が高い。これは、体内の異常な部分を撮像することで複数の動画フレーム14を得た場合に、必ずしも全ての動画フレーム14から異常領域30が検出されるとは限らず、異常領域30が検出されない動画フレーム14も存在しうるためである(理由は後述する)。このような状況下で前述したナイーブな手法を適用すると、体内のほぼ同じ範囲を撮像して動画データ12を得たとしても、出力情報が出力されたり、出力されなかったりすることとなる。例えば前述したマークであれば、体内のほぼ同じ範囲を撮像することで得られた動画データ12をユーザに見せる場合でも、マークが表示されたり表示されなかったりすることになり、ユーザの目からは、マークが不規則な短い時間間隔で点滅しているように見えてしまう。
そこで情報処理装置2000は、次のような動作をする。まず情報処理装置2000は、出力情報の出力が行われていない状態において、異常領域30が検出される動画フレーム14の数の割合に関するスコア(以下、検出スコア)を算出し、検出スコアが第1閾値以上になったら、出力情報の出力を開始する。言い換えれば、検出スコアが第1閾値未満である間は、出力情報の出力が行われない。例えば検出スコアは、異常領域30の検出を試みた所定数の動画フレーム14のうち、異常領域30が検出された動画フレーム14の数の割合(すなわち、異常領域30が検出された動画フレーム14の数/上記所定数)として算出される。
このように、異常領域30が検出される動画フレーム14の数の割合が一定程度大きくなるまで出力情報の出力を行わないことで、例えばノイズが誤って異常領域30として誤検出された場合など、短い間だけ(例えば1フレームだけ)異常領域30が検出されるような場合には、出力情報の出力が行われない。そのため、ユーザにとって出力情報が扱いにくいものとなってしまうことを防ぐことができる。
また、情報処理装置2000は、出力情報の出力が行われている状態においても検出スコアを算出し、検出スコアが閾値以下になったら、出力情報の出力を終了する。ここで、仮にこの閾値を第1閾値と同じ値にすると(すなわち、検出スコアが第1閾値以下になったら出力情報の出力を終了するようにすると)、例えば検出スコアが第1閾値に近い値で増減した場合に、不規則な短い時間間隔で、出力情報が出力されたり、出力されなかったりを繰り返す可能性がある。そのため、前述したように、出力情報がユーザにとって扱いにくいものとなってしまう。
この点、一度異常領域30について出力情報の出力が開始されたら、その異常領域30がノイズなどによって誤検出されたものである蓋然性は低いと考えられる。そこで情報処理装置2000では、第2閾値を第1閾値よりも小さい値にする。こうすることで、検出スコアが第1閾値以上となって出力情報の出力が開始されたら、その後検出スコアが第1閾値以下となっても、検出スコアが第2閾値以上である間は、出力情報の出力が継続される。すなわち、異常領域30が検出される動画フレーム14の数の割合が一定程度大きくなって出力情報の出力が開始された後は、その割合が多少小さくなったとしても、出力情報の出力が継続されるようになる。そのため、出力情報がユーザにとって扱いやすいものとなる。
以下、本実施形態についてさらに詳細を述べる。
<機能構成>
図2は、情報処理装置2000の機能構成を例示するブロック図である。情報処理装置2000は検出部2020及び出力部2040を有する。検出部2020は、動画データ12を構成する複数の動画フレーム14それぞれから異常領域30を検出する。出力部2040は、検出された異常領域30に関する出力情報を出力する。ここで、出力情報の出力が行われていない状態において、出力部2040は、異常領域30が検出される動画フレーム14の数の割合に基づく検出スコアが第1閾値以上になったら、出力情報の出力を開始する。一方、出力情報の出力が行われている状態において、出力部2040は、上記検出スコアが第2閾値以下になったら、出力情報の出力を終了する。
<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)やサーバマシンなどの据え置き型の計算機である。その他にも例えば、計算機1000は、スマートフォンやタブレット端末などの可搬型の計算機である。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、カメラ10やディスプレイ装置20が接続される。
ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
ストレージデバイス1080は、情報処理装置2000の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
<情報処理装置2000の利用環境の具体例>
図4は、情報処理装置2000の利用環境の具体例を示す図である。例えば情報処理装置2000は、スコープ40及び内視鏡システム50と共に利用される。スコープ40は内視鏡システム50と接続されている。また、スコープ40にはカメラ10が設けられている。このケースでは、動画データ12は、スコープ40に設けられたカメラ10によって生成される複数の動画フレーム14で構成される。内視鏡システム50は、動画データ12を情報処理装置2000へ出力する。例えば動画データ12は、内視鏡システム50に設けられている映像出力用のインタフェース(例えば HDMI(High-Definition Multimedia Interface)(登録商標)インタフェース)から、情報処理装置2000が有する映像入力用のインタフェースへ出力される。そして情報処理装置2000は、内視鏡システム50から取得した動画データ12を処理して、出力情報の出力を行う。
ここで、後述するように、出力情報はディスプレイ装置20を用いて行われる表示であってもよいし、それ以外であってもよい。前者の場合、情報処理装置2000は、ディスプレイ装置20を制御して、出力情報と共に動画データ12をディスプレイ装置20に表示させる。一方、後者の場合、動画データ12をディスプレイ装置20に表示させる処理は、情報処理装置2000によって行われてもよいし、他の装置(例えば内視鏡システム50)によって行われてもよい。動画データ12をディスプレイ装置20に表示させる処理が内視鏡システム50によって行われる場合、ディスプレイ装置20が情報処理装置2000に接続されている必要は無い。
なお、図4に示した構成はあくまで例示であり、情報処理装置2000の利用環境は図4に示した構成に限定されない。例えば情報処理装置2000は、カメラ10、内視鏡システム50、又はディスプレイ装置20の内部に設けられてもよい。その他にも例えば、動画データ12は、カメラ10から情報処理装置2000へ出力されてもよい。この場合、情報処理装置2000は、内視鏡システム50と接続されなくてもよい。
<処理の流れ>
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。S102からS122は、所定の終了条件が満たされるまで繰り返し実行されるループ処理Aである。所定の終了条件には、任意の終了条件を予め設定しておく。例えば所定の終了条件は、ユーザから所定の入力操作(終了ボタンの押下など)を受け付けることである。
情報処理装置2000は、所定の終了条件が満たされているか否かを判定する(S102)。所定の終了条件が満たされている場合、図5の処理は終了する。一方、所定の終了条件が満たされていない場合、図5の処理はS104に進む。
出力部2040は、処理対象の動画フレームを取得する(S104)。検出部2020が処理対象とする動画フレーム14は、例えば、まだ処理していない動画フレーム14のうちで最も生成時刻が早い動画フレームである。検出部2020は、処理対象の動画フレームについて、異常領域30の検出を行う(S106)。出力部2040は検出スコアを算出する(S108)。出力部2040は、出力情報の出力が行われているか否かを判定する(S110)。
出力情報の出力が行われていない場合(S110:NO)、出力部2040は、検出スコアが第1閾値以上であるか否かを判定する(S112)。検出スコアが第1閾値以上である場合(S112:YES)、出力部2040は、出力情報の出力を開始する(S114)。
出力情報の出力が行われている場合(S110:YES)、出力部2040は、検出スコアが第2閾値以下であるか否かを判定する(S116)。検出スコアが第2閾値以下である場合(S116:YES)、出力部2040は、出力情報の出力を終了する(S118)。検出スコアが第2閾値より大きい場合(S116:NO)、出力部2040は、出力情報を出力する(S120)。
S122はループ処理Aの終端であるため、図5の処理はS102に戻る。
<動画フレーム14の取得:S104>
検出部2020は、処理対象の動画フレーム14を取得する(S104)。検出部2020が動画フレーム14を取得する方法は任意である。例えば検出部2020は、動画フレーム14が記憶されている記憶装置にアクセスすることで、動画フレーム14を取得する。動画フレーム14が記憶されている記憶装置は、カメラ10の内部に設けられていてもよいし、カメラ10の外部に設けられていてもよい。また例えば、検出部2020は、カメラ10から送信される動画フレーム14を受信することで、動画フレーム14を取得してもよい。さらに検出部2020は、カメラ10に接続されている他の装置(例えば前述した内視鏡システム50)から動画フレーム14を取得してもよい。
なお、検出部2020は、動画フレーム14を取得する際、動画フレーム14を1つずつ取得してもよいし、動画フレーム14を複数まとめて(例えば、動画データ12を構成する全ての動画フレーム14を一括で)取得してもよい。前者の場合、例えば検出部2020は、カメラ10によって新たな動画フレーム14が生成される度に、その動画フレーム14を取得する。後者の場合、例えば検出部2020は、所定の時間間隔で、まだ取得していない複数の動画フレーム14を取得する。
<異常領域30の検出:S106>
検出部2020は、動画データ12を構成する各動画フレーム14から異常領域30を検出する(S106)。具体的には、検出部2020は、動画フレーム14の中から、体内の異常部位を表す確度が閾値以上である画像領域を検出し、その画像領域を異常領域30とする。ここで、体内が撮像されている画像を解析することで、体内の異常部位を表す画像領域を検出する技術には、既存の技術を利用することができる。
例えば異常領域30の検出には、特徴量マッチングやテンプレートマッチングなどの手法が利用できる。例えば特徴量マッチングで腫瘍を検出する場合、腫瘍の外観(色、模様、又は形状など)の特徴を表す値(特徴量)を予め1つ以上定義しておく。検出部2020は、動画フレーム14の画像領域の中から、予め定めておいた腫瘍の特徴量との類似度が閾値以上である画像領域を、動画フレーム14から検出する。そして、検出部2020は、検出された画像領域を、異常領域30を表す画像領域として扱う。傷や異物を検出するケースについても同様の方法を採用できる。
その他にも例えば、動画フレーム14から異常領域30を検出する検出器を機械学習により生成しておき、その検出器を利用して異常領域30の検出を行ってもよい。検出器のモデルには、ニューラルネットワークやサポートベクトルマシンなどの様々なモデルを採用することができる。なお、画像から特定の特徴を持つ領域を検出する検出器を機械学習により生成する技術には、既存の技術を利用することができる。
なお、異物を検出したいケースにおいて、体内に入ってしまった異物が特定されているとする。この場合、その異物の特徴量を情報処理装置2000に対して指定できるようにしておくことが好適である。例えば、体内に入ってしまった異物の写真を情報処理装置2000に対して入力する。情報処理装置2000は、この写真を画像解析することで、検出対象の異物の特徴量を算出する。そして、検出部2020は、算出した特徴量を持つ異物を動画フレーム14から検出する。
<検出スコアの算出:S108>
出力部2040は、検出スコアを算出する(S108)。前述した様に、検出スコアは、異常領域30が検出される動画フレーム14の数の割合に基づいて算出される。例えば出力部2040は、異常領域30が検出される動画フレーム14の数の割合を算出し、その割合そのものを、検出スコアとして用いる。
ここで、異常領域30が検出される動画フレーム14の数の割合を算出する方法には、様々な方法を採用することができる。例えば出力部2040は、或る動画フレーム14について異常領域30を検出する処理を行ったら、その動画フレーム14を含む過去所定数の動画フレーム14のうち、異常領域30が検出された動画フレーム14の数の割合(異常領域30が検出された動画フレーム14の数/所定数)値を、異常領域30が検出される動画フレーム14の数の割合とする。
例えば、出力部2040が動画フレームXから異常領域30を検出したとする。また、動画フレームXを含む過去10枚の動画フレーム14のうち、5枚の動画フレーム14から異常領域30が検出されたとする。この場合、出力部2040は、検出スコアとして 1/2 を算出する。
その他にも例えば、出力部2040は、異常領域30が検出された動画フレーム14の数そのものを、検出スコアとしてもよい。例えば、出力部2040が動画フレームXから異常領域30を検出したとする。また、動画フレームXを含む過去10枚の動画フレーム14のうち、5枚の動画フレーム14から異常領域30が検出されたとする。この場合、出力部2040は、検出スコアを5とする。
<<異常領域30の同定>>
ここで、検出スコアは、同一の異常部位を表す異常領域30ごとに算出される。例えば或る動画フレームXから、異常部位Aを表す異常領域30と、異常部位Bを表す異常領域30が検出されたとする。この場合、出力部2040は、異常部位Aを表す異常領域30が検出される動画フレーム14の数の割合に基づく検出スコアと、異常部位Bを表す異常領域30が検出される動画フレーム14の数に基づく検出スコアのそれぞれを算出する。例えば、動画フレームXを含む過去10枚の動画フレーム14のうち、異常部位Aを表す異常領域30が検出された動画フレーム14は5枚であり、異常部位Bを表す異常領域30が検出された動画フレーム14は3枚であるとする。この場合、出力部2040は、異常部位Aを表す異常領域30についての検出スコアとして 1/2 を算出し、異常部位Bを表す異常領域30についての検出スコアとして 3/10 を算出する。
このように同一の異常部位を表す異常領域30ごとに検出スコアを算出するために、検出部2020は、それぞれ異なる動画フレーム14から検出された複数の異常領域30を、互いに同一の異常部位を表す異常領域30ごとにグループ分けする。すなわち、異常領域30の同定を行う。そして、出力部2040は、同一の異常部位を表す異常領域30のグループごとに、前述した検出スコアを算出する。
ここで、異常領域30の同定には、動画データの各動画フレームから検出されるオブジェクトについて同定を行う既存の技術を利用することができる。例えば、異常領域30の同定は、異常領域30の特徴量の類似度に基づいて行うことができる。
<確度に基づく重み付け>
出力部2040が算出する検出スコアは、異常領域30が検出される動画フレーム14の数や割合そのものでなくてもよい。前述した様に、検出部2020は、各異常領域30について、その異常領域30が異常部位を表す確度を算出する。そこで例えば、出力部2040は、過去所定数の動画フレーム14について、同じグループに属する異常領域30(同じ異常部位を表す異常領域30)それぞれが異常部位を表す確度の統計値(積算値や平均値など)を算出し、この統計値を、その異常領域30についての検出スコアとして算出する。
例えば上記所定数を10とし、検出部2020が、過去10枚の動画フレーム14のうち、3つの動画フレームX、Y、及びZから、それぞれ同じ異常部位Aを表す異常領域30を検出したとする。そして、動画フレームX、Y、及びZから検出された異常領域30それぞれにおいて、異常部位を表す確度が 0.9、0.7、及び 0.4 であったとする。この場合、出力部2040は、これらの確度の積算値である 2.0 を、異常部位Aを表す異常領域30の検出スコアとして算出する。
なお、出力部2040は、前述した確度の統計値に代えて、確度の統計値を上記所定数で割った値を検出スコアとしてもよい。
<出力が行われているか否かの判定:S110>
出力部2040は、出力情報の出力が行われているか否かの判定を行う(S110)。この判定は、例えば、出力の状態を表す出力フラグを記憶装置に記憶させておき、その出力フラグを参照することで実現する。例えば出力フラグは、値が0であれば非出力状態を表し、値が1であれば出力状態を表す。出力フラグの初期値は0に設定しておく。
出力部2040は、出力フラグの値が1であれば、出力情報の出力が行われていると判定する。一方、出力部2040は、出力フラグの値が0であれば、出力情報の出力が行われていないと判定する。また、出力部2040は、出力情報の出力を開始する時に(S114)、出力フラグの値を1に変更する。一方、出力部2040は、出力情報の出力を終了する時に(S118)、出力フラグの値を0に変更する。
<出力情報の出力:S114、S120>
出力部2040は、出力情報の出力が行われていない状態において(S110:NO)、検出スコアが第1閾値以上になったら(S112:YES)、出力情報の出力を開始する(S114)。また、出力情報の出力が行われている状態において(S110:YES)、検出スコアが第2閾値より大きければ(S116:NO)、出力情報を出力する(S120)。例えば出力情報は、表示や音声である。以下、表示と音声それぞれのケースについて例示する。
<<表示の出力>>
異常領域30の検出に基づく表示には、様々なものを採用できる。例えば異常領域30の検出に基づく表示は、動画フレーム14から検出された異常領域30の位置を表すマークである。すなわち、出力部2040は、処理対象の動画フレーム14に対し、その動画フレーム14から検出された異常領域30の位置を表すマークを重畳させる。図6は、異常領域30の位置を表すマーク60のバリエーションを例示する図である。
例えば出力部2040は、ディスプレイ装置20に動画データ12(複数の動画フレーム14)を出力する。この際、出力情報の出力を行わない場合には、出力部2040は、動画フレーム14をそのまま出力する。一方、出力情報の出力を行う場合には、出力部2040は、マーク60を重畳した動画フレーム14を出力する。
その他にも例えば、異常領域30の検出に基づく表示は、動画フレーム14に異常領域30が含まれることを表すメッセージである。図7は、動画フレーム14に異常領域30が含まれることを表すメッセージを例示する図である。図7において、出力部2040は、動画データ12を含むウインドウ70をディスプレイ装置20に表示させている。出力情報を出力する状態においては、出力部2040は、動画データ12の上にメッセージ72を表示させている。
ここで前述した様に、仮に検出スコアを考慮せず、動画フレーム14から異常領域30が検出されたメッセージ72を出力し、動画フレーム14から異常領域30が検出されなかったらメッセージ72を出力しない(消去する)という態様でメッセージ72が出力されると、不規則な短い時間間隔でメッセージ72の表示・非表示が繰り返されるということが起こりうる。その結果、ユーザにはメッセージ72が不規則に点滅しているように見えてしまい、メッセージ72が見にくくなってしまう。
この点、情報処理装置2000によれば、検出スコアを考慮した制御を行うことにより、不規則な短い時間間隔でメッセージ72の表示・非表示が繰り返されるということが起こらないため、メッセージ72がユーザにとって見やすいものになる。
その他にも例えば、異常領域30の検出に基づく表示は、異常領域30が含まれる動画フレーム14を強調する表示である。例えば強調表示の例としては、動画フレーム14の枠を太くしたり、動画フレーム14の枠の色を変えたりするといったものがある。このような強調表示も、検出スコアを考慮せずに行うと、ユーザにとって見にくいものとなってしまう。例えば、動画フレーム14の枠が不規則な短い時間間隔で変化するようになってしまう。この点、情報処理装置2000によれば、このように動画フレーム14の枠が不規則な短い時間間隔で変化するということは起こらず、ユーザにとって見やすい態様で強調表示を実現できる。
ここで、出力部2040は、前述した種々の表示を複数種類表示させてもよい。例えば図7において、メッセージ72に加え、異常領域30の位置を表すマーク60を表示させてもよい。
出力情報の出力先は、ディスプレイ装置に限定されない。例えば出力部2040は、出力情報を重畳させた動画データ12を、記憶装置に記憶させてもよい。
<<音声の出力>>
出力部2040は、異常領域30の検出に基づく表示に代えて、又はその表示と共に、音声を出力してもよい。例えば出力部2040は、出力が行われていない状態において(S110:NO)、検出スコアが第1閾値以上になったら(S112:YES)、所定の音声(例えばビープ音)を表す音声データの出力を開始する(S114)。そして、出力が行われている状態において(S110:YES)、検出スコアが第2閾値以下になったら(S116:YES)、所定の音声の出力を終了する(S118)。
音声データは、例えば、情報処理装置2000に接続されているスピーカに対して出力される。これにより、スピーカから、音声データによって表される所定の音声が出力される。また、音声データは、予め出力部2040からアクセス可能な記憶装置に記憶させておく。
仮に検出スコアを考慮せずに、異常領域30の検出に応じて音声を出力するとする。この場合、不規則な短い時間間隔で表示の出力・非出力が繰り返されるおそれがあることと同様の理由により、不規則な短い時間間隔で音声の出力・非出力が繰り返されるおそれがあり、ユーザにとって音声が聞きづらいものになってしまう。
[実施形態2]
図8は、実施形態2の情報処理装置2000の機能構成を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
実施形態2の情報処理装置2000は閾値設定部2060を有する。閾値設定部2060は、同一の異常部位を表す異常領域30のグループごとに第1閾値を設定する。そのため、出力部2040は、同一の異常部位を表す異常領域30のグループごとに算出した検出スコアを、そのグループについて設定された第1閾値と比較する。
例えば各グループについて設定する第1閾値の初期値は、いずれも同じ値とする。そして、閾値設定部2060は、出力情報の出力が終了したグループ(すなわち、既に出力情報の出力が行われたグループ)の第1閾値を、初期値よりも小さい値に変更する。ここで、既に出力情報が出力されたことがあるグループに属する異常領域30は、ノイズなどが原因で誤検出された領域である蓋然性は低いといえる。そのため、そのような異常領域30についての第1閾値を小さい値に変更することで、或る異常部位を表す異常領域30が一旦動画データ12から検出されなくなった後(例えばフレームアウトした後)、再度その異常部位を表す異常領域30が検出されるようになった場合(例えば再度フレームインした場合)に、その異常領域30についての出力情報が出力される蓋然性を高くすることができる。
<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 体内が撮影された動画を構成する複数の動画フレームそれぞれから、前記体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出部と、
前記検出された異常領域に関する出力情報を出力する出力部と、を有し、
前記出力部は、
前記出力情報の出力が行われていない状態において、前記異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、前記出力情報の出力を開始し、
前記出力情報の出力が行われている状態において、前記スコアが第2閾値以下になったら、前記出力情報の出力を終了し、
前記第2閾値は前記第1閾値よりも小さい、情報処理装置。
2. 前記出力部は、同一の異常部位を表す前記異常領域のグループごとに前記スコアを算出する、1.に記載の情報処理装置。
3. 前記出力部は、同一の異常部位を表す前記異常領域のグループについて、そのグループに含まれる各前記異常領域が前記体内の異常な部位を表す確度の統計値を算出し、その統計値に基づく値を、そのグループについての前記スコアとする、2.に記載の情報処理装置。
4. 同一の異常部位を表す前記異常領域のグループごとに前記第1閾値を設定する閾値設定部を有し、
前記出力部は、同一の異常部位を表す前記異常領域のグループごとに算出したスコアを、そのグループについて設定された前記第1閾値と比較し、
前記閾値設定部は、前記出力情報の出力が終了したグループの前記第1閾値を、より小さい値に変更する、1.乃至3.いずれか一つに記載の情報処理装置。
5. コンピュータによって実行される制御方法であって、
体内が撮影された動画を構成する複数の動画フレームそれぞれから、前記体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出ステップと、
前記検出された異常領域に関する出力情報を出力する出力ステップと、を有し、
前記出力ステップにおいて、
前記出力情報の出力が行われていない状態において、前記異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、前記出力情報の出力を開始し、
前記出力情報の出力が行われている状態において、前記スコアが第2閾値以下になったら、前記出力情報の出力を終了し、
前記第2閾値は前記第1閾値よりも小さい、制御方法。
6. 前記出力ステップにおいて、同一の異常部位を表す前記異常領域のグループごとに前記スコアを算出する、5.に記載の制御方法。
7. 前記出力ステップにおいて、同一の異常部位を表す前記異常領域のグループについて、そのグループに含まれる各前記異常領域が前記体内の異常な部位を表す確度の統計値を算出し、その統計値に基づく値を、そのグループについての前記スコアとする、6.に記載の制御方法。
8. 同一の異常部位を表す前記異常領域のグループごとに前記第1閾値を設定する閾値設定ステップを有し、
前記出力ステップにおいて、同一の異常部位を表す前記異常領域のグループごとに算出したスコアを、そのグループについて設定された前記第1閾値と比較し、
前記閾値設定ステップにおいて、前記出力情報の出力が終了したグループの前記第1閾値を、より小さい値に変更する、5.乃至7.いずれか一つに記載の制御方法。
9. 5.乃至8.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
この出願は、2018年10月4日に出願された日本出願特願2018-189241号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (11)

  1. 体内が撮影された動画を構成する複数の動画フレームそれぞれから、前記体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出部と、
    前記検出された異常領域に関する出力情報を出力する出力部と、を有し、
    前記出力部は、
    前記出力情報の出力が行われていない状態において、前記異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、前記出力情報の出力を開始し、
    前記出力情報の出力が行われている状態において、前記スコアが第2閾値以下になったら、前記出力情報の出力を終了し、
    前記第2閾値は前記第1閾値よりも小さく、
    同一の異常部位を表す前記異常領域のグループごとに前記第1閾値を設定する閾値設定部をさらに有し、
    前記出力部は、同一の異常部位を表す前記異常領域のグループごとに算出したスコアを、そのグループについて設定された前記第1閾値と比較し、
    前記閾値設定部は、前記出力情報の出力が終了したグループの前記第1閾値を、より小さい値に変更する、情報処理装置。
  2. 体内が撮影された動画を構成する複数の動画フレームそれぞれから、前記体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出部と、
    前記検出された異常領域に関する出力情報を出力する出力部と、を有し、
    前記出力部は、
    前記出力情報の出力が行われていない状態において、前記異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、前記出力情報の出力を開始し、
    前記スコアが前記第1閾値以上となって前記出力情報の出力が開始された後、前記スコアが前記第1閾値以下となっても、前記スコアが第2閾値より大きい間は、前記出力情報の出力を継続し、
    前記出力情報の出力が行われている状態において、前記スコアが前記第2閾値以下になったら、前記出力情報の出力を終了し、
    前記第2閾値は前記第1閾値よりも小さい、情報処理装置。
  3. 同一の異常部位を表す前記異常領域のグループごとに前記第1閾値を設定する閾値設定部を有し、
    前記出力部は、同一の異常部位を表す前記異常領域のグループごとに算出したスコアを、そのグループについて設定された前記第1閾値と比較し、
    前記閾値設定部は、前記出力情報の出力が終了したグループの前記第1閾値を、より小さい値に変更する、請求項2に記載の情報処理装置。
  4. 前記出力部は、同一の異常部位を表す前記異常領域のグループごとに前記スコアを算出する、請求項1~3のいずれか一項に記載の情報処理装置。
  5. 前記出力部は、同一の異常部位を表す前記異常領域のグループについて、そのグループに含まれる各前記異常領域が前記体内の異常な部位を表す確度の統計値を算出し、その統計値に基づく値を、そのグループについての前記スコアとする、請求項4に記載の情報処理装置。
  6. コンピュータによって実行される情報処理方法であって、
    前記コンピュータが、複数の動画フレームを取得する取得ステップと、
    前記コンピュータが、体内が撮影された動画を構成する前記複数の動画フレームそれぞれから、前記体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出ステップと、
    前記コンピュータが、前記検出された異常領域に関する出力情報を出力する出力ステップと、を有し、
    前記出力ステップにおいて、前記コンピュータは、
    前記出力情報の出力が行われていない状態において、前記異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、前記出力情報の出力を開始し、
    前記出力情報の出力が行われている状態において、前記スコアが第2閾値以下になったら、前記出力情報の出力を終了し、
    前記第2閾値は前記第1閾値よりも小さく、
    前記コンピュータが、同一の異常部位を表す前記異常領域のグループごとに前記第1閾値を設定する閾値設定ステップをさらに有し、
    前記出力ステップにおいて、前記コンピュータは、同一の異常部位を表す前記異常領域のグループごとに算出したスコアを、そのグループについて設定された前記第1閾値と比較し、
    前記閾値設定ステップにおいて、前記コンピュータは、前記出力情報の出力が終了したグループの前記第1閾値を、より小さい値に変更する、情報処理方法。
  7. コンピュータによって実行される情報処理方法であって、
    前記コンピュータが、複数の動画フレームを取得する取得ステップと、
    前記コンピュータが、体内が撮影された動画を構成する前記複数の動画フレームそれぞれから、前記体内の異常な部分を表すと推測される画像領域である異常領域を検出する検出ステップと、
    前記コンピュータが、前記検出された異常領域に関する出力情報を出力する出力ステップと、を有し、
    前記出力ステップにおいて、前記コンピュータは、
    前記出力情報の出力が行われていない状態において、前記異常領域が検出される動画フレームの数の割合に基づくスコアが第1閾値以上になったら、前記出力情報の出力を開始し、
    前記スコアが前記第1閾値以上となって前記出力情報の出力が開始された後、前記スコアが前記第1閾値以下となっても、前記スコアが第2閾値より大きい間は、前記出力情報の出力を継続し、
    前記出力情報の出力が行われている状態において、前記スコアが前記第2閾値以下になったら、前記出力情報の出力を終了し、
    前記第2閾値は前記第1閾値よりも小さい、情報処理方法。
  8. 前記コンピュータが、同一の異常部位を表す前記異常領域のグループごとに前記第1閾値を設定する閾値設定ステップを有し、
    前記出力ステップにおいて、前記コンピュータは、同一の異常部位を表す前記異常領域のグループごとに算出したスコアを、そのグループについて設定された前記第1閾値と比較し、
    前記閾値設定ステップにおいて、前記コンピュータは、前記出力情報の出力が終了したグループの前記第1閾値を、より小さい値に変更する、請求項7に記載の情報処理方法。
  9. 前記出力ステップにおいて、前記コンピュータは、同一の異常部位を表す前記異常領域のグループごとに前記スコアを算出する、請求項6~8のいずれか一項に記載の情報処理方法。
  10. 前記出力ステップにおいて、前記コンピュータは、同一の異常部位を表す前記異常領域のグループについて、そのグループに含まれる各前記異常領域が前記体内の異常な部位を表す確度の統計値を算出し、その統計値に基づく値を、そのグループについての前記スコアとする、請求項9に記載の情報処理方法。
  11. 請求項6~10のいずれか一項に記載の情報処理方法の各ステップをコンピュータに実行させるプログラム。
JP2020550252A 2018-10-04 2019-09-12 情報処理装置、情報処理方法、及びプログラム Active JP7253152B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018189241 2018-10-04
JP2018189241 2018-10-04
PCT/JP2019/035926 WO2020071086A1 (ja) 2018-10-04 2019-09-12 情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020071086A1 JPWO2020071086A1 (ja) 2021-09-16
JP7253152B2 true JP7253152B2 (ja) 2023-04-06

Family

ID=70055863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550252A Active JP7253152B2 (ja) 2018-10-04 2019-09-12 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (4) US12075969B2 (ja)
EP (1) EP3861921A4 (ja)
JP (1) JP7253152B2 (ja)
WO (1) WO2020071086A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075240A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024075242A1 (ja) * 2022-10-06 2024-04-11 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
WO2024201602A1 (ja) * 2023-03-24 2024-10-03 日本電気株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249936A (ja) 2011-06-06 2012-12-20 Toshiba Corp 医用画像処理システム
US11103197B2 (en) 2017-08-25 2021-08-31 Fujifilm Corporation Diagnosis support system, endoscope system, processor and diagnosis support method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8861783B1 (en) 2011-12-30 2014-10-14 Given Imaging Ltd. System and method for detection of content in an image stream of the gastrointestinal tract
US9430706B1 (en) * 2013-10-02 2016-08-30 Given Imaging Ltd. System and method for detection of in-vivo pathology sequences
CN105830458A (zh) * 2013-12-11 2016-08-03 基文影像公司 用于控制图像流显示的系统和方法
JP6120762B2 (ja) 2013-12-13 2017-04-26 オリンパス株式会社 画像処理装置
JP6346576B2 (ja) 2015-02-27 2018-06-20 Hoya株式会社 画像処理装置
WO2017002184A1 (ja) * 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
JP6246431B2 (ja) 2015-11-10 2017-12-13 オリンパス株式会社 内視鏡装置
WO2017203560A1 (ja) 2016-05-23 2017-11-30 オリンパス株式会社 内視鏡画像処理装置
JP6270967B2 (ja) 2016-11-17 2018-01-31 Hoya株式会社 画像処理装置及び内視鏡装置
US10685432B2 (en) * 2017-01-18 2020-06-16 Ricoh Company, Ltd. Information processing apparatus configured to determine whether an abnormality is present based on an integrated score, information processing method and recording medium
WO2018198161A1 (ja) * 2017-04-24 2018-11-01 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法
JP6931466B2 (ja) 2017-05-02 2021-09-08 株式会社オンダ製作所 管継手用の固定リング
EP3632295A4 (en) 2017-05-25 2021-03-10 Nec Corporation INFORMATION PROCESSING DEVICE, ORDERING PROCESS, AND PROGRAM
EP3636134A4 (en) * 2017-05-25 2021-03-10 Nec Corporation INFORMATION PROCESSING DEVICE, ORDERING PROCESS AND PROGRAM
JP2019061577A (ja) * 2017-09-27 2019-04-18 パナソニックIpマネジメント株式会社 異常判定方法及びプログラム
US11100633B2 (en) * 2018-06-13 2021-08-24 Cosmo Artificial Intelligence—Al Limited Systems and methods for processing real-time video from a medical image device and detecting objects in the video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249936A (ja) 2011-06-06 2012-12-20 Toshiba Corp 医用画像処理システム
US11103197B2 (en) 2017-08-25 2021-08-31 Fujifilm Corporation Diagnosis support system, endoscope system, processor and diagnosis support method

Also Published As

Publication number Publication date
US20240382066A1 (en) 2024-11-21
US12075969B2 (en) 2024-09-03
JPWO2020071086A1 (ja) 2021-09-16
US20240382065A1 (en) 2024-11-21
US20240382064A1 (en) 2024-11-21
EP3861921A4 (en) 2021-12-01
WO2020071086A1 (ja) 2020-04-09
EP3861921A1 (en) 2021-08-11
US20220110505A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
JP6799301B2 (ja) 情報処理装置、制御方法、及びプログラム
JP7232424B2 (ja) 情報処理装置、制御方法、及びプログラム
US9959618B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US12118739B2 (en) Medical image processing method, apparatus, and device, medium, and endoscope
JP6716853B2 (ja) 情報処理装置、制御方法、及びプログラム
US20240382065A1 (en) Information processing apparatus, control method, and non-transitory storage medium
CN116132788A (zh) 移动端舌象图像采集方法、装置、电子设备及存储介质
CN112750099A (zh) 卵泡测量方法、超声设备以及计算机可读存储介质
US20220148172A1 (en) System and method for detecting medical conditions
CN113793422A (zh) 三维模型的显示控制方法、电子设备及可读存储介质
CN118864338B (zh) 退镜时间的确定方法、装置、计算机设备和存储介质
EP4611385A1 (en) Diagnosis system, diagnosis device, program, diagnosis method, method for diagnosing skin, and method for diagnosing stresses
KR102517232B1 (ko) 머신러닝 기반의 의료 영상에 대한 반사광 제거 방법 및 이를 이용한 장치
JP4305523B2 (ja) 毛髪画像表示方法及び表示装置
CN118415668A (zh) 用于辅助超声扫描的方法、装置、计算设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7253152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150