JP2020175051A - 診断支援システム、及び診断支援用プログラム - Google Patents

診断支援システム、及び診断支援用プログラム Download PDF

Info

Publication number
JP2020175051A
JP2020175051A JP2019081571A JP2019081571A JP2020175051A JP 2020175051 A JP2020175051 A JP 2020175051A JP 2019081571 A JP2019081571 A JP 2019081571A JP 2019081571 A JP2019081571 A JP 2019081571A JP 2020175051 A JP2020175051 A JP 2020175051A
Authority
JP
Japan
Prior art keywords
image
unit
tissue diagnosis
detection unit
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019081571A
Other languages
English (en)
Other versions
JP7127779B2 (ja
Inventor
和毅 炭山
Kazutaka Sumiyama
和毅 炭山
俊介 樺
Shunsuke Kaba
俊介 樺
佑基 島原
Yuki Shimahara
佑基 島原
亜弥 登内
Aya Tonouchi
亜弥 登内
明広 福田
Akihiro Fukuda
明広 福田
祐介 藤本
Yusuke Fujimoto
祐介 藤本
光輝 王
guang hui Wang
光輝 王
夏麿 朽名
Natsumaro Kutsuna
夏麿 朽名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lpixel Inc
Jikei University
Original Assignee
Lpixel Inc
Jikei University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lpixel Inc, Jikei University filed Critical Lpixel Inc
Priority to JP2019081571A priority Critical patent/JP7127779B2/ja
Publication of JP2020175051A publication Critical patent/JP2020175051A/ja
Application granted granted Critical
Publication of JP7127779B2 publication Critical patent/JP7127779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる診断支援システムを提供する。【解決手段】この診断支援システムは、撮像装置により得られた画像を表示する表示部と、画像中において所定の特徴を有する特定部位を検出する特定部位検出部と、表示部において、特定部位検出部で特定された部位を囲う図形を表示する表示制御部と、特定部位に関し、所定の基準に従って組織診断の予測を行う組織診断予測部とを備える。制御部は、特定部位検出部によって特定部位を検出する検出アルゴリズムを実行している間において所定の条件が成立した場合、組織診断予測部によって組織診断の予測を実行する組織診断アルゴリズムを開始する。【選択図】図1

Description

本発明は診断支援システム、及び診断支援用プログラムに関する。
我が国における大腸癌の罹患率や死亡数は年々増加傾向にある。その予防や治療成績の向上には、腫瘍性ポリープを早期のうちに大腸内視鏡によって発見し、切除することが重要とされている。
しかし、腫瘍性ポリープの検査精度は、内視鏡医の技能や機械の性能に依存しているのが現状である。大腸の鋸歯状病変は、大腸過形成ポリープ(HP)、鋸歯状線種(TSA)、広基性・無茎性鋸歯状病変(SSA/P)に分類され得る。TSAは明らかな腫瘍性の病変である。一方、SSA/Pは従前は病変とは考えられていなかったが、近年、前駆病変として注目されている。このため、SSA/Pを的確に内視鏡画像から検出し、組織診断予測(分類)の対象とすることが求められている。
しかし、HPとSSA/Pを的確に判別することは、熟練した内視鏡医でも難しく、また、画像処理装置において正確に分類することも困難である。そこで、内視鏡医の技能や機械の性能によらず、検査精度の向上を図ることができる診断支援システムが望まれている。このような問題は、大腸内視鏡検査に限らず他の人体組織の診断についても同様に発生している。
特許文献1には、内視鏡により消化管の粘膜細胞を拡大撮像して得られた内視鏡画像に含まれる細胞核を抽出し、テクスチャ解析により、非腫瘍、腺腫、癌及びSSA/Pの識別を行う診断支援システムが開示されている。しかし、この特許文献1の技術は、高倍率撮像機能を有する内視鏡を用いて、超拡大画像に基づく診断支援を行うものであり、通常の内視鏡においても汎用的に利用できるものではない。また、超拡大画像を利用することを前提とするものであり、病変の見落としという問題に対して効果的な解決手段を提供するものではない。
特開2017−70609号公報
本発明は、上記の課題に鑑みてなされたものであって、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる診断支援システムを提供することを目的とするものである。
上記の課題を解決するため、本発明に係る診断支援システムは、撮像装置により得られた画像を表示する表示部と、前記画像中において所定の特徴を有する特定部位を検出する特定部位検出部と、前記表示部において、前記特定部位検出部で特定された特定部位を囲う図形を表示する表示制御部と、前記特定部位に関し、所定の基準に従って組織診断の予測を行う組織診断予測部と、前記特定部位検出部によって前記特定部位を検出する検出アルゴリズムを実行している間において所定の条件が成立した場合、前記組織診断予測部によって組織診断の予測を実行する組織診断アルゴリズムを開始する制御部とを備えたことを特徴とする。
このシステムにおいて、画像の状態を判定する画像状態検出部を更に備えることができる。この場合、制御部は、画像状態検出部の判定結果に従い、検出アルゴリズムと組織診断アルゴリズムを並行して実行することができる。ここで画像状態検出部は、画像が静止状態にあるか否かを判定するよう構成されたものとすることができる。
また、組織診断予測部は、画像を構成する複数のフレーム間における前記図形の重なり率に基づいて前記部位において病変が存在する可能性を示す確信度を算出するよう構成されることができる。
本発明に係る診断支援システムによれば、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる診断支援システムを提供することができる。
第1の実施形態の診断支援システム1の概略図である。 第1の実施の形態の診断支援システム1の動作の概要を示す概略図である。 第1の実施の形態の診断支援システム1の動作の全体の手順を示すフローチャートである。 図3の画像取得(ステップS16)の手順の詳細を説明するフローチャートである。 図3のフリーズ判定(ステップS17)の手順の詳細を説明するフローチャートである。 図3のユーザインタフェース画面の描画(検出用)(ステップS18)の手順の詳細を説明するフローチャートである。 図3のユーザインタフェース画面の描画(組織診断予測(分類)用)(ステップS18)の手順の詳細を説明するフローチャートである。 図3のバウンディングボックス推定(ステップS20)の手順の詳細を示すフローチャートである。 第2の実施形態の診断支援システム1の概略図である。 各実施の形態の変形例を示す概略図である。
以下、添付図面を参照して本実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った実施形態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではない。
本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。
まず、本発明の第1の実施の形態の診断支援システムについて詳細に説明する。
(ハードウエア構成)
図1は、第1の実施の形態の診断支援システム1のハードウエア構成を説明する概略図である。この診断支援システム1は、内視鏡100(撮像装置)、プロセッサ200、ディスプレイ300、及び光源部400から大略構成される。
内視鏡100は、被検体の体内、例えば大腸に挿入可能に構成されて被写体を撮像し、その撮像された画像の画像信号をプロセッサ200に伝送する機能を有する。プロセッサ200は、内視鏡100からの画像信号を受信して所定の信号処理を実行し、後述する検出や組織診断の予測を実行する。
内視鏡100は、挿入部101、手元操作部102、屈曲部103、先端部104、ユニバーサルケーブル105、及びコネクタ部106を備えている。挿入部101は、可撓性を有し、その長手方向に沿ってライトガイド、各種配線及び送水管等を備えており、被検体の体内に挿入される。挿入部101は、その一端において手元操作部102と接続されている。手元操作部102は、例えば湾曲操作ノブ102A及び操作ボタン102B等を備えている。操作ボタン102Bは、気流を送り込むための送気ボタン、水流を送り込むための送水ボタンの他、撮像中の画像から静止画像を取得するためのフリーズボタン102Bfを含み得る。
挿入部101の先端には、屈曲可能に構成された屈曲部103が設けられている。手元操作部102に設けられた湾曲操作ノブ102Aの回転操作に連動した操作ワイヤ(図示せず)の牽引によって屈曲部103は屈曲する。更に、屈曲部103の先端には、CCDやCMOSセンサ等の撮像素子を備えた先端部104が連結されている。先端部104は、湾曲操作ノブ102Aの回転操作による屈曲部103の屈曲動作に応じてその向きが変更されるよう構成されている。
手元操作部102とコネクタ部106とは、ユニバーサルケーブル105により接続されている。ユニバーサルケーブル105は、その内部にライトガイドや各種配線を含んでいる。コネクタ部106は、内視鏡100をプロセッサ200に接続させるための各種コネクタを含んでいる。
プロセッサ200は、内視鏡100で撮像された画像に所定の画像処理を施してディスプレイ300に表示させる。また、プロセッサ200は、得られた画像の分析を行って、画像中から特定の部位を検出するとともに、検出された部位を、その性状に従って分類(組織診断予測)を行う。一例としてプロセッサ200は、検出された部位を、大腸過形成ポリープ(HP)、鋸歯状線種(TSA)、広基性・無茎性鋸歯状病変(SSA/P)等に分類することが可能に構成される。
ディスプレイ300は、例えば例えばユーザインタフェース(UI)301、観察画像表示部302、及びキャプチャ画像表示部303を表示画面に表示する。UI301は、例えば表示の内容、検出の手法、学習用データの収集の有無、その他本診断支援システムの動作に関する各種命令やパラメータを入力し、又は表示するためのインタフェースである。観察画像表示部302には、内視鏡100が撮像している画像を表示する他、検出された特定部位の位置を示すバウンディングボックスBXが表示される。バウンディングボックスBXは、所定の特徴を有する特定部位の位置を示すための図形の一例であって、図示の例は矩形であるが、これに限定されるものではないことは言うまでもなく、ユーザにその存在を認知可能なものであればその形状は不問である。キャプチャ画像表示部303は、現在撮像中(リアルタイム)の画像ではなく、例えば現在撮像中のフレームよりも前のフレームをキャプチャ(保存)した後表示する部分である。キャプチャ画像表示部303は、新しい病変が検出された場合に、その検出結果をレポートとして出力する表示部としても機能し得る。
次に、プロセッサ200の構成の詳細を、引き続き図1を参照して説明する。プロセッサ200は、一例として、画像処理部201、インタフェース202、ハードディスクドライブ203、ROM204、RAM205、入力部206、インタフェース207、CPU208、表示制御部209、特定部位検出部210、組織診断予測部211、画像状態検出部212、学習用データ生成部213を備えている。
画像処理部201は、内視鏡100の固体撮像素子(図示せず)から受信した映像信号に対し所定の画像処理を行ってデジタル信号に変換する。デジタル信号に変換された映像信号は、インタフェース202を介してCPU208に取り込まれる。ハードディスクドライブ203は、本システムにおける診断支援システムの動作を制御するコンピュータプログラム、及びその動作に用いるデータ群を記憶する。大腸内視鏡データは、大腸内視鏡画像と、その病変に関する診断データとを含む。
ROM204は、例えばこのコンピュータプログラムの設定ファイルや、その他装置の動作パラメータ等を記憶する記憶装置であり、RAM205は、コンピュータプログラムをハードディスクドライブ203から読み出して記憶するとともに、コンピュータプログラムの動作中の処理データ等を一時記憶する記憶装置である。入力部206は、例えば周知のキーボード、マウス、テンキー、ジョイスティック、タッチパネル等、ユーザが各種の入力を行うための装置であり、インタフェース207を介してCPU208に対しデータの送信を行う。入力部206は、内視鏡100に設けられる操作ボタン102Bも含む。その他、内視鏡100及び/又はプロセッサ200には、検査の終了を指示する終了ボタン(図示せず)を設けることもできる。
表示制御部209は、ディスプレイ300上における画面表示を制御する制御部である。表示制御部209は、検出結果に従ってディスプレイ300の表示状態を変更すると共に、入力部206からの入力に従ってもその表示状態を変化させることが可能なよう構成されている。
特定部位検出部210は、前述の学習用データによって定まる検出基準(検出用モデル)に従い、特定部位(病変、前駆病変等)を撮像画像の中から検出するモジュールであり、前述のコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。特定部位検出部210は、特定部位が検出されると、その撮像画像上での位置を含むデータをCPU208に出力する。表示制御部209は、CPU208から当該情報を受信し、該当する箇所にバウンディングボックスBXを表示する。バウンディングボックスBXは、大腸内視鏡検査の間において多数ディスプレイ300上で表示されるので、内視鏡医は、このバウンディングボックスBXの表示に注意しつつ、検査を続けることができる。なお、特定部位検出部210、組織診断予測部211、及び画像状態検出部212は、ソフトウエア的に実現される代わりに、ハードウエア、例えばDSP(Digital Signal Processor)等により実現されてもよい。
組織診断予測部211は、所定の条件が成立した場合において、特定部位検出部210で検出された特定部位に対し、組織診断予測用モデルに従い、組織診断予測(分類)を行う機能を有し、同様に前述のコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。ここで、所定の条件は、一例として、以下で説明するフリーズ状態が画像状態検出部212により検出された場合である。組織診断予測用モデルは、例えばロジスティック回帰、単純ベイズ分類器、サポートベクターマシン、ニューラルネットワークなどに基づいて生成され得るが、特定のものに限定されるものではない。ニューラルネットワークとしては、順伝播型ニューラルネットワークと再帰型(リカレント)ニューラルネットワークのいずれも利用することが可能である。なお、組織診断予測部211に加え、病変の種類を鑑別する病変鑑別部を更に備えても良い。
画像状態検出部212は、映像信号が所定の状態にあるか否かを検出するモジュールであり、同様にコンピュータプログラムによりプロセッサ200内にソフトウエア的に実現され得る。例えば、画像状態検出部212は、撮像中の画像の単位時間当たりの変化が所定量未満であるか否かを検知する。図2に模式的に示すように、内視鏡100により大腸の撮像が行われる場合、本システムのユーザである内視鏡医Dは、内視鏡100の挿入部101を大腸LB内で出し入れする動作(矢印A)を行う。この出し入れの動作により、先端部104が大腸LB内を移動することで、撮像画像は刻々と変化する。
しかし、内視鏡医Dが挿入部101を移動させる手を止めるか、又は前述のフリーズボタン102Bfを押すと、撮像画像の変化は止まるか、又はその変化が微小となる。以下では、このように挿入部101の移動が止められたり、フリーズボタン102Bfが押されたりすることにより、単位時間当たりの撮像画像の変化が所定値未満となった状態を、以下では「フリーズ状態(静止状態)」と称する。画像状態検出部212は、このようなフリーズ状態(静止状態)を検出する機能を有するモジュールである。具体的に画像状態検出部212は、あるフレーム(第1のフレーム)と、そのフレームよりも時間的に前のフレーム(第2のフレーム)との比較に基づいて、撮像画像がフリーズ状態か否かを判定することができる。なお、画像状態検出部212は、撮像中の画像が、白色光画像なのか、NBI(Narrow Band Imaging(登録商標))画像なのか、それとも染色画像なのかも、フリーズ状態の検出と共に検出可能とされている。
この実施の形態では、特定部位検出部210は、検査の実行中常に動作しており、特定部位検出部210は、ユーザによる入力や検出の結果等に拘わらず(終了ボタン等を含む検査終了の指示が無い限り)、特定部位の検出を継続する。一方、組織診断予測部211は、特定の条件が成立した場合にのみ動作を開始し、特定部位検出部210における特定部位の検出と並行して、組織診断の予測を実行する。すなわち、CPU208及びプログラムは、画像状態検出部212の判定結果に従い、特定部位検出部210による検出アルゴリズムと組織診断予測部211による組織診断アルゴリズムを並行して実行するよう構成されている。このように、この実施の形態では、特定部位検出部210を常時動作させる一方、組織診断予測部211は、特定の条件が成立した場合にのみ特定部位検出部210と並行して動作させることが可能とされており、これにより、特定部位の見落としを防止しつつも、内視鏡医のスキル等に合わせて適切なタイミングで組織診断の予測を実行することができる。
例えば、スキルが必ずしも高くない内視鏡医は、挿入部101の動きを頻繁に止めたり(又は遅くしたり)、頻繁にフリーズボタン102Bfを押すことで、検出された測定部位に対し高い頻度で組織診断予測を実行することができる。これにより、特定部位の見落としも防ぎつつ、内視鏡医のスキルに応じ、高い頻度で組織診断予測の結果をディスプレイ300に表示することができる。
一方、スキルが高い内視鏡医は、自身のスキルに合わせた速度で挿入部101を操作し、自身の診断スキルに合わせたタイミングで挿入部101の動きを適宜止めたり、目に止まった特定部位の位置でフリーズボタン102Bfを押したりして、その特定部位の組織診断予測を実行することができる。特定部位検出部210による特定部位の検出は、内視鏡医のスキルに拘わらず、内視鏡100により撮像される限り常時行われるが、組織診断予測部211が動作するタイミングは、内視鏡医のスキルによって異なる。スキルの高い内視鏡医がこのシステムにおいて検査を実行する場合、スキルが必ずしも高くない内視鏡医が検査を実行する場合に比べ、組織診断予測部211による組織診断予測が行われる頻度は小さくなる。すなわち、内視鏡医のスキルに合わせたタイミングで組織診断予測を行うことができる。換言すれば、本実施の形態のシステムによれば、スキルの高い内視鏡医にとっては不要な情報が表示されることを防止することができる。
(動作)
次に、図3〜図8のフローチャートを参照して、実施の形態の診断支援システムの動作を説明する。図3のフローチャートは、本システムの動作の全体の手順を示しており、図4〜図8は、図3のフローチャート中の一部のステップを更に詳細に説明している。これらのフローチャートに示す動作は、ハードディスクドライブ203に格納されたコンピュータプログラムに従って規定される。
(動作の全体概要)
図3に示すように、本診断支援システムによる検査が開始されると、まず、CPU208は、ROM204に格納された設定ファイルから、ソフトウエアにおける判定や検出に必要なパラメータを読み出す(ステップS11)。そして、ユーザインタフェースを起動し(ステップS12)、ディスプレイ300の一部に表示する。
ステップS12で読み出されたパラメータをRAM205に入力し記憶させた後、診断支援用プログラムの動作の開始を指示する操作が、ユーザによってなされる(ステップS13)。開始を指示する操作は、ユーザインタフェース301上のアイコンをクリックすることによる指示であってもよいし、単に内視鏡100に対する操作の開始を検知することにより、指示に替えてもよい。
操作の開始後、診断支援用プログラムは、ステップS14において子スレッドを作成し、以後、親スレッドと子スレッドとが並行して実行される。親スレッド(ステップS15〜S19)は、終了ボタンが押されない限り常時継続される。一方、子スレッド(ステップS20:バウンディングボックス推定)も、バウンディングボックスBXの表示処理に関しては常時継続して実行されるが、組織診断予測部211の動作に基づく組織診断予測は、フリーズ判定の結果が肯定的(YES)である場合にのみ実行される。フリーズ判定の結果が否定的(NO)である場合には、子スレッド(ステップS20)では、特定部位の検出及びバウンディングボックスBXの表示のみが行われ、組織診断予測は実行されない。
親スレッド(ステップS15〜S19)では、終了ボタンが押されたか否かが判定され(ステップS15)、押されていなければステップS16に移行し、押されていれば、ステップS21に移行して子スレッドを終了した後、動作は終了する。
ステップS16では、内視鏡100で撮像された画像が画像処理部201により取得される。取得された画像は子スレッドに渡される(子スレッドでの処理については後述する)。親スレッドでは、続くステップS17において、撮像された画像がフリーズ状態にあるか否かが判定される。その判定結果は子スレッドに渡される。
続くステップS18では、得られた画像上に、バウンディングボックスBX、組織診断予測の結果(病変の種類に関する判定)を示す「ラベル」、及び組織診断予測の確信度(所定の病変に該当である可能性)などの情報を重畳したユーザインタフェース画面を描画し、ディスプレイ300に表示する。なお、ラベル情報、及び確信度の情報は、組織診断予測部211により組織診断予測が実行されたタイミングでのみ受信され、描画される。組織診断予測が実行されていないタイミングにおいては、バウンディングボックスBXのみが表示される。なお、バウンディングボックスBX、ラベル、確信度以外に、病変の部位、個数、良性/境界/悪性の判定などの情報が表示項目に含まれても良い。
こうして撮像され描画された画像データは、学習用データ生成部213において収集され、これらの画像データに基づいて、学習用データ生成部213において学習用データが生成される(ステップS19)。学習用データは、予めハードディスクドライブ203にも保存されており、このような事前の学習用データと、新たに生成された学習用データとを合わせて新たな学習用データ群とすることができる。なお、ハードディスクドライブ203に事前に記憶されている学習用データのみを用い、このステップS19は省略することもできる。
(画像取得(ステップS16))
次に、図4を参照して、ステップS16の画像取得の詳細について説明する。まず、ステップS31において、画像処理部201のキャプチャボード(図示せず)から画像データ(例:1920×1980画素)が読み取られる。続いて、ステップS32において、読み取られた画像データの所定の部分が、Configファイル等で指定された大きさに従って切り取られる。
次に、ステップS32で切り取られた画像が、検出に適した大きさにリサイズされて検出分類用画像として生成されると共に、ディスプレイ300での表示に適した大きさにリサイズされて表示用画像として生成される(ステップS33、S34)。
(フリーズ判定(ステップS17))
続いて、図5を参照して、図3のステップS17のフリーズ判定の詳細について説明する。フリーズ判定は、図1の画像状態検出部212において行われる。まず、ステップS16(図4のステップS34)で取得された表示用画像を、更に小さい画素数(例えば30×30画素)にリサイズし(ステップS41)、更にグレースケール画像に変換する(ステップS42)。
続いて、グレースケール画像の各画素の画素値と、それよりも時間的に前のフレーム中のグレースケール画像の各画素の画素値との重み付け和を計算する(ステップS43)。そして、その重み付け和と現在のフレームの画素値との差分を計算する(ステップS44)。
ステップS45では、ステップS44で計算された差分が、2回連続で閾値を下回ったか、又は最後に閾値を下回ってから20フレーム以内であるか否かが判定される。YESの場合、画像状態検出部212は、対象画像がフリーズ状態にあると判定し(ステップS46)、フリーズとの判定結果を出力する。NOの場合には、フリーズ状態ではないと判定する(ステップS47)。そして、ステップS44で計算された差分が、最後に閾値を下回ってから30フレーム以上経過しているか否かが判断される(ステップS48)。YESであれば、30フレーム前とは異なる箇所を撮影しているものと判断し、差分値等についての積算結果をクリア(消去)した上で(ステップS49)、フリーズ状態ではないとの判定結果が出力されフリーズ判定は終了する。一方、ステップS48の判定結果がNOであれば、積算結果はそのままとしつつ、フリーズ状態ではないという判定結果が出力され、同様のフリーズ判定動作が継続される。
(ユーザインタフェース描画(検出用)(ステップS18))
続いて、図6のフローチャートを参照して、図3のステップS18のユーザインタフェース画面の描画(フリーズ状態ではなく、特定部位の検出のみが継続される場合)の手順の詳細を説明する。換言すると、図6のフローチャートは、図3のフローチャートのステップS17においてフリーズ状態ではないという判定がされた場合におけるステップS18の動作の詳細を説明している。
図1のステップS17において、画像状態検出部212によりフリーズ状態ではないという判定結果が得られると(図6のステップS51)、ステップS52へ移行する。なお、フリーズ状態であるという判定がされた場合には、組織診断予測のための分類用ユーザインタフェース画面の描画を行う。これについては後述する。
ステップS52では、バウンディングボックスBXを描画すべき特定部位が検出されたか否かが検出される。このとき、確信度が閾値以下の特定部位については検出対象から除外され、バウンディングボックスBXも表示されない。
ステップS52の判定結果がYESである場合、ステップS53では、その特定部位の周囲にバウンディングボックスBXを描画する。検出された特定部位が複数個存在する場合、バウンディングボックスBXも複数個描画される。なお、バウンディングボックスBXの表示に対応して、プロセッサ200は、図示しないスピーカから効果音を発生させることができる。
ステップS52の判定結果がNOの場合、ステップS61に移行して、ユーザインタフェース画面として描画済みの画像をディスプレイ300に表示する。
ステップS53でバウンディングボックスBXが描画されると、続くステップS54では、バウンディングボックスBXの面積(複数個のバウンディングボックスBXがある場合、その面積の合計)が計算される。そして、その面積がディスプレイ300の表示画面の中で占める割合が所定値以上であるか否か、例えば、表示画面の面積の1%以下であるか否かが判定される。
ステップS54での判定結果がYESである場合には、ステップS55に進み、当該フレームの表示を例えば5フレーム以上続ける。このように、バウンディングボックスBXの表示数が少ない場合には、複数フレーム(例えば5フレーム)に亘って表示することにより、ユーザにそのバウンディングボックスBXを認知され易くする。
一方、ステップS54の判定結果がNOである場合(バウンディングボックスBXの面積が1%より大きい場合)には、ステップS56に移行する。ステップS56では、バウンディングボックスBXの表示とともに発せられる効果音の前回の再生から30フレーム以内であるか否かが判定される。30フレーム以内である場合、再度効果音を発することは、病変等の検出のために不要であり、ユーザに不快感を与える虞がある。このため、ステップS56の判定結果がYESであれば、前述のステップS61に移行して、効果音を発することなくUI描画済の画像を表示して図6の動作を終了する。
一方、ステップS56の判定結果がNOであれば、ステップS57に移行する。ステップS57では、前回の効果音の再生から40フレーム以内であるか否かが判定される。すなわち、前回の効果音の再生から30フレームを超えているが、40フレーム以内である場合には(ステップS57のYES)、効果音を再生させ、その後効果音再生タイミングを計測するタイマの計数値をリセットして(ステップS59)、ステップS60に移行する。一方、前回の効果音の再生から40フレームを超えている場合には(ステップS57のNO)、ステップS58では、その画像をキャプチャ(保存)し、リアルタイムな画像を表示する画像表示部302の横にキャプチャ画像表示部303に表示すると共に、効果音を再生する。そして、ユーザインタフェース画面として描画済の画像をディスプレイ300に表示する(ステップS60)。なお、ステップS57、S58での判定基準である30フレーム及び40フレームは、あくまでも一例であり、他のフレーム数が判定基準として採用されてもよいことは言うまでもない。
(ユーザインタフェース描画(分類用)(ステップS18))
続いて、図7のフローチャートを参照して、図3のステップS18のユーザインタフェース画面の描画(フリーズ状態ではあり、検出された特定部位の組織診断予測(分類)が実行される場合)の手順の詳細を説明する。換言すると、図7のフローチャートは、図3のフローチャートのステップS17においてフリーズ状態であると判定された場合におけるステップS18の動作の詳細を説明している。
図1のステップS17において、画像状態検出部212によりフリーズ状態であるとの判定結果が得られると(図7のステップS71)、ステップS72に移行する。なお、フリーズ状態ではないという判定がされた場合には、特定部位の検出のためのユーザインタフェース画面の描画を行う(図6で既に前述した動作)。
ステップS72では、特定部位が画面中で検出されたか否かが判断される。検出がされない場合(NO)、ステップS77に移行し、ユーザインタフェース画面として描画済みの画像をディスプレイ300に表示する。
一方、ステップS72で特定部位が画面中で検出されたと判断される場合(YES)、ステップS73では、その検出された特定部位に係るバウンディングボックスBX(1)と、過去のフレームで検出された特定部位に係るバウンディングボックスBX(0)との重なり率Iouが0.3以上であるか否かが判断される。重なり率が0.3以上であった場合、ラベル(病変の種類)に応じて、確信度が積算される。
このようにして確信度が積算され、その積算値が600%以上となった場合(ステップS74のYES)、バウンディングボックスBXとともに、ラベル(病変の種類)、及び確信度がディスプレイ300に表示される(ステップS75)。一方、積算値が600%に満たない場合には、classifying(分類中)との表示がディスプレイ300になされ、同様の手順が継続される。
(バウンディングボックス推定(ステップS20))
続いて、図8のフローチャートを参照して、バウンディングボックス推定(ステップS20)の実行手順の詳細を説明する。このステップS20では、図3で説明した通り、フリーズ状態の判定の結果に従って、特定部位の検出及びバウンディングボックスBXの表示のみを行う状態と、バインディングボックスBXの表示に加えて、当該特定部位について組織診断予測をも行う状態とが切り替えられる。
具体的に説明すると、まず、ステップS81では、ステップS17(図3)のフリーズ判定結果に従い、フリーズ状態であるか否かの判定がなされる。フリーズ状態と判定された場合(ステップS81のYES)、組織診断予測用モデルが適用され、このモデルに従って検出された特定部位に関して組織診断予測が実行される(ステップS82)。一方、フリーズ状態ではないと判定された場合(ステップS81のNO)、特定部位の検出用モデルが適用され、このモデルに従って、特定部位の検出のみが実行される(ステップS83)。
ステップS84では、検出された特定部位に関し、上述のモデルに従って確信度が演算され、その確信度が閾値以下であるか否かが判断される。閾値以下であれば、その特定部位に関するバウンディングボックスBXは削除される。そして、続くステップS85では、過去のx個のフレームで検出されたy個以上のバウンディングボックスBXとの関係で重なり率Iouが閾値未満であるバウンディングボックスBXが削除される。これにより、特定部位である可能性が低い部分に関してバウンディングボックスBXが表示されることが抑制され、診断を容易にすることができる。その後、組織診断予測モデルが適用されている場合には、バウンディングボックスBX、ラベル、及び確信度がディスプレイ300に表示され、検出用モデルが適用されている場合にはバウンディングボックスBXのみが表示され、このステップS20は終了する。
(効果)
以上説明したように、第1の実施の形態の診断支援システムによれば、特定部位の検出を継続している間において、撮像中の画像がフリーズ状態となったか否かを画像状態検出部212により検出し、その結果に従って適宜組織診断予測部211が動作する。このため、病変の見落としを防止しつつも、病変の分類を内視鏡の技能に従って適切なタイミングで実行することができる。
[第2の実施の形態]
図9は、第2の実施の形態の診断支援システム1のハードウエア構成を説明する概略図である。図9において、図1と同一の構成要素については同一の参照符号を付しているので、以下では重複する説明は省略する。この第2の実施の形態の診断支援システム1は、第1の実施の形態(図1)の画像状態検出部212に代えて(又はこれに追加して)、フリーズボタン検出部212Aを備えている。第1の実施の形態では、撮像された画像自体を比較してフリーズ状態か否かを画像状態検出部212により判定する。第2の実施の形態では、これに代えて(又はこれに追加して)、内視鏡100のフリーズボタン102Bf自体の操作信号をフリーズボタン検出部212Aにおいて検出し、その結果に従って組織診断予測部211において組織診断の予測を実行する組織診断アルゴリズムを開始する。この形態によっても、第1の実施の形態と同様の効果を奏することができる。
[変形例]
上述の実施の形態では、診断支援システム1が内視鏡100、プロセッサ200、ディスプレイ300、及び光源部400を含む例を説明した。これらはあくまでも一例であり、発明の趣旨を逸脱しない範囲において様々な追加、変更、改変等が可能である。図10の(A)〜(D)は、変形例の一例をそれぞれ示している。なお、図10(A)〜(D)では、簡略化のため光源部400の図示は省略している。
図10(A)は、プロセッサ200がスタンドアロン型のサーバとして提供され、ディスプレイ300と接続される例を示している。スタンドアロン型のサーバであるプロセッサ200に、本実施の形態に係るソフトウエアがインストールされる。
図10(B)は、プロセッサ200が、クラウドに接続される医局サーバとして構成され、医局サーバは更にクラウドにより外部のサーバと接続され、本実施の形態に係るソフトウエアは外部サーバから供給される。医局サーバ(200)は、内視鏡100と直接接続されたベッドサイドPC500Aと院内ネットワーク(LAN等)を介して通信可能に接続され、このベッドサイドPC500Aが、ディスプレイ300としても機能する。医局サーバ200とソフトウエアとは、同一の企業から提供されてもよいし、別々の企業から提供されてもよい。
図10(C)は、内視鏡100、ベッドサイドPC500B、及びサーバ200により構成されA社から提供される内視鏡システムに対し、本実施の形態の、A社とは別のB社が生産したソフトウエアが、当該内視鏡システムのオープンプラットフォームを利用する形でインストールされる場合を示している。
また、図10(D)は、内視鏡100を制御する支援診断システムとして、ベッドサイドPC500C(ディスプレイ300含む)、及びスタンドアロン型のサーバ200を含むシステムの例を示している。本実施の形態のソフトウエアは、サーバ200にインストールされ得る。ベッドサイドPC500Cとサーバ200とは、同一の企業から提供されてもよいし、複数企業の共同開発によるものであってもよい。
[その他]
本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
置換をすることが可能である。
1…診断支援システム、 100…内視鏡、 101…挿入部、 102…手元操作部、 102A…湾曲操作ノブ、 102B…操作ボタン、 102Bf…フリーズボタン、 103…屈曲部、 104…先端部、 105…ユニバーサルケーブル、 106…コネクタ部、 200…プロセッサ、 201…画像処理部、 201…画像処理部、 202…インタフェース、 203…ハードディスクドライブ、 204…ROM、 205…RAM、 206…入力部、 207…インタフェース、208…CPU、 209…表示制御部、 210…特定部位検出部、 211…組織診断予測部、 212…画像状態検出部、 213…学習用データ生成部、 300…ディスプレイ、 301…ユーザインタフェース、 302…観察画像表示部、 400…光源部、 BX…バウンディングボックス。

Claims (7)

  1. 撮像装置により得られた画像を表示する表示部と、
    前記画像中において所定の特徴を有する特定部位を検出する特定部位検出部と、
    前記表示部において、前記特定部位検出部で特定された特定部位を囲う図形を表示する表示制御部と、
    前記特定部位に関し、所定の基準に従って組織診断の予測を行う組織診断予測部と、
    前記特定部位検出部によって前記特定部位を検出する検出アルゴリズムを実行している間において所定の条件が成立した場合、前記組織診断予測部によって組織診断の予測を実行する組織診断アルゴリズムを開始する制御部と
    を備えたことを特徴とする診断支援システム。
  2. 前記画像の状態を判定する画像状態検出部を更に備え、
    前記制御部は、前記画像状態検出部の判定結果に従い、前記検出アルゴリズムと前記組織診断アルゴリズムを並行して実行する、請求項1に記載の診断支援システム。
  3. 前記画像状態検出部は、前記画像が静止状態にあるか否かを判定するよう構成された、請求項2に記載の診断支援システム。
  4. 前記画像状態検出部は、前記画像を構成する第1のフレームと、前記第1のフレームよりも時間的に前の第2のフレームとの比較に基づいて、前記画像が静止状態か否かを判定する、請求項3に記載の診断支援システム。
  5. 前記組織診断予測部は、
    前記画像を構成する複数のフレームの間における前記図形の重なり率に基づいて前記特定部位において病変が存在する可能性を示す確信度を算出するよう構成された、請求項1に記載の診断支援システム。
  6. 前記特定部位検出部における特定部位の検出結果、又は前記組織診断予測部における組織診断の予測の結果の少なくともいずれか一方に基づいて学習用データを生成する学習用データ生成部を更に備える、請求項1に記載の診断支援システム。
  7. 撮像装置により得られた画像を表示部に表示させるステップと、
    前記画像中において所定の特徴を有する特定部位を検出するステップと、
    前記表示部において、特定された特定部位を囲う図形を表示するステップと、
    前記特定部位に関し、所定の基準に従って組織診断の予測を行うステップと、
    前記特定部位を検出する検出アルゴリズムを実行している間において所定の条件が成立した場合、組織診断の予測を実行する組織診断アルゴリズムを開始するステップと
    をコンピュータに実行させることが可能に構成された、診断支援用プログラム。
JP2019081571A 2019-04-23 2019-04-23 診断支援システム、及び診断支援用プログラム Active JP7127779B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019081571A JP7127779B2 (ja) 2019-04-23 2019-04-23 診断支援システム、及び診断支援用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019081571A JP7127779B2 (ja) 2019-04-23 2019-04-23 診断支援システム、及び診断支援用プログラム

Publications (2)

Publication Number Publication Date
JP2020175051A true JP2020175051A (ja) 2020-10-29
JP7127779B2 JP7127779B2 (ja) 2022-08-30

Family

ID=72936241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019081571A Active JP7127779B2 (ja) 2019-04-23 2019-04-23 診断支援システム、及び診断支援用プログラム

Country Status (1)

Country Link
JP (1) JP7127779B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234743A1 (ja) * 2021-05-06 2022-11-10 富士フイルム株式会社 動画像処理装置、動画像処理方法及びプログラム、動画像表示システム
WO2023148857A1 (ja) * 2022-02-02 2023-08-10 オリンパス株式会社 情報出力方法および情報出力装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017213097A (ja) * 2016-05-30 2017-12-07 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018105063A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置
WO2019054045A1 (ja) * 2017-09-15 2019-03-21 富士フイルム株式会社 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017213097A (ja) * 2016-05-30 2017-12-07 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018105063A1 (ja) * 2016-12-07 2018-06-14 オリンパス株式会社 画像処理装置
WO2019054045A1 (ja) * 2017-09-15 2019-03-21 富士フイルム株式会社 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234743A1 (ja) * 2021-05-06 2022-11-10 富士フイルム株式会社 動画像処理装置、動画像処理方法及びプログラム、動画像表示システム
WO2023148857A1 (ja) * 2022-02-02 2023-08-10 オリンパス株式会社 情報出力方法および情報出力装置

Also Published As

Publication number Publication date
JP7127779B2 (ja) 2022-08-30

Similar Documents

Publication Publication Date Title
US12059125B2 (en) Systems and methods for generating and displaying a study of a stream of in-vivo images
JP4418400B2 (ja) 画像表示装置
EP1769729B1 (en) System and method for in-vivo feature detection
JP5147308B2 (ja) 画像抽出装置および画像抽出プログラム
KR102222547B1 (ko) 인공지능 기반의 대장내시경 영상 분석 방법
JP4274854B2 (ja) 内視鏡挿入形状解析装置
JP5676063B1 (ja) 医療装置及び医療装置の作動方法
WO2020054543A1 (ja) 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
JPWO2019087790A1 (ja) 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム
JP7127779B2 (ja) 診断支援システム、及び診断支援用プログラム
WO2022251112A1 (en) Phase identification of endoscopy procedures
WO2004045397A1 (ja) 内視鏡挿入方向検出装置、内視鏡挿入方向検出システム及び内視鏡挿入方向検出方法
JP5160110B2 (ja) 画像ファイリングシステムおよび画像表示システム
WO2023042273A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2022224446A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2022185369A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023162216A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
US20230122280A1 (en) Systems and methods for providing visual indicators during colonoscopy
JP7527634B2 (ja) 検査支援装置、検査支援装置の作動方法および検査支援プログラム
WO2024180796A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
JP7264407B2 (ja) 訓練用の大腸内視鏡観察支援装置、作動方法、及びプログラム
KR102253398B1 (ko) 인공지능 기반의 영상 처리 및 사용자 이벤트를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치
WO2023228659A1 (ja) 画像処理装置及び内視鏡システム
US20240148235A1 (en) Information processing apparatus, information processing method, endoscope system, and report creation support device
US20240062471A1 (en) Image processing apparatus, endoscope apparatus, and image processing method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190523

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7127779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150