JP7441452B2 - 教師データ生成方法、学習済みモデル生成方法、および発病予測方法 - Google Patents

教師データ生成方法、学習済みモデル生成方法、および発病予測方法 Download PDF

Info

Publication number
JP7441452B2
JP7441452B2 JP2019195362A JP2019195362A JP7441452B2 JP 7441452 B2 JP7441452 B2 JP 7441452B2 JP 2019195362 A JP2019195362 A JP 2019195362A JP 2019195362 A JP2019195362 A JP 2019195362A JP 7441452 B2 JP7441452 B2 JP 7441452B2
Authority
JP
Japan
Prior art keywords
image
medical image
region
interest
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019195362A
Other languages
English (en)
Other versions
JP2021065606A (ja
Inventor
政至 藤井
一 磯本
賢 植木
一剛 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
R ZERO INC.
Tottori University NUC
Original Assignee
R ZERO INC.
Tottori University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by R ZERO INC., Tottori University NUC filed Critical R ZERO INC.
Priority to JP2019195362A priority Critical patent/JP7441452B2/ja
Priority to PCT/JP2020/038592 priority patent/WO2021075418A1/ja
Publication of JP2021065606A publication Critical patent/JP2021065606A/ja
Application granted granted Critical
Publication of JP7441452B2 publication Critical patent/JP7441452B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)

Description

本発明は、医用画像を用いた診断および治療に関し、特に内視鏡画像を用いた診断および治療に関する。
特許文献1には、内視鏡による撮影によって観察部位の画像をリアルタイムでモニタ表示する際に、比較対象となる過去に記録された内視鏡画像をリアルタイムの画像と合わせて同時表示することが開示されている。具体的には、リアルタイムの画像の血管パターンと、過去の内視鏡画像の血管パターンとを比較することにより、同一の部位を撮影したリアルタイムの画像と過去の内視鏡画像とを同時に表示している。
特開2008-194334号公報
しかしながら、同一の部位を含む画像であっても、内視鏡の撮像素子の指向方向によって、大きく見え方が異なる。そのため、過去の内視鏡画像における病変部などがリアルタイムの画像のどこに存在するかを容易に判別できるとは限らない。
本発明は、上記問題を解決するためになされたものであって、異なる医用画像における位置関係を容易に把握できる画像処理方法を提供することを課題とする。
上記課題を解決するために、本発明は以下の態様を含む。
項1.
観察対象を撮影または描出した第1医用画像を取得する第1取得ステップと、
前記第1医用画像の特徴量を抽出する第1抽出ステップと、
前記観察対象を撮影または描出した第2医用画像を取得する第2取得ステップと、
前記第2医用画像の特徴量を抽出する第2抽出ステップと、
前記第1医用画像の特徴量と前記第2医用画像の特徴量とを比較する比較ステップと、
前記比較ステップの比較結果に基づいて、前記第1医用画像と前記第2医用画像との位置関係を特定する位置関係特定ステップと、
を備えた画像処理方法。
項2.
前記第1医用画像および前記第2医用画像は、前記観察対象を内視鏡で撮影した内視鏡画像である、項1に記載の画像処理方法。
項3.
前記特徴量は、前記観察対象の血管、リンパ管、腺管、柔毛または粘膜のパターンである、項2に記載の画像処理方法。
項4.
前記第1抽出ステップの前に、前記第1医用画像の不明瞭な部分を補正する第1補正ステップと、
前記第2抽出ステップの前に、前記第2医用画像の不明瞭な部分を補正する第2補正ステップと、
をさらに備えた、項2または3に記載の画像処理方法。
項5.
前記第1医用画像に第1関心領域を設定する第1設定ステップをさらに備え、
前記位置関係特定ステップは、前記比較結果に基づいて、第2医用画像における第1関心領域に対応する第2関心領域を特定する関心領域特定ステップを備えた、項2から4のいずれかに記載の画像処理方法。
項6.
前記第2医用画像の撮影時期は、前記第1医用画像の撮影時期よりも後である、項5に記載の画像処理方法。
項7.
前記第2医用画像において、前記第2関心領域を他の領域と識別可能に表示する表示ステップをさらに備えた、項6に記載の画像処理方法。
項8.
前記第1医用画像の撮影時期は、前記第2医用画像の撮影時期よりも後である、項5に記載の画像処理方法。
項9.
前記第1医用画像に第1関心領域を設定する第1設定ステップをさらに備え、
前記第2医用画像は、前記第1関心領域の一部を前記内視鏡で拡大して撮影した画像である、項2から4のいずれかに記載の画像処理方法。
項10.
前記第1医用画像における前記第2医用画像の位置を識別可能に表示する表示ステップをさらに備えた、項9に記載の画像処理方法。
項11.
前記第2取得ステップ、第2抽出ステップ、比較ステップおよび位置関係特定ステップを繰り返して、位置の異なる複数の第2医用画像を取得し、
前記複数の第2医用画像の互いに重複していない部分を繋ぎ合わせて合成拡大画像を生成する画像合成ステップ、
をさらに備えた、項9または10に記載の画像処理方法。
項12.
前記第2医用画像は、一度の内視鏡挿入において、前記第1医用画像に続いて連続的に撮影された画像である、項2から4のいずれかに記載の画像処理方法。
項13.
前記一度の内視鏡挿入において、前記観察対象の異なる部位について、前記第2取得ステップおよび前記第2抽出ステップを繰り返し、
前記各第2取得ステップで取得された複数の第2医用画像について、各第2医用画像の特徴量とその直前に取得された第2医用画像の特徴量とを比較し、
前記比較結果に基づいて、前記第1医用画像と前記第2医用画像との位置関係、および前記複数の第2医用画像同士の位置関係を特定し、前記第1医用画像および複数の前記第2医用画像を繋ぎ合わせて3次元合成画像を生成する合成ステップをさらに備えた、項12に記載の画像処理方法。
項14.
前記3次元合成画像を展開した2次元展開画像を生成する展開画像生成ステップをさらに備えた、項13に記載の画像処理方法。
項15.
前記2次元展開画像に基づき、前記観察対象における観察状態を評価する観察状態評価ステップをさらに備えた、項14に記載の画像処理方法。
項16.
項8に記載の画像処理方法の前記関心領域特定ステップで特定された前記第2関心領域を前記第2医用画像に付加して、機械学習のための教師データを生成する、教師データ生成方法。
項17.
前記第1関心領域は病変部を含み、
前記第2関心領域は前記病変部を含まない、項16に記載の教師データ生成方法。
項18.
項11に記載の画像処理方法の前記画像合成ステップによって生成された前記合成拡大画像に、前記第1関心領域を切除して得られた組織の病理学的診断情報を付加して、機械学習のための教師データを生成する、教師データ生成方法。
項19.
前記病理学的診断情報は、前記第1関心領域における病変部および非病変部の範囲に関する情報を含む、項18に記載の教師データ生成方法。
項20.
項16または17に記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
未知の観察対象を内視鏡で撮影した内視鏡画像を入力とし、前記未知の観察対象における前記病変の発生に関する発病予測情報を出力とする学習済みモデルを生成する、学習済みモデル生成方法。
項21.
被検者の観察対象の内視鏡画像を取得する第3取得ステップと、
項20に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された内視鏡画像を入力して、前記被検者の観察対象における前記病変の発生に関する発病予測情報を取得する発病予測ステップと、
を備えた発病予測方法。
項22.
観察対象を撮影または描出した第1医用画像を取得する第1取得部と、
前記第1医用画像の特徴量を抽出する第1抽出部と、
前記観察対象を撮影または描出した第2医用画像を取得する第2取得部と、
前記第2医用画像の特徴量を抽出する第2抽出部と、
前記第1医用画像の特徴量と前記第2医用画像の特徴量とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1医用画像と前記第2医用画像との位置関係を特定する位置関係特定部と、
を備えた画像処理装置。
項23.
項1~15のいずれかに記載の画像処理方法の各ステップをコンピュータに実行させる画像処理プログラム。
項24.
項23に記載の画像処理プログラムを記録したコンピュータ読み取り可能な非一時的な記録媒体。
本発明によれば、異なる医用画像における位置関係を容易に把握することができる。
第1実施形態に係る内視鏡システムの構成を示すブロック図である。 第1実施形態に係る画像処理方法の処理手順を示すフローチャートである。 第1実施形態に係る画像処理方法の処理手順を示すフローチャートである。 画像補正の例を示す写真である。 画像補正の例を示す写真である。 異なる時期に撮影された同一人物の同一部位の内視鏡画像である。 第2実施形態に係る内視鏡システムの構成を示すブロック図である。 第2実施形態に係る画像処理方法の処理手順を示すフローチャートである。 第2実施形態に係る画像処理方法および教師データ生成方法の処理手順を示すフローチャートである。 第2実施形態に係る学習済みモデル生成装置の構成を示すブロック図である。 第2実施形態に係る学習済みモデル生成方法の処理手順を示すフローチャートである。 第2実施形態に係る他の内視鏡システムの構成を示すブロック図である。 第2実施形態に係る発病予測方法の処理手順を示すフローチャートである。 第3実施形態に係る内視鏡システムの構成を示すブロック図である。 第3実施形態に係る画像処理方法の処理手順を示すフローチャートである。 第3実施形態に係る画像処理方法の処理手順を示すフローチャートである。 関心領域が設定された通常倍率画像の一例である。 拡大画像の一例である。 図17に示す画像において、関心領域中に拡大画像が占める領域が示された画像の一例である。 通常画像、通常画像中に設定された関心領域の画像、80倍の拡大画像および520倍の超拡大画像の一例である。 第3実施形態に係る学習済みモデル生成方法の処理手順を示すフローチャートである。 第4実施形態に係る内視鏡システムの構成を示すブロック図である。 第4実施形態に係る画像処理方法の処理手順を示すフローチャートである。 第4実施形態に係る画像処理方法の処理手順を示すフローチャートである。
以下、本発明の実施形態について添付図面を参照して説明する。なお、本発明は、下記の実施形態に限定されるものではない。
[第1実施形態]
以下、本発明の第1実施形態について説明する。図1は、第1実施形態に係る内視鏡システム1の構成を示すブロック図である。内視鏡システム1は、内視鏡2と、制御装置3と、モニタ4とを備えている。
内視鏡2は、内部に光ファイバFを備えている。内視鏡2の先端部には、蛍光体2a、および撮像素子2bが配置されており、内視鏡2の先端面には、1つの出射窓および1つの観察窓が設けられている。蛍光体2aは出射窓に面しており、撮像素子2bは観察窓に面している。
光ファイバFからは青色光(中心発光波長445nm)が出射され、当該青色光は、蛍光体2aによって白色光に変換され、出射窓から照射される。また、観察窓への入射光は、図示しないレンズにより撮像素子2bの受光面に結像する。撮像素子2bは、入射光を光電変換して、アナログの画像信号を生成する。
なお、内視鏡2の構造はこれに限定されない。例えば、後述するカプセル内視鏡のように、光ファイバを持たず、先端部に光源が装着された内視鏡であってもよい。
制御装置3は、内視鏡2に接続されており、主に、内視鏡2による光出射の制御、および撮像素子2bからの画像信号の処理などを行う。制御装置3は、光源装置5と、プロセッサ6とを備えている。
光源装置5は、青色光を生成する光源5aと、光源5aを駆動する光源駆動部5bと、を備えている。本実施形態において、光源5aはLED光源であるが、レーザ光源やキセノンランプ等の蛍光光源を用いることもできる。
プロセッサ6は、記憶部60と、AD変換部6aと、画像取得部6bと、補正部6cと、特徴量抽出部6dと、関心領域設定部6eと、保存部6fと、比較部6gと、関心領域特定部6hと、マーキング部6iと、を備えている。なお、プロセッサ6は、制御装置3とは別体の装置(例えば汎用コンピュータ)であってもよい。
記憶部60は、プロセッサ6による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを一時的/非一時的に記憶するものであり、主記憶装置(メモリ)および補助記憶装置として機能する。主記憶装置は、DRAM、SRAMなどで構成することができ、補助記憶装置は、ハードディスク、SSDなどで構成することができる。
AD変換部6aは、撮像素子2bからの画像信号をAD変換し、デジタルの画像信号を画像取得部6bに出力する。画像取得部6b~マーキング部6iの各部は、集積回路などによってハードウェア的に実現してもよいが、ソフトウェア的に実現することもできる。この場合、画像取得部6b~マーキング部6iの各部は、プロセッサ6の図示しないCPUまたはGPUが、記憶部60に格納されている画像処理プログラムを図示しない主記憶装置(メモリ)に読み出して実行することにより実現される。画像処理プログラムは、通信ネットワークを介して制御装置3にダウンロードしてもよいし、画像処理プログラムのプログラムコードを記録したSDカードやCD-ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置3に供給してもよい。
画像取得部6b~マーキング部6iの各部の機能については、図2および図3に示すフローチャートを参照しながら説明する。図2に示すステップS1~S6は、内視鏡による検診時に実施され、図3に示すステップS8~S16は、内視鏡による手術(本実施形態では、ESD(内視鏡的粘膜下層剥離術)時に実施される。
ステップS1(第1取得ステップ)では、内視鏡2が観察対象(例えば、下部消化管臓器)に挿入された状態で光源装置5を作動させ、画像取得部6bが内視鏡画像を取得する。当該内視鏡画像を第1医用画像とする。
続いて、ステップS2(第1補正ステップ)では、必要に応じて補正部6cが第1医用画像の不明瞭な部分を補正する。光源の反射や焦点のずれがある場合や、粘液や異物、気泡等が存在すると、第1医用画像が部分的に不明瞭になる。補正部6cは、異なるタイミングで得られた内視鏡画像中の対応箇所を前記不明瞭な部分に置き換えることにより、第1医用画像を補正する。
図4および図5に、補正の例を示す。このような補正を行うことにより、病変部や特徴量の検出が容易になる。
第1医用画像中に癌やポリープなどの病変がない場合(ステップS3においてNO)、検診が終了するまで(ステップS7においてYES)、内視鏡2を異なる位置に移動させてステップS1およびS2を繰り返す。第1医用画像中に病変がある場合(ステップS3においてYES)、ステップS4に移行する。
なお、病変有無の判定は、ユーザが目視で行ってもよいし、制御装置3が自動で行ってもよい。自動判定の方法としては、例えば、内視鏡画像として白色光画像と、光力学的診断法(PDD:Photodynamic Diagonosis)に用いられる蛍光画像とを同時に撮影し、蛍光画像において病変部として検出された部位に対応する白色光画像の部位を病変部として判定する方法や、人工知能による判定方法がある。
ステップS4(第1抽出ステップ)では、特徴量抽出部6dが、第1医用画像の特徴量を抽出する。本実施形態において、特徴量は血管パターンであり、特徴量抽出部6dは、血管パターンの中で特徴的な形状を呈している1または複数の箇所を特徴量として抽出する。
図6は、異なる時期に撮影された同一人物の同一部位(回盲部)の内視鏡画像である。各画像の左上の数字は、撮影年月を示している。各画像における血管のパターンは、互いに同一であることから、血管構造は健康であれば経時的変化し難いことが分かる。例えば、丸枠で囲った部分は、同一部位であり、血管パターンが同じである。特徴量抽出部6dは、このような部分を特徴量として抽出する。
ステップS5(第1設定ステップ)では、関心領域設定部6eが、第1医用画像に第1関心領域を設定する。本実施形態では、関心領域設定部6eは、病変部を囲むように第1関心領域を設定する。第1関心領域の設定は、自動であってもよいし、手動であってもよい。
ステップS6では、保存部6fが、第1医用画像を特徴量および第1関心領域と関連付けて記憶部60に保存する。なお、ステップS1~S6は、検診が終了するまで(ステップS7においてYES)繰り返される。記憶部60に保存されたデータを、参照用データD1と称する。
続いて、内視鏡による手術時に図3に示すステップS8~S15が実施される。
ステップS8(第2取得ステップ)では、ステップS1と同様に、画像取得部6bが内視鏡画像を取得する。当該内視鏡画像を第2医用画像とする。すなわち、第2医用画像の撮影時期は、第1医用画像の撮影時期よりも後である。
ステップS9(第2補正ステップ)では、必要に応じて補正部6cが第2医用画像の不明瞭な部分を補正する。補正方法は、ステップS2と同様である。
ステップS10(第2抽出ステップ)では、ステップS4と同様に、特徴量抽出部6dが第2医用画像の特徴量を抽出する。
ステップS11(比較ステップ)では、比較部6gが、参照用データD1を参照して、第1医用画像の特徴量と第2医用画像の特徴量とを比較する。特徴量を比較する方法は、特に限定されないが、例えば特許文献1に記載の方法を用いることができる。同じ特徴量がない場合(ステップS12においてNO)、第2医用画像と同一部位を含む第1医用画像が存在しないため、手術が終了するまで(ステップS16においてYES)、内視鏡2を異なる位置に移動させて、ステップS8~S11を繰り返す。
同じ特徴量がある場合(ステップS12においてYES)、同じ特徴量を含む第1医用画像および第2医用画像は、同一部位を含む画像であるとみなすことができる。続いて、ステップS13(関心領域特定ステップ)に移行し、関心領域特定部6hが、ステップS11の比較結果に基づいて、第2医用画像における第1関心領域と対応する第2関心領域を特定する。具体的には、関心領域特定部6hは、第1医用画像における特徴量と第1関心領域との位置関係を演算し、第2医用画像における対応する特徴量と前記位置関係から、第2関心領域を特定する。また、内視鏡2の先端位置と観察対象に対する方向の同定を行うこともできる。
続いて、ステップS14(表示ステップ)では、マーキング部6iが、第2医用画像において、第2関心領域を他の領域と識別可能に表示する。本実施形態では、マーキング部6iは、第2関心領域を枠で囲むことにより、他の領域と識別可能に表示する。これにより、検査時に病変部として検出された第1関心領域に対応する箇所が、第2医用画像において自動的に識別可能に表示される。
ステップS15では、ユーザ(医師)が、鉗子等を操作することにより、第2関心領域に対応する組織を切除する。なお、組織の切除は、自動で行ってもよく、この場合、第2関心領域は自動切除のためのナビゲーション情報となる。ステップS8~S15は、手術が終了するまで(ステップS16においてYES)繰り返される。
このように、本実施形態では、手術時に取得された第2医用画像において、検査時に取得された第1医用画像を参照することにより、自動的に、病変部が第2関心領域として特定される。よって、異なる内視鏡画像における位置関係を容易に把握できる。
なお、特徴量は、観察対象に現れる生体組織の構造パターンであれば特に限定されず、血管のパターンの他、腺管、柔毛、リンパ管、粘膜の紋様(皺)、臓器自体の形状のパターンなどであってもよい。このようなパターンは個人に特有のものであるが、生体組織の種類によって経時的変化の可能性が異なる。例えば、血管やリンパ管のパターンは経時的変化の可能性が低く、代謝により構造が置き換わる腺管、柔毛、粘膜の紋様は経時的変化の可能性が中程度であり、人体や臓器の動きによって変化する臓器自体の形状は経時的変化の可能性が大きい。そのため、特徴量抽出部6dは、複数種類の特徴量を抽出した場合、経時的変化の可能性に応じて、特徴量に対し傾斜的に優先度をつけて評価することが好ましい。また、特徴量の経時的変化の可能性が高いほど、第1医用画像を取得するタイミングと第2医用画像を取得するタイミングとの差を短くすることが好ましい。
また、特徴量抽出部6dは、フェデレーテッドラーニング(分散協調学習)を使用して特徴量を抽出することが好ましい。これにより、処理速度の高速化、および、情報の匿名化の条件下での解析が可能となる。
また、異なる時期に撮影された画像間で対応する部位の特徴量は、基本的には健康であれば同じである。そのため、対応する部位の特徴量が互いに異なっていた場合は、疾病の発生の可能性がある。そのため、同じ部位の特徴量を経時的に検知することで、健康状態の判定、疾病発生の予測、病状の増悪や改善の程度を判定することが可能となる。
[第2実施形態]
以下、本発明の第2実施形態について説明する。なお、第1実施形態におけるものと同一の機能を有する部材については、同一の符号を付し、原則として、その詳細な説明を省略する。
図7は、第2実施形態に係る内視鏡システム11の構成を示すブロック図である。内視鏡システム11は、内視鏡2と、制御装置13と、モニタ4とを備えている。
制御装置13は、内視鏡2に接続されており、主に、内視鏡2による光出射の制御、および撮像素子2bからの画像信号の処理などを行う。制御装置13は、光源装置5と、プロセッサ16とを備えている。
プロセッサ6は、記憶部60と、AD変換部6aと、画像取得部6bと、補正部6cと、特徴量抽出部6dと、関心領域設定部6eと、保存部6fと、比較部6gと、関心領域特定部6hと、教師データ生成部6jと、を備えている。画像取得部6b~教師データ生成部6jの各部は、集積回路などによってハードウェア的に実現してもよいが、ソフトウェア的に実現することもできる。この場合、画像取得部6b~教師データ生成部6jの各部は、プロセッサ16の図示しないCPUまたはGPUが、記憶部60に格納されている画像処理プログラムまたは教師データ生成プログラムを図示しない主記憶装置(メモリ)に読み出して実行することにより実現される。これらのプログラムは、通信ネットワークを介して制御装置13にダウンロードしてもよいし、画像処理プログラムのプログラムコードを記録したSDカードやCD-ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置13に供給してもよい。
以下、画像取得部6b~教師データ生成部6jの各部の機能について、図8および図9に示すフローチャートを参照しながら説明する。図8に示すステップS21~S25は、ある年度の検診時に実施され、図9に示すステップS25~S33は、その翌年度の内視鏡による手術(本実施形態では、ESD(内視鏡的粘膜下層剥離術)時に実施される。
ステップS21(第2取得ステップ)では、内視鏡2が観察対象(例えば、下部消化管臓器)に挿入された状態で光源装置5を作動させ、画像取得部6bが内視鏡画像を取得する。当該内視鏡画像を第2医用画像とする。
ステップS22(第2補正ステップ)では、必要に応じて補正部6cが第2医用画像の不明瞭な部分を補正する。
ステップS23(第2抽出ステップ)では、特徴量抽出部6dが第2医用画像の特徴量を抽出する。
ステップS24では、保存部6fが、第2医用画像を特徴量と関連付けて記憶部60に保存する。なお、ステップS21~S24は、検診が終了するまで(ステップS25においてYES)繰り返される。記憶部60に保存されたデータを、過去データD2と称する。
続いて、翌年度の検診時に図9に示すステップS26~S35が実施される。
ステップS26(第1取得ステップ)では、ステップS21と同様に、画像取得部6bが内視鏡画像を取得する。当該内視鏡画像を第1医用画像とする。すなわち、第1医用画像の撮影時期は、第2医用画像の撮影時期よりも後である。
ステップS27(第1補正ステップ)では、必要に応じて補正部6cが第1医用画像の不明瞭な部分を補正する。
第1医用画像中に病変があった場合(ステップS28においてYES)、ステップS29に移行する。ステップS29(第1抽出ステップ)では、特徴量抽出部6dが、第1医用画像の特徴量を抽出する。本実施形態において、特徴量は血管パターンである。
ステップS30(第1設定ステップ)では、関心領域設定部6eが、第1医用画像に第1関心領域を設定する。本実施形態では、関心領域設定部6eは、病変部を囲むように第1関心領域を設定する。第1関心領域を設定は、自動であってもよいし、手動であってもよい。
ステップS31(比較ステップ)では、比較部6gが、過去データD2を参照して、第1医用画像の特徴量と第2医用画像の特徴量とを比較する。同じ特徴量がない場合(ステップS32においてNO)、第1医用画像と同一部位を含む第2医用画像が存在しないため、処理を終了する。
同じ特徴量がある場合(ステップS32においてYES)、同じ特徴量を含む第1医用画像および第2医用画像は、同一部位を含む画像であるとみなすことができる。続いて、ステップS33(関心領域特定ステップ)に移行し、関心領域特定部6hが、ステップS31の比較結果に基づいて、第2医用画像における第1関心領域と対応する第2関心領域を特定する。
続いて、ステップS34では、教師データ生成部6jが、ステップS33で特定された第2関心領域を第2医用画像(過去データD2)に付加して、機械学習のための教師データD3を生成する。検査が終了するまで(ステップS35においてYES)、内視鏡2の位置を移動させてステップS26~S34を繰り返す。生成された教師データD3は、記憶部60に保存される。
本実施形態では、あるタイミングで、第2医用画像を取得し、所定期間(1年)経過後に、第1医用画像を取得する。そして、第1医用画像において病変が発見された場合、病変部に第1関心領域を設定し、第1医用画像の特徴量と第2医用画像の特徴量とを比較することにより、第2医用画像における第1関心領域(病変部)に対応する第2関心領域を特定している。仮に、第2関心領域が病変部を含まない場合、前記所定期間が経過するまでに、病変が発生したことになる。すなわち、第2関心領域の組織は、病変が発生する前段階であることとなる。
よって、図8および図9に示すフローを複数の被検者について行うことにより、第2関心領域が付加された第2医用画像を教師データD3のセット(学習用データセット)として蓄積し、機械学習を行うことにより、下記のように、病変が発生していない組織の画像に基づいて、所定期間後の病変の発生を予測することが可能となる。
続いて、教師データD3を用いた機械学習について説明する。
図10は、本実施形態に係る学習済みモデル生成装置7の構成を示すブロック図である。学習済みモデル生成装置7は、例えば汎用のコンピュータで構成することができ、記憶部70と、学習部7aとを備えている。
記憶部70は、学習済みモデル生成装置7による演算処理に用いられる各種プログラムや、演算処理によって生成された各種データを保存するものであり、例えば、HDD、SSDなどで構成される。記憶部70には、上述のプロセッサ6によって生成された教師データD3が格納されている。
学習部7aは、学習済みモデル生成装置7のGPUまたはCPUが所定の学習プログラムを実行することにより実現される機能ブロックであり、教師データD3を用いて機械学習を行う。これにより、学習部7aは、未知の観察対象を内視鏡で撮影した内視鏡画像を入力とし、前記未知の観察対象における病変の発生に関する発病予測情報を出力とする学習済みモデルD4を生成する。学習法は特に限定されないが、例えば、ディープラーニング、サポートベクターマシン、ランダムフォレストなどを用いることができる。
図11は、本実施形態に係る学習済みモデル生成方法の処理手順を示すフローチャートである。
ステップS41では、上述のプロセッサ6において生成された教師データD3を学習済みモデル生成装置7に転送して、記憶部70に格納する。
ステップS42では、学習部7aがニューラルネットワークなどの学習モデルに教師データD3を入力することにより、機械学習を実行する。機械学習が完了すると、学習済みモデルD4が作成される(ステップS43)。作成された学習済みモデルD4は、記憶部70に保存される(ステップS44)。
続いて、学習済みモデルD4を用いた診断支援について説明する。
図12は、本実施形態に係る内視鏡システム21の構成を示すブロック図である。内視鏡システム21は、内視鏡2と、制御装置23と、モニタ4とを備えている。
制御装置23は、内視鏡2に接続されており、主に、内視鏡2による光出射の制御、および撮像素子2bからの画像信号の処理などを行う。制御装置23は、光源装置5と、プロセッサ26とを備えている。
プロセッサ26は、記憶部60と、AD変換部6aと、画像取得部6bと、補正部6cと、特徴量抽出部6dと、関心領域設定部6eと、保存部6fと、比較部6gと、発病予測部6kと、を備えている。画像取得部6bと~発病予測部6kの各部は、制御装置23のGPUまたはCPUが所定の発病予測プログラムを実行することにより実現される機能ブロックである。
以下、画像取得部6b~発病予測部6kの各部の機能について、図13に示すフローチャートを参照しながら説明する。このフローは、本実施形態に係る学習済みモデル生成方法および発病予測方法の手順を示すものであり、不特定の被検者に対して行われる。
ステップS51では、内視鏡2を被検者の観察対象(例えば、下部消化管臓器)に挿入する。
ステップS52(第3取得ステップ)では、光源装置5を作動させ、画像取得部6bが内視鏡画像を取得する。
ステップS53では、必要に応じて補正部6cが内視鏡画像の不明瞭な部分を補正する。
ステップS54(発病予測ステップ)では、発病予測部6kが、学習済みモデルD4にステップS52で取得された内視鏡画像を入力して、被検者の観察対象における病変の発生に関する発病予測情報を取得する。
ステップS55では、モニタ4に予測結果が表示される。なお、予測結果をユーザに報知する態様は、特に限定されない。
以上のように、本実施形態に係る発病予測方法では、複数の異なる時期の内視鏡検査による内視鏡画像の経時的変化から、被験者が将来的に発病するリスクを予測するとともに、発病リスクの高い部位を特定することができる。特に、ゲノムまたはエピゲノム解析の結果により、癌等の病変の発症リスクの高い疾患が予想される集団に対し、上記発病予測方法による予測を行うことにより、発病を未然に防ぐための手段を講じることができる。
例えば、大腸癌の分野では、全大腸癌のうち5-10%が遺伝性であるといわれており、大腸ポリポーシスの中でも、遺伝子異常を背景とする家族性大腸ポリポーシスが複数知られている。これまでは特定の疾患に対しての遺伝子スクリーニング検査が主であったが、全ゲノム解析やがん遺伝子パネル検査が行われるようになると、偶発的に発見される大腸ポリポーシス患者が増加することが予想される。これらの患者に対しては、定期的な大腸内視鏡検査によるサーベイランスが推奨されているが、このような集団に対して内視鏡検査をする際に、その遺伝子データと内視鏡画像情報の関連性を探索することに加え、内視鏡検査動画の経時的な情報を比較することにより、内視鏡検査画像上のポリープの発現史を探り、今後の内視鏡検査における早期診断・治療のための知見を得ることができる。
また、ゲノム及びエピゲノム解析と、内視鏡画像の経時的変化との関連性を機械学習し、これによって生成された人工知能学習アルゴリズムによって求めることにより、将来的な発病リスクをより正確に予測することが可能となる。
さらに、上記発病予測方法によって、病変の発症リスクが高い部位と、実際に発症した部位との同定数から、社会的スクリーニング検査における、有効な内視鏡検査の時間的間隔を割り出すことができる。
[第3実施形態]
以下、本発明の第3実施形態について説明する。なお、第1および第2実施形態におけるものと同一の機能を有する部材については、同一の符号を付し、原則として、その詳細な説明を省略する。
図14は、第3実施形態に係る内視鏡システム31の構成を示すブロック図である。内視鏡システム31は、内視鏡2と、制御装置33と、モニタ4とを備えている。
制御装置33は、内視鏡2に接続されており、主に、内視鏡2による光出射の制御、および撮像素子2bからの画像信号の処理などを行う。制御装置33は、光源装置5と、プロセッサ36とを備えている。
プロセッサ36は、記憶部60と、AD変換部6aと、画像取得部6bと、補正部6cと、特徴量抽出部6dと、関心領域設定部6eと、保存部6fと、比較部6gと、位置演算部6mと、拡大位置表示部6nと、画像合成部6pと、を備えている。画像取得部6b~画像合成部6pの各部は、集積回路などによってハードウェア的に実現してもよいが、ソフトウェア的に実現することもできる。この場合、画像取得部6b~画像合成部6pの各部は、プロセッサ36の図示しないCPUまたはGPUが、記憶部60に格納されている画像処理プログラムを図示しない主記憶装置(メモリ)に読み出して実行することにより実現される。画像処理プログラムは、通信ネットワークを介して制御装置33にダウンロードしてもよいし、画像処理プログラムのプログラムコードを記録したSDカードやCD-ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置33に供給してもよい。
以下、画像取得部6b~画像合成部6pの各部の機能について、図15および図16に示すフローチャートを参照しながら説明する。
ステップS61(第1取得ステップ)では、内視鏡2が観察対象(例えば、下部消化管臓器)に挿入された状態で光源装置5を作動させ、画像取得部6bが内視鏡画像を取得する。当該内視鏡画像を第1医用画像とする。
続いて、ステップS62(第1補正ステップ)では、必要に応じて補正部6cが第1医用画像の不明瞭な部分を補正する。
第1医用画像中に癌やポリープなどの病変がない場合(ステップS63においてNO)、検診が終了するまで(ステップS68においてYES)、内視鏡2を異なる位置に移動させてステップS61およびS62を繰り返す。第1医用画像中に病変がある場合(ステップS63においてYES)、ステップS64に移行する。
ステップS64(第1抽出ステップ)では、特徴量抽出部6dが、第1医用画像の特徴量を抽出する。本実施形態において、特徴量は腺管のパターンである。
ステップS65(第1設定ステップ)では、関心領域設定部6eが、第1医用画像において病変部の全体または一部に第1関心領域を設定する。第1関心領域R1が設定された第1医用画像の一例を図17に示す。
図15に示すステップS66では、保存部6fが、第1医用画像を特徴量および第1関心領域と関連付けて記憶部60に保存する。なお、第1医用画像が保存される領域は、記憶部60の補助記憶領域であっても主記憶領域であってもよい。記憶部60に保存されたデータを、参照用データD5と称する。
続いて、ステップS67の拡大画像処理に移行する。図16は、ステップS67の詳細な手順を示している。
拡大画像処理では、まずステップS67-1において、内視鏡2の図示しない対物レンズを制御して拡大モードに変更し、観察窓が第1関心領域内に指向するように調整する。本実施形態では、倍率が80倍であるとする。
ステップS67-2では、画像取得部6bが内視鏡画像を取得する。当該内視鏡画像を第2医用画像とする。すなわち、第2医用画像は、第1関心領域の一部を内視鏡2で拡大して撮影した画像である。第2医用画像の一例を図18に示す。
図16に示すステップS67-3(第2補正ステップ)では、必要に応じて補正部6cが第2医用画像の不明瞭な部分を補正する。
ステップS67-4(第2抽出ステップ)では、ステップS64と同様に、特徴量抽出部6dが第2医用画像の特徴量を抽出する。
ステップS67-5(比較ステップ)では、比較部6gが、参照用データD5を参照して、第1医用画像の特徴量と第2医用画像の特徴量とを比較する。同じ特徴量がない場合(ステップS67-6においてNO)、第2医用画像は第1関心領域に含まれないものとみなすことができる。そのため、内視鏡2による撮影範囲が第1関心領域を全て網羅するまで(ステップS67-11においてYES)、内視鏡2を第1関心領域中の異なる位置に指向させて、ステップS67-2~S67-5を繰り返す。
同じ特徴量がある場合(ステップS67-6においてYES)、第2医用画像は第1関心領域に含まれるものとみなされ、ステップS67-7(位置関係特定ステップ)に移行する。ステップS67-7では、保存部6fが、第2医用画像を記憶部60の主記憶領域に保存する。保存された第2医用画像を断片拡大画像D6と称する。
続いて、ステップS67-8において、位置演算部6mが、比較結果に基づき、第1医用画像と第2医用画像との位置関係を特定する。具体的には、位置演算部6mが、第1関心領域における特徴量の位置と、第2医用画像における特徴量の位置に基づき、第1関心領域における第2医用画像の位置を演算する。
続いて、ステップS67-9において、拡大位置表示部6nが、第1関心領域における第2医用画像の位置を識別可能にモニタ4に表示する。図19は、図17に示す第1医用画像において、第1関心領域R1中に第2医用画像が占める領域R2が示された画像の一例である。これにより、ユーザは、第2医用画像(拡大画像)の第1医用画像(通常倍率画像)における位置を把握することができる。
従来の内視鏡検査では、通常倍率の画像から拡大画像または超拡大画像に切り換えた際に、拡大モードの内視鏡による撮影位置が同定し難くなるという欠点があった。これに対し、通常倍率画像の第1関心領域における拡大画像の位置を表示することにより、拡大画像または超拡大画像の位置が把握しやすくなる。
続いて、ステップS67-10(画像合成ステップ)において、画像合成部6pが、記憶部60に保存された第2医用画像(断片拡大画像D6)を合成する。ステップS67-10が最初に実行された時点では、記憶部60に保存されている断片拡大画像D6は1つだけであるので、合成は行われない。ステップS67-2~S67-10は、取得された第2領域が第1関心領域を全て網羅するまで(ステップS67-11においてYES)、内視鏡2の指向方向を変えながら繰り返される。
ステップS67-10が2度目に実行された時点で、記憶部60には2つの断片拡大画像D6が保存されているため、画像合成部6pは、2つの断片拡大画像D6の互いに重複していない部分を繋ぎ合わせて合成拡大画像D7を生成する。
その後、ステップS67-2~S67-10が繰り返される度に、画像合成部6pは、新たに取得された第2医用画像を合成拡大画像D7にさらに合成する。これを繰り返すことにより、最終的に第1関心領域全体に対応する合成拡大画像D7が得られる。
なお、第2医用画像が取得される度に画像合成を行ってもよいし、拡大モードで第1関心領域を全て撮影した後に、取得された第2医用画像をまとめて合成してもよい。すなわち、取得された第2領域が第1関心領域を全て網羅するまで(ステップS67-11においてYES)、断片拡大画像D6を記憶部60に蓄積しておき、その後、画像合成部6pが蓄積された全ての断片拡大画像D6の互いに重複していない部分を繋ぎ合わせて拡大画像D7を生成してもよい。
ステップS67-2~S67-11の処理が終了すると、ステップS67-12において、再び対物レンズを制御して拡大モードから変更前のモードに戻し、図15に示すステップS68に移行する。
以上のように、拡大モードで得られた第2医用画像を合成することにより、関心領域全体の高精細な合成拡大画像を得ることができる。なお、高精細な合成拡大画像を第1医用画像とし、さらに倍率の高い超拡大モード(例えば520倍)で撮影された画像を第2医用画像として、上述のステップS61~S68を実施してもよい。
これにより、図20に示すように、超拡大モードによる第2医用画像の位置の把握が容易になり、第2医用画像を繋ぎ合せて合成することにより、さらに情報量の多い高精細な合成拡大画像を得ることができる。
このようにして得られた合成拡大画像によって、通常倍率の画像を目視した程度では正常か異常かの判別が困難な病変部も正確に判別することが可能となる。さらに、合成拡大画像は、病理学的診断情報(病理学的標本所見情報)との対比により、病変の発病過程における画像的特徴の変化を推定するための人工知能アルゴリズムの生成に利用することができる。具体的なフローの一例を図21に示す。
まず、ステップS71では、手術により第1関心領域を切除して病変部の組織を得る。
続いて、ステップS72において、切除された組織について検査を行い、病理学的診断情報を取得する。病理学的診断情報は、第1関心領域における病変部および非病変部の範囲に関する情報を含む。
続いて、ステップS73において、病理学的診断情報を合成拡大画像に付加して、教師データを作成する。
ステップS74では、生成された教師データを用いて機械学習を行う。その結果、ステップS75において、学習済みモデルが生成される。この学習済みモデルに未知の観察対象から取得された拡大画像を入力すると、合成拡大画像中の複数の領域毎に病変部であるか否かの情報が出力される。これにより、未知の観察対象における病変部と非病変部との境界を識別することが可能となり、合成拡大画像中に病変の範囲を囲繞する環状の境界線を表示することができる。また、学習済みモデルの出力結果に基づいて、発病可能性のある部位を同定することも可能となる。
[第4実施形態]
以下、本発明の第4実施形態について説明する。なお、第1~第3実施形態におけるものと同一の機能を有する部材については、同一の符号を付し、原則として、その詳細な説明を省略する。
図22は、第4実施形態に係る内視鏡システム41の構成を示すブロック図である。内視鏡システム41は、内視鏡2と、制御装置43と、モニタ4とを備えている。
制御装置43は、内視鏡2に接続されており、主に、内視鏡2による光出射の制御、および撮像素子2bからの画像信号の処理などを行う。制御装置43は、光源装置5と、プロセッサ46とを備えている。
プロセッサ46は、記憶部60と、AD変換部6aと、画像取得部6bと、補正部6cと、特徴量抽出部6dと、関心領域設定部6eと、保存部6fと、比較部6gと、位置演算部6mと、画像合成部6pと、展開画像生成部6qと、観察状態評価部6rと、を備えている。画像取得部6b~観察状態評価部6rの各部は、集積回路などによってハードウェア的に実現してもよいが、ソフトウェア的に実現することもできる。この場合、画像取得部6b~観察状態評価部6rの各部は、プロセッサ46の図示しないCPUまたはGPUが、記憶部60に格納されている画像処理プログラムを図示しない主記憶装置(メモリ)に読み出して実行することにより実現される。画像処理プログラムは、通信ネットワークを介して制御装置43にダウンロードしてもよいし、画像処理プログラムのプログラムコードを記録したSDカードやCD-ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、上記プログラムを制御装置43に供給してもよい。
以下、画像取得部6b~観察状態評価部6rの各部の機能について、図23および図24に示すフローチャートを参照しながら説明する。
内視鏡システム41は、観察対象全体の2次元展開画像を生成することにより、内視鏡検査の支援を行う機能や、人体を模擬した模型を用いた内視鏡検査のシミュレーションにおいて、検査精度を評価する機能を有している。下記のフローでは、実際の内視鏡検査、および内視鏡検査のシミュレーションの両方の場合について説明する。
ステップS81(第1取得ステップ)では、内視鏡2が観察対象に挿入された状態で光源装置5を作動させ、画像取得部6bが内視鏡画像を取得する。当該内視鏡画像を第1医用画像とする。実際の内視鏡検査の場合、観察対象は、例えば下部消化管臓器などであるが、内視鏡検査のシミュレーションの場合、観察対象は、人体模型もしくは臓器模型の内部である。
続いて、ステップS82(第1補正ステップ)では、必要に応じて補正部6cが第1医用画像の不明瞭な部分を補正する。
ステップS83(第1抽出ステップ)では、特徴量抽出部6dが、第1医用画像の特徴量を抽出する。実際の内視鏡検査の場合、特徴量は、血管パターンなどの観察対象の表面に現れる組織構造のパターンである。内視鏡検査のシミュレーションの場合、特徴量抽出部6dは、人体模型に形成された生体組織の構造を模したパターンを特徴量として抽出する。
第1医用画像中に病変がある場合(ステップS84においてYES)、ステップS85(第1設定ステップ)に移行し、関心領域設定部6eが、第1医用画像に第1関心領域を設定する。第1医用画像中に病変がない場合(ステップS84においてNO)、ステップS86に移行する。
ステップS86では、保存部6fが、第1医用画像を記憶部60の主記憶領域に保存する。保存された第1医用画像を断片画像D8と称する。
続いて、ステップS87の画像合成処理に移行する。図23は、ステップS87の詳細な手順を示している。
画像合成処理では、まずステップS87-1において、内視鏡2を移動させる。本実施形態では、内視鏡2を観察対象の奥側に所定距離だけ移動させる。
続いて、ステップS87-2において、画像取得部6bが第2医用画像を取得する。当該内視鏡画像を第2医用画像とする。つまり、第2医用画像は、一度の内視鏡挿入において、第1医用画像に続いて連続的に撮影された画像である。
ステップS87-3(第2補正ステップ)では、必要に応じて補正部6cが第2医用画像の不明瞭な部分を補正する。
ステップS87-4(第2抽出ステップ)では、ステップS83と同様に、特徴量抽出部6dが第2医用画像の特徴量を抽出する。
第2医用画像中に病変がある場合(ステップS87-5においてYES)、ステップS87-6(第2設定ステップ)に移行し、関心領域設定部6eが、第2医用画像に第2関心領域を設定する。第2医用画像中に病変がない場合(ステップS87-5においてNO)、ステップS87-7に移行する。
ステップS87-7(比較ステップ)では、比較部6gが、断片画像D8を参照して、第1医用画像の特徴量と第2医用画像の特徴量とを比較する。同じ特徴量がない場合(ステップS87-8においてNO)、第1医用画像と第2医用画像との共通部分がないものとみなすことができる。そのため、ステップS87-9において、内視鏡2をいったんステップS87-1における移動方向と逆方向(本実施形態では手前)に移動させ、その後、ステップS87-2~S87-7を繰り返す。
同じ特徴量がある場合(ステップS87-8においてYES)、第1医用画像および第2医用画像は共通部分を有するため、第2医用画像は第1医用画像と連続した画像であるとみなすことができる。続いて、ステップS87-10において、保存部6fが、第2医用画像を記憶部60の主記憶領域に保存する。
続いて、ステップS87-11において、位置演算部6mが、比較結果に基づき、第1医用画像と第2医用画像との位置関係を特定し、ステップS87-12(画像合成ステップ)において、画像合成部6pが、記憶部60に保存された断片画像D8(第1医用画像)に第2医用画像を合成する。
その後、検査またはシミュレーションが終了するまで(ステップS87-13においてYES)、観察対象の異なる部位について、ステップS87-1~S87-12を繰り返す。すなわち、一度の内視鏡挿入において、観察対象の異なる部位について、ステップS87-2およびS87-4を繰り返し、ステップS87-2の各々で取得された複数の第2医用画像について、ステップS87-7において、各第2医用画像の特徴量とその直前に取得された第2医用画像の特徴量とを比較し、ステップS87-11において、比較結果に基づいて、第1医用画像と第2医用画像との位置関係、および複数の第2医用画像同士の位置関係を特定し、ステップS87-12において、第1医用画像および複数の前記第2医用画像を繋ぎ合わせて3次元合成画像を生成する。これにより、断片画像D8に、複数の第2医用画像が合成され、最終的に3次元合成画像D9が生成され、図23に示すステップS87が終了する。3次元合成画像D9は、同一の特徴量を有する画像同士を繋ぎ合わせたものであるため、観察対象の内周面の全周に亘る撮影によって生成された内表面全体の画像とみなすことができる。
その後、ステップS88(展開画像生成ステップ)において、展開画像生成部6qが、3次元合成画像D9を展開した2次元展開画像D10を生成する。
3次元合成画像D9および2次元展開画像D10には、ステップS85およびS87-6で設定された関心領域が表示される。そのため、ユーザは、3次元合成画像D9または2次元展開画像D10を参照することにより、病変部およびその周囲の範囲が容易に把握できるようになる。また、異なる時期に得られた複数の3次元合成画像D9または2次元展開画像D10を比較することにより、領域ごとの経時的な変化が比較しやすくなる。
また、内視鏡検査のシミュレーションの場合、さらにステップS89を実施する。ステップS89(観察状態評価ステップ)では、観察状態評価部6rが、2次元展開画像D10に基づき、観察対象における観察状態を評価する。観察状態とは、観察すべき領域(観察対象の全領域)に対する実際に観察できた領域の割合や、未観察領域の有無などである。前記割合は、内視鏡2を挿入した人体模型の観察対象(模擬した管腔臓器)の全体面積を、あらかじめ人体模型作製時に計測しておき、2次元展開画像D10から求められた2次元展開画像D10の面積を観察対象の全体面積で除算することにより計算できる。また、未観察領域は、内視鏡2を挿入した人体模型の観察対象の2次元展開図を参照用2次元展開図としてあらかじめ作成しておき、2次元展開画像D10を参照用2次元展開画像に重ね合わせることにより、把握することができる。
このように、シミュレーションにおいて観察状態を評価することにより、内視鏡検査の質や検査術者の熟練度の評価を行うことができる。なお、シミュレーションは、人体模型を用いたシミュレーションの他、VRシミュレータ、ARシミュレータなどのコンピュータシミュレータによっても行うことができる。
なお、内視鏡2が胆管膵管用内視鏡または消化管用細径内視鏡である場合、胆膵または膵管の内腔壁構造、血管、粘膜などのパターンを撮影した画像情報によって、病変や分枝等の相対的位置情報のマッピングを行うことができる。
[付記事項]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、異なる実施形態に開示された技術的手段を適宜組み合わせて得られる形態も、本発明の技術的範囲に属する。
例えば、上記実施形態では、内視鏡による観察対象は主に下部消化管臓器(大腸)であったが、本発明はこれに限定されない。例えば、鼻腔、口腔、食道、胃、十二指腸、胆管、膵管、小腸、肺、その他の内臓も、観察対象とすることができる。また、観察対象は生体に限らず、第4実施形態のように、人体模型やVR、ARであってもよい。
また、上記実施形態では、内視鏡2は軟性内視鏡の一種である消化器内視鏡であったが、適用可能な内視鏡の種類は特に限定されない。本発明に適用可能な内視鏡の例を、表1に示す。
Figure 0007441452000001
なお、内視鏡には、NOTES(natural orifice transluminal endoscopic surgery)に用いられるものも含まれる。NOTESとは、軟性内視鏡を口や肛門、膣などの自然孔から挿入し、胃壁などの管腔壁を経て腹腔内に到達させ、診断や処置を行う手技である。
また、上記実施形態では、画像処理の対象となる第1医用画像および第2医用画像が内視鏡画像であったが、本発明はこれに限定されず、例えば、MRI画像、CT画像および超音波画像なども画像処理の対象とすることができる。MRI画像およびCT画像においては、血管構造や特定臓器の位置関係などが特徴量として使用できる。また、超音波画像においては、実質臓器内の血管、門脈、胆管、リンパ管などの脈管構造、特定臓器の位置関係などが特徴量として使用できる。
1 内視鏡システム
2 内視鏡
2a 蛍光体
2b 撮像素子
3 制御装置
4 モニタ
5 光源装置
5a 光源
5b 光源駆動部
6 プロセッサ(画像処理装置)
6a AD変換部
6b 画像取得部(第1取得部、第2取得部)
6c 補正部
6d 特徴量抽出部(第1抽出部、第2抽出部)
6e 関心領域設定部(位置関係特定部)
6f 保存部
6g 比較部
6h 関心領域特定部
6i マーキング部
6j 教師データ生成部
6k 発病予測部
6m 位置演算部
6n 拡大位置表示部
6p 画像合成部
6q 展開画像生成部
6r 観察状態評価部
7 学習済みモデル生成装置
7a 学習部
11 内視鏡システム
13 制御装置
16 プロセッサ(画像処理装置)
21 内視鏡システム
23 制御装置
26 プロセッサ(画像処理装置)
31 内視鏡システム
33 制御装置
36 プロセッサ(画像処理装置)
41 内視鏡システム
43 制御装置
46 プロセッサ(画像処理装置)
60 記憶部
70 記憶部
D1 参照用データ
D2 過去データ
D3 教師データ
D4 学習済みモデル
D5 参照用データ
D6 断片拡大画像
D7 拡大画像
D7 合成拡大画像
D8 断片画像
D9 3次元合成画像
D10 2次元展開画像
F 光ファイバ
R1 第1関心領域
R2 領域

Claims (5)

  1. 観察対象を撮影または描出した第1医用画像を取得する第1取得ステップと、
    前記第1医用画像の特徴量を抽出する第1抽出ステップと、
    前記第1医用画像に病変部を含む第1関心領域を設定する第1設定ステップと、
    前記第1医用画像の撮影時期よりも前に前記観察対象を撮影または描出した第2医用画像を取得する第2取得ステップと、
    前記第2医用画像の特徴量を抽出する第2抽出ステップと、
    前記第1医用画像の特徴量と前記第2医用画像の特徴量とを比較する比較ステップと、
    前記比較結果に基づいて、第2医用画像における第1関心領域に対応する第2関心領域を特定する関心領域特定ステップと、
    前記関心領域特定ステップで特定された前記第2関心領域を前記第2医用画像に付加して、機械学習のための教師データを生成する教師データ生成ステップと、
    を備え
    前記第1医用画像および前記第2医用画像は、前記観察対象を内視鏡で撮影した内視鏡画像であり、
    前記第2関心領域は前記病変部を含まない、教師データ生成方法。
  2. 前記特徴量は、前記観察対象の血管、リンパ管、腺管、柔毛または粘膜のパターンである、請求項に記載の教師データ生成方法。
  3. 前記第1抽出ステップの前に、前記第1医用画像の不明瞭な部分を補正する第1補正ステップと、
    前記第2抽出ステップの前に、前記第2医用画像の不明瞭な部分を補正する第2補正ステップと、
    をさらに備えた、請求項またはに記載の教師データ生成方法。
  4. 請求項1~3のいずれかに記載の教師データ生成方法によって生成された教師データを用いて機械学習を行い、
    未知の観察対象を内視鏡で撮影した内視鏡画像を入力とし、前記未知の観察対象における前記病変の発生に関する発病予測情報を出力とする学習済みモデルを生成する、学習済みモデル生成方法。
  5. 被検者の観察対象の内視鏡画像を取得する第3取得ステップと、
    請求項に記載の学習済みモデル生成方法によって生成された学習済みモデルに、前記第3取得ステップで取得された内視鏡画像を入力して、前記被検者の観察対象における前記病変の発生に関する発病予測情報を取得する発病予測ステップと、
    を備えた発病予測方法。
JP2019195362A 2019-10-18 2019-10-28 教師データ生成方法、学習済みモデル生成方法、および発病予測方法 Active JP7441452B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019195362A JP7441452B2 (ja) 2019-10-28 2019-10-28 教師データ生成方法、学習済みモデル生成方法、および発病予測方法
PCT/JP2020/038592 WO2021075418A1 (ja) 2019-10-18 2020-10-13 画像処理方法、教師データ生成方法、学習済みモデル生成方法、発病予測方法、画像処理装置、画像処理プログラム、およびそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195362A JP7441452B2 (ja) 2019-10-28 2019-10-28 教師データ生成方法、学習済みモデル生成方法、および発病予測方法

Publications (2)

Publication Number Publication Date
JP2021065606A JP2021065606A (ja) 2021-04-30
JP7441452B2 true JP7441452B2 (ja) 2024-03-01

Family

ID=75636123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019195362A Active JP7441452B2 (ja) 2019-10-18 2019-10-28 教師データ生成方法、学習済みモデル生成方法、および発病予測方法

Country Status (1)

Country Link
JP (1) JP7441452B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023090090A1 (ja) * 2021-11-22 2023-05-25
WO2023242891A1 (ja) * 2022-06-13 2023-12-21 日本電気株式会社 オブジェクト検出装置、学習装置、オブジェクト検出方法、学習方法、オブジェクト検出プログラム及び学習プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002517836A (ja) 1998-06-05 2002-06-18 アーチ・デベロップメント・コーポレーション 乳癌の危険性のコンピュータによる評価方法およびシステム
WO2011061940A1 (ja) 2009-11-18 2011-05-26 パナソニック株式会社 画像処理方法および画像処理装置
JP2015139657A (ja) 2014-01-30 2015-08-03 富士フイルム株式会社 プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP2018029880A (ja) 2016-08-26 2018-03-01 キヤノンメディカルシステムズ株式会社 医用画像処理装置および内視鏡装置
WO2019198637A1 (ja) 2018-04-13 2019-10-17 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002517836A (ja) 1998-06-05 2002-06-18 アーチ・デベロップメント・コーポレーション 乳癌の危険性のコンピュータによる評価方法およびシステム
WO2011061940A1 (ja) 2009-11-18 2011-05-26 パナソニック株式会社 画像処理方法および画像処理装置
JP2015139657A (ja) 2014-01-30 2015-08-03 富士フイルム株式会社 プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP2018029880A (ja) 2016-08-26 2018-03-01 キヤノンメディカルシステムズ株式会社 医用画像処理装置および内視鏡装置
WO2019198637A1 (ja) 2018-04-13 2019-10-17 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法

Also Published As

Publication number Publication date
JP2021065606A (ja) 2021-04-30

Similar Documents

Publication Publication Date Title
WO2021075418A1 (ja) 画像処理方法、教師データ生成方法、学習済みモデル生成方法、発病予測方法、画像処理装置、画像処理プログラム、およびそのプログラムを記録した記録媒体
JP7335552B2 (ja) 画像診断支援装置、学習済みモデル、画像診断支援装置の作動方法および画像診断支援プログラム
JP2010279539A (ja) 診断支援装置および方法並びにプログラム。
JP2014527837A (ja) 体系的に英数字コード化された内視鏡検査および内視鏡位置決めシステム
KR20170055526A (ko) 방광의 진단 맵핑을 위한 방법 및 시스템
JP2005169116A (ja) 融合画像表示方法
US20230281968A1 (en) Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method
US8666135B2 (en) Image processing apparatus
WO2020188682A1 (ja) 診断支援装置、診断支援方法及びプログラム
US20230301503A1 (en) Artificial intelligence-based gastroscopic image analysis method
JP7441452B2 (ja) 教師データ生成方法、学習済みモデル生成方法、および発病予測方法
JPH11104072A (ja) 医療支援システム
JP4686279B2 (ja) 医用診断装置及び診断支援装置
JP7457415B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
KR20210016171A (ko) 의료영상을 이용한 질환정보 제공 방법
JP2008054763A (ja) 医療画像診断装置
US20220202284A1 (en) Endoscope processor, training device, information processing method, training method and program
KR102393661B1 (ko) 다중 영상 내시경 시스템, 그 영상 제공 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
JP7497930B2 (ja) 臨床記録データ生成方法及び装置
EP4223203A1 (en) Image processing device, endoscope system, method for operating image processing device, and program for image processing device
Igarashi et al. Computer‐based endoscopic image‐processing technology for endourology and laparoscopic surgery
CN116724334A (zh) 计算机程序、学习模型的生成方法、以及手术辅助装置
JP2021065293A (ja) 画像処理方法、画像処理装置、画像処理プログラム、教師データ生成方法、教師データ生成装置、教師データ生成プログラム、学習済みモデル生成方法、学習済みモデル生成装置、診断支援方法、診断支援装置、診断支援プログラム、およびそれらのプログラムを記録した記録媒体
JP7533905B2 (ja) 大腸内視鏡観察支援装置、作動方法、及びプログラム
JP7561382B2 (ja) 大腸内視鏡観察支援装置、作動方法、及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7441452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150