JP7349005B1 - プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 - Google Patents

プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 Download PDF

Info

Publication number
JP7349005B1
JP7349005B1 JP2022178864A JP2022178864A JP7349005B1 JP 7349005 B1 JP7349005 B1 JP 7349005B1 JP 2022178864 A JP2022178864 A JP 2022178864A JP 2022178864 A JP2022178864 A JP 2022178864A JP 7349005 B1 JP7349005 B1 JP 7349005B1
Authority
JP
Japan
Prior art keywords
image
endoscopic
endoscopic image
depth
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022178864A
Other languages
English (en)
Other versions
JP2024068425A (ja
Inventor
祥朗 河原
太郁由 谷本
Original Assignee
株式会社両備システムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社両備システムズ filed Critical 株式会社両備システムズ
Priority to JP2022178864A priority Critical patent/JP7349005B1/ja
Application granted granted Critical
Publication of JP7349005B1 publication Critical patent/JP7349005B1/ja
Publication of JP2024068425A publication Critical patent/JP2024068425A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】内視鏡画像から癌の深達度を予測することができるプログラム等を提供する。【解決手段】プログラムは、内視鏡画像を取得し、内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力する処理をコンピュータに実行させる。好適には、前記学習モデルは、癌の深達度を表す複数のクラスそれぞれに属する確率を出力する。更に好適には、前記学習モデルに基づき、前記深達度を出力する上で着目した前記内視鏡画像上の領域を示すヒートマップを生成し、前記ヒートマップを重畳した前記内視鏡画像を、前記深達度と共に出力する。【選択図】図1

Description

本発明は、プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法に関する。
機械学習技術の進展に伴い、医療分野への機械学習の応用が増えている。例えば特許文献1では、ディープラーニングを利用して胃内視鏡イメージから胃病変を診断する病変診断方法等が開示されている。
特表2022-502150号公報
しかしながら、特許文献1に係る発明では、消化器官における癌の深達度を予測することができない。
一つの側面では、内視鏡画像から癌の深達度を予測することができるプログラム等を提供することを目的とする。
一つの側面では、プログラムは、内視鏡画像を取得し、前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、前記特定領域に文字があると判定した場合、前記学習モデルに入力する画像から前記内視鏡画像を除外する処理をコンピュータに実行させる。
一つの側面では、内視鏡画像から癌の深達度を予測することができる。
画像診断システムの構成例を示す説明図である。 サーバの構成例を示すブロック図である。 端末の構成例を示すブロック図である。 実施の形態1の概要を示す説明図である。 分析画面の一例を示す説明図である。 前処理に関する説明図である。 前処理に関する説明図である。 前処理に関する説明図である。 前処理に関する説明図である。 前処理に関する説明図である。 前処理に関する説明図である。 前処理に関する説明図である。 前処理後の分析画面の一例を示す説明図である。 分析結果表示時の分析画面の一例を示す説明図である。 学習モデルの生成処理の手順を示すフローチャートである。 深達度の予測処理の手順を示すフローチャートである。 実施の形態2の概要を示す説明図である。 実施の形態2に係る深達度の予測処理の手順を示すフローチャートである。 実施の形態3の概要を示す説明図である。 実施の形態3に係る深達度の予測処理の手順を示すフローチャートである。 実施の形態4の概要を示す説明図である。 実施の形態4に係る深達度の予測処理の手順を示すフローチャートである。 実施の形態5の概要を示す説明図である。 実施の形態5に係る学習モデルの生成処理の手順を示すフローチャートである。 実施の形態6の概要を示す説明図である。 実施の形態6に係る学習モデルの生成処理の手順を示すフローチャートである。
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、画像診断システムの構成例を示す説明図である。本実施の形態では、機械学習により構築される学習モデル50(図4参照)を用いて、内視鏡画像から癌の深達度を予測する画像診断システムについて説明する。画像診断システムは、情報処理装置1、端末2、内視鏡装置3を含む。情報処理装置1及び端末2は、インターネット等のネットワークNに接続されている。
情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ、パーソナルコンピュータ等である。本実施の形態では情報処理装置1がサーバコンピュータであるものとし、以下では簡潔のためサーバ1と読み替える。サーバ1は、訓練用の内視鏡画像から深達度予測用の学習モデル50を構築し、当該学習モデル50を用いて、内視鏡画像から癌の深達度を予測する。
端末2は、本システムのユーザ(例えば医療従事者)が使用する情報処理端末であり、例えばパーソナルコンピュータ、タブレット端末等である。端末2は、ユーザによる操作に従って、内視鏡装置3で撮像された内視鏡画像をサーバ1にアップロードし、深達度の予測結果を表示する。
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、及び補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムP1を読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
補助記憶部14は、大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP1(プログラム製品)、その他のデータを記憶している。また、補助記憶部14は、学習モデル50を記憶している。学習モデル50は、所定の訓練データを学習済みの機械学習モデルであり、例えばCNN(Convolutional Neural Network;畳み込みニューラルネットワーク)である。学習モデル50は、人工知能ソフトウェアの一部を構成するプログラムモジュールとしての利用が想定される。
なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。また、サーバ1は、CD(Compact Disk)-ROM、DVD(Digital Versatile Disc)-ROM等の可搬型記憶媒体1aを読み取る読取部を備え、可搬型記憶媒体1aからプログラムP1を読み取って実行するようにしても良い。
図3は、端末2の構成例を示すブロック図である。端末2は、制御部21、主記憶部22、通信部23、表示部24、入力部25、補助記憶部26を備える。
制御部21は、一又は複数のCPU、MPU等の演算処理装置であり、補助記憶部26に記憶されたプログラムP2を読み出して実行することにより、種々の情報処理を行う。主記憶部22は、RAM等の一時記憶領域であり、制御部21が演算処理を実行するために必要なデータを一時的に記憶する。通信部23は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。表示部24は、液晶ディスプレイ等の表示画面であり、画像を表示する。入力部25は、キーボード、マウス等の操作インターフェイスであり、ユーザから操作入力を受け付ける。補助記憶部26は、ハードディスク、大容量メモリ等の不揮発性記憶領域であり、制御部21が処理を実行するために必要なプログラムP2(プログラム製品)、その他のデータを記憶している。
なお、端末2は、CD-ROM等の可搬型記憶媒体2aを読み取る読取部を備え、可搬型記憶媒体2aからプログラムP2を読み取って実行するようにしても良い。
図4は、実施の形態1の概要を示す説明図である。図4に基づき、本実施の形態の概要を説明する。
図4では、学習モデル50に胃の内視鏡画像を入力した場合に、内視鏡画像に写る癌の深達度が出力される様子を概念的に図示している。学習モデル50は深層学習により生成されるニューラルネットワークであり、例えばCNNである。
なお、本実施の形態では学習モデル50がCNNであるものとして説明するが、本実施の形態はこれに限定されるものではなく、CNN以外のニューラルネットワーク(例えばVision Transformer、Attention等)、決定木、SVM(Support Vector Machine)等、その他の機械学習モデルであってもよい。
また、本実施の形態では胃癌を対象とするものとするが、撮像対象は胃以外の消化器官であってもよい。
サーバ1は、所定の訓練データを学習することにより、学習モデル50を生成する。訓練データは、訓練用の内視鏡画像群に対し、癌の深達度の正解値が対応付けられたデータである。訓練用の内視鏡画像は、実際の患者の内視鏡画像である。正解値は、医療従事者によってラベル付けされた値である。
本実施の形態では深達度を、癌が胃壁のどの層まで達しているかを表す複数のクラスそれぞれに属する確率で表現する。具体的には、胃壁表面の粘膜(M)に留まっている確率、及びその下の粘膜下層(SM)に達している確率で表現する。
なお、上記は深達度の表現方法の一例であって、本実施の形態はこれに限定されるものではない。例えば深達度は、一般的なT1~T4(胃癌が粘膜に留まっている状態、筋肉層に進んでいる状態、胃の外側表面に出てきている状態、及び他の内蔵に入り込んでいる状態)で表現してもよい。また、本実施の形態では初期の胃癌が発生している状態を前提としているため、癌が生じていない状態の確率は予測しないが、癌の有無まで含めて予測可能としてもよい。
サーバ1は、訓練データに基づいて学習モデル50を生成する。サーバ1は、訓練用の内視鏡画像を学習モデル50に入力することで癌の深達度を出力し、これを正解値と比較する。サーバ1は、両者が近似するようにニューロン間の重み等のパラメータを調整する。サーバ1は、訓練用の各内視鏡画像を順次入力してパラメータを更新する。なお、サーバ1は所定の検証データを使ってパラメータを更新するかを決定する。最終的にサーバ1は、パラメータを最適化した学習モデル50を生成する。
なお、サーバ1は、学習モデル50に係る学習を行う前に、予測時と同様に、所定の前処理を行う。当該前処理について、詳しくは後述する。
図5は、分析画面の一例を示す説明図である。上記で生成した学習モデル50を用いて内視鏡画像の分析を行う場合、ユーザは図5に示す画面上で操作を行う。分析画面は、画像表示欄51、ボタン52を含む。
画像表示欄51は、分析対象とする内視鏡画像を表示する表示欄である。端末2は、アイコン511への画像ファイルのドラッグ&ドロップ操作を受け付けた場合、あるいはアイコン511をクリックされたときに表示されるファイル選択ダイアログを利用して画像の選択入力を受け付けた場合、分析対象の内視鏡画像を画像表示欄51に追加する。
ボタン52は、学習モデル50を用いた分析処理を実行させるためのボタンである。ボタン52への操作入力を受け付けた場合、サーバ1は学習モデル50を用いて各内視鏡画像における癌の深達度を予測(出力)する。なお、この時点でサーバ1は、後述のヒートマップ画像を同時に生成する。
ここで、アイコン511への画像ファイルの入力操作を受け付けた場合、サーバ1はまず、内視鏡画像に対して所定の前処理を行う。具体的には、サーバ1は、内視鏡画像から消化器官が映っている画像領域を切り出す処理を行うと同時に、内視鏡画像が処理対象外の撮像モードで撮像されたものか否かチェックする処理を行う。
内視鏡画像を学習モデル50に入力して深達度を分析するにあたって、内視鏡装置3によっては、例えばNBI(Narrow Band Imaging)、LCI(Linked Color Imaging)のように、消化器官の粘膜表面の模様や血管の輪郭、色調を強調する画像強調観察モードで撮像されたものがある。当該カメラで撮像された画像は生の画像を加工した画像であるため、学習モデル50において分析対象とする画像としては不適切である。そこで本実施の形態では、画像強調処理が施された画像を選別し、処理対象から除外する。
図6~図12は、前処理に関する説明図である。図6~図12では、内視鏡画像に対して実行する前処理の手順を概念的に図示している。
前処理は、大きく分けて3つの工程から成る。具体的には、内視鏡画像から撮像対象の消化器官が映っている画像領域を特定する工程、特定した領域を元に正確なマスク領域の特定とノイズ削除を行ってマスク画像を生成する工程、及び生成したマスク画像を使用して画像強調観察モードで撮像されたものか否かを判定する工程から成る。以下、具体的な処理内容を説明する。
まず、内視鏡画像から撮像対象の消化器官が映っている領域を特定する工程について説明する。画像ファイルの入力を受け付けた場合、サーバ1はまず、図6に示すように、内視鏡画像の明るさを変更した3パターンの画像を生成する。具体的には、サーバ1は、内視鏡画像を鮮鋭化した画像、明るさとコントラストとを変更した画像、及び適応的ヒストグラム平坦化を施した画像をそれぞれ生成する。そしてサーバ1は、元画像を含む4枚の画像を合成する。
次にサーバ1は、合成した画像について、文字が記載されている可能性がある四隅の領域を黒く塗りつぶす。
次にサーバ1は、図7に示すように、当該画像に3つの画像処理を施す。具体的には、サーバ1は、当該画像の鮮鋭化、ガンマ補正、及び明るさとコントラストとの調整を行う。そしてサーバ1は、当該画像を2値化する。
次にサーバ1は、2値化した画像から最大輪郭を抽出する。そしてサーバ1は、最大輪郭を囲う矩形領域を算出(特定)することで、元画像から当該矩形領域を切り抜く。これにより、サーバ1は、図7右下に示すように、消化器官が映っている画像領域を特定する。
続いて、マスク画像を生成する工程について説明する。まずサーバ1は、図8に示すように、上記で特定した(切り抜いた)画像について、モルフォロジー変換(オープニング処理)を行って特定の位置(右上)にある文字を消去する。
次にサーバ1は、当該画像について上下を反転した画像、左右を反転した画像、及び上下左右を反転した画像をそれぞれ生成する。そしてサーバ1は、元画像を含む4枚の画像を合成する。
次にサーバ1は、図9に示すように、合成した画像を2値化し、全ての輪郭を抽出する。そしてサーバ1は、抽出した輪郭を塗りつぶして、多角形(図9では三角形)を描画(配置)した画像を生成する。
次にサーバ1は、当該画像から最大輪郭を抽出し、最大輪郭内を白く塗りつぶした画像を生成する。当該処理を施すことにより、仮に画像の一部に文字等のノイズが残っている場合でもノイズを消去することができる。
次にサーバ1は、図10に示すように、当該塗りつぶし画像を、内視鏡装置3のメーカ毎に予め用意されているテンプレートのマスク画像と比較し、処理対象か否かを判定する。
対象であると判定した場合、サーバ1は、前の工程で切り抜いた画像(図7参照)に塗りつぶし画像を重畳し、マスク済みの画像を生成する。
次にサーバ1は、図11に示すように、元画像と同サイズの黒塗り画像を生成する。そしてサーバ1は、上記で特定した矩形領域の情報を元に、黒塗り画像に対して塗りつぶし画像を合成し、マスク画像を生成する。これにより、図11に示すように、消化器官が映っている画像領域の周囲をマスクするマスク画像が生成される。
続いて、画像強調観察モードで撮像されたものか否かを判定する工程について説明する。サーバ1は、上記で生成したマスク画像を元に、内視鏡画像が画像強調観察モードで撮像されたものであるか否かを判定する。具体的には、サーバ1は、内視鏡画像の特定領域に文字があるか否かを判定することで、画像強調観察モードで撮像されたものであるか否かを判定する。
図12に示すように、本実施の形態で対象とするメーカの内視鏡画像では、画像強調観察モードで撮像した場合、画像が強調されていることを表す文字が特定の位置(右上)に現れる。そこでサーバ1は、当該文字があるか否かを判定することで、画像強調観察モードで撮像されたものであるか否かを判定する。
具体的には、サーバ1は、内視鏡画像に係るメーカ毎に処理を変えて文字の有無を判定する。図12において「A社」と示すメーカの場合、サーバ1は、上記で生成したマスク画像を使用して、消化器官が映っている画像領域を黒塗りした上で、特定の領域(右上の領域)を切り出す。そしてサーバ1は、切り出した領域のピクセル数が0より大きいか否かを判定することで、文字があるか否かを判定する。
一方で、図12において「B社」と示すメーカの場合、サーバ1は、内視鏡画像の特定の領域(右上の領域)を切り抜く。そしてサーバ1は、切り抜いた領域のピクセル数が0より大きいか否かを判定することで、文字があるか否かを判定する。
サーバ1は、上述の如く文字の有無を判定する。文字があると判定した場合、サーバ1は、画像強調観察モードで撮像されたものであると判定する。この場合、サーバ1は、学習モデル50に入力する画像から当該内視鏡画像を除外する。
図13は、前処理後の分析画面の一例を示す説明図である。図13では、上記の前処理を行った後の分析画面を図示している。図13に示すように、端末2は、各内視鏡画像に対してマスク画像を適用し、マスクした部分に斜線を表示して、切り抜いた部分がわかるように表示する。また、端末2は、画像強調観察モードで撮像されたものとして除外されたことがわかるように、「処理対象外」というテキストを付するなどして内視鏡画像を表示する。
このように、サーバ1は内視鏡画像に対して前処理を施す。ボタン52への操作入力を受け付けた場合、サーバ1は前処理後の画像を学習モデル50に入力することで癌の深達度を予測し、分析結果を端末2に表示させる。
図14は、分析結果表示時の分析画面の一例を示す説明図である。ボタン52への操作入力を受け付けた場合、図14に示すように表示が切り換わり、分析結果が表示される。具体的には、画面右側に分析結果表示欄53が表示される。
分析結果表示欄53は、学習モデル50を用いた分析結果を表示する表示欄である。端末2は、複数の内視鏡画像全体での分析結果を分析結果表示欄53の上部に表示すると共に、個々の内視鏡画像の分析結果を分析結果表示欄53の下部に順次表示する。
具体的には、端末2は分析結果表示欄53の下部に、深達度を表す各クラス(M、SM)に属する確率を内視鏡画像と対応付けて表示すると共に、内視鏡画像には、深達度を予測する上で学習モデル50が着目した内視鏡画像上の領域を表すヒートマップを重畳して表示する。当該ヒートマップは、Grad-CAM(Gradient-weighted Class Activation Mapping)、Attention等の公知技術を用いて生成することができる。サーバ1は、学習モデル50に基づいてヒートマップを生成し、内視鏡画像に重畳して表示させる。これにより、学習モデル50が画像のどの部分に着目して深達度を予測したか、ユーザが判別することができる。なお、例えば端末2は、ヒートマップ表示のオン/オフの切換操作を受け付けるようにしてもよく、また、ヒートマップ付きの画像と、ヒートマップ無しの画像とを並列で表示するなどしてもよい。
また、端末2は、複数の内視鏡画像全体での分析結果を分析結果表示欄53の上部に表示する。例えば端末2は、各内視鏡画像の深達度のクラスを集計した集計結果を半円状の円グラフで表示する。また、端末2は、ほぼ全ての画像に対し同じ予測結果の場合は「High Confidence」と表示し、M、SMいずれかの予測結果が7割程度の場合は「Middle Confidence」と表示し、予測結果がM、SMで半々に近い場合は「Low Confidence」と表示する。
上記のように各内視鏡画像の分析結果が分析結果表示欄53に表示されるが、ユーザは、各内視鏡画像に対応して表示されるリジェクトボタン531を操作することで、任意の内視鏡画像の分析結果を除外することができる。リジェクトボタン531が操作された場合、端末2は、対応する内視鏡画像を暗転させると共に、分析結果表示欄53上部の集計結果から該当画像の分析結果を除外する。
図15は、学習モデル50の生成処理の手順を示すフローチャートである。図15に基づき、機械学習により学習モデル50を生成する際の処理内容について説明する。
サーバ1の制御部11は、学習モデル50生成用の訓練データを取得する(ステップS11)。訓練データは、訓練用の内視鏡画像群に対し、癌の深達度の正解値が対応付けられたデータである。制御部11は、訓練用の内視鏡画像に対して上述の前処理を施し、画像強調観察モードで撮像された画像を除外する(ステップS12)。
制御部11は訓練データに基づき、内視鏡画像を入力した場合に癌の深達度を出力する学習モデル50を生成する(ステップS13)。例えば制御部11は、学習モデル50としてCNNを生成する。制御部11は、訓練用の内視鏡画像を学習モデル50に入力することで癌の深達度を出力し、出力された深達度を正解値と比較する。制御部11は、出力される深達度が正解値と近似するように、学習モデル50の重み等のパラメータを最適化する。これにより制御部11は学習モデル50を生成する。制御部11は一連の処理を終了する。
図16は、深達度の予測処理の手順を示すフローチャートである。図16に基づき、学習モデル50を用いて癌の深達度を予測する際の処理内容について説明する。
サーバ1の制御部11は、端末2から内視鏡画像を取得する(ステップS31)。制御部11は、ステップS31で取得した画像に対して前処理を施し、画像強調観察モードで撮像された画像である場合は除外する(ステップS32)。
制御部11は、内視鏡画像を学習モデル50に入力することで、癌の深達度を出力する(ステップS33)。具体的には、制御部11は、癌の深達度を表す複数のクラス(M、SM)それぞれに属する確率を出力する。更に制御部11は、学習モデル50に基づき、深達度を予測する上で学習モデル50が着目した内視鏡画像上の領域を表すヒートマップを生成する(ステップS34)。制御部11は、ステップS33で出力された癌の深達度と共に、ステップS34で生成されたヒートマップを重畳した内視鏡画像を端末2に表示させる(ステップS35)。具体的には、制御部11は、個々の内視鏡画像について癌の深達度とヒートマップ付きの画像とを表示させると共に、複数の内視鏡画像について癌の深達度の集計結果を表示させる。制御部11は、リジェクトボタン531への操作入力を受け付けた場合、対応する内視鏡画像を暗転させると共に、当該画像を集計結果から除外する。制御部11は一連の処理を終了する。
以上より、本実施の形態1によれば、癌の深達度をユーザに提示し、画像診断を支援することができる。
(実施の形態2)
本実施の形態では、内視鏡画像の余黒部分を処理することで、余黒部分に起因する誤判定を軽減する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図17は、実施の形態2の概要を示す説明図である。図17に基づき、本実施の形態の概要を説明する。
実施の形態1で説明したように、サーバ1は内視鏡画像に対する前処理として内視鏡画像にマスク画像を適用し、撮像部分を切り抜く。ここで、マスク画像において白抜き以外の四隅の部分を黒(R、G、Bが0)で埋めた上で、矩形状に撮像部分を切り抜く。
上記のように切り抜いた場合、四隅の部分は黒色になる。ここで、この画像をそのまま学習モデル50に入力すると、学習モデル50は四隅の余黒部分を病変の特徴の一部と誤認する恐れがある。そこで本実施の形態では、四隅の余黒部分を処理した上で学習モデル50に入力する。
具体的には、サーバ1は、余黒部分をその他の撮像部分の平均色に置換する。なお、「その他の撮像部分」とは、画像中央の部分全部であってもよく、あるいは一部(例えば余黒部分近傍の領域)であってもよい。図17の右下に、置換後の内視鏡画像を図示する。四隅の余黒部分を画像中央部分の平均色で置換することにより、余黒部分に起因した誤判定を軽減することができる。
図18は、実施の形態2に係る深達度の予測処理の手順を示すフローチャートである。
画像強調観察モードで撮像された画像を除外する処理を実行した後(ステップS32)、サーバ1の制御部11は以下の処理を実行する。
制御部11は、内視鏡画像の余黒部分を、その他の部分の平均色に置換する(ステップS201)。具体的には上述の如く、制御部11は、撮像部分の平均色に余黒部分を置換する。制御部11は、置換後の内視鏡画像を学習モデル50に入力することで、癌の深達度を出力する(ステップS202)。制御部11は処理をステップS34に移行する。
なお、上記では特段説明しなかったが、学習時も同様に画像の余黒部分を平均色に置換した上で内視鏡画像を学習するようにしてもよい。
以上より、本実施の形態2によれば、余黒部分に起因する誤判定を軽減することができる。
(実施の形態3)
本実施の形態では、画像の四隅を判定根拠として深達度が予測された場合、この予測結果を除外する形態について述べる。
図19は、実施の形態3の概要を示す説明図である。図19に基づき、本実施の形態の概要を説明する。
実施の形態1で述べたように、サーバ1は深達度を予測後、Grad-CAM等の方法で学習モデル50が着目した領域を示すヒートマップを生成する。図19左側には、当該ヒートマップを図示している。
ここで、図19に示すヒートマップでは画像の右下隅が判定根拠として示されている。この場合、学習モデル50は本来判定根拠として適さない余黒部分に反応してしまったことがわかる。本実施の形態では、このように画像の四隅を判定根拠として深達度を予測した場合、当該画像を処理対象から除外する。
具体的には、サーバ1は、内視鏡画像を縦横所定数の領域(例えば7×7の領域)に分割する。そしてサーバ1は、ヒートマップに基づき、各領域の重要度を算出する。サーバ1は、算出した重要度を所定の閾値と比較し、重要度が閾値以上の領域の数をカウントする。最終的にサーバ1は、カウントされた総領域数のうち、画像の四隅に対応する領域が過半数を占めている場合、当該画像を処理対象から除外すると判定する。
なお、上記の判定方法は一例であって、本実施の形態はこれに限定されるものではない。例えばサーバ1は、画像の四隅に対応する領域の重要度が閾値以上の場合、直ちに処理対象から除外するものとしてもよい。すなわち、サーバ1は、内視鏡画像の四隅に位置する領域の重要度に応じて当該内視鏡画像を処理対象から除外すればよく、その判定方法は特に限定されない。
除外すると判定された場合、サーバ1は、当該内視鏡画像が処理対象から除外された旨を分析画面に表示させる。詳細な図示は省略するが、端末2はリジェクトボタン531が操作された場合と同様に、図14の画面の分析結果表示欄53において、対象の内視鏡画像を暗転させた上で、当該画像を集計結果から除外する。なお、「Accept」のボタンが更に操作された場合、暗転動作が解除され、集計結果が変更される。
図20は、実施の形態3に係る深達度の予測処理の手順を示すフローチャートである。癌の深達度を出力する上で学習モデル50が着目した領域を示すヒートマップを生成した後(ステップS34)、サーバ1の制御部11は以下の処理を実行する。
制御部11は、内視鏡画像を縦横所定数の領域に分割し、ヒートマップに基づき、各領域の重要度を算出する(ステップS301)。制御部11は、内視鏡画像の四隅に対応する領域の重要度と、その他の領域の重要度とに応じて、当該内視鏡画像を処理対象から除外するか否かを判定する(ステップS302)。具体的には上述の如く、制御部11は、重要度が閾値以上の領域の数をカウントし、その過半数が内視鏡画像の四隅の領域であった場合、処理対象から除外する。
制御部11は、学習モデル50に基づく深達度の分析結果を端末2に表示させる(ステップS303)。ここで制御部11は、ステップS302で除外した内視鏡画像については、処理対象から除外された旨を表示させる。制御部11は一連の処理を終了する。
以上より、本実施の形態3によれば、信頼性が低い分析結果を除外することができる。
(実施の形態4)
本実施の形態では、画像の端にある病変も考慮して深達度を予測可能とする形態について説明する。
図21は、実施の形態4の概要を示す説明図である。図21に基づき、本実施の形態の概要を説明する。
実施の形態1で説明したように、サーバ1は、内視鏡画像を学習モデル50に入力することで癌の深達度を予測する。この場合にサーバ1は、画像をセンタークロップ(画像の中央部分を切り抜き)するため、画像の端にある病変が考慮されないことがある。そこで本実施の形態ではFivecropという手法を用いて、予測精度の向上を図る。
具体的には図21に示すように、サーバ1は、内視鏡画像の中心に位置する矩形領域(実線で図示)を切り抜くと共に、当該矩形領域を画像の四隅にスライドさせた領域(破線で図示)を切り抜く。そしてサーバ1は、切り抜いた各画像を学習モデル50に入力することで、画像毎に深達度を予測する。
サーバ1は、各画像の深達度から内視鏡画像全体における深達度を決定する。例えばサーバ1は、多数決により深達度を決定する。例えば5つの画像の深達度が「M」、「M」、「M」、「SM」、「SM」だった場合、最終的な深達度は「M」に決定される。
なお、上記の深達度の決定方法(多数決)は一例であって、本実施の形態はこれに限定されるものではない。例えばサーバ1は、画像の四隅の余黒部分を含まない画像中心の矩形領域(図21に実線で示す領域)の予測結果の重みを、他の四隅の領域(破線で示す領域)よりも大きくするなどしてもよい。
図22は、実施の形態4に係る深達度の予測処理の手順を示すフローチャートである。画像強調観察モードで撮像された画像を除外する処理を行った後(ステップS32)、サーバ1の制御部11は以下の処理を実行する。
制御部11は内視鏡画像を、画像中心の矩形領域を切り抜いた画像と、当該矩形領域を画像の四隅にスライドした領域を切り抜いた画像とに分割する(ステップS401)。制御部11は、切り抜いた各画像を学習モデル50に入力することで、各画像に対応する深達度を出力する(ステップS402)。制御部11は、各画像の深達度から内視鏡画像全体における深達度を決定する(ステップS403)。制御部11は処理をステップS34に移行する。
以上より、本実施の形態4によれば、画像の端にある病変も考慮して深達度を予測することができる。
(実施の形態5)
本実施の形態では、内視鏡を模擬したオブジェクトを重畳した画像を学習モデル50に学習させることで、深達度の予測精度を向上させる形態について説明する。
図23は、実施の形態5の概要を示す説明図である。図23に基づき、本実施の形態の概要を説明する。
実施の形態1で説明したように、サーバ1は、内視鏡画像に学習モデル50を入力することで癌の深達度を予測する。ここで、内視鏡画像に内視鏡が写り込んでしまい、学習モデル50がこれを病変の特徴の一部と認識して誤判定をする恐れがある。
そこで本実施の形態では、学習時に内視鏡を模擬したオブジェクトを訓練用の内視鏡画像に重畳することで、内視鏡が写り込んだ画像を学習しておく。すなわち、サーバ1は、訓練用の内視鏡画像に内視鏡を模擬したオブジェクトを重畳し、オブジェクト重畳後の画像を訓練用の画像に用いる。例えばサーバ1は、実際に内視鏡が写り込んだ画像からオブジェクトとして内視鏡部分を切り取り、内視鏡が写り込んでいない画像に重畳する。サーバ1は実施の形態1と同様に、当該画像を学習モデル50に入力することで癌の深達度を出力し、正解値と近似するように重み等のパラメータを最適化する。これにより、内視鏡が写り込むことによる誤判定を軽減する。
なお、例えばサーバ1は、内視鏡の大きさ、向き等が異なるオブジェクトを複数パターン用意しておき、いずれかのオブジェクトをランダムに重畳するようにしてもよい。また、例えばサーバ1は、画像に写る胃(消化器官)の向きに応じて、オブジェクトの向きを変更してもよい。
なお、内視鏡合成後の画像を事前に用意して学習モデル50に学習させてもよく、あるいは学習中に内視鏡(オブジェクト)を合成して学習モデル50に学習させてもよい。
図24は、実施の形態5に係る学習モデル50の生成処理の手順を示すフローチャートである。ステップS12の処理を実行後、サーバ1の制御部11は以下の処理を実行する。
制御部11は、訓練用の内視鏡画像に対し、内視鏡を模擬したオブジェクトを重畳する(ステップS501)。制御部11は、オブジェクトを重畳した内視鏡画像を用いて、学習モデル50を生成する(ステップS502)。制御部11は一連の処理を終了する。
以上より、本実施の形態5によれば、内視鏡が写り込んでいることによる誤判定を軽減することができる。
(実施の形態6)
本実施の形態では、カメラメーカの違いによるデータの不均衡を解消する形態について説明する。
図25は、実施の形態6の概要を示す説明図である。図25では、CycleGAN(Generative Adversarial Network)という機械学習モデルを用いて、第1メーカ(「A社」と図示)のカメラで撮像された内視鏡画像(以下、「第1内視鏡画像」と呼ぶ)と、第2メーカ(「B社」と図示)のカメラで撮像された内視鏡画像(以下、「第2内視鏡画像」と呼ぶ)とを相互に変換する様子を概念的に図示している。
実施の形態1で説明したように、サーバ1は、訓練用の内視鏡画像を学習することで学習モデル50を生成する。一方で、メーカ毎に入手可能な内視鏡画像には深達度のクラスには偏りがあり、あるメーカでは「M」の癌が、別のメーカでは「SM」の癌が多いというように、データの不均衡が生じる。従って、いずれかのメーカのカメラで撮像された内視鏡画像を多く学習すると、そのデータの不均衡に起因して予測の偏りが発生し、学習モデル50の予測精度が低下する恐れがある。
そこで本実施の形態では、CycleGANを構築して各メーカの内視鏡画像を疑似的に生成し、データの不均衡を解消する。CycleGANは、異なるドメイン間でデータの相互変換を行うモデルであり、一のドメインのデータを他のドメインのデータに変換するための第1生成器(Generator)61と、上記他のドメインのデータを上記一のドメインのデータに変換する第2生成器62とを備える。また、CycleGANは、2つの生成器に対応して、各生成器で生成したデータの真偽を識別する2つの第1識別器(Discriminator)63、第2識別器64を備える。
サーバ1は、一のドメインを「A社」製のカメラの第1内視鏡画像とし、他のドメインを「B社」製のカメラの第2内視鏡画像として、両者の相互変換を行うCycleGANを生成する。サーバ1は、各メーカの内視鏡画像から成る訓練データを用いて学習を行う。サーバ1は、第1内視鏡画像を第1生成器61に入力して第2内視鏡画像を生成し、第1識別器63において真偽を識別する。また、サーバ1は、第2内視鏡画像を第2生成器62に入力して第1内視鏡画像を生成し、第2識別器64において真偽を識別する。サーバ1は、ドメイン間の変換を評価するための損失関数(Adversarial Loss)と、変換したデータの元のドメインへの逆変換を保証するための損失関数(Cycle Consistency Loss)とを用いて学習を行い、各生成器及び識別器のパラメータを最適化したCycleGANを生成する。
サーバ1は、上記で生成した第1生成器61、第2生成器62を用いて、第1内視鏡画像と第2内視鏡画像とが同数となるように、第1内視鏡画像、第2内視鏡画像を生成する。例えばサーバ1は、訓練データにおいて第1内視鏡画像の枚数が第2内視鏡画像の枚数より少ない場合、その差分だけ第1内視鏡画像を生成する。あるいはサーバ1は、訓練データにおいて第2内視鏡画像の枚数が第1内視鏡画像の枚数より少ない場合、その差分だけ第2内視鏡画像を生成する。あるいはサーバ1は、全ての第1内視鏡画像から第2内視鏡画像を生成すると共に、全ての第2内視鏡画像から第1内視鏡画像を生成することで、両者が同数となるようにする。このようにサーバ1は、両者が同数となるように第1内視鏡画像及び/又は第2内視鏡画像を生成する。
サーバ1は、上記で生成した第1内視鏡画像及び/又は第2内視鏡画像を訓練データに加えた上で、学習モデル50を生成する。すなわち、サーバ1は、第1内視鏡画像と第2内視鏡画像とを同数だけ学習する。これにより、ドメイン(カメラメーカ)間でのデータの不均衡を解消し、予測の偏りを改善することにより学習モデル50の予測精度を向上させることができる。
図26は、実施の形態6に係る学習モデル50の生成処理の手順を示すフローチャートである。
サーバ1の制御部11は、訓練データを取得する(ステップS601)。当該訓練データは、第1メーカのカメラで撮像された第1内視鏡画像と、第2メーカのカメラで撮像された第2内視鏡画像とを含む。制御部11は処理をステップS12に移行する。
ステップS12の処理を実行後、制御部11は訓練データに基づき、第1内視鏡画像を入力した場合に第2内視鏡画像に変換する第1生成器61と、第2内視鏡画像を入力した場合に第1内視鏡画像に変換する第2生成器62と、第1生成器61が生成する第1内視鏡画像の真偽を識別する第1識別器63と、第2生成器62が生成する第2内視鏡画像の真偽を識別する第2識別器64と、を共同でトレーニングすることにより第1生成器61及び第2生成器62を生成する(ステップS602)。
制御部11は、ステップS602で生成された第1生成器61及び/又は第2生成器62を用いて、訓練データに含まれる第1内視鏡画像及び第2内視鏡画像が同数となるように、第1内視鏡画像及び/又は第2内視鏡画像を生成する(ステップS603)。制御部11は、ステップS603で生成した第1内視鏡画像及び/又は第2内視鏡画像を加えた訓練データに基づき、学習モデル50を生成する(ステップS604)。制御部11は一連の処理を終了する。
なお、本実施の形態では第1内視鏡画像及び第2内視鏡画像が同数となるようにしたが、両者を同数とする構成は必須ではなく、いずれか一方又は双方を増加させるのみであってもよい。
また、本実施の形態では画像生成手段としてCycleGANを用いたが、その他の画像生成手段を用いてもよい。
以上より、本実施の形態6によれば、カメラメーカの違いによるデータの不均衡を解消し、学習モデル50の予測精度を向上させることができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P1 プログラム
50 学習モデル
2 端末
21 制御部
22 主記憶部
23 通信部
24 表示部
25 入力部
26 補助記憶部
P2 プログラム
61 第1生成器
62 第2生成器
63 第1識別器
64 第2識別器

Claims (15)

  1. 内視鏡画像を取得し、
    前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
    特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
    生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
    前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
    特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
    内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
    前記特定領域に文字があると判定した場合、前記学習モデルに入力する画像から前記内視鏡画像を除外する
    処理をコンピュータに実行させるプログラム。
  2. 前記学習モデルは、癌の深達度を表す複数のクラスそれぞれに属する確率を出力する
    請求項1に記載のプログラム。
  3. 前記学習モデルに基づき、前記深達度を出力する上で着目した前記内視鏡画像上の領域を示すヒートマップを生成し、
    前記ヒートマップを重畳した前記内視鏡画像を、前記深達度と共に出力する
    請求項1に記載のプログラム。
  4. 前記内視鏡画像の余黒部分を、その他の部分の平均色に置換し、
    置換後の前記内視鏡画像を前記学習モデルに入力することで、癌の深達度を出力する
    請求項1に記載のプログラム。
  5. 前記学習モデルに基づき、前記深達度を出力する上で着目した前記内視鏡画像上の領域を示すヒートマップを生成し、
    前記ヒートマップに基づき、前記内視鏡画像上の各領域の重要度を算出し、
    前記内視鏡画像の四隅に位置する領域の重要度に応じて、該内視鏡画像を処理対象から除外する
    請求項1に記載のプログラム。
  6. 前記内視鏡画像を、画像中心の矩形領域を切り抜いた画像と、該矩形領域を画像の四隅にスライドした領域を切り抜いた画像とに分割し、
    分割した各画像を前記学習モデルに入力することで、各画像に対応する深達度を出力し、
    各画像の深達度から前記内視鏡画像全体における深達度を決定する
    請求項1に記載のプログラム。
  7. 内視鏡画像を取得し、
    前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
    特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
    生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
    前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
    特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
    内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
    前記特定領域に文字があると判定した場合、前記学習モデルに入力する画像から前記内視鏡画像を除外する
    処理をコンピュータが実行する情報処理方法。
  8. 制御部を備える情報処理装置であって、
    前記制御部は、
    内視鏡画像を取得し、
    前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
    特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
    生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
    前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
    特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
    内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
    前記特定領域に文字があると判定した場合、前記学習モデルに入力する画像から前記内視鏡画像を除外する
    情報処理装置。
  9. 内視鏡画像と、癌の深達度とを対応付けた訓練データを取得し、
    前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
    特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
    生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
    前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
    特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
    前記特定領域に文字があると判定した場合、学習対象とする画像から前記内視鏡画像を除外し、
    前記訓練データに基づき、内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルを生成する
    処理をコンピュータが実行する学習モデルの生成方法。
  10. 訓練用の内視鏡画像に対し、内視鏡を模擬したオブジェクトを重畳し、
    前記オブジェクトを重畳した前記内視鏡画像を用いて、前記学習モデルを生成する
    請求項に記載の学習モデルの生成方法。
  11. 前記訓練データは、第1メーカのカメラで撮像された第1内視鏡画像と、第2メーカのカメラで撮像された第2内視鏡画像とを含み、
    前記第1内視鏡画像を入力した場合に前記第2内視鏡画像に変換するよう学習済みの第1生成器、又は前記第2内視鏡画像を入力した場合に前記第1内視鏡画像に変換するよう学習済みの第2生成器を用いて、前記第2内視鏡画像又は第1内視鏡画像を生成し、
    生成した前記第2内視鏡画像又は第1内視鏡画像を加えた前記訓練データに基づき、前記学習モデルを生成する
    請求項に記載の学習モデルの生成方法。
  12. 前記訓練データに基づき、前記第1生成器と、前記第2生成器と、前記第1生成器が生成する前記第2内視鏡画像の真偽を識別する第1識別器と、前記第2生成器が生成する前記第1内視鏡画像の真偽を識別する第2識別器と、を共同でトレーニングすることにより前記第1生成器及び第2生成器を生成する
    請求項11に記載の学習モデルの生成方法。
  13. 内視鏡画像を取得し、
    内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
    前記学習モデルに基づき、前記深達度を出力する上で着目した前記内視鏡画像上の領域を示すヒートマップを生成し、
    前記ヒートマップに基づき、前記内視鏡画像上の各領域の重要度を算出し、
    前記内視鏡画像の四隅に位置する領域の重要度に応じて、該内視鏡画像を処理対象から除外する
    処理をコンピュータに実行させるプログラム。
  14. 内視鏡画像を取得し、
    前記内視鏡画像を、画像中心の矩形領域を切り抜いた画像と、該矩形領域を画像の四隅にスライドした領域を切り抜いた画像とに分割し、
    内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、分割した各画像を入力することで、各画像に対応する深達度を出力し、
    各画像の深達度から前記内視鏡画像全体における深達度を決定する
    処理をコンピュータに実行させるプログラム。
  15. 内視鏡画像と、癌の深達度とを対応付けた訓練データであって、第1メーカのカメラで撮像された第1内視鏡画像と、第2メーカのカメラで撮像された第2内視鏡画像とを含む訓練データを取得し、
    前記訓練データに基づき、前記第1内視鏡画像を入力した場合に前記第2内視鏡画像に変換するよう学習済みの第1生成器と、前記第2内視鏡画像を入力した場合に前記第1内視鏡画像に変換するよう学習済みの第2生成器と、前記第1生成器が生成する前記第2内視鏡画像の真偽を識別する第1識別器と、前記第2生成器が生成する前記第1内視鏡画像の真偽を識別する第2識別器と、を共同でトレーニングすることにより前記第1生成器及び第2生成器を生成し、
    前記第1生成器又は前記第2生成器を用いて、前記第2内視鏡画像又は第1内視鏡画像を生成し、
    生成した前記第2内視鏡画像又は第1内視鏡画像を加えた前記訓練データに基づき、内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルを生成する
    処理をコンピュータが実行する学習モデルの生成方法。
JP2022178864A 2022-11-08 2022-11-08 プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 Active JP7349005B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022178864A JP7349005B1 (ja) 2022-11-08 2022-11-08 プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022178864A JP7349005B1 (ja) 2022-11-08 2022-11-08 プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法

Publications (2)

Publication Number Publication Date
JP7349005B1 true JP7349005B1 (ja) 2023-09-21
JP2024068425A JP2024068425A (ja) 2024-05-20

Family

ID=88021735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022178864A Active JP7349005B1 (ja) 2022-11-08 2022-11-08 プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法

Country Status (1)

Country Link
JP (1) JP7349005B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091792A (ja) 2018-12-07 2020-06-11 コニカミノルタ株式会社 画像検査装置、画像検査方法、および画像検査プログラム
WO2021054477A2 (ja) 2019-09-20 2021-03-25 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2022163508A1 (ja) 2021-01-26 2022-08-04 富士フイルム富山化学株式会社 薬剤識別装置、薬剤識別方法及びプログラム、薬剤識別システム、薬剤載置台、照明装置、撮影補助装置、学習済みモデル、並びに学習装置
JP2022126373A (ja) 2021-02-18 2022-08-30 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091792A (ja) 2018-12-07 2020-06-11 コニカミノルタ株式会社 画像検査装置、画像検査方法、および画像検査プログラム
WO2021054477A2 (ja) 2019-09-20 2021-03-25 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2022163508A1 (ja) 2021-01-26 2022-08-04 富士フイルム富山化学株式会社 薬剤識別装置、薬剤識別方法及びプログラム、薬剤識別システム、薬剤載置台、照明装置、撮影補助装置、学習済みモデル、並びに学習装置
JP2022126373A (ja) 2021-02-18 2022-08-30 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システム

Also Published As

Publication number Publication date
JP2024068425A (ja) 2024-05-20

Similar Documents

Publication Publication Date Title
US20210406591A1 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
Frid-Adar et al. GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification
WO2020215984A1 (zh) 基于深度学习的医学图像检测方法及相关设备
US11024027B2 (en) Manipulable object synthesis in 3D medical images with structured image decomposition
JP5039310B2 (ja) 脳内出血部位セグメンテーション装置
JP7246898B2 (ja) データ解析処理装置及びデータ解析処理プログラム
WO2022151755A1 (zh) 目标检测方法及装置、电子设备、存储介质、计算机程序产品和计算机程序
JP2021002338A (ja) 画像セグメンテーション及び識別のための方法及びシステム
Cho et al. Comparison of convolutional neural network models for determination of vocal fold normality in laryngoscopic images
CN108765392B (zh) 一种基于滑动窗口的消化道内镜病变检测和识别方法
WO2006126384A1 (ja) 異常陰影候補の表示方法及び医用画像処理システム
JP7218118B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN111667491B (zh) 基于深度对抗网络的带边界标注信息乳腺肿块图生成方法
JP2020166809A (ja) モデル学習用のシステム、装置、及び学習方法
CN111311536A (zh) 医学图像数据
CN113313680B (zh) 一种结直肠癌病理图像预后辅助预测方法及系统
CN113989407B (zh) Ct影像中肢体部位识别模型训练方法及系统
CN111899244A (zh) 图像分割、网络模型的训练方法及装置,及电子设备
KR20220095342A (ko) Ct 영상을 이용한 갑상선 암의 림프절 전이 진단 방법 및 진단 시스템
Wang et al. Realistic lung nodule synthesis with multi-target co-guided adversarial mechanism
CN111062953A (zh) 一种超声图像中甲状旁腺增生的识别方法
CN115222713A (zh) 一种冠状动脉钙化积分的计算方法、装置及存储介质
Yousef et al. A deep learning approach for quantifying vocal fold dynamics during connected speech using laryngeal high-speed videoendoscopy
CN117095815A (zh) 基于磁共振图像和病理全景扫描切片预测带有同源重组缺陷的前列腺癌患者的系统
JP7349005B1 (ja) プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230908

R150 Certificate of patent or registration of utility model

Ref document number: 7349005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150