JP7349005B1 - プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 - Google Patents
プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 Download PDFInfo
- Publication number
- JP7349005B1 JP7349005B1 JP2022178864A JP2022178864A JP7349005B1 JP 7349005 B1 JP7349005 B1 JP 7349005B1 JP 2022178864 A JP2022178864 A JP 2022178864A JP 2022178864 A JP2022178864 A JP 2022178864A JP 7349005 B1 JP7349005 B1 JP 7349005B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- endoscopic
- endoscopic image
- depth
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Endoscopes (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
(実施の形態1)
図1は、画像診断システムの構成例を示す説明図である。本実施の形態では、機械学習により構築される学習モデル50(図4参照)を用いて、内視鏡画像から癌の深達度を予測する画像診断システムについて説明する。画像診断システムは、情報処理装置1、端末2、内視鏡装置3を含む。情報処理装置1及び端末2は、インターネット等のネットワークNに接続されている。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムP1を読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
制御部21は、一又は複数のCPU、MPU等の演算処理装置であり、補助記憶部26に記憶されたプログラムP2を読み出して実行することにより、種々の情報処理を行う。主記憶部22は、RAM等の一時記憶領域であり、制御部21が演算処理を実行するために必要なデータを一時的に記憶する。通信部23は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。表示部24は、液晶ディスプレイ等の表示画面であり、画像を表示する。入力部25は、キーボード、マウス等の操作インターフェイスであり、ユーザから操作入力を受け付ける。補助記憶部26は、ハードディスク、大容量メモリ等の不揮発性記憶領域であり、制御部21が処理を実行するために必要なプログラムP2(プログラム製品)、その他のデータを記憶している。
サーバ1の制御部11は、学習モデル50生成用の訓練データを取得する(ステップS11)。訓練データは、訓練用の内視鏡画像群に対し、癌の深達度の正解値が対応付けられたデータである。制御部11は、訓練用の内視鏡画像に対して上述の前処理を施し、画像強調観察モードで撮像された画像を除外する(ステップS12)。
サーバ1の制御部11は、端末2から内視鏡画像を取得する(ステップS31)。制御部11は、ステップS31で取得した画像に対して前処理を施し、画像強調観察モードで撮像された画像である場合は除外する(ステップS32)。
本実施の形態では、内視鏡画像の余黒部分を処理することで、余黒部分に起因する誤判定を軽減する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
画像強調観察モードで撮像された画像を除外する処理を実行した後(ステップS32)、サーバ1の制御部11は以下の処理を実行する。
制御部11は、内視鏡画像の余黒部分を、その他の部分の平均色に置換する(ステップS201)。具体的には上述の如く、制御部11は、撮像部分の平均色に余黒部分を置換する。制御部11は、置換後の内視鏡画像を学習モデル50に入力することで、癌の深達度を出力する(ステップS202)。制御部11は処理をステップS34に移行する。
本実施の形態では、画像の四隅を判定根拠として深達度が予測された場合、この予測結果を除外する形態について述べる。
制御部11は、内視鏡画像を縦横所定数の領域に分割し、ヒートマップに基づき、各領域の重要度を算出する(ステップS301)。制御部11は、内視鏡画像の四隅に対応する領域の重要度と、その他の領域の重要度とに応じて、当該内視鏡画像を処理対象から除外するか否かを判定する(ステップS302)。具体的には上述の如く、制御部11は、重要度が閾値以上の領域の数をカウントし、その過半数が内視鏡画像の四隅の領域であった場合、処理対象から除外する。
本実施の形態では、画像の端にある病変も考慮して深達度を予測可能とする形態について説明する。
制御部11は内視鏡画像を、画像中心の矩形領域を切り抜いた画像と、当該矩形領域を画像の四隅にスライドした領域を切り抜いた画像とに分割する(ステップS401)。制御部11は、切り抜いた各画像を学習モデル50に入力することで、各画像に対応する深達度を出力する(ステップS402)。制御部11は、各画像の深達度から内視鏡画像全体における深達度を決定する(ステップS403)。制御部11は処理をステップS34に移行する。
本実施の形態では、内視鏡を模擬したオブジェクトを重畳した画像を学習モデル50に学習させることで、深達度の予測精度を向上させる形態について説明する。
制御部11は、訓練用の内視鏡画像に対し、内視鏡を模擬したオブジェクトを重畳する(ステップS501)。制御部11は、オブジェクトを重畳した内視鏡画像を用いて、学習モデル50を生成する(ステップS502)。制御部11は一連の処理を終了する。
本実施の形態では、カメラメーカの違いによるデータの不均衡を解消する形態について説明する。
サーバ1の制御部11は、訓練データを取得する(ステップS601)。当該訓練データは、第1メーカのカメラで撮像された第1内視鏡画像と、第2メーカのカメラで撮像された第2内視鏡画像とを含む。制御部11は処理をステップS12に移行する。
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P1 プログラム
50 学習モデル
2 端末
21 制御部
22 主記憶部
23 通信部
24 表示部
25 入力部
26 補助記憶部
P2 プログラム
61 第1生成器
62 第2生成器
63 第1識別器
64 第2識別器
Claims (15)
- 内視鏡画像を取得し、
前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
前記特定領域に文字があると判定した場合、前記学習モデルに入力する画像から前記内視鏡画像を除外する
処理をコンピュータに実行させるプログラム。 - 前記学習モデルは、癌の深達度を表す複数のクラスそれぞれに属する確率を出力する
請求項1に記載のプログラム。 - 前記学習モデルに基づき、前記深達度を出力する上で着目した前記内視鏡画像上の領域を示すヒートマップを生成し、
前記ヒートマップを重畳した前記内視鏡画像を、前記深達度と共に出力する
請求項1に記載のプログラム。 - 前記内視鏡画像の余黒部分を、その他の部分の平均色に置換し、
置換後の前記内視鏡画像を前記学習モデルに入力することで、癌の深達度を出力する
請求項1に記載のプログラム。 - 前記学習モデルに基づき、前記深達度を出力する上で着目した前記内視鏡画像上の領域を示すヒートマップを生成し、
前記ヒートマップに基づき、前記内視鏡画像上の各領域の重要度を算出し、
前記内視鏡画像の四隅に位置する領域の重要度に応じて、該内視鏡画像を処理対象から除外する
請求項1に記載のプログラム。 - 前記内視鏡画像を、画像中心の矩形領域を切り抜いた画像と、該矩形領域を画像の四隅にスライドした領域を切り抜いた画像とに分割し、
分割した各画像を前記学習モデルに入力することで、各画像に対応する深達度を出力し、
各画像の深達度から前記内視鏡画像全体における深達度を決定する
請求項1に記載のプログラム。 - 内視鏡画像を取得し、
前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
前記特定領域に文字があると判定した場合、前記学習モデルに入力する画像から前記内視鏡画像を除外する
処理をコンピュータが実行する情報処理方法。 - 制御部を備える情報処理装置であって、
前記制御部は、
内視鏡画像を取得し、
前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
前記特定領域に文字があると判定した場合、前記学習モデルに入力する画像から前記内視鏡画像を除外する
情報処理装置。 - 内視鏡画像と、癌の深達度とを対応付けた訓練データを取得し、
前記内視鏡画像から撮像対象の消化器官を映した画像領域を特定し、
特定した前記画像領域を切り抜いた画像から抽出される輪郭内を塗りつぶした塗りつぶし画像を生成し、
生成した前記塗りつぶし画像を、内視鏡装置のメーカ毎に予め用意されているテンプレートのマスク画像と比較することで、取得した前記内視鏡画像を撮像した内視鏡装置のメーカを特定し、
前記塗りつぶし画像に基づき、前記画像領域の周囲をマスクするマスク画像を生成し、
特定した前記メーカに応じて、前記マスク画像を使用して、前記内視鏡画像の特定領域のピクセル数が所定値より大きいか否かを判定することで、該特定領域に文字があるか否かを判定し、
前記特定領域に文字があると判定した場合、学習対象とする画像から前記内視鏡画像を除外し、
前記訓練データに基づき、内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルを生成する
処理をコンピュータが実行する学習モデルの生成方法。 - 訓練用の内視鏡画像に対し、内視鏡を模擬したオブジェクトを重畳し、
前記オブジェクトを重畳した前記内視鏡画像を用いて、前記学習モデルを生成する
請求項9に記載の学習モデルの生成方法。 - 前記訓練データは、第1メーカのカメラで撮像された第1内視鏡画像と、第2メーカのカメラで撮像された第2内視鏡画像とを含み、
前記第1内視鏡画像を入力した場合に前記第2内視鏡画像に変換するよう学習済みの第1生成器、又は前記第2内視鏡画像を入力した場合に前記第1内視鏡画像に変換するよう学習済みの第2生成器を用いて、前記第2内視鏡画像又は第1内視鏡画像を生成し、
生成した前記第2内視鏡画像又は第1内視鏡画像を加えた前記訓練データに基づき、前記学習モデルを生成する
請求項9に記載の学習モデルの生成方法。 - 前記訓練データに基づき、前記第1生成器と、前記第2生成器と、前記第1生成器が生成する前記第2内視鏡画像の真偽を識別する第1識別器と、前記第2生成器が生成する前記第1内視鏡画像の真偽を識別する第2識別器と、を共同でトレーニングすることにより前記第1生成器及び第2生成器を生成する
請求項11に記載の学習モデルの生成方法。 - 内視鏡画像を取得し、
内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、取得した前記内視鏡画像を入力することで癌の深達度を出力し、
前記学習モデルに基づき、前記深達度を出力する上で着目した前記内視鏡画像上の領域を示すヒートマップを生成し、
前記ヒートマップに基づき、前記内視鏡画像上の各領域の重要度を算出し、
前記内視鏡画像の四隅に位置する領域の重要度に応じて、該内視鏡画像を処理対象から除外する
処理をコンピュータに実行させるプログラム。 - 内視鏡画像を取得し、
前記内視鏡画像を、画像中心の矩形領域を切り抜いた画像と、該矩形領域を画像の四隅にスライドした領域を切り抜いた画像とに分割し、
内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルに、分割した各画像を入力することで、各画像に対応する深達度を出力し、
各画像の深達度から前記内視鏡画像全体における深達度を決定する
処理をコンピュータに実行させるプログラム。 - 内視鏡画像と、癌の深達度とを対応付けた訓練データであって、第1メーカのカメラで撮像された第1内視鏡画像と、第2メーカのカメラで撮像された第2内視鏡画像とを含む訓練データを取得し、
前記訓練データに基づき、前記第1内視鏡画像を入力した場合に前記第2内視鏡画像に変換するよう学習済みの第1生成器と、前記第2内視鏡画像を入力した場合に前記第1内視鏡画像に変換するよう学習済みの第2生成器と、前記第1生成器が生成する前記第2内視鏡画像の真偽を識別する第1識別器と、前記第2生成器が生成する前記第1内視鏡画像の真偽を識別する第2識別器と、を共同でトレーニングすることにより前記第1生成器及び第2生成器を生成し、
前記第1生成器又は前記第2生成器を用いて、前記第2内視鏡画像又は第1内視鏡画像を生成し、
生成した前記第2内視鏡画像又は第1内視鏡画像を加えた前記訓練データに基づき、内視鏡画像を入力した場合に癌の深達度を出力するよう学習済みの学習モデルを生成する
処理をコンピュータが実行する学習モデルの生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022178864A JP7349005B1 (ja) | 2022-11-08 | 2022-11-08 | プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022178864A JP7349005B1 (ja) | 2022-11-08 | 2022-11-08 | プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7349005B1 true JP7349005B1 (ja) | 2023-09-21 |
JP2024068425A JP2024068425A (ja) | 2024-05-20 |
Family
ID=88021735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022178864A Active JP7349005B1 (ja) | 2022-11-08 | 2022-11-08 | プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7349005B1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020091792A (ja) | 2018-12-07 | 2020-06-11 | コニカミノルタ株式会社 | 画像検査装置、画像検査方法、および画像検査プログラム |
WO2021054477A2 (ja) | 2019-09-20 | 2021-03-25 | 株式会社Aiメディカルサービス | 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体 |
WO2022163508A1 (ja) | 2021-01-26 | 2022-08-04 | 富士フイルム富山化学株式会社 | 薬剤識別装置、薬剤識別方法及びプログラム、薬剤識別システム、薬剤載置台、照明装置、撮影補助装置、学習済みモデル、並びに学習装置 |
JP2022126373A (ja) | 2021-02-18 | 2022-08-30 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システム |
-
2022
- 2022-11-08 JP JP2022178864A patent/JP7349005B1/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020091792A (ja) | 2018-12-07 | 2020-06-11 | コニカミノルタ株式会社 | 画像検査装置、画像検査方法、および画像検査プログラム |
WO2021054477A2 (ja) | 2019-09-20 | 2021-03-25 | 株式会社Aiメディカルサービス | 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体 |
WO2022163508A1 (ja) | 2021-01-26 | 2022-08-04 | 富士フイルム富山化学株式会社 | 薬剤識別装置、薬剤識別方法及びプログラム、薬剤識別システム、薬剤載置台、照明装置、撮影補助装置、学習済みモデル、並びに学習装置 |
JP2022126373A (ja) | 2021-02-18 | 2022-08-30 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに医療診断システム |
Also Published As
Publication number | Publication date |
---|---|
JP2024068425A (ja) | 2024-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210406591A1 (en) | Medical image processing method and apparatus, and medical image recognition method and apparatus | |
Frid-Adar et al. | GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification | |
WO2020215984A1 (zh) | 基于深度学习的医学图像检测方法及相关设备 | |
US11024027B2 (en) | Manipulable object synthesis in 3D medical images with structured image decomposition | |
JP5039310B2 (ja) | 脳内出血部位セグメンテーション装置 | |
JP7246898B2 (ja) | データ解析処理装置及びデータ解析処理プログラム | |
WO2022151755A1 (zh) | 目标检测方法及装置、电子设备、存储介质、计算机程序产品和计算机程序 | |
JP2021002338A (ja) | 画像セグメンテーション及び識別のための方法及びシステム | |
Cho et al. | Comparison of convolutional neural network models for determination of vocal fold normality in laryngoscopic images | |
CN108765392B (zh) | 一种基于滑动窗口的消化道内镜病变检测和识别方法 | |
WO2006126384A1 (ja) | 異常陰影候補の表示方法及び医用画像処理システム | |
JP7218118B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN111667491B (zh) | 基于深度对抗网络的带边界标注信息乳腺肿块图生成方法 | |
JP2020166809A (ja) | モデル学習用のシステム、装置、及び学習方法 | |
CN111311536A (zh) | 医学图像数据 | |
CN113313680B (zh) | 一种结直肠癌病理图像预后辅助预测方法及系统 | |
CN113989407B (zh) | Ct影像中肢体部位识别模型训练方法及系统 | |
CN111899244A (zh) | 图像分割、网络模型的训练方法及装置,及电子设备 | |
KR20220095342A (ko) | Ct 영상을 이용한 갑상선 암의 림프절 전이 진단 방법 및 진단 시스템 | |
Wang et al. | Realistic lung nodule synthesis with multi-target co-guided adversarial mechanism | |
CN111062953A (zh) | 一种超声图像中甲状旁腺增生的识别方法 | |
CN115222713A (zh) | 一种冠状动脉钙化积分的计算方法、装置及存储介质 | |
Yousef et al. | A deep learning approach for quantifying vocal fold dynamics during connected speech using laryngeal high-speed videoendoscopy | |
CN117095815A (zh) | 基于磁共振图像和病理全景扫描切片预测带有同源重组缺陷的前列腺癌患者的系统 | |
JP7349005B1 (ja) | プログラム、情報処理方法、情報処理装置及び学習モデルの生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230303 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7349005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |