JP2023066260A - 学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法 - Google Patents

学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法 Download PDF

Info

Publication number
JP2023066260A
JP2023066260A JP2021176886A JP2021176886A JP2023066260A JP 2023066260 A JP2023066260 A JP 2023066260A JP 2021176886 A JP2021176886 A JP 2021176886A JP 2021176886 A JP2021176886 A JP 2021176886A JP 2023066260 A JP2023066260 A JP 2023066260A
Authority
JP
Japan
Prior art keywords
data
thin portion
learning model
classification data
tomographic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021176886A
Other languages
English (en)
Inventor
俊祐 吉澤
Shunsuke Yoshizawa
泰一 坂本
Yasukazu Sakamoto
克彦 清水
Katsuhiko Shimizu
弘之 石原
Hiroyuki Ishihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2021176886A priority Critical patent/JP2023066260A/ja
Priority to US17/974,893 priority patent/US20230133103A1/en
Publication of JP2023066260A publication Critical patent/JP2023066260A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computational Linguistics (AREA)
  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】細く描出された領域を正しく分類可能な学習モデルを生成する学習モデル生成方法等を提供すること。【解決手段】学習モデル生成方法は、断層像取得用プローブを用いて取得された断層像58と、前記断層像58を構成する各ピクセルが生体組織領域566と非生体組織領域とを含む複数の領域に分類された正解分類データ57とを関連づけて複数組記録した訓練データベースから訓練データを取得し、前記正解分類データ57のうち、所定の領域について、所定の閾値よりも薄い薄肉部に関する薄肉部データ59を取得し、前記訓練データと前記薄肉部データ59とに基づいて、前記断層像58を構成する各ピクセルを前記複数の領域に分類した出力分類データを出力する学習モデル31のパラメータ調整処理を行なう。【選択図】図1

Description

本発明は、学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法に関する。
血管等の管腔器官に画像取得用カテーテルを挿入して、画像を取得するカテーテルシステムが使用されている(特許文献1)。画像に描出された組織を分類したセグメンテーション画像を表示する超音波診断装置が提案されている(特許文献2)。
国際公開第2017/164071号
カテーテルシステムを用いて撮影した画像に基づいて作成したセグメンテーション画像を使用することにより、たとえば面積または体積等の自動計測、および、三次元画像の表示を行える。
しかしながら、公知のセグメンテーション手法では、画像中に細く描出された領域を正しく分類できない場合がある。
一つの側面では、細く描出された領域を正しく分類可能な学習モデルを生成する学習モデル生成方法等を提供することを目的とする。
学習モデル生成方法は、断層像取得用プローブを用いて取得された断層像と、前記断層像が生体組織領域と非生体組織領域とを含む複数の領域に分類された正解分類データとを関連づけて複数組記録した訓練データベースから訓練データを取得し、前記正解分類データのうち、所定の領域について、所定の閾値よりも薄い薄肉部に関する薄肉部データを取得し、前記訓練データと前記薄肉部データとに基づいて、学習モデルのパラメータ調整処理を行なう。
一つの側面では、細く描出された領域を正しく分類可能な学習モデルを生成する学習モデル生成方法等を提供できる。
分類モデルの生成方法を説明する説明図である。 情報処理装置の構成を説明する説明図である。 分類訓練DBのレコードレイアウトを説明する説明図である。 薄肉部データを説明する説明図である。 薄肉部データを説明する説明図である。 薄肉部データを説明する説明図である。 差分データを説明する説明図である。 加重差分データを説明する説明図である。 プログラムの処理の流れを説明するフローチャートである。 薄肉部データ生成のサブルーチンの処理の流れを説明するフローチャートである。 差分データの変形例を説明する説明図である。 差分データの変形例を説明する説明図である。 加重差分データの変形例を説明する説明図である。 加重差分データの変形例を説明する説明図である。 薄肉部データの変形例を説明する説明図である。 薄肉部抽出モデルを説明する説明図である。 薄肉部訓練DBのレコードレイアウトを説明する説明図である。 変形例1-8の分類モデルの生成方法を説明する説明図である。 実施の形態2の分類モデルの生成方法を説明する説明図である。 実施の形態2の分類モデルの生成方法を説明する説明図である。 実施の形態2の分類モデルの生成方法を説明する説明図である。 実施の形態2の分類モデルの生成方法を説明する説明図である。 変形例2-1の加重正解分類データを説明する説明図である。 実施の形態3の損失値を説明する説明図である。 実施の形態3の損失値を説明する説明図である。 実施の形態3のプログラムの処理の流れを説明するフローチャートである。 損失値算出のサブルーチンの処理の流れを説明するフローチャートである。 実施の形態4の差分データを説明する説明図である。 実施の形態5のプログラムの処理の流れを説明するフローチャートである。 実施の形態6のカテーテルシステムの構成を説明する説明図である。 実施の形態6のプログラムの処理の流れを説明するフローチャートである。 実施の形態7の情報処理装置の構成を説明する説明図である。 実施の形態8の情報処理装置の機能ブロック図である。 実施の形態9の画像処理装置の機能ブロック図である。
[実施の形態1]
図1は、分類モデル31の生成方法を説明する説明図である。分類訓練DB(Database)41(図2参照)に、断層像58と正解分類データ57とを組にした分類訓練データが多数記録されている。本実施の形態では、断層像58はIVUS(Intravascular Ultrasound:血管内超音波検査)用の画像取得用カテーテル28(図30参照)を使用して撮影された超音波断層像である場合を例にして説明する。画像取得用カテーテル28は、患者の身体の断層像58を取得する断層像取得用プローブの例示である。
断層像58は、近赤外光を用いたOCT(Optical Coherence Tomography)による断層像58であってもよい。断層像58は、リニア走査型またはセクタ走査型の画像取得用カテーテル28を用いて取得された超音波断層像であってもよい。断層像58は、TEE(Transesophageal Echocardiography:経食道心エコー)用プローブを用いて取得された超音波断層像であってもよい。断層像58は患者の体表に当てて断層像58を取得する体外式の超音波プローブであってもよい。
図1においては、走査線データを走査角度順に平行に配列して形成された、いわゆるRT形式で断層像58を図示する。断層像58の左端が画像取得用カテーテル28である。断層像58の横方向は、画像取得用カテーテル28との距離に対応し、断層像58の縦方向は走査角度に対応する。
正解分類データ57は、断層像58を構成する各ピクセルを、生体組織領域566、内腔領域563および腔外領域567に分類したデータである。内腔領域563は、周囲を生体組織領域566に囲まれた領域である。内腔領域563は、画像取得用カテーテル28が挿入されている第1内腔領域561と画像取得用カテーテル28が挿入されていない第2内腔領域562とに分類されている。以下の説明においては、正解分類データ57を構成するそれぞれのデータについても、断層像58を構成するデータと同様に「ピクセル」と記載する。
それぞれのピクセルには、分類された領域を示すラベルが関連づけられている。図1においては、生体組織領域566のラベルが関連付けられた部分を格子状のハッチング、第1内腔領域561のラベルが関連付けられた部分をハッチング無し、第2内腔領域562のラベルが関連付けられた部分を左下がりのハッチング、腔外領域567のラベルが関連付けられた部分を右下がりのハッチングでそれぞれ示す。なお、断層像58を構成する複数のピクセルをまとめた小領域ごとにラベルが関連づけられていてもよい。
画像取得用カテーテル28が血管または心臓等の循環器に挿入されている場合を例にして、具体的に説明する。生体組織領域566は血管壁または心臓壁等の、管腔器官壁に対応する。第1内腔領域561は、画像取得用カテーテル28が挿入されている管腔器官の内側の領域である。すなわち、第1内腔領域561は、血液で満たされている領域である。
第2内腔領域562は、画像取得用カテーテル28が挿入されている血管等の近傍に存在する別の管腔器官の内側の領域である。たとえば第2内腔領域562は画像取得用カテーテル28が挿入されている血管から分岐した血管の内側の領域、または、画像取得用カテーテル28が挿入されている血管に近接する他の血管の内側の領域である。第2内腔領域562は、たとえば胆管、膵管、尿管または尿道等の、循環器以外の管腔器官の内側の領域である場合もある。
腔外領域567は、生体組織領域566の外側の領域である。心房、心室または太い血管等の内側の領域であっても、画像取得用カテーテル28に対して遠位側の生体組織領域566が断層像58の表示レンジに収まっていない場合には、腔外領域567に分類される。
図示を省略するが、正解分類データ57は、たとえば画像取得用カテーテル28、画像取得用カテーテル28と共に挿入されたガイドワイヤ等が描出された器具領域、および石灰化等の病変部が描出された病変領域等の、種々の領域に対応するラベルを含んでもよい。
正解分類データ57は、第1内腔領域561と第2内腔領域562とが区別されておらず、どちらも内腔領域563に分類されたデータであってもよい。正解分類データ57は、生体組織領域566と、非生体組織領域との2種類の領域に分類されたデータであってもよい。
正解分類データ57は、断層像58の読影に習熟した医師、検査技師または訓練を受けたオペレータ等の専門家により作成され、断層像58と関連づけて分類訓練DB41に記録されている。
正解分類データ57から、特定の領域について所定の閾値よりも薄い薄肉部領域569を抽出した、薄肉部データ59が生成される。図1においては、薄肉部領域569は生体組織領域566が所定の閾値よりも薄い部分である場合の例を示す。薄肉部領域569の抽出方法の詳細については、後述する。
分類訓練DB41を使用して、断層像58を入力した場合に、出力分類データ51を出力する分類モデル31の機械学習が行われる。ここで分類モデル31は、たとえばセマンテックセグメンテーションを実現するU-Net構造のモデルである。分類モデル31は、本実施の形態の学習モデルの例示である。
U-Net構造は、多層のエンコーダ層と、その後ろに接続された多層のデコーダ層とを含む。それぞれのエンコーダ層は、プーリング層と畳込層とを含む。セマンテックセグメンテーションにより、入力された断層像58を構成するそれぞれの画素に対してラベルを付与した出力分類データ51が生成される。以下の説明においては、出力分類データ51を構成するそれぞれのデータについても、断層像58を構成するデータと同様に「ピクセル」と記載する。なお、分類モデル31は、Mask R-CNNモデル、その他任意の画像のセグメンテーションを実現するモデルであってもよい。
機械学習方法の概要を説明する。分類訓練DB41から一組の分類訓練データが取得される。学習途中の分類モデル31に断層像58が入力され、出力分類データ51が出力される。出力分類データ51と、正解分類データ57との比較に基づいて、差分データ55が生成される。
差分データ55は、正解分類データ57を構成するそれぞれのピクセルのラベルと、出力分類データ51における対応するピクセルのラベルとの差異に関するデータである。出力分類データ51、正解分類データ57および差分データ55のデータ数は同一である。以下の説明においては、差分データ55を構成するそれぞれのデータについても、ピクセルと記載する。
薄肉部データ59を用いて重み付けされた差分データ55に基づいて、正解分類データ57と出力分類データ51との差異に関する算出値である損失値551が定められる。損失値551が所定値に近づくように、たとえば誤差逆伝播法を用いて分類モデル31のパラメータ調整が行われる。所定値は、たとえば「0」または「0.1」等の小さい値である。
差分データ55の作成、薄肉部データ59による重み付け、および、損失値551の算出の詳細については、後述する。多数の分類訓練データを用いてパラメータ調整を繰り返す機械学習により、薄肉部領域569に対応する部分についても正しく分類できる分類モデル31が生成される。
図2は、情報処理装置20の構成を説明する説明図である。情報処理装置20は、制御部21、主記憶装置22、補助記憶装置23、通信部24、表示部25、入力部26およびバスを備える。制御部21は、本実施の形態のプログラムを実行する演算制御装置である。制御部21には、一または複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、またはマルチコアCPU等が使用される。制御部21は、バスを介して情報処理装置20を構成するハードウェア各部と接続されている。
主記憶装置22は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、制御部21が行なう処理の途中で必要な情報および制御部21で実行中のプログラムが一時的に保存される。
補助記憶装置23は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置23には、分類モデル31、分類訓練DB41、制御部21に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。分類モデル31および分類訓練DB41は、情報処理装置20に接続された外部の大容量記憶装置等に記憶されていてもよい。
通信部24は、情報処理装置20とネットワークとの間の通信を行なうインターフェースである。表示部25は、たとえば液晶表示パネルまたは有機EL(Electro Luminescence)パネル等である。入力部26は、たとえばキーボードおよびマウス等である。表示部25に入力部26が積層されてタッチパネルを構成していてもよい。表示部25は、情報処理装置20に接続された表示装置であってもよい。情報処理装置20は、表示部25および入力部26を備えなくてもよい。
情報処理装置20は、汎用のパソコン、タブレット、大型計算機、または、大型計算機上で動作する仮想マシンである。情報処理装置20は、分散処理を行なう複数のパソコン、または大型計算機等のハードウェアにより構成されても良い。情報処理装置20は、クラウドコンピューティングシステムまたは量子コンピュータにより構成されても良い。
図3は、分類訓練DB41のレコードレイアウトを説明する説明図である。分類訓練DB41は、断層像58と正解分類データ57とを関連づけて多数組記録したデータベースである。
分類訓練DB41は、断層像フィールドと、正解分類データフィールドとを有する。断層像フィールドと正解分類データフィールドは、それぞれRT形式フィールドと、XY形式フィールドとの2つのサブフィールドを有する。
断層像フィールドのRT形式フィールドには、走査線データを走査角度順に平行に配列して形成された、RT形式の断層像58が記録されている。断層像フィールドのXY形式フィールドには、RT形式の断層像58を座標変換して生成されたXY形式の断層像58が記録されている。
正解分類データフィールドのRT形式フィールドには、RT形式の断層像58が複数の領域に分類されたRT形式の正解分類データ57が記録されている。正解分類データフィールドのXY形式フィールドには、XY形式の断層像58が複数の領域に分類されたXY形式の正解分類データ57が記録されている。
なお、XY形式の断層像58は分類訓練DB41に記録されておらず、必要に応じてRT形式の断層像58から座標変換により生成されてもよい。RT形式の正解分類データ57と、XY形式の正解分類データ57とは、一方のみが分類訓練DB41に記録されており、必要に応じて他方が座標変換により生成されてもよい。分類訓練DB41は、一組の分類訓練データについて、1つのレコードを有する。分類訓練DB41は、本実施の形態の訓練データベースの例示である。
図4から図6は、薄肉部データ59を説明する説明図である。以下の説明では、制御部21が、正解分類データ57から生体組織領域566が薄くなっている薄肉部領域569を抽出する場合を例にして説明する。
制御部21は、正解分類データ57から、生体組織領域566を抽出する。図4の右上に、生体組織領域566が抽出された状態を示す。制御部21は、公知のエッジ抽出アルゴリズムを使用して、生体組織領域566とそれ以外の領域との間の境界線53を抽出する。図4の右側中央に、境界線53が抽出された状態を示す。
図5は、図4におけるV部拡大図を示す。制御部21は、境界線53上の任意の点から、生体組織領域566のみを通過して、境界線53上の他の点に到達する測定線539を生成する。図5においては、制御部21が境界線53上のA1点から、生体組織領域566のみを通過して境界線53上の他の点に到達する測定線539を生成する場合を例にして説明する。
制御部21は、それぞれの測定線539の長さを算出し、最も短い測定線539を選択する。図5においては、制御部21が選択したA1点とA2点とを結ぶ測定線539を実線で示し、制御部21が選択しなかった測定線539を破線で示す。
制御部21は、選択した測定線539が所定の閾値よりも短いか否かを判定する。短くない場合、制御部21は選択した測定線539に関連する処理を行わない。短い場合、測定線539が生成された部分において生体組織領域566は所定の閾値よりも薄い。以下の説明では、A1点とA2点とを結ぶ測定線539が閾値よりも短い場合を例にして説明する。
図6は、図5におけるVI部に対応する薄肉部データ59の拡大図を模式的に示す。薄肉部データ59は、正解分類データ57と同じ数のピクセルを有する。図6における各枠は、それぞれ1個のピクセルを示す。制御部21は、A1点とA2点とを結ぶ測定線539が通過するピクセルに薄肉部フラグを記録する。図6に示す例では、薄肉部フラグは「1」である。図示を省略するが、薄肉部フラグが記録されていないピクセルには、たとえば「0」のような所定のフラグが記録されている。制御部21は、同様の手順により条件を満たす測定線539すべてについて、通過するピクセルに薄肉部フラグを記録する。
なお制御部21は、測定線539の長さの閾値について、ユーザによる入力を受け付けてもよい。ユーザは、患者の体格および疾病の状態等に基づいて、薄肉部領域569であるか否かの判定に用いる適切な閾値を入力する。
図4に戻って説明を続ける。図6において薄肉部フラグが記録された部分が、図4の右下に示す薄肉部領域569である。図4から図6を使用して説明したように、XY形式で薄肉部領域569を抽出して、表示部25に表示することにより、たとえば卵円窩等の解剖学的に薄い部分を制御部21が正しく抽出したか否かをユーザが確認できる。
図4の左下に示すように、XY形式の薄肉部データ59は座標変換によりRT形式に変換できる。なお制御部21は、RT形式の正解分類データ57から薄肉部領域569を抽出してもよい。
図7は、差分データ55を説明する説明図である。図7の左上の部分は、正解分類データ57のうちの9ピクセルを模式的に示す。図7の右上の部分は、出力分類データ51のうちの9ピクセルを模式的に示す。図7の下側の部分は、差分データ55のうちの9ピクセルを模式的に示す。図7に示すそれぞれの9ピクセルは、対応する場所に存在するピクセルを示す。正解分類データ57および差分データ55について、中央および中央下側の角丸四角形を表示するピクセルは、薄肉部領域569に対応するピクセルである。
正解分類データ57および出力分類データ51のそれぞれのピクセルには、当該ピクセルを分類したラベルに対する確率が記録されている。「1」は第1内腔領域561のラベルを、「2」は第2内腔領域562のラベルを、「3」は生体組織領域566のラベルを意味する。
なお、それぞれのピクセルに対して、4種類以上のラベルである確率または2種類以下のラベルである確率が記録されていてもよい。たとえば生体組織領域566であるか否かの分類のみが行なわれる場合、それぞれのピクセルについて「YES」を示すラベルである確率および「NO」を示すラベルである確率、または「YES」、「NO」のどちらか片方のラベルである確率が記録される。
正解分類データ57の各ピクセルは、専門家により第1内腔領域561、第2内腔領域562または生体組織領域566のいずれかの領域に分類されている。したがって、いずれか一つのラベルに対する確率が100パーセントであり、他のラベルに対する確率は0パーセントである。正解分類データ57においても、出力分類データ51においても、それぞれのピクセルについて、各ラベルの確率の合計は100パーセントである。
以下の説明においては、それぞれのピクセルに対して専門家が分類したラベルを正解ラベル、それ以外のラベルを不正解ラベルとそれぞれ記載する場合がある。たとえば図7の正解分類データ57、出力分類データ51および差分データ55において、中央のピクセルでは、「1」および「2」が不正解分類ラベルであり、「3」が正解分類ラベルである。図7においては、正解ラベルを太字で、不正解ラベルを斜字でそれぞれ示す。
出力分類データ51の各ピクセルには、第1内腔領域561である確率、第2内腔領域562である確率および生体組織領域566である確率が記録されている。たとえば図7に示す出力分類データ51において、右上のピクセルは、第1内腔領域561である確率が80パーセント、第2内腔領域562である確率が15パーセント、生体組織領域566である確率が5パーセントである。それぞれのピクセルについて、各ラベルの確率の合計は100パーセントである。制御部21は、断層像58を分類モデル31に入力し、分類モデル31から出力される出力分類データ51を取得する。
差分データ55には、各ピクセルの各ラベルに関する損失が記録されている。以下の説明においては、差分データ55を構成するそれぞれのデータについても、断層像58を構成するデータと同様に「ピクセル」と記載する。制御部21は、出力分類データ51、正解分類データ57および(1)式に基づいて、差分データ55を構成する各ピクセルの各ラベルに関する損失を算出して、差分データ55を生成する。
Figure 2023066260000002
Eij は、i番目のピクセルのj番目のラベルに関する損失を示す。
Ln(x)は、xの自然対数を示す。
Qij は、出力分類データにおいてi番目のピクセルがj番目のラベルである確率を示す。
なお、Qijは、1以下の正の値である。(1)式は、差分データ55を生成する際の計算式の例示である。各ピクセルの各ラベルに関する損失の算出式は、(1)式に限定しない。差分データ55の変形例については、後述する。
図8は、加重差分データ65を説明する説明図である。加重差分データ65は、差分データ55の各ピクセルについて、薄肉部データ59に基づいて重み付けをして算出した損失を示すデータである。以下の説明においては、加重差分データ65を構成するそれぞれのデータについても、断層像58を構成するデータと同様に「ピクセル」と記載する。
制御部21は、たとえば(2)式に基づいて加重差分データ65を構成する各ピクセルに関する損失を算出する。(2)式により、薄肉部領域569に関する損失の重み付けが行なわれる。
Figure 2023066260000003
Fiは、i番目のピクセルの損失を示す。
Giは、薄肉部領域に関する重みを示す。
i番目のピクセルが薄肉部領域である場合、Gi=mである。
i番目のピクセルが薄肉部領域ではない場合、Gi=1である。
mは、1よりも大きい定数である薄肉部係数を示す。
uは、ピクセルが分類される領域の数である。
(2)式は、薄肉部領域569に分類されてピクセルの損失が、薄肉部領域569以外に分類されたピクセルの損失に対してm倍の重みを有するように、各ピクセルの損失を定めることを示す。mは、たとえば3である。
制御部21は、薄肉部領域569の厚さに基づいて(2)式の薄肉部係数mを定めてもよい。たとえば制御部21は、閾値よりも薄い薄肉部領域569に対する薄肉部係数mを、閾値以上の厚さを有する薄肉部領域569に対する薄肉部係数mよりも大きくする。薄肉部係数mは、たとえば薄肉部領域569の厚さの関数で定められてもよい。
なお、重み付けした損失の算出方法は(2)式に限定しない。いくつかの変形例については、後述する。
制御部21は、加重差分データ65に基づいて損失値551を算出する。損失値551は、加重差分データ65を構成する各ピクセルの損失の代表値である。代表値に相加平均値を用いる場合、制御部21は、(3)式に基づいて損失値551を算出する。
Figure 2023066260000004
Cは、ピクセル数を示す。
損失値551に用いる代表値は、たとえば相乗平均値、調和平均値または二乗和等の、任意の代表値であってもよい。
制御部21は、1個または複数個のピクセルの損失Fiに基づいて損失値551を定めてもよい。たとえば制御部21は、画像取得用カテーテル28からの距離が所定の範囲であるピクセルに基づいて、損失値551を算出してもよい。
制御部21は、損失値551が所定値に近づくように、たとえば誤差逆伝播法を用いて分類モデル31のパラメータを調整する。制御部21は、多数の分類訓練データを用いて分類モデル31のパラメータ調整を繰り返すことにより、断層像58を入力した場合に適切な出力分類データ51を出力するように分類モデル31の機械学習を行う。
図9は、プログラムの処理の流れを説明するフローチャートである。制御部21は、分類訓練DB41から一組の分類訓練データを取得する(ステップS501)。ステップS501により、制御部21は本実施の形態の訓練データ取得部の機能を実現する。制御部21は、薄肉部データ生成のサブルーチンを起動する(ステップS502)。薄肉部データ生成のサブルーチンは、正解分類データ57に基づいて薄肉部データ59を生成するサブルーチンである。薄肉部データ生成のサブルーチンの処理の流れは後述する。ステップS502により、制御部21は本実施の形態の薄肉部データ取得部の機能を実現する。
制御部21は、断層像58を訓練中の分類モデル31に入力し、出力分類データ51を取得する(ステップS503)。制御部21は、正解分類データ57と出力分類データ51とを使用して、たとえば(1)式に基づいて差分データ55を算出する(ステップS504)。制御部21は、たとえば(2)式に基づいて加重差分データ65を算出する(ステップS505)。
制御部21は、たとえば(3)式に基づいて損失値551を算出する(ステップS506)。制御部21は、損失値551が所定値に近づくように、たとえば誤差逆伝播法を用いて分類モデル31のパラメータ調整を行なう(ステップS507)。ステップS507により、制御部21は本実施の形態のパラメータ調整部の機能を実現する。
制御部21は、処理を終了するか否かを判定する(ステップS508)。制御部21は、たとえば所定の数の分類訓練データを学習した場合に、処理を終了すると判定する。制御部21は、たとえば損失値551またはパラメータの調整量が所定の閾値を下回った場合、処理を終了すると判定してもよい。
処理を終了しないと判定した場合(ステップS508でNO)、制御部21はステップS501に戻る。処理を終了すると判定した場合(ステップS508でYES)、制御部21は調整後の分類モデル31のパラメータを補助記憶装置23に記録する(ステップS509)。その後、制御部21は処理を終了する。以上により、分類モデル31の生成が終了する。
図10は、薄肉部データ生成のサブルーチンの処理の流れを説明するフローチャートである。薄肉部データ生成のサブルーチンは、正解分類データ57に基づいて薄肉部データ59を生成するサブルーチンである。制御部21は、薄肉部データ生成のサブルーチンにより、図4から図6を使用して説明した処理を実行する。
制御部21は、薄肉部データ59を初期化する(ステップS521)。具体的には制御部21は、正解分類データ57と同数のピクセルを有する薄肉部データ59の全ピクセルを、所定の初期値に設定する。以下の説明では、所定の初期値が「0」である場合を例にして説明する。
制御部21は、正解分類データ57のコピーを作成する。制御部21は、正解分類データ57のコピーに対して、以後に説明する処理を行う。なお、以後の説明においては、正解分類データ57のコピーを単に正解分類データ57と記載する場合がある。
制御部21は、正解分類データ57のうち、ピクセルに第1ラベルが記録された第1ラベル領域を抽出する(ステップS522)。具体的には、制御部21は第1ラベル領域のラベルが記録されたピクセルに「1」を、第1ラベル領域以外のラベルが記録されたピクセルに「0」をそれぞれ記録する。図1を使用して説明した例においては、第1ラベル領域は生体組織領域566である。図4の右上の図においては、「1」が記録されたピクセルが格子状のハッチングで示されている。なお、第1ラベル領域は生体組織領域566に限定しない。たとえば第1内腔領域561または第2内腔領域562が第1ラベル領域であってもよい。
制御部21は、公知のエッジ抽出アルゴリズムを使用して、第1ラベル領域の境界線53を抽出する(ステップS523)。図4の右側中央の図に、境界線53を抽出した状態を示す。制御部21は、境界線53上のピクセルから、始点を選択する(ステップS524)。制御部21は、始点から第1ラベル領域のみを通り境界線53上の別のピクセルに到達する複数の測定線539を作成する(ステップS525)。
制御部21はステップS525で作成した複数の測定線539のうち、最も短い測定線539を選択する(ステップS526)。制御部21は、ステップS526で選択した測定線539が閾値よりも短いか否かを判定する(ステップS527)。閾値は、たとえば5ミリメートルである。
短いと判定した場合(ステップS527でYES)、制御部21は図6を使用して説明したように、測定線539が通過するピクセルに対応する薄肉部データ59上のピクセルに薄肉部フラグを記録する(ステップS528)。
短くないと判定した場合(ステップS527でNO)、またはステップS528の終了後、制御部21は測定線539の作成を終了するか否かを判定する(ステップS529)。制御部21は、たとえば境界線53上の全ピクセルをステップS524で始点に選択した場合に、処理を終了すると判断する。制御部21は、境界線53上に所定の間隔で選択したピクセルをすべてステップS524で始点に選択した場合に、処理を終了すると判断してもよい。
終了しないと判定した場合(ステップS529でNO)、制御部21はステップS524に戻る。終了すると判定した場合(ステップS529でYES)、制御部21は、作成した薄肉部データ59を補助記憶装置23または主記憶装置22に記録する(ステップS530)。その後、制御部21は処理を終了する。
本実施の形態によると、断層像58において細く描出された領域を正しく分類できる分類モデル31を生成する学習モデル生成方法を提供できる。本実施の形態により生成した分類モデル31は、心房中隔穿刺を行なう際に穿刺針を刺す部位である卵円窩、三尖弁および僧帽弁等の、肉厚の薄い生体組織を適切に抽出できる。
まず、薄肉部データ59を使用しない通常の手法で機械学習を行なった後に、本実施の形態の手法により分類モデル31の追加学習を行なってもよい。分類訓練DB41に記録されている断層像58とは異なる訓練データを用いて機械学習を行ったのちに、本実施の携帯に手法により転移学習を行ってもよい。機械学習の初期段階から薄肉部データ59を使用する場合よりも短時間で、良好な性能を有する分類モデル31を生成できる。
[変形例1-1]
本変形例は、差分データ55の算出方法の変形例を示す。本変形例においては、i番目のピクセルと画像取得用カテーテル28との間の距離に基づいて、損失の重み付けを行なう。たとえば制御部21は、(1)式の代わりに(4)式を使用して、各ピクセルの各ラベルに関する損失を算出する。
Figure 2023066260000005
Riは、i番目のピクセルと画像取得用カテーテルとの間の距離を示す。
(4)式から算出されたEijと、(2)式および(3)式とを使用することにより、薄肉部領域569に該当するピクセルにおける損失が、薄肉部領域569に該当しないピクセルにおける損失よりも大きな影響を与えるとともに、画像取得用カテーテル28に近い場所にあるピクセルにおける損失が、画像取得用カテーテル28から遠い場所にあるピクセルにおける損失よりも大きな影響を与えるように、損失値551が定められる。
なお、i番目のピクセルと画像取得用カテーテル28との間の距離に基づく重み付けは(4)式に限定しない。(4)式の分母は、たとえば距離Riの平方根、または距離Riの二乗等であってもよい。
[変形例1-2]
図11は、差分データ55の変形例を説明する説明図である。本変形例においては、正解分類データ57と出力分類データ51との差の絶対値に基づいて、各ピクセルの各ラベルに関する損失を算出する。
図11は、差分データ55の各ピクセルに、それぞれの領域である確率について、正解分類データ57と出力分類データ51との差の絶対値が記録されている例を示す。図11に示す差分データ55において、右上のピクセルは、第1内腔領域561について20パーセント、第2内腔領域562について10パーセント、生体組織領域566について10パーセントの差があることが記録されている。
なお、差分データ55の各ピクセルには、正解分類データ57と出力分類データ51との差の二乗が記録されてもよい。二乗を使用する場合には、絶対値を算出する必要はない。
[変形例1-3]
図12は、差分データ55の変形例を説明する説明図である。本変形例においては、正解分類データ57および出力分類データ51について、それぞれの領域である確率を使用する代わりに、単なる数値を使用する。
制御部21は、正解分類データ57に含まれる各データを定数倍して、第2正解分類データ572を算出する。制御部21は、出力分類データ51に含まれる各データを定数倍して、第2出力分類データ512を算出する。
図12においては、正解分類データ57、出力分類データ51ともに3倍して、第2正解分類データ572および第2出力分類データ512を算出した場合の例を示す。第2正解分類データ572および第2出力分類データ512では、各ピクセルについて、それぞれの領域に対応する値の合計は1ではなく、したがって各領域である確率を示す数値ではない。
図12に示す例では、差分データ55の各ピクセルに、それぞれの領域に関して、第2正解分類データ572と第2出力分類データ512との差の絶対値が記録されている。(1)式の代わりに、この絶対値をi番目のピクセルのj番目のラベルに関する損失を示すEijとして用いる。そして、このように算出したEijと(2)式および(3)式を用いて損失値551を算出する。制御部21は、損失値551が所定値に近づくように、たとえば誤差逆伝播法を用いて分類モデル31のパラメータ調整が行われる。所定値は、たとえば「0」または「0.1」等の小さい値である。これにより、第2出力分類データ512が、第2正解分類データに近づくように、分類モデル31のパラメータが調整される。
なお、第2正解分類データ572を算出する際の定数と第2出力分類データ512を算出する際の定数とは、異なる値であってもよい。分類モデル31は、出力分類データ51の代わりに定数倍した第2出力分類データ512を出力するように構成されていてもよい。正解分類データ57は、定数倍された状態で分類訓練DB41に記録されていてもよい。
第2正解分類データ572を算出する際の定数および第2出力分類データ512を算出する際の定数は、ピクセルごとに異なる値であってもよい。具体的には、画像取得用カテーテル28からの距離が近いピクセルほど大きな値となるように、定数を設定する。これにより、画像取得用カテーテル28に近い場所における損失が、画像取得用カテーテル28から遠い場所における損失よりも大きな影響を与えるように、損失値551が定められる。
また、第2正解分類データ572のように、正解ラベルを「3」などの所定値、不正解ラベルを「0」として作成された正解分類データ57を直接用いて学習してもよい。この場合、分類モデル31は、ピクセルごとに各領域のラベルの値を出力分類データ51として出力する。そして、図12に示す差分データ55の代わりに、それぞれの領域に関して、正解分類データ57と出力分類データ51との差の絶対値として差分データを算出し、この差分データを基に損失値551の算出とパラメータ調整を行う。
これにより、出力分類データ51が、正解分類データ57に近づくように、分類モデル31のパラメータが調整される。なお、分類モデル31が出力分類データ51を出力する際に、各領域のラベルの値の下限値を「0」に設定するとともに、一ピクセルにおける各領域のラベルの値の合計を正解ラベルの所定値と一致させる、または、一ピクセルにおける領域ラベルの上限値を正解ラベルの所定値に設定することにより、分類モデル31の機械学習を効率よく実施できる。
[変形例1-4]
図13は、加重差分データ65の変形例を説明する説明図である。本変形例においては不正解ラベルに関するデータを使用せず、正解ラベルに関するデータのみに基づいて、加重差分データ65を算出する。制御部21は、たとえば(2)式の代わりに(5)式に基づいて各ピクセルの損失を算出する。
Figure 2023066260000006
kは、i番目のピクセルにおける正解領域の番号を示す。
本変形例においては、薄肉部領域569に分類されていないi番目のピクセルの損失Fiは、差分データ55におけるi番目のピクセルの正解ラベルの損失である。本変形例においては、不正解ラベルについては差分データ55を算出する必要がないため、制御部21は少ない計算量で加重差分データ65を算出できる。
[変形例1-5]
図14は、加重差分データ65の変形例を説明する説明図である。本変形例においては正解ラベルに関するデータを使用せず、不正解ラベルに関するデータのみに基づいて、加重差分データ65を算出する。制御部21は、たとえば(2)式の代わりに(6)式に基づいて各ピクセルの損失を算出する。
Figure 2023066260000007
Hjは、j番目のラベルが正解ラベルであるか不正解ラベルであるかを示す。
j番目のラベルが正解ラベルである場合、Hj=0である。
j番目のラベルが不正解ラベルである場合、Hj=1である。
[変形例1-6]
図15は、薄肉部データ59の変形例を説明する説明図である。図15においては、RT形式でそれぞれの図を示す。第1薄肉部データ591は、正解分類データ57から生体組織領域566を抽出した後に、薄肉部領域569を抽出したデータである。第2薄肉部データ592は、正解分類データ57から第2内腔領域562を抽出した後に、薄肉部領域569を抽出したデータである。薄肉部データ59は、第1薄肉部データ591の薄肉部領域569と、第2薄肉部データ592の薄肉部領域569との両方を含む。
本変形例によると、複数の種類の領域のそれぞれについて、薄肉部領域569に重み付けして分類モデル31の学習を行なえる。したがって、複数の種類の領域のそれぞれについて、細く描出された領域を正しく分類できる分類モデル31を生成する学習モデル生成方法を提供できる。
[変形例1-7]
図16は、薄肉部抽出モデル32を説明する説明図である。薄肉部抽出モデル32は、断層像58の入力を受け付けて、薄肉部データ59を出力するモデルである。
図17は、薄肉部訓練DBのレコードレイアウトを説明する説明図である。薄肉部訓練DBは、薄肉部抽出モデル32の機械学習に使用される。薄肉部訓練DBは、断層像フィールドと、正解薄肉部データフィールドとを有する。断層像フィールドと正解薄肉部データフィールドは、それぞれRT形式フィールドと、XY形式フィールドとの2つのサブフィールドを有する。
断層像フィールドのRT形式フィールドには、走査線データを走査角度順に平行に配列して形成された、RT形式の断層像58が記録されている。断層像フィールドのXY形式フィールドには、RT形式の断層像58を座標変換して生成されたXY形式の断層像58が記録されている。
正解薄肉部データフィールドのRT形式フィールドには、RT形式の薄肉部データ59が記録されている。正解薄肉部データフィールドのXY形式フィールドには、XY形式の薄肉部データ59が記録されている。薄肉部訓練DBの薄肉部データ59は、たとえば図9を使用して説明したプログラムを用いて生成されている。なお、図17に示す下側のレコードにおいては、薄肉部領域569が検出されていない。
なお、XY形式の断層像58は薄肉部訓練DBに記録されておらず、必要に応じてRT形式の断層像58から座標変換により生成されてもよい。RT形式の正解薄肉部データと、XY形式の正解薄肉部データとは、一方のみが薄肉部訓練DBに記録されており、必要に応じて他方が座標変換により生成されてもよい。薄肉部訓練DBは、一組の薄肉部訓練データについて、1つのレコードを有する。
図16に戻って説明を続ける。薄肉部訓練DBを使用して、断層像58を入力した場合に、薄肉部データ59を出力する薄肉部抽出モデル32の機械学習が行われる。ここで薄肉部抽出モデル32は、たとえばセマンテックセグメンテーションを実現するU-Net構造のモデルである。薄肉部抽出モデル32は、Mask R-CNNモデル、その他任意の画像のセグメンテーションを実現するモデルであってもよい。
機械学習方法の概要を説明する。薄肉部訓練DBから一組の薄肉部訓練データが取得される。学習途中の薄肉部抽出モデル32に断層像58が入力され、薄肉部データ59が出力される。薄肉部抽出モデル32から出力された薄肉部データ59と、薄肉部訓練データに記録された薄肉部データ59とが一致するように、薄肉部抽出モデル32のパラメータが調整される。
適切な薄肉部抽出モデル32が生成された後は、薄肉部抽出モデル32を用いることにより、少ない計算量で薄肉部データ59を生成できる。
[変形例1-8]
本実施の形態は、薄肉部データ59をヒント情報に使用する分類モデル31の生成方法に関する。実施の形態1と共通する部分については、説明を省略する。
図18は、変形例1-8の分類モデル31の生成方法を説明する説明図である。分類訓練DB41を使用して、分類モデル31の機械学習が行われる。ここで分類モデル31は、断層像58と薄肉部データ59との入力を受け付け、薄肉部データ59を正解確率が高いヒント情報に使用して、出力分類データ51を出力するモデルである。
機械学習方法の概要を説明する。分類訓練DB41から一組の分類訓練データが取得される。断層像58が、図15を使用して説明した薄肉部抽出モデル32に入力されて、薄肉部データ59が出力される。なお、薄肉部データ59は図10を使用して説明したプログラムにより作成されてもよい。
断層像58と薄肉部データ59とが、分類モデル31に入力されて、出力分類データ51が出力される。出力分類データ51と正解分類データ57との比較に基づいて、差分データ55が生成される。差分データ55に基づいて、損失値551が定められる。損失値551が所定値に近づくように、たとえば誤差逆伝播法を用いて分類モデル31のパラメータ調整が行われる。
[実施の形態2]
本実施の形態は、薄肉部データ59に基づいて正解分類データ57に重み付けした加重正解分類データ66を使用して分類モデル31のパラメータを調整する機械学習方法等に関する。実施の形態1と共通する部分については、説明を省略する。
図19から図22は、実施の形態2の分類モデル31の生成方法を説明する説明図である。断層像58と正解分類データ57とを組にした分類訓練データが、分類訓練DB41に記録されている。制御部21は、正解分類データ57に基づいて、特定の領域について所定の閾値よりも薄い薄肉部領域569を抽出した、薄肉部データ59を生成する。
制御部21は、正解分類データ57のうち、薄肉部領域569の部分に重み付けを行なった加重正解分類データ66を生成する。図20を使用して、加重正解分類データ66の具体例を説明する。
図20の左上の部分は、正解分類データ57のうちの9ピクセルを模式的に示す。なお、図20の正解分類データ57は、図7の正解分類データ57と同一のデータであり、パーセント表示の代わりに「0」および「1」の数値を使用して表示する。図20の右側の部分は、薄肉部データ59を模式的に示す。
図20の左下の部分は、加重正解分類データ66を模式的に示す。以下の説明においては、加重正解分類データ66を構成するそれぞれのデータについても、断層像58を構成するデータと同様に「ピクセル」と記載する。図20に示すそれぞれの9ピクセルは、対応する場所に存在するピクセルを示す。中央および中央下側の角丸四角形を表示するピクセルは、薄肉部領域569に対応するピクセルである。
制御部21は、(7)式により加重正解分類データ66を算出する。
Figure 2023066260000008
Dijは、i番目のピクセルのj番目のラベルに対する正解データを示す。
Dwijは、i番目のピクセルのj番目のラベルに対する加重正解データを示す。
mは、1よりも大きい定数を示す。
図20に示す例では、mは3である。薄肉部領域569に対応するピクセルのデータが、それ以外のピクセルのデータの3倍の値になっている。加重正解分類データ66においては、薄肉部領域569のピクセルについては各ラベルの合計はmであり、薄肉部領域569以外のピクセルについては各ラベルの合計は1である。
図19に戻って説明を続ける。制御部21は、学習途中の分類モデル31に断層像58を入力し、出力分類データ51を取得する。制御部21は、出力分類データ51と、加重正解分類データ66との比較に基づいて、差分データ55を生成する。
図21の左上の部分は、加重正解分類データ66のうちの9ピクセルを模式的に示す。図21の右上の部分は、出力分類データ51のうちの9ピクセルを模式的に示す。図21の下側の部分は、差分データ55のうちの9ピクセルを模式的に示す。図21に示すそれぞれの9ピクセルは、対応する場所に存在するピクセルを示す。正解分類データ57および差分データ55について、中央および中央下側の角丸四角形を表示するピクセルは、薄肉部領域569に対応するピクセルである。
制御部21は、(8)式により各ピクセルの各ラベルに関する損失を記録した差分データ55を生成する。
Figure 2023066260000009
Eij は、i番目のピクセルのj番目のラベルに関する損失を示す。
Qij は、出力分類データにおいてi番目のピクセルがj番目のラベルである確率を示す。
図19に戻って説明を続ける。制御部21は、差分データ55を構成する各ピクセルの代表値を算出して、加重差分データ65を生成する。図22は、図21の下部に示す差分データ55、および、当該差分データ55に基づいて生成された加重差分データ65を示す。図22に示す例では、制御部21は、差分データ55の各ピクセルについて、正解ラベルに対する損失を代表値に使用して加重差分データ65を生成する。このようにする場合、制御部21は不正解ラベルに対応する損失を算出する必要はない。角丸四角形で囲んだ薄肉部領域569に対応するピクセルの損失が、薄肉部領域569以外のピクセルの損失に対して明らかに大きな値になっている。
制御部21は、加重差分データ65に基づいて損失値551を算出する。制御部21は、損失値551が所定値に近づくように、たとえば誤差逆伝播法を用いて分類モデル31のパラメータ調整を行なう。多数の分類訓練データを用いてパラメータ調整を繰り返す機械学習により、薄肉部領域569に対応する部分についても正しく分類できる分類モデル31が生成される。
[変形例2-1]
図23は、変形例2-1の加重正解分類データ66を説明する説明図である。本変形例においては、制御部21は、差分データ55の各ピクセルについて、すべてのラベルに対する損失の総和を代表値に使用して、加重差分データ65を生成する。本変形例においても、角丸四角形で囲んだ薄肉部領域569に対応するピクセルの損失が、薄肉部領域569以外のピクセルの損失に対して明らかに大きな値になっている。
本実施の形態によると、自然対数を使用せず、単純な加算および積算により損失値551を算出できる。
[実施の形態3]
本実施の形態は、第1内腔領域561と生体組織領域566との間の境界線53同士の距離に基づいて損失値551を定める分類モデル31の生成方法に関する。実施の形態1と共通する部分については、説明を省略する。
図24および図25は、実施の形態3の損失値551を説明する説明図である。図24においては、RT形式でそれぞれの図を示す。図24の左上は、分類訓練データに記録された正解分類データ57を示す。
図24の左下は、正解分類データ57に基づいて生成された薄肉部データ59に、生体組織領域566の縁を示す境界線53を重畳した図を示す。正解分類データ57の左端に存在する第1内腔領域561と縦長の第2内腔領域562との間に挟まれた部分の生体組織領域566が、薄肉部領域569になっている。
図24の右上は、分類訓練データに記録された断層像58を訓練中の分類モデル31に入力した場合に、分類モデル31から出力された出力分類データ51を示す。正解分類データ57と出力分類データ51とを比較した場合、薄肉部領域569の近傍が正しく分類されていない。
図25は、出力分類データ51のXXV部を拡大し、細い横線のハッチングで示す薄肉部領域569を重畳した図である。出力分類データ51における生体組織領域566と第1内腔領域561との境界である出力境界線531を太線で示す。正解分類データ57における生体組織領域566と第1内腔領域561との境界である正解境界線537を実線で示す。図24に示す状態においては、薄肉部領域569の近傍以外においては、正解境界線537と出力境界線531とがほぼ一致する程度に分類モデル31の学習が進んでいる。
制御部21は、出力境界線531上の各ピクセルと正解境界線537との間を最短で結ぶ判定線538を生成する。以下の説明においては、判定線538の出力境界線531側の端部を始点、正解境界線537側の端部を終点と記載する。
制御部21は、判定線538の長さを算出する。判定線538の長さは、正解境界線537と出力境界線531との間の距離を示し、出力境界線531上の各ピクセルの損失に対応する。制御部21は判定線538の終点が薄肉部領域569に接しているピクセルが、判定線538の終点が薄肉部領域569に接していないピクセルよりも強く影響するようにして損失値551を算出する。具体例を挙げて説明する。
制御部21は、たとえば(9)式に基づいて損失値551を算出する。
Figure 2023066260000010
Liは、i番目のピクセルが始点である判定線538の長さを示す。
Giは、薄肉部領域に関する重みを示す。
i番目のピクセルを始点とする判定線の終点が薄肉部領域ではない場合、Gi=1である。
i番目のピクセルを始点とする判定線の終点が薄肉部領域である場合、Gi=mである。
Pは、出力境界線のピクセル数を示す。
mは、1よりも大きい定数を示す。
(9)式は、判定線538の終点が薄肉部に接することが、薄肉部に接しないことに対してm倍の重みを有するように損失値551を定めることを示す。mは、たとえば100である。
図26は、実施の形態3のプログラムの処理の流れを説明するフローチャートである。ステップS501からステップS503までの処理は、図9を使用して説明した実施の形態1のプログラムと同一であるため、説明を省略する。
制御部21は、損失値算出のサブルーチンを起動する(ステップS551)。損失値算出のサブルーチンは、(9)式に基づいて損失値551を算出するサブルーチンである。損失値算出のサブルーチンの処理の流れは後述する。
制御部21は、損失値551が所定値に近づくように、たとえば誤差逆伝播法を用いて分類モデル31のパラメータ調整を行なう(ステップS507)。以後の処理の流れは、図9を使用して説明した実施の形態1のプログラムと同一であるため、説明を省略する。
図27は、損失値算出のサブルーチンの処理の流れを説明するフローチャートである。損失値算出のサブルーチンは、(9)式に基づいて損失値551を算出するサブルーチンである。
制御部21は、正解分類データ57から正解境界線537を抽出する(ステップS561)。制御部21は、出力分類データ51から出力境界線531を抽出する(ステップS562)。制御部21は、1枚の画像に正解境界線537と出力境界線531とを配置した合成画像を生成する(ステップS563)。制御部21は、合成画像を用いて以後の処理を実行する。
制御部21は、出力境界線531上のピクセルから、始点を選択する(ステップS564)。制御部21は、ステップS563で選択した始点と正解境界線537との間を最短で結ぶ判定線538を生成する(ステップS565)。制御部21は、判定線538の終点が薄肉部領域569に接しているか否かを判定する(ステップS566)。
接していると判定した場合(ステップS566でYES)、制御部21は判定線538の長さに重み付けを行った値を記録する(ステップS567)。接していないと判定した場合(ステップS566でNO)、制御部21は判定線538の長さを記録する(ステップS568)。
ステップS567またはステップS568の終了後、制御部21は出力境界線531上のすべてのピクセルの処理を終了したか否かを判定する(ステップS569)。終了していないと判定した場合(ステップS569でNO)、制御部21はステップS564に戻る。
終了したと判定した場合(ステップS569でYES)、制御部21はステップS567およびステップS568で記録した値の平均値を算出する(ステップS570)。ステップS570で算出した平均値が、損失値551である。そのと、制御部21は処理を終了する。
なお、制御部21が損失値551を算出する出力境界線531は、第1内腔領域561と生体組織領域566との間の境界線53に限定しない。任意の領域間の境界線53について損失値551に基づいて分類モデル31の機械学習を行なえる。
制御部21は、ステップS570において、平均値の代わりに中央値または最頻値等の代表値を算出してもよい。制御部21は、ステップS570において(4)式で示した相加平均値の代わりに相乗平均値または調和平均値を算出してもよい。制御部21は、損失値算出のサブルーチンにおいて出力境界線531上の全ピクセルに順次始点を設定する代わりに、所定の間隔をあけて始点を設定してもよい。
本実施の形態によると、出力境界線531の形状全体が正解境界線537に近づくように、分類モデル31の機械学習を行なえる。たとえば、薄肉部データ59を使用しない通常の手法、または実施の形態1の手法で分類モデル31の機械学習を行なった後に、本実施の形態の手法により追加学習を行なってもよい。
[実施の形態4]
本実施の形態は、正解分類データ57と出力分類データ51とが一致するか否かに基づいて損失値551を算出する分類モデル31の生成方法に関する。実施の形態1と共通する部分については、説明を省略する。
図28は、実施の形態4の差分データ55を説明する説明図である。図28の左上の部分は、正解分類データ57のうちの9ピクセルを模式的に示す。図28の右上の部分は、出力分類データ51のうちの9ピクセルを模式的に示す。図28の下側の部分は、差分データ55のうちの9ピクセルを模式的に示す。図28に示すそれぞれの9ピクセルの位置は、対応している。
なお、図28においては、正解分類データ57の各ピクセルには、正解である1個のラベルが記録されており、出力分類データ51の各ピクセルには、最も確率の高い1個のラベルが記録されている。制御部21は、正解分類データ57と出力分類データ51との対応するピクセルのラベルが一致している場合、差分データ55の対応するピクセルに「正解」を示すラベルを記録し、一致していない場合、「不正解」を示すラベルを記録する。
制御部21は、薄肉部領域569に含まれるピクセルにおける「正解」、「不正解」の別が、薄肉部領域569以外の領域のピクセルにおける「正解」、「不正解」の別よりも強く影響するようにして、損失値551を算出する。具体例を挙げて説明する。
制御部21は、たとえば(10)式に基づいて損失値551を算出する。
Figure 2023066260000011
Fiは、i番目のピクセルの損失を示す。
i番目のピクセルが「不正解」である場合、Fi=kである。
i番目のピクセルが「正解」である場合、Fi=0である。
Giは、薄肉部領域に関する重みを示す。
i番目のピクセルが薄肉部領域である場合、Gi=mである。
i番目のピクセルが薄肉部領域ではない場合、Gi=1である。
Cは、ピクセル数を示す。
kは、正の値である定数を示す。
mは、1よりも大きい定数を示す。
(1)式は、薄肉部領域569のピクセルが不正解であることが、薄肉部領域569以外のピクセルが不正解であることに対してm倍の重みを有するように損失値551を定めることを示す。mは、たとえば100である。
さらに具体的に説明する。「不正解」であるピクセルのうち、薄肉部領域569に存在するピクセルがA個、薄肉部領域569以外に存在するピクセルがB個である場合、損失値551は(11)式で示す値である。
Figure 2023066260000012
制御部21は、たとえばグリッドサーチ、ランダムサーチまたはベイズ最適化等の手法を用いて、損失値551が所定の値に近づくような分類モデル31のパラメータの組み合わせを定める。制御部21は、多数の分類訓練データを用いて分類モデル31のパラメータ調整を繰り返すことにより、断層像58を入力した場合に適切な出力分類データ51を出力するように分類モデル31の機械学習を行う。
本実施の形態によると、誤差逆伝播法とは異なるアルゴリズムを用いて、分類モデル31を生成できる。
[実施の形態5]
本実施の形態は、分類モデル31の学習初期段階においては薄肉部領域569を判定する閾値を大きめに設定し、学習が進むにつれで閾値を小さくする機械学習方法等に関する。実施の形態1と共通する部分については、説明を省略する。
図29は、実施の形態5のプログラムの処理の流れを説明するフローチャートである。制御部21は正解分類データ57に基づいて薄肉部データ59を生成する際に使用する、薄肉部領域569を判定する閾値を所定の値に設定する(ステップS601)。
制御部21は、分類訓練DB41から一組の分類訓練データを取得する(ステップS501)。以後、ステップS507までの処理は、図9を使用して説明した実施の形態1のプログラムと同一であるため説明を省略する。
制御部21は、次の段階に移行するか否かを判定する(ステップS611)。制御部21は、たとえば所定の数の分類訓練データを学習した場合に、次の段階に移行すると判定する。制御部21は、たとえば損失値551またはパラメータの調整量が所定の閾値を下回った場合、次の段階に移行すると判定してもよい。
以降しないと判定した場合(ステップS611でNO)、制御部21はステップS501に戻る。以降すると判定した場合(ステップS611でYES)、制御部21は薄肉部領域569を判定する閾値を変更するか否かを判定する(ステップS612)。たとえば、閾値が所定の最小値に到達している場合、制御部21は閾値を変更しないと判定する。
変更すると判定した場合(ステップS612でYES)、制御部21はステップS601に戻り、閾値を前回のループよりも小さい値に設定する。変更しないと判定した場合(ステップS612でNO)、制御部21は調整後の分類モデル31のパラメータを補助記憶装置23に記録する(ステップS613)。その後、制御部21は処理を終了する。以上により、分類モデル31の生成が終了する。
具体例を挙げて説明する。機械学習の初期段階では第1薄肉部データ591を判定する閾値を5ミリメートル程度に設定する。機械学習が進むにつれて閾値を段階的に小さくし、最終的には目標値である1ミリメートル程度にする。このようにすることにより、分類モデル31のパラメータを効率よく調整できる。
本実施の形態によると、分類モデル31の機械学習を効率よく実施できる。
[実施の形態6]
本実施の形態は、三次元走査型の画像取得用カテーテル28を使用して、リアルタイムに三次元画像を生成するカテーテルシステム10に関する。実施の形態1と共通する部分については、説明を省略する。
図30は、実施の形態6のカテーテルシステム10の構成を説明する説明図である。カテーテルシステム10は、画像処理装置230と、カテーテル制御装置27とMDU(Motor Driving Unit)289と、画像取得用カテーテル28とを備える。画像取得用カテーテル28は、MDU289およびカテーテル制御装置27を介して画像処理装置230に接続されている。
画像取得用カテーテル28は、シース281と、シース281の内部に挿通されたシャフト283と、シャフト283の先端に配置されたセンサ282とを有する。MDU289は、シース281の内部でシャフト283およびセンサ282を回転および進退させる。
カテーテル制御装置27は、センサ282の一回転ごとに1枚の断層像58を生成する。MDU289がセンサ282を引っ張りながら、または押し込みながら回転させる操作により、カテーテル制御装置27はシース281に略垂直な複数枚の断層像58を連続的に生成する。
画像処理装置230は、制御部231、主記憶装置232、補助記憶装置233、通信部234、表示部235入力部236およびバスを備える。制御部231は、本実施の形態のプログラムを実行する演算制御装置である。制御部231には、一または複数のCPU、GPU、またはマルチコアCPU等が使用される。制御部231は、バスを介して画像処理装置230を構成するハードウェア各部と接続されている。
主記憶装置232は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置232には、制御部231が行なう処理の途中で必要な情報および制御部231で実行中のプログラムが一時的に保存される。
補助記憶装置233は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置233には、実施の形態1から実施の形態4を使用して説明した分類モデル31、制御部231に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。分類モデル31は、本実施の形態の学習済モデルの例示である。
通信部234は、画像処理装置230とネットワークとの間の通信を行なうインターフェースである。分類モデル31は、情報処理装置20に接続された外部の大容量記憶装置等に記憶されていてもよい。
表示部235は、たとえば液晶表示パネルまたは有機ELパネル等である。入力部236は、たとえばキーボードおよびマウス等である。表示部235に入力部236が積層されてタッチパネルを構成していてもよい。表示部235は、画像処理装置230に接続された表示装置であってもよい。
画像処理装置230は、たとえばカテーテル制御装置27と組み合わせて使用する専用のハードウェアである。画像処理装置230とカテーテル制御装置27とは、一体に構成されていてもよい。画像処理装置230は、汎用のパソコン、タブレット、大型計算機、または、大型計算機上で動作する仮想マシンであってもよい。画像処理装置230は、分散処理を行なう複数のパソコン、または大型計算機等のハードウェアにより構成されても良い。画像処理装置230は、クラウドコンピューティングシステムまたは量子コンピュータにより構成されても良い。
制御部231は、カテーテル制御装置27から断層像58を逐次取得する。制御部231は、それぞれの断層像58を分類モデル31に入力して、出力される出力分類データ51を取得する。制御部21は、時系列的に取得した複数の出力分類データ51に基づいて三次元画像を生成し、表示部235に出力する。以上により、いわゆる三次元走査が行なわれる。
センサ282の進退操作には、画像取得用カテーテル28全体を進退させる操作と、シース281の内部でセンサ282を進退させる操作との両方を含む。進退操作は、MDU289により所定の速度で自動的に行なわれても、ユーザにより手動で行なわれても良い。
なお、画像取得用カテーテル28は機械的に回転および進退を行なう機械走査方式に限定しない。たとえば、複数の超音波トランスデューサを環状に配置したセンサ282を用いた、電子ラジアル走査型の画像取得用カテーテル28であってもよい。画像取得用カテーテル28の代わりに、TEE用プローブまたは、体外式の超音波プローブが使用されてもよい。
図31は、実施の形態6のプログラムの処理の流れを説明するフローチャートである。制御部231は、ユーザから三次元走査開始の指示を受け付けた場合に、図31を使用して説明するプログラムを実行する。
制御部231は、カテーテル制御装置27に三次元走査の開始を指示する(ステップS581)。カテーテル制御装置27は、MDU289を制御して、三次元走査を開始する。制御部21は、カテーテル制御装置27から1枚の断層像58を取得する(ステップS582)。ステップS582により、制御部231は本実施の形態の画像取得部の機能を実現する。
制御部231は、断層像58を分類モデル31に入力し、出力された出力分類データ51を取得する(ステップS583)。ステップS583により、制御部231は本実施の形態の分類データ取得部の機能を実現する。制御部231は補助記憶装置233または通信部234に出力分類データ51を記録する(ステップS584)。
制御部231は時系列的に記録した出力分類データ51に基づいて生成した三次元画像を表示部235に表示する(ステップS585)。制御部231は、処理を終了するか否かを判定する(ステップS586)。たとえば、一連の三次元走査が終了した場合に、制御部231は処理を終了すると判定する。
処理を終了しないと判定した場合(ステップS586でNO)、制御部231はステップS582に戻る。処理を終了すると判定した場合(ステップS586でYES)、制御部231は処理を終了する。
本実施の形態によると、実施の形態1から実施の形態4で説明した分類モデル31を搭載したカテーテルシステム10を提供できる。本実施の形態によると、走査対象部位に薄い部分が存在する場合であっても、適切なセグメンテーション結果を表示するカテーテルシステム10を提供できる。
本実施の形態によると、セグメンテーションを適切に行えるため、ノイズの少ない三次元画像を表示するカテーテルシステム10を提供できる。さらに、面積、体積等の自動計測を適切に行なえるカテーテルシステム10を提供できる。
[実施の形態7]
本実施の形態は、汎用のコンピュータ90と、プログラム97とを組み合わせて動作させることにより、本実施の形態の情報処理装置20を実現する形態に関する。実施の形態1と共通する部分については、説明を省略する。
図32は、実施の形態7の情報処理装置20の構成を説明する説明図である。コンピュータ90は、制御部21、主記憶装置22、補助記憶装置23、通信部24、表示部25、入力部26、読取部29およびバスを備える。コンピュータ90は、汎用のパソコン、タブレット、スマートフォン、大型計算機、大型計算機上で動作する仮想マシン、クラウドコンピューティングシステム、または、量子コンピュータである。コンピュータ90は、分散処理を行なう複数のパソコン等であってもよい。
プログラム97は、可搬型記録媒体96に記録されている。制御部21は、読取部29を介してプログラム97を読み込み、補助記憶装置23に保存する。また制御部21は、コンピュータ90内に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出してもよい。さらに、制御部21は、通信部24および図示しないネットワークを介して接続される図示しない他のサーバコンピュータからプログラム97をダウンロードして補助記憶装置23に保存してもよい。
プログラム97は、コンピュータ90の制御プログラムとしてインストールされ、主記憶装置22にロードして実行される。これにより、コンピュータ90は上述した情報処理装置20として機能する。プログラム97は、プログラム製品の例示である。
[実施の形態8]
図33は、実施の形態8の情報処理装置20の機能ブロック図である。情報処理装置20は、訓練データ取得部71と、薄肉部データ取得部72と、パラメータ調整部73とを有する。
訓練データ取得部71は、断層像取得用プローブ28を用いて取得された断層像58と、断層像58を構成する各ピクセルのそれぞれが生体組織領域566と非生体組織領域とを含む複数の領域に分類された正解分類データ57とを関連づけて複数組記録した訓練データベース41から訓練データを取得する。
薄肉部データ取得部72は、正解分類データ57のうち、所定の領域について、所定の閾値よりも薄い薄肉部の範囲に関する薄肉部データ59を取得する。パラメータ調整部73は、訓練データと薄肉部データ59とに基づいて、断層像58を構成する各ピクセルのそれぞれを複数の領域に分類した出力分類データ51を出力する学習モデル31のパラメータ調整処理を行なう。
[実施の形態9]
図34は、実施の形態9の画像処理装置230の機能ブロック図である。画像処理装置230は、画像取得部76と分類データ取得部77とを有する。
分類データ取得部77は、断層像取得用プローブ28を用いて得られた断層像58を取得する。分類データ取得部77は、断層像58を前述の方法で生成した学習済モデル31に入力して、出力分類データ51を取得する。
各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10 カテーテルシステム
20 情報処理装置
21 制御部
22 主記憶装置
23 補助記憶装置
230 画像処理装置
231 制御部
232 主記憶装置
233 補助記憶装置
234 通信部
235 表示部
236 入力部
24 通信部
25 表示部
26 入力部
27 カテーテル制御装置
28 画像取得用カテーテル(断層像取得用プローブ)
281 シース
282 センサ
283 シャフト
289 MDU
29 読取部
31 分類モデル(学習モデル、学習済モデル)
32 薄肉部抽出モデル
41 分類訓練DB(訓練データベース)
51 出力分類データ
512 第2出力分類データ
53 境界線
531 出力境界線
537 正解境界線
538 判定線
539 測定線
55 差分データ
551 損失値
561 第1内腔領域
562 第2内腔領域
563 内腔領域
566 生体組織領域
567 腔外領域
569 薄肉部領域
57 正解分類データ
572 第2正解分類データ
58 断層像
59 薄肉部データ
591 第1薄肉部データ
592 第2薄肉部データ
65 加重差分データ
66 加重正解分類データ
71 訓練データ取得部
72 薄肉部データ取得部
73 パラメータ調整部
76 画像取得部
77 分類データ取得部
90 コンピュータ
96 可搬型記録媒体
97 プログラム
98 半導体メモリ

Claims (20)

  1. 断層像取得用プローブを用いて取得された断層像と、前記断層像を構成するピクセルのそれぞれが生体組織領域と非生体組織領域とを含む複数の領域に分類された正解分類データとを関連づけて複数組記録した訓練データベースから訓練データを取得し、
    前記正解分類データのうち、所定の領域について、所定の閾値よりも薄い薄肉部に関する薄肉部データを取得し、
    前記訓練データと前記薄肉部データとに基づいて、前記断層像を構成する前記ピクセルのそれぞれを前記複数の領域に分類した出力分類データを出力する学習モデルのパラメータ調整処理を行なう
    学習モデル生成方法。
  2. 前記パラメータ調整処理は、
    前記断層像と前記薄肉部データとを前記学習モデルに入力して、出力された出力分類データを取得し、
    前記正解分類データと、前記出力分類データとの差異に関する関数から算出される算出値が所定値に近づくように前記学習モデルのパラメータを調整する処理である
    請求項1に記載の学習モデル生成方法。
  3. 前記パラメータ調整処理は、
    前記断層像を前記学習モデルに入力して、出力された出力分類データを取得し、
    前記正解分類データに対して前記薄肉部データに記録された薄肉部に関連する部分に重み付けを付与した加重正解分類データと、前記出力分類データとの差異に関する関数から算出される算出値が所定値に近づくように前記学習モデルのパラメータを調整する処理である
    請求項1に記載の学習モデル生成方法。
  4. 前記パラメータ調整処理は、
    前記断層像を前記学習モデルに入力して、出力された出力分類データを取得し、
    前記正解分類データと、前記出力分類データとの差異に関する差分データを取得し、
    前記差分データのうち、前記薄肉部データに記録された薄肉部に関連する部分に重み付けして算出した算出値が所定値に近づくように、前記学習モデルのパラメータを調整する処理である
    請求項1に記載の学習モデル生成方法。
  5. 前記出力分類データは、前記断層像を構成する前記ピクセルごとにいずれの領域に分類されるかが記録されたデータであり、
    前記差分データは、前記断層像を構成する前記ピクセルごとに、前記出力分類データに記録された分類と、前記正解分類データに記録された分類とが一致するか否かを判定したデータである
    請求項4に記載の学習モデル生成方法。
  6. 前記出力分類データは、前記断層像を構成する前記ピクセルごとに前記複数の領域それぞれに分類される確率が記録されたデータであり、
    前記差分データは、前記断層像を構成する前記ピクセルごとに前記出力分類データに記録された前記確率と、前記正解分類データに記録された分類から求められる目標値との差を算出したデータである
    請求項4に記載の学習モデル生成方法。
  7. 前記差分データは、前記出力分類データと前記正解分類データとにおける、所定の2つの領域間の境界線同士の距離に関するデータである
    請求項4に記載の学習モデル生成方法。
  8. 前記薄肉部データは、前記正解分類データに基づいて生成される
    請求項1から請求項7のいずれか一つに記載の学習モデル生成方法。
  9. 前記薄肉部データは、前記断層像および前記正解分類データと関連づけて前記訓練データに記録されている
    請求項1から請求項7のいずれか一つに記載の学習モデル生成方法。
  10. 前記薄肉部データは、前記断層像を、断層像を入力した場合に薄肉部データを出力する薄肉部抽出モデルに入力して取得する
    請求項1から請求項7のいずれか一つに記載の学習モデル生成方法。
  11. 前記薄肉部は、前記生体組織領域が所定の閾値よりも薄く表示された部分である
    請求項1から請求項10のいずれか一つに記載の学習モデル生成方法。
  12. 前記薄肉部は、前記生体組織領域に周囲を囲まれた内腔領域が、所定の閾値よりも薄く表示された部分である
    請求項1から請求項10のいずれか一つに記載の学習モデル生成方法。
  13. 前記薄肉部は、前記複数の領域のそれぞれについて、所定の閾値よりも薄く表示された部分である
    請求項1から請求項12のいずれか一つに記載の学習モデル生成方法。
  14. 前記閾値の入力を受け付ける
    請求項1から請求項13のいずれか一つに記載の学習モデル生成方法。
  15. 前記閾値は、前記正解分類データをXY形式で表示したXY形式画像における前記薄肉部の厚さである
    請求項1から請求項14のいずれか一つに記載の学習モデル生成方法。
  16. 前記閾値は、前記正解分類データをRT形式で表示したRT形式画像における前記薄肉部の厚さである
    請求項1から請求項14のいずれか一つに記載の学習モデル生成方法。
  17. 前記断層像取得用プローブは、患者の身体に挿入して使用される画像取得用カテーテルである
    請求項1から請求項14のいずれか一つに記載の学習モデル生成方法。
  18. 断層像取得用プローブを用いて得られた断層像を取得する画像取得部と、
    前記断層像を、請求項1から請求項17のいずれか一つの学習モデル生成方法で生成した学習済モデルに入力して、出力分類データを取得する分類データ取得部と
    を備える画像処理装置。
  19. 断層像取得用プローブを用いて得られた断層像を取得し、
    前記断層像を、請求項1から請求項17のいずれか一つの学習モデル生成方法で生成した学習済モデルに入力して、出力分類データを取得する
    処理をコンピュータに実行させるプログラム。
  20. 断層像取得用プローブを用いて取得された断層像を取得し、
    前記断層像が生体組織領域と非生体組織領域とを含む複数の領域に分類された正解分類データを取得し、
    前記正解分類データから、所定の領域が所定の閾値よりも薄い薄肉部の範囲に関する薄肉部データを生成し、
    前記断層像と、前記正解分類データと、前記薄肉部データとを関連づけて複数組記録する
    訓練データ生成方法。
JP2021176886A 2021-10-28 2021-10-28 学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法 Pending JP2023066260A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021176886A JP2023066260A (ja) 2021-10-28 2021-10-28 学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法
US17/974,893 US20230133103A1 (en) 2021-10-28 2022-10-27 Learning model generation method, image processing apparatus, program, and training data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021176886A JP2023066260A (ja) 2021-10-28 2021-10-28 学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法

Publications (1)

Publication Number Publication Date
JP2023066260A true JP2023066260A (ja) 2023-05-15

Family

ID=86146098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021176886A Pending JP2023066260A (ja) 2021-10-28 2021-10-28 学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法

Country Status (2)

Country Link
US (1) US20230133103A1 (ja)
JP (1) JP2023066260A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580121B (zh) * 2023-05-18 2024-04-09 北京元跃科技有限公司 一种基于深度学习的单张绘画生成2d模型的方法及系统

Also Published As

Publication number Publication date
US20230133103A1 (en) 2023-05-04

Similar Documents

Publication Publication Date Title
JP6243453B2 (ja) 血管内画像におけるマルチモーダルセグメンテーション
JP5944917B2 (ja) 身体内腔分岐を検出及び表示するためのコンピュータ可読媒体及び同コンピュータ可読媒体を含むシステム
US11033250B2 (en) Ultrasound apparatus and ultrasound medical imaging method for identifying view plane of ultrasound image based on classifiers
US20210030468A1 (en) Systems and methods for automated guidance of treatment of an organ
JPWO2020027228A1 (ja) 診断支援システム及び診断支援方法
US20230404541A1 (en) Method and system for managing ultrasound operations using machine learning and/or non-gui interactions
CN115334976A (zh) 计算机程序、信息处理方法、信息处理装置以及模型生成方法
JP2023066260A (ja) 学習モデル生成方法、画像処理装置、プログラムおよび訓練データ生成方法
US20240013514A1 (en) Information processing device, information processing method, and program
WO2021193019A1 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
WO2022071326A1 (ja) 情報処理装置、学習済モデルの生成方法および訓練データ生成方法
WO2021193024A1 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
US20240221366A1 (en) Learning model generation method, image processing apparatus, information processing apparatus, training data generation method, and image processing method
WO2022071325A1 (ja) 情報処理装置、情報処理方法、プログラムおよび学習済モデルの生成方法
WO2023127785A1 (ja) 情報処理方法、情報処理装置およびプログラム
WO2022071328A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7421548B2 (ja) 診断支援装置及び診断支援システム
WO2021200985A1 (ja) プログラム、情報処理方法、情報処理システムおよび学習モデルの生成方法
WO2021199962A1 (ja) プログラム、情報処理方法および情報処理装置
WO2021193018A1 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
WO2024071322A1 (ja) 情報処理方法、学習モデルの生成方法、コンピュータプログラム及び情報処理装置
WO2021199966A1 (ja) プログラム、情報処理方法、学習モデルの生成方法、学習モデルの再学習方法、および、情報処理システム
JP7379473B2 (ja) 診断支援装置及び診断支援方法
WO2021199967A1 (ja) プログラム、情報処理方法、学習モデルの生成方法、学習モデルの再学習方法、および、情報処理システム
WO2021199961A1 (ja) コンピュータプログラム、情報処理方法及び情報処理装置