JP7765415B2 - 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 - Google Patents
学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置Info
- Publication number
- JP7765415B2 JP7765415B2 JP2022578244A JP2022578244A JP7765415B2 JP 7765415 B2 JP7765415 B2 JP 7765415B2 JP 2022578244 A JP2022578244 A JP 2022578244A JP 2022578244 A JP2022578244 A JP 2022578244A JP 7765415 B2 JP7765415 B2 JP 7765415B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- resolution
- generator
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G06T12/30—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/441—AI-based methods, deep learning or artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Probability & Statistics with Applications (AREA)
- Pathology (AREA)
- High Energy & Nuclear Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
医療画像を撮影する装置の代表的な例としてCT装置あるいはMRI装置といったモダリティが挙げられる。これらのモダリティにおいては、基本的な考え方として、2次元スライス画像を連続的に撮影することによって対象物の3次元形態を示す3次元データが得られる。本明細書において「3次元データ」という用語は、連続的に撮影された2次元スライス画像の集合体の概念を含み、3次元画像と同義である。なお、「画像」という用語は、画像データの意味を含む。連続する2次元スライス画像の集合体は「2次元画像シーケンス」あるいは「2次元画像シリーズ」と呼ばれる場合がある。「2次元画像」という用語は、3次元データから取り出される2次元スライス画像の概念を含む。
医療画像を対象とするドメイン変換(ここでは、異種モダリティ画像生成)のタスクを深層学習ベースのアルゴリズムを用いて学習させる場合、既述のとおり、学習に用いるデータの収集が課題の1つである。異種のモダリティにおいて、同じ撮影範囲を、同じ解像度の条件にて撮影したデータを十分に揃えることは困難である。多くの場合、モダリティごとに撮影時の解像度の条件が異なる。
第1実施形態では、図3に例示するような一部の軸方向の解像度が低い3次元データが混在する学習データセットを用いる場合であっても、3軸すべての方向(すなわち、3種類の各断面)について高解像の生成画像が得られる異種ドメイン画像生成(画像変換)を実現する機械学習システムの例を説明する。
図6は、第1実施形態に係る機械学習システム10の構成例を示す機能ブロック図である。機械学習システム10は、学習データ生成部30と、学習処理部40とを含む。機械学習システム10は、さらに、画像保存部50と学習データ保存部54とを含んでいてもよい。
図7は、学習データ生成部30の構成例を示す機能ブロック図である。学習データ生成部30は、等方化処理部12と、姿勢変換部32と、固定サイズ領域切り出し処理部34とを含む。学習データ生成部30は、例えば、等方化処理部12によってx軸、y軸およびz軸の各方向の画素単位のサイズを1mmに等方化した3次元データに対して、姿勢変換部32にて姿勢変換を行い、その後、固定サイズ領域切り出し処理部34により、無作為に固定サイズ領域を切り出す処理を行う。固定サイズ領域は、x軸方向×y軸方向×z軸方向の画素数が、例えば「160×160×160」などの立方体形状の3次元領域であってよい。
第1実施形態における機械学習システム10では、入力される3次元データに応じて、真偽判別に用いる判別器24D,26Dの切り替えが行われる。すなわち、アキシャル断面が高解像のMR画像とこれに対応するCT画像との画像ペアが入力された場合、生成器20Gによる変換後の生成画像の判別は、アキシャル断面の2次元画像を評価する判別器24Dによって行われる。
図9は、第1実施形態の変形例1を示す概念図である。図9において、図5と共通する要素には同一の符号を付し、重複する説明は省略する。図9に示す構成について、図5と異なる点を説明する。
第1実施形態では、学習データとして、z軸低解像の非等方性3次元データと、y軸低解像の非等方性3次元データとを用いる例を説明したが、2種類の低解像度データの組み合わせについては、この例に限らない。
[組み合わせ1]z軸方向が低解像度の3次元データとy軸方向が低解像度の3次元データとの組み合わせ
[組み合わせ2]y軸方向が低解像度の3次元データとx軸方向が低解像度の3次元データとの組み合わせ
[組み合わせ3]x軸方向が低解像度の3次元データとz軸方向が低解像度の3次元データとの組み合わせ
第1実施形態では実CT画像から疑似MR画像を生成するCT→MR変換の例を説明したが、第1実施形態における学習に使用した学習データと同様のデータセット(Thickスライスのデータを含むデータセット)を用いて、MR画像から疑似CT画像を生成するMRI→CT変換を行う生成器を学習させることも可能である。
医療画像の場合、異種モダリティ間で対応するペア画像を用意することが困難な場合も多い。第2実施形態では、非特許文献2に記載されているCycleGANの仕組みをベースにしたアーキテクチャを採用し、対応関係の無い(ペアでない)それぞれのドメインの画像群を学習データとして用いて、ドメイン変換のタスクを学習する例を説明する。
図13は、第2実施形態に係る機械学習システム210におけるCT入力時の処理の流れを示す概念図である。以下の説明では、第1生成器220Gおよび第2生成器250Fのそれぞれが等方解像度の3次元画像の入力を受けて、等方解像度の3次元生成画像を出力する構成である場合を説明するが、既述のとおり、非等方解像度の3次元画像の入力を受け付ける生成器であってもよい。
図14は、第2実施形態に係る機械学習システム210におけるMR入力時の処理の流れを示す概念図である。MRの3次元データは、等方化処理部12による等方化処理等を経て等方解像度の3次元のMR画像MRrとして第2生成器250Fに入力される。第2生成器250Fは、MR画像MRrの入力を受けて、MR→CT変換を行い、疑似CT画像CTsynを出力する。MRの3次元データに対して行われる等方化処理は本開示における「第2等方化処理」の一例である。
第2実施形態に係る機械学習システム210を用いて学習を行うことにより、第1生成器220Gは、CT→MR変換の画像生成能力を獲得し、高解像度の疑似MR画像を生成する3次元画像変換器となり得る。第2生成器250Fは、MR→CT変換の画像生成能力を獲得し、高解像度の疑似CT画像を生成する3次元画像変換器となり得る。
図19は、比較例に係る機械学習システムに適用される学習モデル344の構成例である。学習モデル344は、CycleGANのアーキテクチャをベースにして、3次元の入力および出力に拡張した3D-CycleGANであり、3次元CNNを用いて構成される生成器320G,350Fと、3次元CNNを用いて構成される判別器324D,364Dとを含む。
図21は、機械学習システム10,210に適用される情報処理装置400の構成例を示すブロック図である。情報処理装置400は、プロセッサ402と、有体物である非一時的なコンピュータ可読媒体404と、通信インターフェース406と、入出力インターフェース408と、バス410と、入力装置414おと、表示装置416とを備える。プロセッサ402は本開示における「第1プロセッサ」の一例である。コンピュータ可読媒体404は本開示における「第1記憶装置」の一例である。
図22は、機械学習システム10,210を用いた学習処理を実施して生成された学習済みモデルが適用される医療画像処理装置500のハードウェア構成の例を示すブロック図である。
これまでドメイン変換の例として異種モダリティ間の画像生成タスクの例を説明したが、第3実施形態では、ソースドメインをThickスライス(すなわち、低解像度)、ターゲットドメインをThinスライス(すなわち、高解像度)とする超解像タスクの例を示す。
図24は、第4実施形態に係る機械学習システム602における処理の概要を示す概念図である。図24について、図23に示す構成と同一または類似の要素には同一の符号を付し、重複する説明は省略する。図24に示す構成について、図23と異なる点を説明する。
図25に示すアキシャル3次元画像を超解像化する処理フローと、図26に示すコロナル3次元画像を超解像化する処理フローとは、必ずしも両方を実施する必要はない。例えば、アキシャル3次元画像を入力とした超解像タスクのみを実現する場合には、図25の処理フローだけで学習が可能である。
ドメイン変換の他の例として、MRの中でのT1強調画像、T2強調画像、脂肪抑制画像、造影画像および非造影画像などの異なる画像種間での変換、あるいはCTの中でも造影画像と非造影画像との間の変換などについても本開示の技術を適用できる。
本開示の技術は、CT画像およびMR画像に限らず、人体情報を投影する超音波画像および陽電子放射断層撮影(Positron Emission Tomography:PET)装置を用いて撮影されるPET画像など、各種の医療画像が応用範囲に含まれる。また、本開示の技術は、医療機器によって撮影される医療画像に限らず、様々な撮影装置によって撮影される各種用途の3次元画像に適用できる。
図27は、コンピュータのハードウェア構成の例を示すブロック図である。コンピュータ800は、パーソナルコンピュータであってもよいし、ワークステーションであってもよく、また、サーバコンピュータであってもよい。コンピュータ800は、既に説明した機械学習システム10,11,210,600,602および医療画像処理装置500のいずれかの一部または全部、あるいはこれらの複数の機能を備えた装置として用いることができる。
上記の実施形態で説明した機械学習システム10,11,210,600,602における画像取得機能、前処理機能および学習処理機能、ならびに医療画像処理装置500における画像処理機能などの各種の処理機能のうち少なくとも1つの処理機能の一部または全部をコンピュータに実現させるプログラムを、光ディスク、磁気ディスク、もしくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。
等方化処理部12、生成器20G、第1切り出し処理部14、第2切り出し処理部16、切り出し処理部18、判別器24D,26D,28D、学習データ生成部30、姿勢変換部、固定サイズ領域切り出し処理部34、学習処理部40、画像取得部42、誤差演算部46,246、オプティマイザ48,248、前処理部230、第1生成器220G、第2生成器250F、第3切り出し処理部254、第4切り出し処理部256、第1判別器224D、第2判別器226D、第3判別器264D、第4判別器266D、アベレージプーリング処理部270,272、生成器610,612、判別器630,632、アキシャル画像切り出し処理部620、コロナル画像切り出し処理部622および低解像化処理部614,616などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成を変更、追加、または削除することが可能である。本発明は以上説明した実施形態に限定されず、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
12 等方化処理部
14 第1切り出し処理部
16 第2切り出し処理部
18 切り出し処理部
20G 生成器
24D 判別器
26D、28D 判別器
30 学習データ生成部
32 姿勢変換部
34 固定サイズ領域切り出し処理部
40 学習処理部
42 画像取得部
44 学習モデル
46 誤差演算部
48 オプティマイザ
50 画像保存部
54 学習データ保存部
100 機械学習システム
112 等方化処理部
120F 生成器
124D 判別器
210 機械学習システム
220G 第1生成器
224D 第1判別器
226D 第2判別器
230 前処理部
240 学習処理部
244 学習モデル
246 誤差演算部
248 オプティマイザ
250F 第2生成器
254 第3切り出し処理部
256 第4切り出し処理部
264D 第3判別器
266D 第4判別器
270、272 アベレージプーリング処理部
320G 生成器
324D 判別器
344 学習モデル
350F 生成器
364D 判別器
400 情報処理装置
402 プロセッサ
404 コンピュータ可読媒体
406 通信インターフェース
408 入出力インターフェース
410 バス
414 入力装置
416 表示装置
420 等方化処理プログラム
422 姿勢変換プログラム
424 固定サイズ領域切り出し処理プログラム
430 学習処理プログラム
436 誤差演算ブログラム
438 パラメータ更新プログラム
500 医療画像処理装置
502 プロセッサ
504 コンピュータ可読媒体
506 通信インターフェース
508 入出力インターフェース
510 バス
514 入力装置
516 表示装置
520 CT-MR変換プログラム
522 学習済み生成器
530 MR-CT変換プログラム
532 学習済み生成器
540 臓器認識AIプログラム
542 疾患検出AIプログラム
544 レポート作成支援プログラム
600、602 機械学習システム
610、612 生成器
614、616 低解像化処理部
620 アキシャル画像切り出し処理部
622 コロナル画像切り出し処理部
630、632 判別器
800 コンピュータ
802 CPU
804 RAM
806 ROM
808 GPU
810 ストレージ
812 通信部
814 入力装置
816 表示装置
818 バス
CTr CT画像
CTrec 再構成CT画像
CTsyn 疑似CT画像
MRax MR画像
MRaxrec 再構成MR画像
MRco MR画像
MRcorec 再構成MR画像
MRr MR画像
MRrec 再構成MR画像
MRsyn 疑似MR画像
SRsyn、SRsyn1、SRsyn2 3次元生成画像
Claims (33)
- 入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を出力する学習済みモデルの生成方法であって、
第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有する学習モデルを用い、
コンピュータが、
第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、
前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を行うことを含む、
学習済みモデルの生成方法。 - 前記コンピュータが、
前記第1生成器によって生成された前記第2ドメインの3次元生成画像から前記第1スライス面方向の断面画像を示す2次元画像を切り出す第1切り出し処理を行い、
前記第1切り出し処理により切り出された2次元画像を前記第1判別器に入力することを含む、
請求項1に記載の学習済みモデルの生成方法。 - 前記第1撮影条件は、撮影に使用した機器が第1撮影機器であることを含み、
前記第2撮影条件は、撮影に使用した機器が前記第1撮影機器とは異なる種類の第2撮影機器であることを含む、
請求項1または2に記載の学習済みモデルの生成方法。 - 前記第1撮影条件は、解像度の条件が第1解像度条件であることを含み、
前記第2撮影条件は、解像度の条件が前記第1解像度条件とは異なる第2解像度条件であることを含む、
請求項1から3のいずれか一項に記載の学習済みモデルの生成方法。 - 前記第1撮影条件および前記第2撮影条件のうち少なくとも1つは、解像度の条件として、直交3軸のうち1つの軸方向の解像度が他の2つの軸方向のそれぞれの解像度よりも低いことを含む、
請求項1から4のいずれか一項に記載の学習済みモデルの生成方法。 - 前記第2撮影条件により撮影された3次元画像として、直交3軸のうち1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い非等方性3次元データが用いられ、
前記第1スライス面方向は、前記非等方性3次元データにおいて相対的に解像度が高い前記他の2軸方向に平行なスライス面方向である、
請求項1から4のいずれか一項に記載の学習済みモデルの生成方法。 - 前記学習モデルは、さらに、
前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される前記第1スライス面方向と直交する第2スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第2判別器を含み、
前記学習処理は、前記第1生成器と前記第2判別器とを敵対的に学習させる処理を含む、
請求項1から6のいずれか一項に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第1生成器によって生成された前記第2ドメインの3次元生成画像から前記第2スライス面方向の断面画像を示す2次元画像を切り出す第2切り出し処理を行い、
前記第2切り出し処理により切り出された2次元画像を前記第2判別器に入力することを含む、
請求項7に記載の学習済みモデルの生成方法。 - 前記第2撮影条件により撮影された3次元画像として、x軸、y軸およびz軸の直交3軸のうちz軸方向の解像度がx軸方向およびy軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データと、
前記y軸方向の解像度が前記z軸方向および前記x軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データとが用いられ、
前記第1スライス面方向は、前記x軸方向および前記y軸方向に平行なスライス面方向であり、
前記第2スライス面方向は、前記z軸方向および前記x軸方向に平行なスライス面方向である、
請求項7または8に記載の学習済みモデルの生成方法。 - 前記第2撮影条件により撮影された3次元画像として、x軸、y軸およびz軸の直交3軸のうちy軸方向の解像度がz軸方向およびx軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データと、
前記x軸方向の解像度が前記y軸方向および前記z軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データとが用いられ、
前記第1スライス面方向は、前記z軸方向および前記x軸方向に平行なスライス面方向であり、
前記第2スライス面方向は、前記y軸方向および前記z軸方向に平行なスライス面方向である、
請求項7または8に記載の学習済みモデルの生成方法。 - 前記第2撮影条件により撮影された3次元画像として、x軸、y軸およびz軸の直交3軸のうちx軸方向の解像度がy軸方向およびz軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データと、
前記z軸方向の解像度が前記x軸方向および前記y軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データとが用いられ、
前記第1スライス面方向は、前記y軸方向および前記z軸方向に平行なスライス面方向であり、
前記第2スライス面方向は、前記x軸方向および前記y軸方向に平行なスライス面方向である、
請求項7または8に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
入力された前記学習データの解像度の条件に応じて、前記第2ドメインの3次元生成画像の真偽判別に使用する前記第1判別器または前記第2判別器を選択的に切り替える、
請求項7から11のいずれか一項に記載の学習済みモデルの生成方法。 - 前記第1撮影条件により撮影された3次元画像として、直交3軸のうちの1軸方向の解像度が他の2軸方向の解像度よりも低い非等方性3次元データが用いられる、
請求項1から12のいずれか一項に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第1撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第1等方化処理を行い、
前記第1等方化処理による変換後の等方性3次元データを前記第1生成器に入力することを含む、
請求項13に記載の学習済みモデルの生成方法。 - 前記第1生成器は、直交3軸の各軸方向の解像度が等しい等方性3次元データの入力を受け付け、前記3次元生成画像としての等方性3次元データを出力する、
請求項1から14のいずれか一項に記載の学習済みモデルの生成方法。 - 前記学習モデルは、さらに、
前記第2ドメインの3次元画像の入力を受け付け、前記第1ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第2生成器と、
前記第2生成器によって生成された前記第1ドメインの3次元生成画像から切り出される特定のスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第3判別器と、を含み、
前記学習処理は、前記第2生成器と前記第3判別器とを敵対的に学習させる処理を含む、
請求項1から15のいずれか一項に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第2生成器により生成された前記第1ドメインの3次元生成画像から前記特定のスライス面方向の断面画像を示す2次元画像を切り出す第3切り出し処理を行い、
前記第3切り出し処理により切り出された2次元画像を前記第3判別器に入力することを含む、
請求項16に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第1生成器から出力された前記第2ドメインの3次元生成画像を前記第2生成器に入力することにより前記第2生成器から出力される第1再構成生成画像に基づき、前記第1生成器および前記第2生成器をこの順に用いた変換処理の第1再構成ロスを計算する処理と、
前記第2生成器から出力された前記第1ドメインの3次元生成画像を前記第1生成器に入力することにより前記第1生成器から出力される第2再構成生成画像に基づき前記第2生成器および前記第1生成器をこの順に用いた変換処理の第2再構成ロスを計算する処理と、を行うことを含む、
請求項16または17に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第1再構成生成画像に対して、前記第1再構成生成画像を生成する際の前記第1生成器への入力に使用した元の前記学習データと同じ解像度の3次元データに変換する第1アベレージプーリング処理を行い、第1アベレージプーリング処理による変換後の3次元データと、前記第1生成器への入力に使用した元の前記学習データとに基づいて前記第1再構成ロスを計算することを含む、
請求項18に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第2再構成生成画像に対して、前記第2再構成生成画像を生成する際の前記第2生成器への入力に使用した元の前記学習データと同じ解像度の3次元データに変換する第2アベレージプーリング処理を行い、前記第2アベレージプーリング処理による変換後の3次元データと、前記第2生成器への入力に使用した元の前記学習データとに基づいて前記第2再構成ロスを計算することを含む、
請求項18または19に記載の学習済みモデルの生成方法。 - 前記学習モデルは、さらに、
前記第2生成器により生成された前記第1ドメインの3次元生成画像から切り出される前記特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第4判別器を含み、
前記学習処理は、前記第2生成器と前記第4判別器とを敵対的に学習させる処理を含む、
請求項16から20のいずれか一項に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第2生成器により生成された前記第1ドメインの3次元生成画像から前記特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像を切り出す第4切り出し処理を行い、
前記第4切り出し処理により切り出された2次元画像を前記第4判別器に入力することを含む、
請求項21に記載の学習済みモデルの生成方法。 - 前記特定のスライス面方向は前記第1スライス面方向である、
請求項21または22に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第2撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第2等方化処理を行い、
前記第2等方化処理による変換後の等方性3次元データを前記第2生成器に入力することを含む、
請求項16から23のいずれか一項に記載の学習済みモデルの生成方法。 - 前記第1撮影条件は前記第1ドメインに対応し、前記第2撮影条件は前記第2ドメインに対応している、
請求項1から24のいずれか一項に記載の学習済みモデルの生成方法。 - 前記第1撮影条件により撮影された3次元画像は、医療機器である第1モダリティを用いて撮影された第1モダリティ画像であり、
前記第2撮影条件により撮影された3次元画像は、前記第1モダリティとは異なる種類の医療機器である第2モダリティを用いて撮影された第2モダリティ画像であり、
前記学習モデルは、前記第1モダリティ画像の入力を受けて、前記第2モダリティを用いて撮影された画像の特徴を持つ擬似的な第2モダリティ生成画像を生成するように学習が行われる、
請求項25に記載の学習済みモデルの生成方法。 - 前記第1ドメインは第1解像度、前記第2ドメインは前記第1解像度よりも高解像の第2解像度であり、
請求項1から24のいずれか一項に記載の学習済みモデルの生成方法。 - 前記第1撮影条件により撮影された3次元画像は、直交3軸のうち第1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い第1軸低解像3次元データであり、
前記第2撮影条件により撮影された3次元画像は、直交3軸のうち前記第1軸方向とは異なる第2軸方向の解像度が他の2軸方向の解像度よりも低い第2軸低解像3次元データであり、
前記学習モデルは、前記第1軸低解像3次元データおよび前記第2軸低解像3次元データの少なくとも1つの入力を受けて、入力された3次元データよりも高解像度の等方性3次元データを生成するように学習が行われる、
請求項27に記載の学習済みモデルの生成方法。 - 前記コンピュータが、
前記第1生成器により生成された前記第1ドメインの3次元生成画像に対して解像度を低下させる低解像化処理を行い、
前記低解像化処理によって得られた再構成生成画像に基づいて、前記第1生成器による超解像処理と前記低解像化処理とによる画像変換の再構成ロスを計算することを含む、
請求項27または28に記載の学習済みモデルの生成方法。 - 入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する機械学習システムであって、
少なくとも1つの第1プロセッサと、
前記少なくとも1つの第1プロセッサによって実行されるプログラムが記憶される少なくとも1つの第1記憶装置と、を備え、
前記学習モデルは、
第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、
前記少なくとも1つの第1プロセッサは、前記プログラムの命令を実行することにより、
第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、
前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を行う、
機械学習システム。 - コンピュータに、
入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する処理を実行させるプログラムであって、
前記学習モデルは、
第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、
前記コンピュータに、
第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得させ、
前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を実行させる、
プログラム。 - 非一時的かつコンピュータ読取可能な記録媒体であって、請求項31に記載のプログラムが記録された記録媒体。
- 請求項1から29のいずれか一項に記載の学習済みモデルの生成方法を実施することにより訓練された学習済みの前記第1生成器である第1学習済みモデルを記憶する第2記憶装置と、
前記第1学習済みモデルを用いて画像処理を行う第2プロセッサと、を備え、
前記第1学習済みモデルは、
第1医療画像の入力を受けて、前記第1医療画像とは異なるドメインの第2医療画像を出力するように訓練されたモデルである、
医療画像処理装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021010459 | 2021-01-26 | ||
| JP2021010459 | 2021-01-26 | ||
| PCT/JP2022/001351 WO2022163402A1 (ja) | 2021-01-26 | 2022-01-17 | 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2022163402A1 JPWO2022163402A1 (ja) | 2022-08-04 |
| JPWO2022163402A5 JPWO2022163402A5 (ja) | 2023-10-20 |
| JP7765415B2 true JP7765415B2 (ja) | 2025-11-06 |
Family
ID=82654658
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022578244A Active JP7765415B2 (ja) | 2021-01-26 | 2022-01-17 | 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20230368442A1 (ja) |
| EP (1) | EP4287114A4 (ja) |
| JP (1) | JP7765415B2 (ja) |
| WO (1) | WO2022163402A1 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102666699B1 (ko) * | 2022-08-18 | 2024-05-20 | 영남대학교 산학협력단 | 이미지 변환 장치 및 방법 |
| CN117745725B (zh) * | 2024-02-20 | 2024-05-14 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像处理方法、图像处理模型训练方法、三维医学图像处理方法、计算设备及存储介质 |
| CN118470078B (zh) * | 2024-07-11 | 2024-09-24 | 杭州唯精医疗机器人有限公司 | 图像配准方法、图像优化显示方法、设备、介质和程序产品 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6583875B1 (ja) | 2019-06-20 | 2019-10-02 | Psp株式会社 | 画像処理方法、画像処理システム及び画像処理プログラム |
| WO2020175446A1 (ja) | 2019-02-28 | 2020-09-03 | 富士フイルム株式会社 | 学習方法、学習システム、学習済みモデル、プログラム及び超解像画像生成装置 |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107209945A (zh) * | 2014-12-10 | 2017-09-26 | 皇家飞利浦有限公司 | 使用机器学习的用于医学成像的转化的系统和方法 |
| CN113822960B (zh) * | 2016-09-06 | 2025-01-17 | 医科达有限公司 | 用于生成合成成像数据的方法、系统及计算机可读介质 |
| JP6948966B2 (ja) | 2018-02-28 | 2021-10-13 | 富士フイルム株式会社 | 診断支援システム、診断支援方法、及びプログラム |
| JP7129869B2 (ja) * | 2018-10-01 | 2022-09-02 | 富士フイルム株式会社 | 疾患領域抽出装置、方法及びプログラム |
| WO2020198854A1 (en) * | 2019-03-29 | 2020-10-08 | Polyvalor, Limited Partnership | Method and system for producing medical images |
-
2022
- 2022-01-17 WO PCT/JP2022/001351 patent/WO2022163402A1/ja not_active Ceased
- 2022-01-17 JP JP2022578244A patent/JP7765415B2/ja active Active
- 2022-01-17 EP EP22745625.8A patent/EP4287114A4/en active Pending
-
2023
- 2023-07-24 US US18/357,986 patent/US20230368442A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020175446A1 (ja) | 2019-02-28 | 2020-09-03 | 富士フイルム株式会社 | 学習方法、学習システム、学習済みモデル、プログラム及び超解像画像生成装置 |
| JP6583875B1 (ja) | 2019-06-20 | 2019-10-02 | Psp株式会社 | 画像処理方法、画像処理システム及び画像処理プログラム |
Non-Patent Citations (1)
| Title |
|---|
| 山岨 寛門, 外2名,敵対的生成ネットワークを用いた別モダリティ画像の生成と評価に関する研究,FIT2020 第19回情報科学技術フォーラム 講演論文集 第2分冊,一般社団法人情報処理学会,2020年08月18日,p.277-278 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230368442A1 (en) | 2023-11-16 |
| EP4287114A4 (en) | 2024-07-31 |
| WO2022163402A1 (ja) | 2022-08-04 |
| EP4287114A1 (en) | 2023-12-06 |
| JPWO2022163402A1 (ja) | 2022-08-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111429474B (zh) | 基于混合卷积的乳腺dce-mri图像病灶分割模型建立及分割方法 | |
| Gerig et al. | Symbolic description of 3-D structures applied to cerebral vessel tree obtained from MR angiography volume data | |
| CN111368849B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
| JP7765415B2 (ja) | 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 | |
| Du et al. | Accelerated super-resolution MR image reconstruction via a 3D densely connected deep convolutional neural network | |
| Zhan et al. | LR-cGAN: Latent representation based conditional generative adversarial network for multi-modality MRI synthesis | |
| JP2022077991A (ja) | 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法 | |
| JP7423338B2 (ja) | 画像処理装置及び画像処理方法 | |
| AlZu'bi et al. | Transferable hmm trained matrices for accelerating statistical segmentation time | |
| US12493799B2 (en) | Learning apparatus, method, and program, image generation apparatus, method, and program, trained model, virtual image, and recording medium | |
| CN115689961B (zh) | 一种用于胶质瘤spect-mri图像融合的网络模型及方法 | |
| JP7795352B2 (ja) | 画像処理方法、画像処理装置およびプログラム | |
| CN118037615A (zh) | 一种肿瘤分割引导的磁共振图像翻译方法、系统、设备及介质 | |
| Sun et al. | Hierarchical amortized training for memory-efficient high resolution 3D GAN | |
| US20240005498A1 (en) | Method of generating trained model, machine learning system, program, and medical image processing apparatus | |
| Nimitha et al. | MRI super-resolution using similarity distance and multi-scale receptive field based feature fusion GAN and pre-trained slice interpolation network | |
| CN114049334B (zh) | 一种以ct图像为输入的超分辨率mr成像方法 | |
| Zhang et al. | A novel GAN-based three-axis mutually supervised super-resolution reconstruction method for rectal cancer MR image | |
| CN111612762A (zh) | Mri脑肿瘤图像生成方法及系统 | |
| CN118154568A (zh) | 基于图像增强和弱监督学习的脑血肿图像分割方法 | |
| CN113052932A (zh) | 基于空间及时间信息的w型网络结构的dce-mri图像生成方法 | |
| Luo et al. | Is Autoencoder Truly Applicable for 3d CT Super-Resolution? | |
| Feng et al. | Coupled-projection residual network for mri super-resolution | |
| CN119444898B (zh) | 一种全身pet与ct图像相互转换的人工智能方法 | |
| CN117934289B (zh) | 一种集成mri超分辨率与合成任务的系统及方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230828 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241004 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250724 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250919 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20251001 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251024 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7765415 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |