JP7203978B2 - 学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル - Google Patents
学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル Download PDFInfo
- Publication number
- JP7203978B2 JP7203978B2 JP2021534066A JP2021534066A JP7203978B2 JP 7203978 B2 JP7203978 B2 JP 7203978B2 JP 2021534066 A JP2021534066 A JP 2021534066A JP 2021534066 A JP2021534066 A JP 2021534066A JP 7203978 B2 JP7203978 B2 JP 7203978B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- decoder
- learning
- discriminator
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 145
- 238000000034 method Methods 0.000 title claims description 48
- 239000000284 extract Substances 0.000 title claims description 15
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 2
- 230000014509 gene expression Effects 0.000 claims description 41
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical compound CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 32
- 238000002591 computed tomography Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 17
- 238000002595 magnetic resonance imaging Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 238000002372 labelling Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 210000004185 liver Anatomy 0.000 description 5
- 210000001015 abdomen Anatomy 0.000 description 4
- 210000000577 adipose tissue Anatomy 0.000 description 4
- 208000031513 cyst Diseases 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- High Energy & Nuclear Physics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
非特許文献2:Judy Hoffman, Eric Tzeng, Taesung Park, Jun-Yan Zhu, Phillip Isola, Kate Saenko, Alexei A. Efros, Trevor Darrell "CyCADA: Cycle-Consistent Adversarial Domain Adaptation", arXiv:1711.03213
非特許文献3:Yunjey Choi, Minje Choi, Munyoung Kim, Jung-Woo Ha, Sunghun Kim, Jaegul Choo "StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation",arXiv:1711.09020
抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、第1画像の特徴マップを導出するエンコーダ、
特徴マップに基づいて、第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および入力された画像が実画像であるか第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
特徴マップに基づいて、第1画像の関心領域を抽出する第2デコーダ、および
第2デコーダによる関心領域の抽出結果が、正解マスク有りの第1画像の抽出結果であるか、正解マスク無しの第1画像の抽出結果であるかを判別して、第2判別結果を出力する第2ディスクリミネータを有し、
第1判別結果に基づいて、エンコーダ、第1デコーダおよび第1ディスクリミネータを学習し、第2判別結果に基づいて、エンコーダ、第2デコーダおよび第2ディスクリミネータを学習する学習部を備える。
第1デコーダに、第2仮想画像の特徴マップに基づいて、第1の表現形式の第1仮想画像を導出させ、
第1画像および第1仮想画像との相違にも基づいて、エンコーダ、第1デコーダおよび第1ディスクリミネータを学習するものであってもよい。
学習部は、第3判別結果に基づいて、エンコーダおよび第3ディスクリミネータを学習するものであってもよい。
抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、第1画像の特徴マップを導出するエンコーダ、
特徴マップに基づいて、第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および入力された画像が実画像であるか第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
特徴マップに基づいて、第1画像の関心領域を抽出する第2デコーダ、および
特徴マップに基づいて、エンコーダに入力された第1画像の表現形式を判別して第3判別結果を出力する第3ディスクリミネータを有し、
第1判別結果に基づいて、エンコーダ、第1デコーダおよび第1ディスクリミネータを学習し、第3判別結果に基づいて、エンコーダおよび第3ディスクリミネータを学習する学習部を備える。
抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、第1画像の特徴マップを導出するエンコーダ、
特徴マップに基づいて、第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および入力された画像が実画像であるか第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
特徴マップに基づいて、第1画像の関心領域を抽出する第2デコーダ、および
第2デコーダによる関心領域の抽出結果が、正解マスク有りの第1画像の抽出結果であるか、正解マスク無しの第1画像の抽出結果であるかを判別して、第2判別結果を出力する第2ディスクリミネータを有し、
第1判別結果に基づいて、エンコーダ、第1デコーダおよび第1ディスクリミネータを学習し、
第2判別結果に基づいて、エンコーダ、第2デコーダおよび第2ディスクリミネータを学習する。
抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、第1画像の特徴マップを導出するエンコーダ、
特徴マップに基づいて、第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および入力された画像が実画像であるか第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
特徴マップに基づいて、第1画像の関心領域を抽出する第2デコーダ、および
特徴マップに基づいて、エンコーダに入力された第1画像の表現形式を判別して第3判別結果を出力する第3ディスクリミネータを有し、
第1判別結果に基づいて、エンコーダ、第1デコーダおよび第1ディスクリミネータを学習し、
第3判別結果に基づいて、エンコーダおよび第3ディスクリミネータを学習する。
コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、
抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、第1画像の特徴マップを導出するエンコーダ、
特徴マップに基づいて、第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および入力された画像が実画像であるか第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
特徴マップに基づいて、第1画像の関心領域を抽出する第2デコーダ、および
第2デコーダによる関心領域の抽出結果が、正解マスク有りの第1画像の抽出結果であるか、正解マスク無しの第1画像の抽出結果であるかを判別して、第2判別結果を出力する第2ディスクリミネータを有し、
プロセッサは、
第1判別結果に基づいて、エンコーダ、第1デコーダおよび第1ディスクリミネータを学習し、第2判別結果に基づいて、エンコーダ、第2デコーダおよび第2ディスクリミネータを学習する処理を実行する。
コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、
抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、第1画像の特徴マップを導出するエンコーダ、
特徴マップに基づいて、第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および入力された画像が実画像であるか第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
特徴マップに基づいて、第1画像の関心領域を抽出する第2デコーダ、および
特徴マップに基づいて、エンコーダに入力された第1画像の表現形式を判別して第3判別結果を出力する第3ディスクリミネータを有し、
プロセッサは、
第1判別結果に基づいて、エンコーダ、第1デコーダおよび第1ディスクリミネータを学習し、第3判別結果に基づいて、エンコーダおよび第3ディスクリミネータを学習する処理を実行する。
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
本開示による第1または第2の学習方法により学習された抽出モデルにおけるエンコーダおよび第2デコーダとして機能し、任意の表現形式の画像から画像の関心領域を抽出する処理を実行する。
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
21 情報取得部
22 学習部
23 抽出部
24 ラベリング部
25 表示制御部
30,30A,30B 抽出モデル
31 エンコーダ
32 第1デコーダ
33 第1ディスクリミネータ
34 第2デコーダ
35 第2ディスクリミネータ
36 第3ディスクリミネータ
40 学習済み抽出モデル
51 対象画像
52 ラベリング
60 表示画面
DC1,DC2d,DC2g,DC3,RF1,RF2 判別結果
F1 特徴マップ
GR1 第1画像
GR2 第2画像
GV1 第1仮想画像
GV2 第2仮想画像
L1~L6 損失
M1 正解マスク
PM1 抽出結果
Claims (15)
- 複数の異なる表現形式を有する画像から関心領域を抽出する抽出モデルの学習装置であって、
前記抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、前記第1画像の特徴マップを導出するエンコーダ、
前記特徴マップに基づいて、前記第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および前記入力された画像が実画像であるか前記第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
前記特徴マップに基づいて、前記第1画像の関心領域を抽出する第2デコーダ、および
前記第2デコーダによる前記関心領域の抽出結果が、正解マスク有りの第1画像の抽出結果であるか、正解マスク無しの第1画像の抽出結果であるかを判別して、第2判別結果を出力する第2ディスクリミネータを有し、
前記第1判別結果に基づいて、前記エンコーダ、前記第1デコーダおよび前記第1ディスクリミネータを学習し、前記第2判別結果に基づいて、前記エンコーダ、第2デコーダおよび前記第2ディスクリミネータを学習する学習部を備えた学習装置。 - 前記学習部は、前記エンコーダに前記第2仮想画像を入力して該第2仮想画像の特徴マップを導出させ、
前記第1デコーダに、前記第2仮想画像の特徴マップに基づいて、前記第1の表現形式の第1仮想画像を導出させ、
前記第1画像および前記第1仮想画像との相違にも基づいて、前記エンコーダ、前記第1デコーダおよび前記第1ディスクリミネータを学習する請求項1に記載の学習装置。 - 前記第1画像が前記関心領域についての正解マスクを有する場合、前記学習部は、前記関心領域の抽出結果および前記正解マスクに基づいて、前記第2デコーダを学習する請求項1または2に記載の学習装置。
- 前記抽出モデルは、前記特徴マップに基づいて、前記エンコーダに入力された前記第1画像の表現形式を判別して第3判別結果を出力する第3ディスクリミネータをさらに有し、
前記学習部は、前記第3判別結果に基づいて、前記エンコーダおよび前記第3ディスクリミネータを学習する請求項1から3のいずれか1項に記載の学習装置。 - 複数の異なる表現形式を有する画像から関心領域を抽出する抽出モデルの学習装置であって、
前記抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、前記第1画像の特徴マップを導出するエンコーダ、
前記特徴マップに基づいて、前記第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および前記入力された画像が実画像であるか前記第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
前記特徴マップに基づいて、前記第1画像の関心領域を抽出する第2デコーダ、および
前記特徴マップに基づいて、前記エンコーダに入力された前記第1画像の表現形式を判別して第3判別結果を出力する第3ディスクリミネータを有し、
前記第1判別結果に基づいて、前記エンコーダ、前記第1デコーダおよび前記第1ディスクリミネータを学習し、前記第3判別結果に基づいて、前記エンコーダおよび前記第3ディスクリミネータを学習する学習部を備えた学習装置。 - 前記画像は3次元の医用画像であり、前記表現形式は、CT画像およびMRI画像の表現形式を含む請求項1から5のいずれか1項に記載の学習装置。
- 前記表現形式は、MRI画像における、T1強調画像、T2強調画像、拡散強調画像、FLAIR画像、造影前T1強調画像、および造影後T1強調画像の少なくとも1つの表現形式を含む請求項6に記載の学習装置。
- 請求項1から7のいずれか1項に記載の学習装置により学習された抽出モデルにおけるエンコーダおよび第2デコーダを有し、任意の表現形式の画像から該画像の関心領域を抽出する抽出部を備えた関心領域抽出装置。
- 請求項1から7のいずれか1項に記載の学習装置により学習された抽出モデルにおけるエンコーダおよび第2デコーダを備えた学習済み抽出モデル。
- 複数の異なる表現形式を有する画像から関心領域を抽出する抽出モデルの学習方法であって、
前記抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、前記第1画像の特徴マップを導出するエンコーダ、
前記特徴マップに基づいて、前記第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および前記入力された画像が実画像であるか前記第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
前記特徴マップに基づいて、前記第1画像の関心領域を抽出する第2デコーダ、および
前記第2デコーダによる前記関心領域の抽出結果が、正解マスク有りの第1画像の抽出結果であるか、正解マスク無しの第1画像の抽出結果であるかを判別して、第2判別結果を出力する第2ディスクリミネータを有し、
前記第1判別結果に基づいて、前記エンコーダ、前記第1デコーダおよび前記第1ディスクリミネータを学習し、
前記第2判別結果に基づいて、前記エンコーダ、第2デコーダおよび前記第2ディスクリミネータを学習する学習方法。 - 複数の異なる表現形式を有する画像から関心領域を抽出する抽出モデルの学習方法であって、
前記抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、前記第1画像の特徴マップを導出するエンコーダ、
前記特徴マップに基づいて、前記第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および前記入力された画像が実画像であるか前記第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
前記特徴マップに基づいて、前記第1画像の関心領域を抽出する第2デコーダ、および
前記特徴マップに基づいて、前記エンコーダに入力された前記第1画像の表現形式を判別して第3判別結果を出力する第3ディスクリミネータを有し、
前記第1判別結果に基づいて、前記エンコーダ、前記第1デコーダおよび前記第1ディスクリミネータを学習し、
前記第3判別結果に基づいて、前記エンコーダおよび前記第3ディスクリミネータを学習する学習方法。 - 請求項10または11に記載の学習方法により学習された抽出モデルにおけるエンコーダおよび第2デコーダにより、任意の表現形式の画像から該画像の関心領域を抽出する関心領域抽出方法。
- 複数の異なる表現形式を有する画像から関心領域を抽出する抽出モデルの学習方法をコンピュータに実行させる学習プログラムであって、
前記抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、前記第1画像の特徴マップを導出するエンコーダ、
前記特徴マップに基づいて、前記第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および前記入力された画像が実画像であるか前記第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
前記特徴マップに基づいて、前記第1画像の関心領域を抽出する第2デコーダ、および
前記第2デコーダによる前記関心領域の抽出結果が、正解マスク有りの第1画像の抽出結果であるか、正解マスク無しの第1画像の抽出結果であるかを判別して、第2判別結果を出力する第2ディスクリミネータを有し、
前記第1判別結果に基づいて、前記エンコーダ、前記第1デコーダおよび前記第1ディスクリミネータを学習する手順と、
前記第2判別結果に基づいて、前記エンコーダ、第2デコーダおよび前記第2ディスクリミネータを学習する手順とをコンピュータに実行させる学習プログラム。 - 複数の異なる表現形式を有する画像から関心領域を抽出する抽出モデルの学習方法をコンピュータに実行させる学習プログラムであって、
前記抽出モデルは、
第1の表現形式の第1画像の特徴量を抽出することにより、前記第1画像の特徴マップを導出するエンコーダ、
前記特徴マップに基づいて、前記第1画像の表現形式とは異なる第2の表現形式の第2仮想画像を導出する第1デコーダ、
入力された画像の表現形式および前記入力された画像が実画像であるか前記第1デコーダにより生成された仮想画像であるかを判別して第1判別結果を出力する第1ディスクリミネータ、
前記特徴マップに基づいて、前記第1画像の関心領域を抽出する第2デコーダ、および
前記特徴マップに基づいて、前記エンコーダに入力された前記第1画像の表現形式を判別して第3判別結果を出力する第3ディスクリミネータを有し、
前記第1判別結果に基づいて、前記エンコーダ、前記第1デコーダおよび前記第1ディスクリミネータを学習する手順と、
前記第3判別結果に基づいて、前記エンコーダおよび前記第3ディスクリミネータを学習する手順とをコンピュータに実行させる学習プログラム。 - 請求項10または11に記載の学習方法により学習された抽出モデルにおけるエンコーダおよび第2デコーダにより、任意の表現形式の画像から該画像の関心領域を抽出する手順をコンピュータに実行させる関心領域抽出プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019137033 | 2019-07-25 | ||
JP2019137033 | 2019-07-25 | ||
PCT/JP2020/028415 WO2021015231A1 (ja) | 2019-07-25 | 2020-07-22 | 学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021015231A1 JPWO2021015231A1 (ja) | 2021-01-28 |
JPWO2021015231A5 JPWO2021015231A5 (ja) | 2022-04-06 |
JP7203978B2 true JP7203978B2 (ja) | 2023-01-13 |
Family
ID=74194213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021534066A Active JP7203978B2 (ja) | 2019-07-25 | 2020-07-22 | 学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220139062A1 (ja) |
EP (1) | EP4006830A4 (ja) |
JP (1) | JP7203978B2 (ja) |
WO (1) | WO2021015231A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3767536A1 (en) * | 2019-07-17 | 2021-01-20 | Naver Corporation | Latent code for unsupervised domain adaptation |
KR102159052B1 (ko) * | 2020-05-12 | 2020-09-23 | 주식회사 폴라리스쓰리디 | 영상 분류 방법 및 장치 |
CN113077491B (zh) * | 2021-04-02 | 2023-05-02 | 安徽大学 | 基于跨模态共享和特定表示形式的rgbt目标跟踪方法 |
CN114581558B (zh) * | 2022-02-25 | 2023-07-07 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备以及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018192264A (ja) | 2017-05-18 | 2018-12-06 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置 |
US20190220977A1 (en) | 2018-01-16 | 2019-07-18 | Siemens Healthcare Gmbh | Cross-Domain Image Analysis and Cross-Domain Image Synthesis Using Deep Image-to-Image Networks and Adversarial Networks |
-
2020
- 2020-07-22 EP EP20844578.3A patent/EP4006830A4/en active Pending
- 2020-07-22 WO PCT/JP2020/028415 patent/WO2021015231A1/ja active Application Filing
- 2020-07-22 JP JP2021534066A patent/JP7203978B2/ja active Active
-
2022
- 2022-01-19 US US17/578,465 patent/US20220139062A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018192264A (ja) | 2017-05-18 | 2018-12-06 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置 |
US20190220977A1 (en) | 2018-01-16 | 2019-07-18 | Siemens Healthcare Gmbh | Cross-Domain Image Analysis and Cross-Domain Image Synthesis Using Deep Image-to-Image Networks and Adversarial Networks |
Also Published As
Publication number | Publication date |
---|---|
WO2021015231A1 (ja) | 2021-01-28 |
EP4006830A4 (en) | 2022-09-28 |
US20220139062A1 (en) | 2022-05-05 |
JPWO2021015231A1 (ja) | 2021-01-28 |
EP4006830A1 (en) | 2022-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7203978B2 (ja) | 学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル | |
Faragallah et al. | A comprehensive survey analysis for present solutions of medical image fusion and future directions | |
US11132792B2 (en) | Cross domain medical image segmentation | |
Dangi et al. | A distance map regularized CNN for cardiac cine MR image segmentation | |
US20190311228A1 (en) | Cross-modality image synthesis | |
Abbasi-Sureshjani et al. | 4D semantic cardiac magnetic resonance image synthesis on XCAT anatomical model | |
Kim et al. | Automatic segmentation of the left ventricle in echocardiographic images using convolutional neural networks | |
US20230214664A1 (en) | Learning apparatus, method, and program, image generation apparatus, method, and program, trained model, virtual image, and recording medium | |
US11580673B1 (en) | Methods, systems, and computer readable media for mask embedding for realistic high-resolution image synthesis | |
JP2022077991A (ja) | 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法 | |
JP2021140769A (ja) | 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム | |
US11348242B2 (en) | Prediction apparatus, prediction method, prediction program | |
US20240005498A1 (en) | Method of generating trained model, machine learning system, program, and medical image processing apparatus | |
CN110852993B (zh) | 一种造影剂作用下的成像方法与设备 | |
US20220198734A1 (en) | Learning device, learning method, learning program, image generation device, image generation method, image generation program, and image generation model | |
WO2020175445A1 (ja) | 学習方法、学習装置、生成モデル及びプログラム | |
CN115965785A (zh) | 图像分割方法、装置、设备、程序产品及介质 | |
KR102556646B1 (ko) | 의료 영상 생성 방법 및 장치 | |
Amara et al. | Augmented reality for medical practice: a comparative study of deep learning models for ct-scan segmentation | |
Gaasedelen et al. | Automated multiclass cardiac volume segmentation and model generation | |
Athreya et al. | Ultrasound Image Enhancement using CycleGAN and Perceptual Loss | |
JP7170868B2 (ja) | 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器 | |
Hu et al. | Anatomy-Aware Self-Supervised Learning for Aligned Multi-Modal Medical Data. | |
Raza et al. | CycleGAN with mutual information loss constraint generates structurally aligned CT images from functional EIT images | |
JP7462925B2 (ja) | 血流場推定装置、学習装置、血流場推定方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7203978 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |