JP7307166B2 - 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム - Google Patents

学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム Download PDF

Info

Publication number
JP7307166B2
JP7307166B2 JP2021527754A JP2021527754A JP7307166B2 JP 7307166 B2 JP7307166 B2 JP 7307166B2 JP 2021527754 A JP2021527754 A JP 2021527754A JP 2021527754 A JP2021527754 A JP 2021527754A JP 7307166 B2 JP7307166 B2 JP 7307166B2
Authority
JP
Japan
Prior art keywords
learning
teacher data
image
variation
pixel values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021527754A
Other languages
English (en)
Other versions
JPWO2020262571A5 (ja
JPWO2020262571A1 (ja
Inventor
貞登 赤堀
卓也 淵上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020262571A1 publication Critical patent/JPWO2020262571A1/ja
Publication of JPWO2020262571A5 publication Critical patent/JPWO2020262571A5/ja
Application granted granted Critical
Publication of JP7307166B2 publication Critical patent/JP7307166B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7792Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は、学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラムに関する。
近年、ディープラーニング(深層学習)を用いた機械学習の技術が注目を集めている。機械学習においては、分類の精度をより向上させるために様々な技術が開発されている。特開2018-5640号公報には、欠陥が写った複数の第1画像を含む第1教師データに基づいて深層学習により畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を生成し、CNNの中間層に、欠陥が写った複数の第2画像それぞれを入力して、この中間層から複数の第2画像それぞれについての複数種類の特徴量を取得して、複数種類の特徴量を用いてさらに機械学習させることにより、分類精度を向上させたモデルを構築する方法が開示されている。
一方、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした教師データを用いて、End-to-End(エンドツーエンド)深層学習によって、モデルを学習させる方法も知られている。End-to-End深層学習は、入力が与えられてから結果を出力するまで、途中で発生する中間処理を全て学習させる方法である。End-to-End深層学習によって学習された学習モデルにおいては、学習モデルに画像を入力することによって、入力された画像全体をピクセル単位でラベリングすることによりクラス分類を行うセマンティックセグメンテーションを行うことができる。
一般的に、End-to-End深層学習においては、入力側と出力側に各々多くの学習用画像及び正解学習用画像があるほど、より精度の高い出力結果が得られることが知られている。しかしながら、入力対象となる画像が、例えば、脳卒中等の疾患を発症した脳の脳画像である場合、セグメンテーションの対象となる梗塞領域及び出血領域等の疾患領域は、形状、大きさ、及び発症箇所等が不定である。また、疾患の発症からの経過時間によって脳画像中の疾患領域の画素値の値が変化する。そのため、脳画像においては多様な症例が存在することとなり、多様な症例を全てカバーできる程度の学習用画像を用意するのは困難である。
本開示は、限られた学習用画像を用いて、セグメンテーションの対象となる画像領域の画素値の多様性をカバーできる、学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラムを提供する。
本開示の第1に態様は、学習用画像生成装置であって、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした教師データを取得する教師データ取得部と、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させた変動学習用画像を生成する変動学習用画像生成部と、を含む。
本開示の第2の態様は、第1の態様において、制約範囲を取得する制約範囲取得部を含んでいてもよい。
本開示の第3の態様は、第1又は第2の態様において、変動学習用画像生成部は、正解領域に属する画素のうちの1以上の画素の画素値を、一定の値で変動させてもよい。
本開示の第4の態様は、第1又は第2の態様において、変動学習用画像生成部は、正解領域に属する画素のうちの1以上の画素の画素値を、画素毎に異なる値で変動させてもよい。
本開示の第5の態様は、第1又は第2の態様において、変動学習用画像生成部は、正解領域に属する画素の画素値に基づいて設定された正規分布に応じて、正解領域に属する画素のうちの1以上の画素の画素値を、画素毎に異なる値で変動させてもよい。
本開示の第6の態様は、学習用画像生成方法であって、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした教師データを取得し、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させた変動学習用画像を生成する。
本開示の第7の態様は、学習用画像生成プログラムであって、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした教師データを取得する教師データ取得部と、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させた変動学習用画像を生成する変動学習用画像生成部として、コンピュータを機能させる。
本開示の他の態様は、学習用画像生成装置であって、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした教師データを取得し、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させた変動学習用画像を生成する処理を実行する。
本開示の第8の態様は、学習方法であって、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第1教師データ、及び、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第2教師データを用いてモデルを学習させる。
なお、上記の態様において、正解領域に属する画素のうちの1以上の画素の画素値を、一定の値で変動させてもよいし、正解領域に属する画素のうちの1以上の画素の画素値を、画素毎に異なる値で変動させてもよいし、正解領域に属する画素の画素値に基づいて設定された正規分布に応じて、正解領域に属する画素のうちの1以上の画素の画素値を、画素毎に異なる値で変動させてもよい。
本開示の第9の態様は、第8の態様において、1回目の学習において、複数の第1教師データを用いてモデルを学習させ、2回目以降の学習において、複数の第1教師データのうちの少なくとも1つの第1教師データを第2教師データに換えてモデルを学習させてもよい。
本開示の第10の態様は、第8の態様において、1回目の学習において、複数の第1教師データを用いてモデルを学習させ、2回目以降の学習において、少なくとも1つの第2教師データを追加してモデルを学習させてもよい。
本開示の第11の態様は、第9又は第10の態様において、2回目以降の学習において、学習の回毎に、使用する第2教師データ及び第2教師データの数の少なくとも一方をランダムに設定してもよい。
本開示の第12の態様は、第9又は第10の態様において、2回目以降の学習において、使用する第2教師データ及び第2教師データの数の少なくとも一方を予め設定してもよい。
本開示の第13の態様は、第9から第12の何れかの態様において、2回目以降の学習において、少なくとも1回、複数の第1教師データのみを用いてモデルを学習させてもよい。
本開示の第14の態様は、学習装置であって、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第1教師データ、及び、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第2教師データとを取得する教師データ取得部と、教師データ取得部により取得された1以上の第1教師データ及び1以上の第2教師データを用いてモデルを学習させる学習部と、を含む。
本開示の他の態様は、学習装置であって、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第1教師データ、及び、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第2教師データを用いてモデルを学習させる処理を実行する。
本開示の第15の態様は、第14の態様において、学習部は、上記の学習方法によってモデルを学習させることができる。
本開示の第16の態様は、学習プログラムであって、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第1教師データ、及び、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第2教師データとを取得する教師データ取得部と、教師データ取得部により取得された1以上の第1教師データ及び1以上の第2教師データを用いてモデルを学習させる学習部として、コンピュータを機能させる。
上記態様によれば、本開示の学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラムは、限られた学習用画像を用いて、セグメンテーションの対象となる画像領域の画素値の多様性をカバーできる。
本開示の一例示的実施形態である学習用画像生成装置及び学習装置を適用した、診断支援システムの概要を示すハードウェア構成図 本開示の一例示的実施形態である学習装置の構成を示す概略ブロック図 CT画像と正解CT画像とを組にした第1教師データを説明するための図 梗塞領域を説明するための図 梗塞領域に属する画素の画素値の分布を示すグラフ 梗塞領域に属する画素の画素値の変動を説明するためのグラフ CT画像に変動を加えて生成した変動CT画像を説明するための図 変動CT画像を生成する処理を示すフローチャート 第2の例示的実施形態における画素値の変動方法を説明するための図 第3の例示的実施形態における画素値の変動方法を説明するための図 第4の例示的実施形態における画素値の変動方法を説明するための図 第5の例示的実施形態における画素値の変動方法を説明するための図 変動CT画像と正解CT画像とを組にした第2教師データを説明するための図 学習モデルを説明するための図 第6の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 学習時に行われる処理を示すフローチャート 第7の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 第8の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 第9の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 第10の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図
以下、図面を参照して本開示の第1の例示的実施形態について説明する。図1は、本開示の第1の例示的実施形態による学習用画像生成装置及び学習装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本例示的実施形態による学習装置1、3次元画像撮影装置2、及び画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。なお、学習装置1には、本例示的実施形態による学習モデル及び学習用画像生成装置が内包される。
3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置である。具体的には、3次元画像撮影装置2は、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、及びPET(Positron Emission Tomography)装置等である。この3次元画像撮影装置2により生成された医用画像は、画像保管サーバ3に送信され、保存される。なお、本例示的実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はCT装置である。そして、CT装置において、被検体の脳を含む3次元のCT画像Bc0を生成する。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置及びデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には、画像保管サーバ3は、3次元画像撮影装置2で生成されたCT画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式及びネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。また、本例示的実施形態においては、画像保管サーバ3は、後述する学習モデル25の学習のための学習用画像となるCT画像Bc0を含む第1教師データD(後述する)も保管して管理している。
本例示的実施形態の学習用画像生成装置及び学習モデルを含む学習装置1は、1台のコンピュータに、本開示の学習用画像生成プログラム及び学習プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーション又はパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。学習用画像生成プログラム及び学習プログラムは、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。又は、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに学習用画像生成プログラム及び学習プログラムをインストールすることにより実現される本開示の一例示的実施形態である学習装置1の概略構成を示す図である。図2に示すように、学習装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12及びストレージ13を備えている。また、学習装置1には、液晶ディスプレイ等からなる表示部14、並びにキーボード及びマウス等からなる入力部15が接続されている。入力部15は、ユーザによる種々の設定入力を受け付ける。なお、タッチパネルを用いることによって表示部14と入力部15とを兼用するようにしてもよい。
ストレージ13は、ハードディスクドライブ及びSSD(Solid State Drive)等からなる。ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した、後述する学習モデル25の学習のための学習用画像となるCT画像Bc0を含む第1教師データD、及び処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、学習用画像生成プログラム及び学習プログラムが記憶されている。学習用画像生成プログラムは、CPU11に実行させる処理として、教師データ取得処理と、制約範囲取得処理、変動学習用画像生成処理を規定する。教師データ取得処理では、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした第1教師データDを取得する。制約範囲取得処理では、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲を取得する。変動学習用画像生成処理では、制約範囲内で、正解領域に属する画素の画素値を変動させた変動学習用画像を生成する。
また、学習プログラムは、CPU11に実行させる処理として、教師データ取得処理、学習処理、判別処理、表示制御処理を規定する。教師データ取得処理では、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第1教師データ、及び、学習用画像において、正解領域に属する画素の取り得る画素値の制約範囲内で、正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第2教師データとを取得する。学習処理では、取得された1以上の第1教師データ及び1以上の第2教師データを用いてモデルを学習させる。判別処理では、学習用画像又は判別の対象となる対象画像が入力された場合に、入力された画像における正解領域を出力する。表示制御処理では、学習用画像、正解学習用画像、及び正解領域等を表示部14に表示する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、教師データ取得部21、制約範囲取得部22、変動学習用画像生成部23、学習部24、学習モデル25、及び表示制御部26として機能する。ここで、教師データ取得部21、制約範囲取得部22、及び変動学習用画像生成部23が、本例示的実施形態の学習用画像生成装置を構成する。
教師データ取得部21は、ネットワークに接続されたインターフェース(不図示)を介して、画像保管サーバ3から、第1教師データDを取得する。図3は、CT画像Bc0と正解マスクBc1とを組にした第1教師データDを説明するための図である。図3に示すように、第1教師データDは、後述する学習モデル25の学習のための学習用画像となるCT画像Bc0及びこのCT画像Bc0において正解領域として梗塞領域Aが定義された正解マスクBc1とを組にした教師データである。なお、図3において、CT画像Bc0は3次元画像であるが、ここでは説明のため、CT画像Bc0の1つの断層面における2次元の断層画像を用いて説明する。また、図3において、正解マスクBc1は、正解領域である梗塞領域Aを白色に塗り潰して描画することにより定義しているが、正解マスクBc1はこれに限られない。例えば、梗塞領域Aの内部を塗り潰すことなく、梗塞領域Aの境界を白色で描画することにより梗塞領域Aを定義してもよい。また、白色以外の色で描画してもよい。また、梗塞領域Aの内部と、梗塞領域Aの外部とを異なる画素値を有する画素で構成した画像とすることにより梗塞領域Aを定義してもよい。
なお、本例示的実施形態のCT画像Bc0は本開示の学習用画像に、本例示的実施形態の正解マスクBc1は本開示の正解学習用画像にそれぞれ対応する。また、CT画像Bc0及び正解マスクBc1、すなわち第1教師データDが既にストレージ13に記憶されている場合には、教師データ取得部21は、ストレージ13から第1教師データDを取得するようにしてもよい。また、教師データ取得部21は、後述する学習モデル25の学習のために、多数の被検体についての第1教師データDを取得する。また、教師データ取得部21は、ストレージ13から後述する第2教師データFを取得する。
表示制御部26は、教師データ取得部21が取得した第1教師データD及び第2教師データFを各々構成するCT画像Bc0、正解マスクBc1、及び変動CT画像Bc2を表示部14に表示させる。
制約範囲取得部22は、CT画像Bc0において、梗塞領域Aに属する画素の取り得る画素値の制約範囲を取得する。本例示的実施形態においては、CT画像Bc0はCT画像である。一般的に、人間の体の約60%は水からできているため、CT値は水を原点の0、空気の状態を最低値である-1000で各々表現している。空気の-1000はCT画像Bc0上においては黒色で表現されるように設定される。すなわち、2次元画像の場合には画像を構成する各画素、3次元画像の場合には画像を構成する各ボクセルに、白黒の濃淡値(画素値ともいう)が与えられることによりCT画像Bc0が表現される。
CT画像Bc0上において急性期における梗塞領域Aの取り得る画素値は、20~30程度である。従って、本例示的実施形態において、制約範囲取得部22は、梗塞領域Aの取り得る画素値の制約範囲の下限値Lを20、及び上限値Uを32として取得する。下限値L及び上限値Uの値は、ユーザが入力部15を操作することにより入力される。なお、本例示的実施形態においては、下限値L及び上限値Uの値は、ユーザによって入力されるものとしたが、本開示の技術はこれに限られない。例えば、CT画像、MRI画像、及びPET画像等、画像の種類毎に下限値L及び上限値Uの値を設定した対応表を予めストレージ13に保存しておき、教師データ取得部21が取得した第1教師データDを構成する学習用画像の種類に応じて、上記対応表により下限値L及び上限値Uの値を導出してもよい。また、学習用画像の種類から下限値L及び上限値Uの値を導出することができれば対応表に限られず、例えば式等により導出してもよい。
また、本例示的実施形態においては、正解領域を梗塞領域Aとしたため、制約範囲取得部22は、梗塞領域Aの取り得る画素値の制約範囲の下限値Lを20、及び上限値Uを32として取得した。しかしながら、下限値L及び上限値Uの値、すなわち上記制約範囲は、検出したい対象に応じて適宜設定される。例えば、学習用画像がCT画像の場合、脳画像において脳出血を検出したい場合には、正解領域は出血領域となるため、出血領域の取り得る画素値の制約範囲は、50~80程度となる。
なお、画素値の下限値L及び上限値Uの値は、例えば、学習用画像を撮影した装置の種類、型番、メーカー、撮影した施設、及び検出対象となる病変の種類毎に予め統計をとって、統計によって得られた数値データに基づいて設定するようにしてもよい。
変動学習用画像生成部23は、CT画像Bc0において、梗塞領域Aに属する画素の取り得る画素値の制約範囲内で、梗塞領域Aに属する画素の画素値を変動させた変動学習用画像である変動CT画像Bc2を生成する。図4は梗塞領域Aを説明するための図である。なお、図4においては、実際の梗塞領域Aの形状とは異なるが説明を分かり易くするために、梗塞領域Aを4行4列の16個の画素で構成された正方形の領域として説明する。
梗塞領域Aは、図4に示すように、4行4列に配列されたP11からP44の16個の画素で構成されている。梗塞領域Aを構成する各画素P11~P44は、各々の画素が梗塞領域を示す画素であるため、20以上32以下の画素値となる。図5は梗塞領域Aに属する画素P11~P44の画素値の分布を示すグラフ、図6は梗塞領域Aに属する画素の画素値の変動を説明するためのグラフである。なお、図5及び図6において、横軸は画素値、縦軸は出現度数を示す。
梗塞領域Aを構成する各画素P11~P44の画素値は、図5に示すように、梗塞領域Aの取り得る画素値の制約範囲の下限値L(20)から上限値U(32)の間で分布する。例えば、梗塞領域Aを構成する各画素P11~P44の画素値の最大値が25である場合には、上記制約範囲の上限値Uの32に到達する「7」の値まで加えることが可能である。そのため、0以上7以下の数値をランダムに選択して、選択された数値を、梗塞領域Aを構成する全ての画素P11~P44の画素値に加える。これにより、図6に示すように、梗塞領域Aに属する画素P11~P44の画素値の点線で示す分布は、加えた数値の分だけ右矢印方向にシフトして、実線で示す分布となる。
一方、梗塞領域Aを構成する各画素P11~P44の画素値の最小値が22である場合には、上記制約範囲の下限値Lの20に到達する「2」の値まで減算することが可能である。そのため、0以上2以下の数値をランダムに選択して、選択された数値を、梗塞領域Aを構成する全ての画素P11~P44の画素値から減算する。これにより、図6に示すように、梗塞領域Aに属する画素P11~P44の画素値の点線で示す分布は、減算した数値の分だけ左矢印方向にシフトして、実線で示す分布となる。
なお、0以上7以下の数値、及び0以上2以下の数値からランダムに選択する数値の個数は、予め設定された生成すべき変動CT画像Bc2(後述する)の数に基づいて決定される。例えば変動CT画像Bc2を3枚生成したい場合には、0以上7以下の数値、及び0以上2以下の数値からランダムに3つの数値が選択される。なお、生成すべき変動CT画像Bc2の数は、ユーザが入力部15を使用して任意に設定することができる。
変動学習用画像生成部23は、選択された数値、すなわちシフト量に基づいて、梗塞領域Aに属する画素の画素値を変動させることにより変動CT画像Bc2を生成する。図7はCT画像Bc0に変動を加えて生成した変動CT画像Bc2を説明するための図である。なお、図7において、変動CT画像Bc2は、CT画像Bc0との違いを明確に表すために、梗塞領域Aの画素値を誇張して変化させている。
変動学習用画像生成部23は、図7に示すように、CT画像Bc0において、梗塞領域Aに属する全ての画素の画素値に0以上7以下の数値から選択された数値を加えるか、又はCT画像Bc0における梗塞領域Aに属する全ての画素の画素値から、0以上2以下の数値から選択された数値を減算する。これにより、変動学習用画像生成部23は、CT画像Bc0の梗塞領域Aの画素値に変動を与えた変動CT画像Bc2を生成する。
次いで、本例示的実施形態における変動CT画像Bc2を生成する処理について説明する。図8は変動CT画像Bc2を生成する処理を示すフローチャートである。先ず、教師データ取得部21が、CT画像Bc0と正解マスクBc1とを組にした第1教師データDを取得する(ステップST1)。次に、制約範囲取得部22が、CT画像Bc0において、梗塞領域Aに属する画素の取り得る画素値の制約範囲を取得する(ステップST2)。そして、変動学習用画像生成部23が、CT画像Bc0の梗塞領域Aの画素値に、上述したようにして変動を与えることにより変動CT画像Bc2を生成して(ステップST3)、一連の処理を終了する。
教師データ取得部21、制約範囲取得部22、及び変動学習用画像生成部23で構成される本例示的実施形態の学習用画像生成装置、本例示的実施形態の学習用画像生成方法、並びに本例示的実施形態の学習用画像生成プログラムによれば、CT画像Bc0における梗塞領域Aに属する画素の取り得る画素値の制約範囲内で、梗塞領域Aに属する画素の画素値を変動させることにより、容易にCT画像Bc0とは梗塞領域Aに属する画素の画素値が異なる変動CT画像Bc2を生成することができる。また、変動させる値を替えることにより、梗塞領域Aに属する画素の画素値が異なる複数の変動CT画像Bc2を生成することができる。これにより、限られたCT画像Bc0を用いて、梗塞領域Aの画素値の異なる変動CT画像Bc2を生成することができるので、セグメンテーションの対象となる梗塞領域Aの画素値の多様性をカバーすることができる。
なお、上記第1の例示的実施形態においては、教師データ取得部21、制約範囲取得部22、及び変動学習用画像生成部23により学習用画像生成装置が構成されるものとした。しかしながら、本開示の技術はこれに限られず、制約範囲取得部22を備えていなくてもよい。この場合、変動学習用画像生成部23は、予め定められた制約範囲に基づいて、梗塞領域Aに属する画素の画素値を変動させればよい。
また、上記第1の例示的実施形態においては、変動学習用画像生成部23は、CT画像Bc0において梗塞領域Aに属する全ての画素の画素値を一定の値で変動させたが、本開示の技術はこれに限られない。例えば、梗塞領域Aに属する画素のうちの一部の画素の画素値を一定の値で変動させてもよい。図9は第2の例示的実施形態における画素値の変動方法を説明するための図である。
変動学習用画像生成部23は、図9に示すように、一例として、斜線で示す画素P11、画素P23、及び画素P41の3つの画素の画素値を一定の値で変動させる。なお、画素値を変動させる画素及び画素値を変動させる画素の個数は予め設定してもよいし、ランダムに設定されるようにしてもよい。
また、上記第1の例示的実施形態及び第2の例示的実施形態においては、変動学習用画像生成部23は、CT画像Bc0において梗塞領域Aに属する画素の画素値を全て一定の値で変動させた。しかしながら、本開示の技術はこれに限られない。例えば、画素毎に異なる値で変動させてもよい。図10は第3の例示的実施形態における画素値の変動方法を説明するための図である。
変動学習用画像生成部23は、図10に示すように、一例として、斜線で示す画素P23、画素P33、及び画素P41の3つの画素の画素値を第1の値で変動させる。また、網掛けで示す画素P11及び画素P44の2つの画素の画素値を第2の値で変動させる。
なお、第1の値で画素値を変動させる画素及び第1の値で画素値を変動させる画素の個数、並びに第2の値で画素値を変動させる画素及び第2の値で画素値を変動させる画素の個数は予め設定してもよいし、ランダムに設定されるようにしてもよい。
また、上記第1から第3の例示的実施形態においては、変動学習用画像生成部23は、CT画像Bc0において梗塞領域Aに属する画素の画素値を変動させることにより、図5に示す分布のグラフが移動又は変形する。しかしながら、本開示の技術はこれに限られない。例えば、梗塞領域Aに属する画素を入れ換えてもよい。図11は第4の例示的実施形態における画素値の変動方法を説明するための図である。
変動学習用画像生成部23は、図11に示すように、一例として、右上から左下へ向かう斜線で示す画素P41の画素値を、網掛けで示す画素P44の画素値に替える。また、左上から右下へ向かう斜線で示す画素P33の画素値を、右上から左下へ向かう斜線で示す画素P41の画素値に替える。また、網掛けで示す画素P44の画素値を左上から右下へ向かう斜線で示す画素P33の画素値に替える。本例示的実施形態においては、梗塞領域Aに属する画素を入れ替えただけなので、図5に示す分布のグラフを保持したままで梗塞領域Aに属する画素の画素値を変動させることができる。なお、画素値を入れ替える画素及び画素値を入れ替える画素の個数は予め設定してもよいし、ランダムに設定されるようにしてもよい。
また、予め梗塞領域Aの画素値の平均と標準偏差とを設定して、正規分布を決定し、決定した正規分布に基づいて画素値を変動させてもよい。図12は第5の例示的実施形態における画素値の変動方法を説明するための図である。変動学習用画像生成部23は、図12に示すように、梗塞領域Aの取り得る画素値の制約範囲の下限値Lから上限値Uの間で、平均と標準偏差とを設定することにより、梗塞領域Aの画素値の正規分布を決定する。変動学習用画像生成部23は、梗塞領域Aにおいて図12のグラフに基づいて、各画素値の画素が存在するように、画素値を変動させる。
以上のようにして変動学習用画像生成部23により生成された変動CT画像Bc2は、第2教師データFを構成する画像データとしてストレージ13に記憶される。図13は変動CT画像Bc2と正解CT画像Bc1とを組にした第2教師データFを説明するための図である。第2教師データFは、図13に示すように、変動CT画像Bc2と、変動CT画像Bc2の変動前のCT画像Bc0において梗塞領域Aが定義された正解マスクBc1とを組にした教師データである。なお、本例示的実施形態において第2教師データFは、変動CT画像Bc2と変動前のCT画像Bc0において梗塞領域Aが定義された正解マスクBc1とを組にしたが、変動CT画像Bc2と、変動CT画像Bc2において新たに梗塞領域Aを定義した正解マスクBc3とを組にしてもよい。ただし、変動CT画像Bc2は、変動前のCT画像Bc0において、梗塞領域Aに属する画素の画素値を梗塞領域Aの取り得る画素値の制約範囲内において変動させているので、正解マスクBc1と、変動CT画像Bc2において新たに梗塞領域Aを定義した正解マスクBc3とは同じ正解マスクとなる。
次に、図2に戻り、学習部24は、教師データ取得部21により取得された1以上の第1教師データD及び1以上の第2教師データFを用いて学習モデル25を学習させる。図14は学習モデルの学習方法を説明するための図である。なお、本例示的実施形態において学習モデル25は、本開示のモデルに対応する。
学習モデル25は、梗塞領域を検出する対象となるCT画像が入力された場合に、CT画像における梗塞領域を出力するように学習されたモデルである。本例示的実施形態においては、学習モデル25は、U-Net(U Networks)の構造を有する。U-Netは、全層畳み込みネットワーク(Fully Convolution Network;FCN)の1つであり、画像のセグメンテーションに特化したネットワークである。
学習部24は、図14に示すように、第1教師データDすなわちCT画像Bc0及び正解マスクBc1を学習モデルMに入力することにより、学習モデルMにCT画像Bc0における梗塞領域Aを学習させる。これにより、CT画像Bc0が入力された場合に、正解マスクBc1と一致する領域が梗塞領域Aとして出力されるように学習モデルMを学習させる。また、学習部24は、第2教師データFすなわち変動CT画像Bc2及び正解マスクBc1を学習モデルMに入力することにより、学習モデルMに変動CT画像Bc2における梗塞領域Aを学習させる。これにより、変動CT画像Bc2が入力された場合に、正解マスクBc1と一致する領域が梗塞領域Aとして出力されるように学習モデルMを学習させる。
次に、1以上の第1教師データD及び1以上の第2教師データFを用いた学習モデル25の学習方法について説明する。一般的に学習モデル25を学習させる場合には、例えばn個の教師データを順に学習モデル25に学習させる。そして、n個の教師データが全て学習されると、2回目として再度n個の教師データを順に学習モデル25に学習させて、予め定められた回数、同じ教師データを使用して繰り返し学習モデル25に学習させることが行われている。
本例示的実施形態においては、n個の第1教師データD1~Dnを用いて学習モデル25を学習させる際に、1回目はn個の第1教師データD1~Dnを用いて学習モデル25を学習させる。次に、2回目以降は、n個の第1教師データD1~Dnのうちの少なくとも1つの第1教師データDを第2教師データFに換えて学習モデル25を学習させる。図15は第6の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。なお、第1教師データD及び第2教師データFは、CT画像Bc0又は変動CT画像Bc2と、正解マスクBc1との組で、すなわち2つの画像データで構成されているが、図15において第1教師データD及び第2教師データFは説明の都合上、1枚の画像で表してある。なお、以下の図面においても同様に表すことがある。
学習部24は、図15に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル25を学習させる。2回目の学習時(2T)には、第1教師データD1を第2教師データF1に換えて学習モデル25を学習させる。3回目の学習時(3T)には、第2教師データF1を第1教師データD1に戻して、かつ、第1教師データD2を第2教師データF2に換えて学習モデル25を学習させる。さらに4回目の学習時(4T)には、第2教師データF2を第1教師データD2に戻して、かつ、第1教師データD3を第2教師データF3に換えて学習モデル25を学習させる。
このように、第6の例示的実施形態においては、2回目以降の学習において、回毎に、n個の第1教師データD1~Dnのうちの1つの第1教師データDを第2教師データFに換えて学習モデル25を学習させる。n+1回の学習が終了すると、1回目の学習(1T)に戻り、設定された回数の学習が終了するまで上記学習を繰り返し行う。
次いで、第6の例示的実施形態における一連の処理について説明する。図16は学習時に行われる処理を示すフローチャートである。先ず、教師データ取得部21が、画像保管サーバ3及びストレージ13から第1教師データD及び第2教師データFを取得する(ステップST11)。次いで、学習部24が、取得した第1教師データD及び第2教師データFを用いて、学習モデル25を上述のようにして学習させて(ステップST12)、一連の処理を終了する。
第6の例示的実施形態においては、CT画像Bc0における梗塞領域Aに属する画素の取り得る画素値の制約範囲内で、梗塞領域Aに属する画素の画素値を変動させることにより生成された、CT画像Bc0とは梗塞領域Aに属する画素の画素値が異なる変動CT画像Bc2と正解マスクBc1とを組にした第2教師データFを学習に使用する。このように、第1教師データDのみを使用して学習モデル25を学習させるよりも、第2教師データFを使用することにより、第1教師データDの梗塞領域Aの画素値とは異なる画素値の梗塞領域Aが定義された変動CT画像Bc2が教師データとして使用される。したがって、本例示的実施形態では、セグメンテーションの対象となる梗塞領域Aの画素値の多様性をカバーすることができる。
なお、第6の例示的実施形態においては、2回目以降の学習において、回毎に1つの第1教師データDを第2教師データFに換えて学習モデル25を学習させたが、本開示の技術はこれに限られない。2つの第1教師データDを第2教師データFに換えてもよいし、3つ、4つ等、任意の数の第1教師データDを第2教師データFに替えることができる。また、予め定められた第1教師データDのみを回毎に異なる第2教師データFに換えてもよい。また、第2教師データFに変更する第1教師データDはランダムに選択されるようにしてもよい。また、第2教師データFに変更する第1教師データDの個数はランダムに決定されるようにしてもよい。また、第2教師データFに変更する第1教師データD及び第2教師データFに変更する第1教師データDの個数の両方を、ランダムに決定するようにしてもよい。図17は第7の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図17に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル25を学習させる。2回目の学習時(2T)には、第1教師データD1を第2教師データF1に換えて学習モデル25を学習させる。3回目の学習時(3T)には、第2教師データF1を第1教師データD1に戻して、かつ、第1教師データD2を第2教師データF2に、第1教師データD4を第2教師データF4に、第1教師データD5を第2教師データF5に、それぞれ換えて学習モデル25を学習させる。さらに4回目の学習時(4T)には、第2教師データF2を第1教師データD2に、第2教師データF4を第1教師データD4に、第2教師データF5を第1教師データD5に、それぞれ戻して、かつ、第1教師データD1を第2教師データF1に、第1教師データD3を第2教師データF3に換えて学習モデル25を学習させる。
なお、第6の例示的実施形態及び第7の例示的実施形態においては、2回目以降の学習において、回毎に第1教師データDを第2教師データFに換えて学習モデル25を学習させたが、本開示の技術はこれに限られない。回毎にn個の第1教師データDnに第2教師データFを追加して学習モデル25を学習させてもよい。図18は第8の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図18に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル25を学習させる。2回目の学習時(2T)には、第2教師データF1を加えて学習モデル25を学習させる。3回目の学習時(3T)には、第2教師データF2を加えて学習モデル25を学習させる。さらに4回目の学習時(4T)には、第2教師データF3を加えて学習モデル25を学習させる。
このように、第8の例示的実施形態においては、2回目以降の学習において、回毎に、n個の第1教師データD1~Dnに、さらに第2教師データFを1つ加えて学習モデル25を学習させる。n+1回の学習が終了すると、1回目の学習(1T)に戻り、設定された回数の学習が終了するまで上記学習を繰り返し行う。
なお、第8の例示的実施形態においては、2回目以降の学習において、回毎に1つの第2教師データF加えて学習モデル25を学習させた。しかしながら、本開示の技術はこれに限られない。2つの第2教師データFを加えてもよいし、3つ、4つ等、任意の数の第2教師データFを加えることができる。また、加える第2教師データFはランダムに選択されるようにしてもよい。図19は第9の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図19に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル25を学習させる。2回目の学習時(2T)には、第2教師データF2、第2教師データF3、及び第2教師データF5を加えて学習モデル25を学習させる。3回目の学習時(3T)には、第2教師データF4を加えて学習モデル25を学習させる。さらに4回目の学習時(4T)には、第2教師データF1及び第2教師データF4を加えて学習モデル25を学習させる。
このように、第9の例示的実施形態においては、2回目以降の学習において、回毎に、n個の第1教師データD1~Dnに、さらに第2教師データFをランダムの個数加えて、設定された回数の学習が終了するまで学習モデル25を学習させる。
なお、本開示の学習モデル25の学習方法は上記第6~第9の例示的実施形態に示す学習方法に限られない。図20は第10の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図20に示すように、2回目以降の学習において、少なくとも1回、本例示的実施形態においては7回目の学習において、n個の第1教師データD1~Dnのみを用いて学習モデル25を学習させる。なお、n個の第1教師データD1~Dnのみを用いて学習モデル25を学習させる回は、7回目に限られず何れの回であってもよい。また、2回、3回とn個の第1教師データD1~Dnのみを用いて学習モデル25を学習させてもよい。
なお、上記例示的実施形態においては、疾患を梗塞としたが、本開示の技術はこれに限られず、例えば疾患は出血等であってもよい。
また、上記例示的実施形態においては、本開示の学習用画像としてCT画像を用いている。しかしながら、本開示の技術はこれに限定されるものではなく、本開示の学習用画像は例えばPET画像、超音波画像、及びMRI画像等の他の医用画像であってもよい。MRI画像は、T1画像、T2画像、及び拡散強調画像の何れの画像であってもよい。
また、上記例示的実施形態においては、医用画像として脳画像を用いているが、これに限定されるものではない。例えば、人体の胸部、腹部、全身及び四肢等の医用画像に含まれる疾患領域及び関心領域等を判別する場合にも、本開示を適用することができる。
また、上記例示的実施形態においては、学習装置1は、学習用画像生成装置が内包されているが、本開示の技術はこれに限られず、学習用画像生成装置が内包されていなくてもよい。ただし、この場合、学習装置1は教師データ取得部21を備えるものとし、教師データ取得部21が、外部の学習用生成装置によって生成された変動学習用画像を含む第2教師データを取得するようにすればよい。
また、上記例示的実施形態においては、学習モデル25は、U-Netの構造を有するものとしたが、本開示の技術はこれに限定されるものではない。U-Net以外の、全層畳み込みネットワーク(Fully Convolution Network;FCN)を使用してもよい。なお、セグメンテーションの問題をEnd-to-End深層学習により学習するモデルを利用する際に、U-Net及びFCNに限られず、広く応用することができる。
また、上述した例示的実施形態において、例えば、教師データ取得部21、制約範囲取得部22、変動学習用画像生成部23、学習部24、学習モデル25、及び表示制御部26といった各種の処理を実行する処理部(Processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
2019年6月28日出願の日本国特許出願2019-121325号の開示は、その全体が参照により本明細書に取り込まれる。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (16)

  1. 学習用画像と、前記学習用画像において定義された正解領域とを組にした教師データを取得する教師データ取得部と、
    前記学習用画像において、前記正解領域に属する画素の取り得る画素値の制約範囲内で、前記正解領域に属する画素の画素値を変動させた変動学習用画像を生成する変動学習用画像生成部と、
    を含む、学習用画像生成装置。
  2. 前記制約範囲を取得する制約範囲取得部を含む、請求項1に記載の学習用画像生成装置。
  3. 前記変動学習用画像生成部は、前記正解領域に属する画素のうちの1以上の画素の画素値を、一定の値で変動させる、請求項1又は2に記載の学習用画像生成装置。
  4. 前記変動学習用画像生成部は、前記正解領域に属する画素のうちの1以上の画素の画素値を、画素毎に異なる値で変動させる、請求項1又は2に記載の学習用画像生成装置。
  5. 前記変動学習用画像生成部は、前記正解領域に属する画素の画素値に基づいて設定された正規分布に応じて、前記正解領域に属する画素のうちの1以上の画素の画素値を、画素毎に異なる値で変動させる、請求項1又は2に記載の学習用画像生成装置。
  6. 学習用画像と、前記学習用画像において定義された正解領域とを組にした教師データを取得し、
    前記学習用画像において、前記正解領域に属する画素の取り得る画素値の制約範囲内で、前記正解領域に属する画素の画素値を変動させた変動学習用画像を生成する、
    学習用画像生成方法。
  7. 学習用画像と、前記学習用画像において定義された正解領域とを組にした教師データを取得する教師データ取得部と、
    前記学習用画像において、前記正解領域に属する画素の取り得る画素値の制約範囲内で、前記正解領域に属する画素の画素値を変動させた変動学習用画像を生成する変動学習用画像生成部として、
    コンピュータを機能させる、学習用画像生成プログラム。
  8. 学習用画像と、前記学習用画像において定義された正解領域とを組にした1以上の第1教師データ、及び、前記学習用画像において、前記正解領域に属する画素の取り得る画素値の制約範囲内で、前記正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の前記変動学習用画像の各々において変動前の学習用画像において定義された正解領域とを組にした1以上の第2教師データを用いてモデルを学習させる、学習方法。
  9. 1回目の学習において、複数の前記第1教師データを用いて前記モデルを学習させ、2回目以降の学習において、複数の前記第1教師データのうちの少なくとも1つの前記第1教師データを前記第2教師データに換えて前記モデルを学習させる、請求項8に記載の学習方法。
  10. 1回目の学習において、複数の前記第1教師データを用いて前記モデルを学習させ、2回目以降の学習において、少なくとも1つの前記第2教師データを追加して前記モデルを学習させる、請求項8に記載の学習方法。
  11. 前記2回目以降の学習において、前記学習の回毎に、使用する前記第2教師データ及び前記第2教師データの数の少なくとも一方をランダムに設定する、請求項9又は10に記載の学習方法。
  12. 前記2回目以降の学習において、使用する前記第2教師データ及び前記第2教師データの数の少なくとも一方を予め設定する、請求項9又は10に記載の学習方法。
  13. 前記2回目以降の学習において、少なくとも1回、複数の前記第1教師データのみを用いて前記モデルを学習させる、請求項9から12の何れか1項に記載の学習方法。
  14. 学習用画像と、前記学習用画像において定義された正解領域とを組にした1以上の第1教師データ、及び、前記学習用画像において、前記正解領域に属する画素の取り得る画素値の制約範囲内で、前記正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の前記変動学習用画像の各々において変動前の学習用画像において定義された正解領域とを組にした1以上の第2教師データとを取得する教師データ取得部と、
    前記教師データ取得部により取得された1以上の前記第1教師データ及び1以上の第2教師データを用いてモデルを学習させる学習部と、
    を含む、学習装置。
  15. 前記学習部は、請求項9から請求項13の何れか1項に記載の学習方法によって前記モデルを学習させる、請求項14に記載の学習装置。
  16. 学習用画像と、前記学習用画像において定義された正解領域とを組にした1以上の第1教師データ、及び、前記学習用画像において、前記正解領域に属する画素の取り得る画素値の制約範囲内で、前記正解領域に属する画素の画素値を変動させて生成した1以上の変動学習用画像と、1以上の前記変動学習用画像の各々において変動前の学習用画像において定義された正解領域とを組にした1以上の第2教師データとを取得する教師データ取得部と、
    前記教師データ取得部により取得された1以上の前記第1教師データ及び1以上の第2教師データを用いてモデルを学習させる学習部として、
    コンピュータを機能させる学習プログラム。
JP2021527754A 2019-06-28 2020-06-26 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム Active JP7307166B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019121325 2019-06-28
JP2019121325 2019-06-28
PCT/JP2020/025121 WO2020262571A1 (ja) 2019-06-28 2020-06-26 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2020262571A1 JPWO2020262571A1 (ja) 2020-12-30
JPWO2020262571A5 JPWO2020262571A5 (ja) 2022-03-16
JP7307166B2 true JP7307166B2 (ja) 2023-07-11

Family

ID=74061763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021527754A Active JP7307166B2 (ja) 2019-06-28 2020-06-26 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム

Country Status (3)

Country Link
US (1) US20220122350A1 (ja)
JP (1) JP7307166B2 (ja)
WO (1) WO2020262571A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337152A (ja) 2005-06-01 2006-12-14 Sharp Corp 教示用画像生成方法および装置、画像処理アルゴリズム生成方法および装置、画像検査方法および装置、プログラムならびに記録媒体
JP2019091308A (ja) 2017-11-15 2019-06-13 大日本印刷株式会社 対象物検出器、画像解析装置、対象物検出方法、画像解析方法、プログラム、及び、学習データ
JP2019088243A (ja) 2017-11-15 2019-06-13 大日本印刷株式会社 画像解析装置
JP2020021228A (ja) 2018-07-31 2020-02-06 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282822A (ja) * 1998-03-26 1999-10-15 Toshiba Corp 画像処理プログラム合成方法及びその装置並びに最適解探索方法及びその装置
WO2006114003A1 (en) * 2005-04-27 2006-11-02 The Governors Of The University Of Alberta A method and system for automatic detection and segmentation of tumors and associated edema (swelling) in magnetic resonance (mri) images
US10262236B2 (en) * 2017-05-02 2019-04-16 General Electric Company Neural network training image generation system
US10140421B1 (en) * 2017-05-25 2018-11-27 Enlitic, Inc. Medical scan annotator system
US11419584B2 (en) * 2017-06-28 2022-08-23 Tokitae, LLC Devices, systems, and methods for diagnosis of pulmonary conditions through detection of b-lines in lung sonography

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337152A (ja) 2005-06-01 2006-12-14 Sharp Corp 教示用画像生成方法および装置、画像処理アルゴリズム生成方法および装置、画像検査方法および装置、プログラムならびに記録媒体
JP2019091308A (ja) 2017-11-15 2019-06-13 大日本印刷株式会社 対象物検出器、画像解析装置、対象物検出方法、画像解析方法、プログラム、及び、学習データ
JP2019088243A (ja) 2017-11-15 2019-06-13 大日本印刷株式会社 画像解析装置
JP2020021228A (ja) 2018-07-31 2020-02-06 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
加藤 立登 外,深層学習を用いた道路標識検出のための3次元都市モデルに基づく学習用画像の生成,FIT2018 第17回情報科学技術フォーラム 講演論文集,2018年09月12日

Also Published As

Publication number Publication date
US20220122350A1 (en) 2022-04-21
WO2020262571A1 (ja) 2020-12-30
JPWO2020262571A1 (ja) 2020-12-30

Similar Documents

Publication Publication Date Title
Antonelli et al. The medical segmentation decathlon
JP2022025095A (ja) 機械学習を用いた医用イメージングの変換のためのシステムおよび方法
EP3685350A1 (en) Image reconstruction using machine learning regularizers
US6978039B2 (en) Method and system for segmentation of medical images
CN108701370A (zh) 基于机器学习的基于内容的医学成像渲染
Khader et al. Medical diffusion: denoising diffusion probabilistic models for 3D medical image generation
US10956635B1 (en) Radiologist-assisted machine learning with interactive, volume subtending 3D cursor
US11238197B1 (en) Generating a 3D dataset containing a simulated surgical device
CN111462020A (zh) 心脏图像的运动伪影校正方法、系统、存储介质和设备
JP2021056995A (ja) 医用情報処理装置、医用情報処理システム及び医用情報処理方法
US11244455B2 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
JP6981940B2 (ja) 画像診断支援装置、方法及びプログラム
JP2019101485A (ja) 情報処理方法、情報処理装置、情報処理システム及びプログラム
US11580673B1 (en) Methods, systems, and computer readable media for mask embedding for realistic high-resolution image synthesis
KR102067412B1 (ko) 치매 평가 방법 및 이를 이용한 장치
JP7339270B2 (ja) 医用画像処理装置、方法およびプログラム
JP7321271B2 (ja) 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム
US20240005498A1 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
KR20190114229A (ko) 영상 처리 장치 및 방법
JP7307166B2 (ja) 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム
US20230089212A1 (en) Image generation device, image generation method, image generation program, learning device, learning method, and learning program
JP2023114463A (ja) 表示装置、方法およびプログラム
JP7334256B2 (ja) 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
JP7170897B2 (ja) 学習装置、方法およびプログラム、画像生成装置、方法およびプログラム、並びに画像生成モデル
JP7098498B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230629

R150 Certificate of patent or registration of utility model

Ref document number: 7307166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150