JP2022111705A - 学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム - Google Patents

学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム Download PDF

Info

Publication number
JP2022111705A
JP2022111705A JP2021007312A JP2021007312A JP2022111705A JP 2022111705 A JP2022111705 A JP 2022111705A JP 2021007312 A JP2021007312 A JP 2021007312A JP 2021007312 A JP2021007312 A JP 2021007312A JP 2022111705 A JP2022111705 A JP 2022111705A
Authority
JP
Japan
Prior art keywords
contour
image
feature points
normalized
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021007312A
Other languages
English (en)
Inventor
格 音丸
Itaru Otomaru
清秀 佐藤
Kiyohide Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Canon Medical Systems Corp
Original Assignee
Canon Inc
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Canon Medical Systems Corp filed Critical Canon Inc
Priority to JP2021007312A priority Critical patent/JP2022111705A/ja
Publication of JP2022111705A publication Critical patent/JP2022111705A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022111705000001
【課題】精度の高い輪郭推定を行うことが可能な技術を提供すること。
【解決手段】対象物を撮像した画像における対象物の輪郭を、所定の特徴点の位置に基づいて学習された学習済モデルを取得する学習装置は、複数の症例の画像における対象物の輪郭の位置と、当該画像における対象物の特徴点の位置とを学習データとして取得する学習データ取得部と、複数の症例の画像における特徴点が同じ位置になるように、画像と輪郭とを正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する正規化部と、正規化空間における特徴点の位置を同じ位置に固定した状態で、正規化画像と正規化輪郭とに変形を付加した変形画像と変形輪郭とを生成する変形部と、変形画像及び変形輪郭に基づいて、学習済モデルを取得するモデル取得部と、を備える。
【選択図】 図1

Description

本発明は、学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラムに関する。
医用の分野では、超音波画像診断装置などの種々の画像診断装置(モダリティ)によって取得される画像を用いた診断が行われている。この診断の中では、画像に写る注目領域の面積、体積などの情報を診断に利用することが行われている。ここで、領域の面積などを算出するためには、画像から当該領域の輪郭形状を表す情報である輪郭情報を推定する必要がある。この輪郭推定の作業を人手で行う場合、医師などの作業者に負担を強いることから、作業者の労力を軽減するために、輪郭推定を行う種々の技術が提案されている。
例えば、特許文献1では、作業者が手動で入力する点(入力点)を用いて輪郭を推定する技術として、心臓領域を撮像した2次元超音波画像を対象にして、入力された入力点を結ぶ初期輪郭に基づいて、輪郭推定を行う技術が開示されている。
特開2015-73798号公報
しかしながら、特許文献1に記載の技術では、輪郭推定の精度は作業者が入力する入力点の精度に依存するため、症例によっては必ずしも適切な形状を推定できない場合が生じ得る。
本発明は、上記課題を解決するため、精度の高い輪郭推定を行うことが可能な技術を提供する。
本発明の一態様による学習装置は以下の構成を備える。すなわち、学習装置は、対象物を撮像した画像における前記対象物の輪郭を、所定の特徴点の位置に基づいて学習された学習済モデルを取得する学習装置であって、
複数の症例の画像における対象物の輪郭の位置と、当該画像における前記対象物の特徴点の位置とを学習データとして取得する学習データ取得部と、
前記複数の症例の画像における前記特徴点が同じ位置になるように、前記画像と前記輪郭とを正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する正規化部と、
前記正規化空間における前記特徴点の位置を同じ位置に固定した状態で、前記正規化画像と前記正規化輪郭とに変形を付加した変形画像と変形輪郭とを生成する変形部と、
前記変形画像及び前記変形輪郭に基づいて、前記学習済モデルを取得するモデル取得部と、を備える。
本発明によれば、精度の高い輪郭推定を行うことが可能になる。
第1乃至第4の実施形態に係る画像処理装置の機能の構成を示す図。 第1乃至第3の実施形態に係る画像処理装置の処理手順の例を示すフローチャート。 第1乃至第3の実施形態に係る学習モデルの取得処理の手順の例を示すフローチャート。 (a)正規化空間への座標変換処理(正規化処理)を説明する図、(b)学習において学習データを水増しする処理を示す図。 輪郭推定処理の流れを示す図。 第4の実施形態に係る画像処理装置の処理手順の例を示すフローチャート。 第4の実施形態に係る学習モデルの取得処理の手順の例を示すフローチャート。 第4の実施形態に係る学習モデルの取得処理の変形例を示すフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
本発明の実施形態に係る医用画像撮像装置は撮像画像を処理する画像処理装置を有しており、画像処理装置は、入力画像および入力画像上でユーザーが入力する特徴点(以下、入力点)から、被検体の輪郭を推定(抽出)する機能を提供する。処理対象となる入力画像は、医用画像、すなわち、医学的な診断、検査、研究などの目的で撮像ないし生成された被検体(人体など)の画像であり、典型的には、モダリティと呼ばれる撮像システムによって取得された画像である。
例えば、超音波診断装置によって得られる超音波画像、X線CT装置によって得られるX線CT画像、MRI装置によって得られるMRI画像などが処理対象になり得る。入力画像は、2次元画像でも3次元画像でもよく、また、1つの時相の画像でも複数の時相の画像でもよい。注目領域(対象物)は、画像の中の一部の領域であり、例えば、解剖学的構造(臓器、血管、骨など)や病変などである。何を注目領域(対象物)に選ぶかは任意に設定することができる。
以下の説明では、2次元超音波画像から対象物として、心臓の右心室の輪郭推定を行う場合の例に挙げて、本発明の実施形態に係る画像処理装置の具体例を詳しく説明する。
<第1の実施形態>
第1の実施形態では、ユーザーによる入力点を輪郭推定で使用する輪郭推定を、本実施形態では半自動輪郭推定という。入力画像上で入力される所定の特徴点(入力点)の座標値で座標変換した正規化空間において、対象物の輪郭推定を半自動推定により行う構成について説明する。本実施形態では、ユーザーの手動により入力された特徴点に基づいて、画像処理装置(またはシステム)が行う注目領域の輪郭推定を半自動推定という。本実施形態で説明する画像処理装置は対象物の輪郭推定を、ユーザーの手動により入力された特徴点(入力点)を用いた半自動推定により行う。
第1の実施形態に係る画像処理装置は、入力画像、および、ユーザーによって入力画像上で入力される所定の特徴点(入力点)の座標から、対象物である右心室の輪郭(輪郭情報)を自動的に推定(抽出)する機能を有している。ここで、対象物の輪郭(輪郭情報)は、輪郭上に配置した所定の数(以下、Npとする)の点群(輪郭点群)の座標によって表現される。
本実施形態の画像処理装置は、統計処理によって学習データから構築した学習済モデル(統計モデル)に基づいて、対象物の輪郭(輪郭情報)を推定する。ここで、学習データは、対象物の輪郭情報の正解が既知な複数の症例の画像(サンプル)によって構成される。また、学習データの各画像には、所定の特徴点の座標が与えられている。学習済モデルの構築は、特徴点が(例えば、心腔の心尖位などを示す特徴点の種別ごとに)所定の同一座標に位置するように、学習データの各画像を座標変換した正規化空間で行われる。そして、入力画像の輪郭推定は、入力点を用いて同様の正規化処理を行ったうえで実行される。
このようにすることで、本実施形態の画像処理装置は、入力点の座標値が正規化空間において固定された状態(所定の同一座標に座標変換された状態)で、学習済モデルの統計的傾向に基づいて右心室の輪郭を推定することができる。なお、本実施形態は、対象物の例として、右心室の輪郭情報を推定する構成について説明するが、対象物は右心室に限られず、左心室、左心房、右心房を含むその他の部位や、それら複数の領域を組み合わせた領域の輪郭を推定する場合にも適用可能である。
以下、図1を用いて本実施形態の画像処理装置10の機能の構成および画像処理装置10により実行される処理を説明する。図1は、本実施形態の画像処理装置10を含む画像処理システム100(医用画像処理ステムともいう)の構成例を示すブロック図である。画像処理システム100は、画像処理装置10およびデータベース22を備える。画像処理装置10は、ネットワーク21を介してデータベース22に通信可能な状態で接続されている。ネットワーク21は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)を含む。
データベース22は、複数の画像や情報を保持し、管理する。データベース22で管理される情報には、画像処理装置10による輪郭推定処理に供される入力画像と、学習済モデルを生成するための学習データが含まれる。ここで、データベース22で管理される情報には、学習データの代わりに、学習データから生成した学習済モデルの情報が含まれても良い。学習済モデルの情報は、データベース22の代わりに、画像処理装置10の内部記憶(ROM32または記憶部34)に記憶されていても良い。画像処理装置10は、ネットワーク21を介してデータベース22で保持されているデータを取得することが可能である。
画像処理装置10は、通信IF(Interface)31(通信部)、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、及び制御部37を備える。
通信IF31(通信部)は、LANカードなどにより構成され、外部装置(例えば、データベース22など)と画像処理装置10との通信を実現する。ROM32は、不揮発性のメモリなどにより構成され、各種プログラムや各種データを記憶する。RAM33は、揮発性のメモリなどにより構成され、実行中のプログラムやデータを一時的に記憶するワークメモリとして用いられる。記憶部34は、HDD(Hard Disk Drive)などにより構成され、各種プログラムや各種データを記憶する。
操作部35は、キーボードやマウス、タッチパネルなどにより構成され、ユーザ(例えば、医師や検査技師)からの指示を各種装置に入力する。
表示部36は、ディスプレイなどにより構成され、各種情報をユーザーに表示する。
制御部37は、CPU(Central Processing Unit)などにより構成され、画像処理装置10における処理を統括制御する。制御部37は、その機能的な構成として、画像取得部41、学習モデル取得部43、輪郭推定部44、及び表示処理部45を備える。制御部37は、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)やFPGA(Field-Programmable Gate Array)などを備えてもよい。
(画像取得部41)
画像取得部41は、処理対象となる入力画像(輪郭情報が未知の画像)をデータベース22から取得する。入力画像は、各種モダリティにより取得された被検体の撮像画像であり、本実施形態の場合は心臓の2次元超音波画像である。画像取得部41は、入力画像をモダリティから直接取得してもよい。この場合、画像処理装置10はモダリティ(撮像システム)のコンソールの中に実装されていてもよい。本実施形態では、入力画像が2次元の超音波画像である例を説明するが、他の種類の画像であってもよい。本実施形態の方法は、2次元以上の画像(複数の2次元画像、2次元の動画像、3次元の静止画像、複数の3次元画像、あるいは、3次元の動画像など)であっても適用可能である。また、モダリティの種類によらず適用可能である。
(位置取得部42)
位置取得部42は、入力画像に対してユーザーが入力する特徴点(特徴点の位置)を入力点として取得する。位置取得部42は、入力画像上においてユーザーが操作部35を介して手動入力する所定の特徴点(入力点)の座標情報(位置情報)を取得する。本実施形態では、所定の特徴点として、右心室の心尖位置、および、三尖弁の左右弁輪位置の中点の2点を用いる。位置取得部42の機能については、ステップS202の説明で後述する。
(学習モデル取得部43)
学習モデル取得部43は、対象物を撮像した画像における対象物の輪郭を学習する処理および学習済モデルを取得する処理の他、画像処理装置における記憶部に予め登録された学習済モデル又は外部に記憶された複数の学習済モデルから所望の学習済モデルを取得(選択)する機能を有する。学習モデル取得部43は、対象物を撮像した画像における対象物の輪郭を、所定の特徴点の位置に基づいて学習された学習済モデルを取得する。具体的には、学習モデル取得部43は、所定の対象物を撮像した画像と、当該画像における対象物の輪郭との関係を学習した学習済モデルであって、対象物の所定の特徴点の位置を合わせた正規化空間で生成された学習済モデルを取得する。
学習モデル取得部43は、学習データをデータベース22から取得し、この学習データに対して統計解析を行う。学習データを構成するサンプルの各々は、複数の学習用症例の画像の画素値情報とその学習用の画像中の対象物の輪郭情報、そして所定の特徴点の座標情報とを含んだ構成のデータが含まれる。具体的には、学習モデル取得部43は、学習データ取得部として機能して、複数の症例の画像と、複数の症例の画像における対象物の輪郭の位置(輪郭線の位置)と、複数の症例の画像における対象物の特徴点の位置とを学習データとして取得する。ここで、学習データにおける特徴点は、位置取得部42によって取得される特徴点と解剖学的に同一の点を表す。すなわち、位置取得部42が右心室の心尖位置と三尖弁の左右弁輪位置の中点の2点を特徴点として取得する場合、学習データを構成するサンプルにおける特徴点も、右心室の心尖位置と三尖弁の左右弁輪位置の中点の2点である。
そして、学習モデル取得部43は、統計解析の結果から、学習済モデル(例えば、サンプル群の統計的な分布を表す部分空間を構成する既定の情報)を取得する。このとき、学習済モデルは、各サンプルにおける特徴点の座標がそれぞれ(特徴点の種別ごとに)同一座標となるように座標変換された正規化空間上で定義される。学習モデル取得部43は、複数の症例の画像における特徴点が同じ位置になるように、学習データの画像と輪郭とを正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する。学習モデル取得部43は、正規化部として機能して、入力点の位置を学習済モデルの特徴点の位置に合わせるように、入力画像を座標変換した正規化画像を取得する。具体的には、学習モデル取得部43は、入力点の位置を学習済モデルの特徴点の位置に合わせるように、入力画像を正規化空間に座標変換した正規化画像を取得する。
このようにすることで、この学習済モデルを用いて輪郭推定を行う際に、位置取得部42で取得される特徴点(入力点)の座標は変化しない(すなわち固定された)状態で、サンプル群の統計的な分布に基づいて輪郭情報を推定できる。
(輪郭推定部44)
輪郭推定部44は、正規化画像と学習済モデルとを用いて、入力画像における対象物の輪郭(輪郭情報)を推定する。ここで、対象物の輪郭(輪郭情報)には、輪郭線や輪郭線を構成する輪郭点の位置情報が含まれる。輪郭推定部44は、学習モデル取得部43で取得した学習済モデルを用いて、画像取得部41で取得した入力画像、および、位置取得部42で取得した入力画像上に設定された特徴点(入力点)の座標から、入力画像中の対象物(例えば、右心室)の輪郭情報を推定する。
輪郭推定部44は、入力点の位置を学習済モデルの特徴点の位置に合わせるように、入力画像を座標変換した正規化画像を取得する。そして、輪郭推定部44は、正規化画像と学習済モデルとを用いて、入力画像における対象物の輪郭を推定する。具体的な処理として、輪郭推定部44は、特徴点(入力点)の座標値の情報を用いて、入力画像を、学習済モデルが生成された正規化空間と同一の正規化空間に座標変換する。そして、正規化空間上で対象物(右心室)の輪郭情報を推定したのち、座標変換の逆変換を適用して、もとの空間における輪郭情報を算出する。なお、本実施形態では、の正規化空間において、入力画像の画素値情報を既知の情報、入力画像中の対象物の輪郭情報を未知の情報として設定し、Back projection for lost pixels(BPLP)法を用いた行列演算によって、入力画像の画素値情報と学習済モデルとから輪郭情報を推定する。BPLPの詳細については後に説明する。
(表示処理部45)
表示処理部45は、輪郭推定部44により算出した結果に基づいて、入力画像および推定した対象物の輪郭情報を容易に視認できるような表示形態で、表示部36の画像表示領域内に表示させる。
上記の画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)がRAM33をワーク領域としてROM32又は記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又は全ての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。例えば、画像処理装置10とは異なる場所にある演算装置がネットワーク21を介して画像処理装置10に通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部37の構成要素の機能が実現されてもよい。
次に、図2のフローチャートを用いて、図1の画像処理装置10の処理手順の例について説明する。
(ステップS201:画像の取得・表示)
ステップS201において、ユーザーが操作部35を介して画像の取得を指示すると、画像取得部41は、ユーザーが指定した入力画像をデータベース22から取得し、RAM33に格納する。このとき、表示処理部45は、入力画像を表示部36の画像表示領域内に表示させる。ここで、入力画像の例を図5(a)に示す。
なお、入力画像の指定方法は、公知のいずれの方法を用いてもよい。例えば、ユーザーが、操作部35を介して、データベース22上の画像を直接指定してもよいし、ユーザーが指定した画像群の中から、画像取得部41は、所定の条件を満たす画像を入力画像として自動選択することも可能である。また、入力画像は、データベース22から取得する以外にも、種々の画像診断装置(モダリティ)によって取得される画像、例えば、超音波画像診断装置が時々刻々と撮像する超音波画像の中から、画像取得部41は入力画像を取得するようにしてもよい。例えば、ユーザーが画像の取得を指示した時点で撮像された最新の画像を入力画像とすることができる。また、画像と対応付けられた心電位等の情報に基づいて、ユーザーが取得を指示した時点以降に撮像される所定の時相(例えば、収縮末期や拡張末期)の画像を自動判別して、当該画像を入力画像としてもよい
(ステップS202:特徴点座標の取得)
ステップS202において、ユーザーが操作部35を介して、表示部36の表示領域内に表示された入力画像上に所定の特徴点の座標情報を入力すると、位置取得部42は、入力画像上においてユーザーにより手動入力された特徴点(入力点)の座標情報(位置情報)を取得し、RAM33に格納する。
図5(a)に特徴点(入力点)の座標情報の例を示す。本実施形態において取得される特徴点とは、心尖位置501と左右弁輪の中点位置503の2点であるとする。なお、心尖位置501と左右弁輪の中点位置503は例示的なものであり、座標情報を取得する2点の特徴点は、心尖と左右弁輪中点の組み合わせ以外であってもよい。例えば、三尖弁の右側の弁輪の位置と左側の弁輪の位置の2点を特徴点として用いてもよい。
また、特徴点は、2点に限られず、心尖位置の1点であってもよいし、心尖位置および左右弁輪それぞれの位置の3点であってもよい。また、心尖位置と左右弁輪の間の輪郭線上の位置を含む4点以上であってもよい。ユーザーからの入力に基づいて、位置取得部42は、後述する入力画像の正規化処理(ステップS204)を行うために必要な特徴点の座標情報を取得することが可能である。
なお、特徴点の座標情報の取得は、多様な方法をとることが可能であり、公知の何れの手法を用いてもよい。例えば、ユーザーが、操作部35として、マウスを用いて入力画像上の特徴点の位置をクリックすることで座標情報を指定してもよいし、トラックボールを用いて座標情報を指定してもよい。このとき、ユーザーは、指定した座標情報が何れの特徴点であるかを同定するための情報(ラベル)を、不図示のUI(ユーザインタフェース)を介して別途指定することも可能である。
あるいは、ユーザーが、操作部35を介して、特徴点の座標位置自体を指定し、位置取得部42が、指定された特徴点の座標位置に基づいて、複数の特徴点が心尖であるか左右弁輪中点であるかという同定を自動的に行ってもよい。例えば、位置取得部42は、超音波プローブの位置に対して近い位置の特徴点(すなわち、特徴点のy座標値が0に近い位置の特徴点)を心尖として座標情報を取得し、超音波プローブの位置に対して遠い位置の特徴点を左右弁輪中点として座標情報を取得することも可能である。あるいは、ユーザーが座標情報を入力する順番を予め固定しておき、位置取得部42は、最初に入力された1点目を心尖位置として座標情報を取得し、次に入力された2点目を左右弁輪中点位置として座標情報を取得するようにもできる。
また、左右弁輪中点位置を、操作部35を介してユーザーに直接指定させる代わりに、目視確認が容易な位置をユーザーに指定させ、指定された位置に基づいて、位置取得部42が左右弁輪中点の座標情報を取得することも可能である。例えば、目視確認が容易な左の弁輪の位置と右の弁輪の位置とを、操作部35を介してユーザーに指定させ、位置取得部42が、ユーザーにより指定された左の弁輪の位置と右の弁輪の位置との中点を計算し、計算した中点の位置を左右弁輪中点位置として取得してもよい。
また、位置取得部42は、テンプレートマッチングや機械学習を用いて、これら特徴点の座標情報を自動検出することも可能である。また、位置取得部42は、自動検出した特徴点の座標情報を、操作部35を介したユーザーの入力により修正することも可能である。
更に、位置取得部42及び表示処理部45は、夫々の特徴点が存在しうる平均的位置に各特徴点を示すマーカを入力画像上に重畳表示させ、ユーザーによりドラッグされたマーカの位置に基づいて、位置取得部42は、平均的位置の各特徴点の座標情報を修正することも可能である。
(ステップS203:学習済モデルの取得)
ステップS203において、学習モデル取得部43は、学習データをデータベース22から取得する。そして、学習モデル取得部43は、データベース22から取得した学習データを用いて学習済モデルを構築する。なお、学習データは、学習済モデルのロバスト性を高めるために、異なる複数の患者を撮像したデータで構成されることが望ましい。ただし、異なる複数の患者を撮像したデータには、同一患者を異なる時期に撮像した画像が含まれていても構わない。
図3は、本実施形態に係る学習済モデルの取得処理の手順の例を示すフローチャートであり、以下、図3のフローチャートを用いて、学習モデル取得部43が行う処理の詳細を説明する。
(ステップS301:学習データの画像と正解輪郭の取得)
ステップS301において、学習モデル取得部43は、学習データである複数の症例(サンプル)の画像と、各サンプルの画像における対象物の輪郭情報の正解(正解輪郭)とを、データベース22から取得する。対象物の輪郭情報には、各画像における対象物の輪郭線の位置(座標)が含まれる。
(ステップS302:学習データの特徴点座標の取得)
ステップS302において、学習モデル取得部43は、ステップS301で取得した学習データの各サンプルの画像に対して設定された、所定の特徴点の座標情報(位置情報)を、データベース22から取得する。すなわち、学習モデル取得部43は、各画像における対象物の特徴点の位置(座標情報(位置情報))をデータベース22から取得する。前述の通り、本実施形態では、特徴点は、心尖と左右弁輪中点の2点であるとする。
なお、上記の説明では、学習データの各サンプルに対して設定されている特徴点が、ステップS202で取得された特徴点(入力点)と解剖学的に同一の特徴点である場合について説明したが、学習データの各サンプルに対して設定されている特徴点は、必ずしも解剖学的に特徴点(入力点)と同一の特徴点でなくてもよい。
学習データの各サンプルに対して設定されている特徴点が解剖学的に特徴点(入力点)と同一でない場合には、学習モデル取得部43は、所定の計算によって特徴点(入力点)と同一の特徴点の座標を算出してもよい。例えば、学習データに対して設定されている特徴点が心尖と左の弁輪と右の弁輪のそれぞれの3点である場合に、学習モデル取得部43は、左の弁輪位置と右の弁輪位置の中点を計算し、計算した位置を左右弁輪中点位置とすることで、心尖と左右弁輪中点という2点の特徴点の座標情報を生成してもよい。
逆に、ステップS202で取得される特徴点(入力点)が心尖と左の弁輪と右の弁輪の合計3点であり、学習データに対して設定されている特徴点が心尖と左右弁輪中点の2点である場合には、例えば、学習モデル取得部43は、左右弁輪中点を始点にしたテンプレートマッチングで左の弁輪と右の弁輪の夫々の位置を算出してもよい。
また、学習データにおける対象物の輪郭情報において、これらの特徴点の座標が含まれている場合には、学習モデル取得部43は、当該輪郭情報から所定の特徴点の座標値を取得してもよい。また、学習データにおける対象物の輪郭情報として、これらの特徴点との相対位置関係が既知な点が含まれている場合には、学習モデル取得部43は、当該輪郭情報から所定の特徴点の座標値を算出してもよい。その他、学習データの各サンプルにおける特徴点座標の取得は、公知の何れの方法を用いて行ってもよい。
(ステップS303:正規化空間への座標変換)
ステップS303において、学習モデル取得部43は、ステップS302において学習データの各サンプルに対してそれぞれ取得した特徴点座標を用いて、学習データの各サンプルの画像の画素値情報と対象物の輪郭情報とに座標変換を施して正規化する。学習モデル取得部43は、学習用症例の画像における特徴点の位置(座標)に基づいて、画像と、画像における輪郭線とを正規化空間に座標変換して、正規化画像と正規化輪郭とを生成する。このとき、学習モデル取得部43は、座標変換後の特徴点の座標が、学習データの全サンプルにおいて(特徴点の種別ごとに)、同じ位置になるように、同一となるような座標変換を実行する。すなわち、学習データの全サンプルは、特徴点座標の座標値で正規化された正規化空間へと座標変換される。
図4(a)を用いて、正規化空間への座標変換処理(正規化処理)を具体的に説明する。座標変換を行わない場合、学習データの夫々のサンプル画像において、対象物が存在する位置やサイズ、傾きはさまざまであるが、座標変換により、学習データの夫々のサンプル画像における対象物(例えば、右心室)の輪郭情報は図4(a)に示すように変換される。
図4(a)では、約500症例の学習データにおける右心室の輪郭情報を、心尖401と左右弁輪中点402の2点が一致するように座標変換(正規化)した結果の例を示している。図4(a)において、輪郭情報は17点の輪郭点群の座標値の集合で表現されており(すなわち、Np=17)、表示上、それら17点を識別できるように色分けされて表示されている。すなわち、特定の色(例えば黒)の点の数は学習データのサンプル数(約500)と一致する。また、この例において輪郭情報を表す輪郭点のうちの1点は、特徴点である心尖401を表している。図4(a)において、「×」印は左右弁輪中点402を示している。このとき、心尖401は、すべてのサンプルにおいて同一座標となるように正規化空間に座標変換されるため、図4(a)では1点として表示されるが、実際にはサンプル数分の点が重なり合っている。
図4(a)において横軸はx方向、縦軸はy方向を表す。つまり、心尖401は座標値(300,100)であり、左右弁輪中点402は座標値(300,400)であり、そして、心尖401と左右弁輪中点402を結んだ軸(長軸)の傾きはy軸と一致するように座標変換されていることが分かる。このように2点の特徴点を使って座標変換する処理は、学習モデル取得部43が位置・角度・そしてスケールを揃える座標変換行列をサンプルごとに算出し、その座標変換行列を当該サンプルの画素値情報と輪郭情報の各座標点に適用することにより実行される。
なお、以下の説明では、座標変換後における学習データにおけるそれぞれの画像は、x方向の画素数がNx、y方向の画素数がNyであるものとする。すなわち、座標変換後における学習データのそれぞれの画像を構成する全画素数はNx×Ny個である。このとき、x方向の画素数Nxとy方向の画素数Nyは、座標変換後における輪郭情報を包含可能なサイズであることが必要とされる。図4(a)に示す例では、座標変換後の輪郭情報は、x方向において画素数450、及び、y方向において画素数550を包含する範囲に分布していることが分かる。この場合、座標変換後における輪郭情報として、x方向の画素数Nxは少なくとも画素数450を包含し、y方向における画素数Nyは少なくとも画素数550を包含することが必要とされる。
本実施形態では、x方向の画素数Nx及びy方向における画素数Nyは、ともに画素数600とするが、x方向の画素数Nx、及びy方向における画素数Nyは必ずしも同じ値である必要はない。
本実施形態では、2点の特徴点を用いて学習データを座標変換(正規化)する場合を例に挙げて説明したが、学習モデル取得部43は、2点以外の数の特徴点を用いて正規化を行うことも可能である。例えば、1点のみ(例えば心尖)を特徴点として用いる場合、学習モデル取得部43は、平行移動によって特徴点位置を揃える座標変換により正規化を行う。また、3点(例えば心尖と左右弁輪それぞれの位置)を特徴点として用いる場合、学習モデル取得部43は、これら3点の位置を揃えるアフィン変換によって正規化を行う。また、4点以上の点を特徴点として用いる場合、学習モデル取得部43は、4点を一致させる非剛体変換によって正規化を行う。この場合の非剛体変換として、学習モデル取得部43は、スプライン変形やFFD(Free form deformation)といった公知の手法を用いることが可能である。
なお、2点の特徴点を用いて学習データを座標変換(正規化)する場合に、学習モデル取得部43は、位置を揃えるために主たる特徴点(例えば心尖)の位置を用い、正規化空間における軸方向を揃えるためのみに他の特徴点(例えば左右弁輪中点)を用いるようにしてもよい。この場合、学習モデル取得部43は、他の特徴点(左右弁輪中点)のスケールを揃えず、主たる特徴点(心尖)と他の特徴点(左右弁輪中点)とを結ぶ軸の傾きを正規化空間における軸方向(例えば、y軸方向)に揃える。
同様に、3点を用いる場合に、学習モデル取得部43は、主たる特徴点(例えば心尖)の位置を揃え、他の特徴点は回転と等倍変換の範囲で極力一致させるような正規化方法を適用することも可能である。その他、学習モデル取得部43は、共通の特徴点の座標を用いて幾何的な正規化を行う方法であれば、公知の何れの正規化方法を用いることも可能である。
(ステップS304:学習データの水増し)
ステップS304において、学習モデル取得部43は、ステップS303で座標変換された正規化空間において、学習データの水増し処理(データオーグメンテーション)を行う。学習モデル取得部43は、変形部として機能して、正規化空間における特徴点の位置を同じ位置に固定した状態で、正規化画像と正規化輪郭とに変形(変動値)を付加した変形画像と変形輪郭とを生成する。そして、学習モデル取得部43は、変形画像及び変形輪郭に基づいて、学習済モデルを取得する。学習モデル取得部43は、学習データに変形画像及び変形輪郭を追加した学習データ(水増しされた学習データ)に基づいて、学習済モデルを取得する。
変形部として機能する学習モデル取得部43は、特徴点の位置を同じ位置に固定した状態で、正規化空間で位置を平行移動させる変動値を付加して変形画像と変形輪郭とを生成する。また、学習モデル取得部43は、正規化空間で回転させる変動値を付加して変形画像と変形輪郭とを生成する。また、学習モデル取得部43は、固定する特徴点の位置に対する相対距離を拡大または縮小させた位置の変動値を付加して変形画像と変形輪郭とを生成する。
図4(b)を用いて本ステップの処理を具体的に説明する。図4(b)は、正規化空間における全学習データの輪郭情報を平均化した平均輪郭形状を表している。なお、図4(b)において、内側のラインが輪郭線である。外側のラインは、輪郭線に対して所定幅を保って描画されたラインであり、これにより心臓壁が表現されている。学習モデル取得部43が水増し処理を行う場合に、輪郭全体を平行移動させたり、回転を与えたりすると、心尖401と左右弁輪中点402の位置が変化してしまう。一方、図4(b)の矢印403で示すように、心尖401と左右弁輪中点402を結ぶ軸を中心にして、平均輪郭形状をx軸方向に拡大または縮小(スケーリング)するような変形であれば、心尖401と左右弁輪中点402の位置は変化しない。このように、学習モデル取得部43は、座標変換で使用した各特徴点の座標値が変化しないように学習データの各サンプルを変形させ、学習データの水増し処理を行う。
具体的には、正規化後の学習データの各サンプル(画像と輪郭情報の組)に対して、学習モデル取得部43は、正規化に用いた2つの特徴点の位置(図4(b)に示す例の場合、心尖401と左右弁輪中点402の位置)を固定した状態で、x軸方向のスケーリング処理を複数の倍率で実施する。例えば、学習モデル取得部43は、複数の倍率(例えば、0.8,0.9,1.1,1.2・・・)で夫々のサンプルに対してスケーリング処理をして、N個の水増しデータを生成し、基になるサンプルのデータとスケーリング処理により得られたN個のデータとを合わせることにより、サンプル数をN+1倍に水増しする。あるいは、学習モデル取得部43は、サンプルごとに乱数で生成した倍率でスケーリング処理を行うことも可能である。水増し処理におけるデータ数の選び方や倍率の設定方法は上記の説明の例に限られず、学習モデル取得部43はそのほかの何れの方法を用いて学習データの水増し処理を実行することが可能である。
また、2つの特徴点の位置を固定した座標変換であれば、学習モデル取得部43は、x軸方向のスケーリング処理以外の座標変換により水増し処理を行うことが可能である。例えば、サンプル(画像と輪郭情報の組)に対して非線形な変形を加えた後に、2つの特徴点位置が正規化空間における所定の座標に戻るように平行移動・回転・スケーリングの処理を施したものを水増しデータとして用いることが可能である。
なお、本実施形態では、2点の特徴点を用いて学習データを正規化する場合の水増し処理を説明したが、学習モデル取得部43は、2点以外の数の特徴点を用いて学習データを正規化する場合も同様に学習データの水増し処理を行うことが可能である。例えば、正規化に1点の特徴点(例えば心尖位置)を用いる場合では、学習モデル取得部43は、1点の特徴点の位置が変化しないように平行移動、回転移動、スケール変換をして水増し処理を行うことが可能である。
また、正規化に3点の特徴点(例えば心尖と左右弁輪それぞれの位置)を用いる場合では、学習モデル取得部43は、それら3点が固定された状態で右心室領域が膨らんだり縮んだりするような変形を算出して水増し処理を行うことが可能である。
また、正規化に用いる特徴点が4点以上の場合では、学習モデル取得部43は、それら4点以上の特徴点を制御点(コントロールポイント)として固定して、変形パラメータの重みをランダムに変動させることで水増し処理を行うことが可能である。
また、学習モデル取得部43は、水増し処理をした輪郭の形状が、統計的にあり得ない形状にならないように制約をかけることが可能である。学習モデル取得部43は、変動値が所定の許容範囲を超える場合に、当該変動値の付加を制限する。学習モデル取得部43は、正規化空間に座標変換した後の学習データの平均値と標準偏差に基づいて許容範囲を設定する。例えば、水増しするパラメータ(心尖位置と左右弁輪中点の2点を用いる場合はx軸方向のスケーリング成分)の平均値と標準偏差値(σ)を、正規化空間に座標変換した後の学習データから算出し、平均±2σの範囲内で水増し処理を行うようにする。このように水増し処理に用いる学習データの範囲を制限することで、統計的にあり得ない形状が水増し処理によって学習データとして使われ、学習済モデルの質(精度)が低下することの可能性を低減することができる。
(ステップS305:学習済モデルの構築)
ステップS305において、学習モデル取得部43は、ステップS304で水増しされた学習データの各サンプルのすべてを統計解析し、学習済モデルを構築する。本ステップの処理はすべて、正規化空間において行われる。
ステップS303で説明した通り、本実施形態で扱う画像は、Nx×Ny個の画素で構成される画像である。本実施形態における画像の画素値情報は、画像のラスタスキャン順に各画素の画素値を並べた列ベクトルとして構成される。すなわち、図4(b)に示す画像の左上を原点(0,0)として、画素(x,y)の場所における画素値をI(x,y)で表すものとして、当該画像の画素値情報aを次の数1式のように定義する。
Figure 2022111705000002
また、本実施形態における輪郭情報は、所定の数(Np)の点群(輪郭点群)の座標で表現されている。これらの各点についても、画像の左上を原点(0,0)として、x軸とy軸の座標値を使って(x,y)で表すものとする。1点目の点をp1とすると、点p1の座標は(x1,y1)である。本実施形態における対象物の輪郭情報とは、対象物の輪郭上に配置された各点のx座標値とy座標値を並べた要素数Np×2の列ベクトルとして構成される。右心室を表す輪郭情報bは次の数2式のように定義される。
Figure 2022111705000003
学習モデル取得部43は、画素値情報aと輪郭情報bを取得したあと、これらの列ベクトルをつなげて、2つの情報(画素値情報a、輪郭情報b)を連結した1つの列ベクトルを生成する。すなわち、学習モデル取得部43は、一つのサンプルについて、画素値情報aに対応する要素と対象物の輪郭情報bに対応する要素とを含む一つの列ベクトルを生成する。すなわち、学習モデル取得部43は、次の数3式のようなデータcを生成する。
Figure 2022111705000004
ここで、画像の画素値情報と、対象物の輪郭情報とでは、分散の大きさが異なるため、学習モデル取得部43は、画像の画素値情報および対象物の輪郭情報のうち、少なくともいずれか一方のデータに対して重みづけを行ってもよい。このとき、学習モデル取得部43は、学習データの画素値情報と輪郭情報の夫々の分散の大きさに応じて、画素値情報および輪郭情報における夫々の分散が同等、あるいは既定のバランスになるように、画素値情報および輪郭情報に対してデータの重みづけしてもよい。あるいは、学習モデル取得部43は、操作部35を介してユーザーが設定する重みを用いて、画素値情報および輪郭情報に対してデータの重みづけを行ってもよい。
学習モデル取得部43は、(水増し後の)学習データに含まれる各サンプル(画像と輪郭情報の組)について、上記の流れで画素値情報と輪郭情報とを連結したデータcを生成する。そして、学習モデル取得部43は、学習データに含まれる全てのサンプルのデータcにより構成されるデータ群に対して統計解析を行い、部分空間を求める。学習モデル取得部43は、統計解析として、例えば、主成分分析(PCA,Principle Component Analysis)などの既知の手法を用いることが可能であり、その他、Kernel PCAやWeighted PCAなどの手法を用いることも可能である。学習モデル取得部43は、所定の対象物を撮像した画像及び対象物の輪郭を入力データとしたPCA(Principle Component Analysis)法に基づいた主成分分析により学習済モデルを取得する。学習モデル取得部43は、主成分分析を行うことで、画素値情報と輪郭情報とを統合したデータcに関する平均ベクトルと固有ベクトル、更に、各固有ベクトルに対応する固有値を計算する。ここで、画素値情報と輪郭情報とを連結したデータcの平均ベクトル(cバー)と固有ベクトルe、各固有ベクトルeに対する係数gを用いることで、以下の数4式により、学習データに関する部分空間に存在する点dを表現できる。
Figure 2022111705000005
ここで、cバーがデータcの平均ベクトルを示し、eがi番目の基底における固有ベクトル、gが固有ベクトルに対応する係数である。また、Lは計算に用いる固有ベクトルの本数を表している。固有ベクトルの本数Lの具体的な値は、固有値から計算できる累積寄与率に基づいて決定することができる。例えば、累積寄与率(例えば、95%)を閾値として予め設定しておき、学習モデル取得部43は、累積寄与率が95%以上となる固有ベクトルの本数を計算し、Lとして設定すればよい。あるいは、学習モデル取得部43は、ユーザーが設定した固有ベクトルの本数をLとして設定してもよい。
学習モデル取得部43は、ステップS305の最後の処理として、上記の統計解析の結果として得られる学習データの部分空間情報を、学習済モデルとしてRAM33に格納する。ここで、部分空間情報とは、部分空間を定義する情報であり、例えば、部分空間を構成する固有ベクトルと平均ベクトルの情報とを含む。
ステップS203で、学習モデル取得部43が実行する上記の学習済モデルの取得処理は、入力画像に対して本装置(画像処理装置10)が実行する輪郭推定とは独立した処理である。そのため、ステップS203の処理を事前に実施し、生成された学習済モデルを記憶装置(例えば、データベース22又は記憶部34)に保存しておいてもよい。この場合、ステップS203において、学習モデル取得部43は、事前に生成された学習済モデルを記憶装置から読み込んで、RAM33に格納する処理を行う。予め学習済モデルを生成しておくことで、入力画像における対象物の輪郭推定処理を行う際の処理時間を短縮することができる。なお、学習済モデルの生成処理は、ステップS203に示した手順によって、画像処理装置10とは異なる他の装置で行ってもよい。
また、本実施形態では、画素値情報として、画像全体の画素値をラスタスキャン順に並べたデータを用いる例を示したが、画素値に関するその他の特徴量(画像のテクスチャに関する特徴量など)を画素値情報として利用してもよい。さらに、学習データの各サンプルにおいて、画像の一部を表す部分画像の画素値を並べたデータを画素値情報として用いてもよく、画像の対象物の輪郭の周辺の画素値のみを並べたデータを画素値情報として用いても構わない。
あるいは、学習データに含まれるサンプルの画像を主成分分析して得られた主成分空間に対し、画像を投影することにより得られる主成分得点を並べたデータ(ベクトル)を、当該画像の画素値情報として用いてもよい。
例えば、学習モデル取得部43は、学習データに含まれるサンプルのそれぞれについて画素値情報aを計算した後、画素値情報aのデータ群について主成分分析を実施する。そして、学習モデル取得部43は、主成分分析により得られる各サンプルの画像の主成分得点のベクトルを当該サンプルの新たな画素値情報a′として、画素値情報aの代わりに用いてもよい。画像を構成する画素数よりも、学習データ中のサンプル数が少ない場合には、画素値情報aの次元数よりも画素値情報a′の次元数の方が小さくなる。そのため、各サンプルの画像の主成分得点のベクトルをサンプルの新たな画素値情報a′として用いることにより、画素値情報と輪郭情報を連結したデータに対する統計解析の計算コストを削減することが可能になる。
また、累積寄与率に対する閾値を設けて、主成分得点の次元数(すなわち、固有ベクトルの本数)を減らすことで、さらに計算コストを削減することが可能である。
他方、対象物の輪郭情報としては、対象物の輪郭を表す点群(輪郭点群)の座標値を用いたが、その他の値を用いてもよい。一例として、対象物を表すレベルセット関数(例えば、対象物の内側を負、外側を正とする輪郭からの符号付距離値)を画像の各画素について算出した結果をラスタスキャン順に並べた情報を輪郭情報として用いてもよい。
あるいは、対象物と、それ以外を区別して表すラベル画像やマスク画像を輪郭情報として用いてもよい。また、上述のように、画素値情報aから画素値情報a′を算出した方法と同様に、学習モデル取得部43は、輪郭情報bのデータ群について主成分分析を実施し、主成分分析により得られる値を新たな輪郭情報b′として、輪郭情報bの代わりに用いてもよい。すなわち、学習データに含まれるサンプルの輪郭情報bのデータ群に対して主成分分析を実施し、各サンプルの画像の主成分得点のベクトルをサンプルの新たな輪郭情報b′として設定することで、画素値情報と輪郭情報を連結したデータに対する統計解析の計算コストのさらなる削減が可能となる。以上の処理により学習済モデルの構築処理が終了し、処理は図2のステップS204に戻される。
(ステップS204:正規化空間への座標変換)
ステップS204において、輪郭推定部44は、入力点の位置を学習済モデルの特徴点の位置に合わせるように、入力画像を正規化空間に座標変換した正規化画像を取得する。すなわち、輪郭推定部44は、ステップS202で位置取得部42により取得された特徴点の情報を用いて、ステップS201で画像取得部41により取得された入力画像を、学習済モデルが生成された正規化空間と同一の空間(すなわち、正規化空間)に座標変換する。そして、輪郭推定部44は、正規化空間における入力画像の画素値情報を算出する。
図5は輪郭推定処理の流れを示す図であり、図5を用いて、本ステップの処理を具体的に説明する。図5(a)は、正規化空間に座標変換する前の状態の入力画像および特徴点(心尖と左右弁輪中点の2点)の関係を示す図である。本ステップにおいて、輪郭推定部44は、入力画像上におけるこれら特徴点の座標値が、学習済モデルが定義されている正規化空間における特徴点の座標と同一となるように、入力画像に対して平行移動、回転移動、スケール変換により座標変換を実行する。
輪郭推定部44は、位置取得部42が取得した特徴点の数が2点の場合に、当該2点の特徴点を平行移動・回転する剛体変換、そして特徴点の間の距離を拡大、または縮小するスケール変換により正規化空間で位置を合わせた正規化画像を取得する。例えば、座標変換後における心尖を示す位置(図5(b)の504)は学習データにおける心尖を示す位置(図4の401)と同一座標(300,100)となる。そして、座標変換後における左右弁輪中点を示す位置(図5(b)の506)は、学習データにおける左右弁輪中点(図4の402)と同一座標(300,400)となる。座標変換の方法は、ステップS303で前述した方法と同一である。そして、輪郭推定部44は、座標変換後の入力画像の画素数がNx×Nyとなるように入力画像をクロップする。
なお、本実施形態では、特徴点が心尖と左右弁輪中点の2点である場合を例に挙げて入力画像の正規化処理について説明したが、特徴点の種類、特徴点の数、そして、それらを用いた正規化方法は、学習済モデルが採用する正規化処理の方法に合わせる必要がある。いずれの場合も、輪郭推定部44による座標変換では、ステップS303と同一の方法を用いて、正規化空間への入力画像の座標変換を実施すればよい。例えば、輪郭推定部44は、位置取得部42が取得した特徴点の数が3点の場合に、アフィン変換を行って、入力画像を正規化空間に変換した正規化画像を取得する。あるいは、位置取得部42が取得した特徴点の数が4点の場合に(4点以上の場合も含む)、輪郭推定部44は、各特徴点の平行移動または回転移動により、取得した特徴点の位置を一致させる非剛体変換を行って、入力画像を正規化空間に変換した正規化画像を取得する。ここで、輪郭推定部44は、非剛体変換として、スプライン変形やFFD(Free form deformation)といった公知の手法を用いることが可能である。
(ステップS205:輪郭線情報の推定)
ステップS205において、輪郭推定部44は、ステップS204で正規化空間に座標変換された入力画像と、ステップS203で取得した学習済モデルから、入力画像中に写る対象物の輪郭情報を推定する。より具体的には、輪郭推定部44は、未知の画像の画素値の情報から該画像に写る物体の姿勢を表す情報を推定する推定処理(例えば、BPLP法)に基づいて画像中に写る対象物(右心室領域)の輪郭情報を推定し、その結果をRAM33に格納する。
推定処理の一例として、BPLP法は、例えば、下記の非特許文献で開示されている技術である。下記の非特許文献では、複数の画像の画素値の情報と、該画像に写る物体の姿勢を表す情報を連結したデータに関する部分空間情報とを利用して、未知の画像の画素値の情報から該画像に写る物体の姿勢を表す情報を推定する技術(BPLP法)が開示されている。換言すると、この技術は、ある欠損が生じているデータについて、欠損のない学習データを統計解析した結果から、欠損部分のデータを補間する技術である
[非特許文献] Toshiyuki Amano, et.Al."An appearance based fast linear pose estimation" MVA 2009 IAPR Conference on Machine Vision Applications.2009 May 20-22.
BPLP法を適用するために、入力データについて、どの部分が既知の情報であり、どの部分が未知の情報(欠損部分)であるかを、推定処理を実行する際に特定しておく必要がある。
本実施形態においては、輪郭推定部44は、正規化空間に座標変換された入力画像の画素値情報を既知の情報として設定し、入力画像における対象物の輪郭を未知の情報として設定したデータに対して、BPLP(Back projection for lost pixels)法に基づいた推定処理により、入力画像における対象物の輪郭を推定する。具体的には、輪郭推定部44は、ステップS204で正規化空間に座標変換された入力画像の画素値情報を既知の情報として設定し、座標変換された入力画像中の対象物の輪郭情報を未知の情報として設定する。すなわち、輪郭推定部44は、上記の非特許文献における、「画像の画素値の情報」を画素値情報aに設定し、「物体の姿勢を表す情報」を輪郭情報bに設定するように情報の設定を置き換えて、輪郭情報を推定する。
輪郭推定部44は、推定処理の結果として、既知の情報である画素値情報aに対応する要素と、未知の情報である対象物の輪郭情報bに対応する要素と、を含んで構成されるベクトルfを、以下の数5式により求める。
Figure 2022111705000006
ここで、数5式の右辺のfハットは、ある欠損が生じている入力データの列ベクトルを表しており、右辺のfハットの列ベクトルは、数3式に示したような画素値情報aと輪郭情報bを連結したデータにおいて、輪郭情報bの部分を0とした下記の数6式に示すようなデータの列ベクトルとなる。
Figure 2022111705000007
数5式におけるEは、ステップS203で取得した学習済モデルにより定義される部分空間を表す行列である。L個の固有ベクトルをe1、e2、・・・、eLとしたときに、例えば、部分空間を表す行列Eは、E=[e1,e2,・・・,eL]で与えられる。
数5式におけるΣは、既知の情報である画素値情報に対応する対角要素を1とし、それ以外の要素を0とした正方行列である。言い換えると、正方行列Σは、単位行列のうち未知の情報である輪郭情報に対応する要素を0にした行列である。本実施形態において、正方行列Σは、一辺がNx×Ny+Np×2(画素値情報aの次元数+輪郭情報bの次元数)の大きさの正方行列であり、輪郭情報bの次元数に対応するNp×2個の対角要素が0であり、それ以外の対角要素が1となる行列である。正方行列Σは以下の数7式で示すような形式で与えられる。
Figure 2022111705000008
なお、本実施形態において、入力画像が任意の場合であっても、未知の情報として設定する部分は変わらない(常に輪郭情報bの部分に対応して「0」になる)。そのため、ステップS203の学習済モデルの取得処理において、学習モデル取得部43が部分空間情報を算出した時点で、輪郭推定部44は、推定処理で求める数5式の一部である以下の数8式の行列Aを事前に計算することが可能である。
Figure 2022111705000009
したがって、前述したステップS203の処理において、輪郭推定部44は、数8式に基づき予め行列Aを算出し、学習モデル取得部43は、その算出結果を学習済モデルとして用いてもよい。この場合、本ステップでは、輪郭推定部44は、以下の数9式を用いてベクトルfを算出すればよい。
Figure 2022111705000010
なお、事前に算出した行列Aを記憶装置(例えば、データベース22又は記憶部34)に保存しておき、ステップS203の処理において、学習モデル取得部43は、学習済モデルとして行列Aの算出結果を記憶装置から読み出す構成にしてもよい。これにより、推定処理のための計算に関わる計算コストを削減することが可能になる。なお、行列Aのうちの一部(例えば、(EΣE)-1の部分)の算出結果を学習済モデルとして記憶装置(例えば、データベース22又は記憶部34)に保存しておき、学習モデル取得部43が学習済モデルの取得処理における残りの演算処理を行ったり、輪郭推定部44が推論処理における残りの演算処理を行うように構成してもよい。
最後に、輪郭推定部44は、推定処理の結果を示すベクトルfから輪郭情報に該当する部分の情報(本実施形態においては、輪郭情報bの次元数に対応するNp×2個の要素)を取得して、RAM33に格納する。
図5(c)は、輪郭線情報の推定結果を模式的に示す図である。前ステップ(ステップS204)の処理によって座標変換された正規化空間の中で、本ステップの処理によって、輪郭線情報507が推定されている。
なお、学習済モデルを生成する際に画素値情報aの代わりに、各サンプルの画像の主成分得点のベクトルをサンプルの新たな画素値情報a′として用いた場合には、数6式の列ベクトルのうち、I(0,0)~I(Nx,Ny)の部分を画素値情報a′の計算方法と同じ方法により計算した値に置き換えればよい。具体的には、画素値情報a′が学習用画像の画素値情報aに関する主成分得点である場合に、輪郭推定部44は、入力画像と、学習データの画素値情報aのみを用いて構築した部分空間の情報とに基づいて、主成分空間に対する投影の処理をして、入力画像の主成分得点を算出すればよい。
また、学習済モデルを生成する際に、輪郭情報bの代わりに、各サンプルの画像の主成分得点のベクトルをサンプルの新たな輪郭情報b′として用いた場合には、輪郭推定部44は、入力画像における輪郭点座標の主成分得点を未知の情報として上記の方法で推定すればよい。この場合、推定結果の輪郭情報は輪郭線上のxy座標にはなっていないので、輪郭推定部44は、推定した主成分空間における値から座標値への変換を行って、RAM33に格納すればよい。
具体的には、輪郭情報b′が学習データの輪郭情報に関する主成分得点である場合に、輪郭推定部44は、主成分得点と、学習データの輪郭情報のみを用いて構築した部分空間情報に基づいて、逆投影の処理をすればよい。
なお、主成分空間における欠損情報を復元する手法であれば、その計算方法は何れの方法を用いてもよく、先に説明したBPLP法に限られず、他の計算方法を対象物の輪郭情報を推定する処理に適用することは可能である。
(ステップS206:元空間への座標変換)
ステップS206において、輪郭推定部44は、ステップS204で実行した正規化空間への座標変換とは逆の変換をステップS205の輪郭推定の結果に適用することで、輪郭推定の結果を元の(入力画像の)空間へと戻す。座標変換前の元空間に戻す座標変換を行うことで、ステップS205において正規化空間で推定された輪郭線情報(図5(c)の507)が、図5(d)に示すように元の空間の輪郭線情報(図5(d)の508)に座標変換される。
(ステップS207:輪郭線推定結果の表示)
ステップS207において、表示処理部45は、入力画像と輪郭推定部44により推定した対象物の輪郭情報とを表示部36の画像表示領域に表示させる。このとき、表示処理部45は、推定した輪郭情報と入力画像を重畳して表示するように表示制御を行うことも可能である。推定した輪郭情報と入力画像との重畳表示を行うことで、入力画像に対して、推定した輪郭情報がどの程度合っているのかをユーザーが容易に視認することができる。本実施形態においては、対象物の輪郭情報は、対象物の輪郭をサンプリングした離散的な点群であるため、表示処理部45は、スプライン補間などの既知の技術を用いて隣接点の間を補間した後に輪郭情報を表示部36に表示してもよい。
対象物の解析や計測を目的とする場合には、ステップS207の処理は必ずしも必要でなく、推定した輪郭情報を記憶装置に保存するだけの構成であってもよい。
なお、本実施形態では、対象物の輪郭情報として、右心室を表す輪郭点群の座標値を用いた例を示したが、右心室に加えて、左心室や左心房、右心房など、2つ以上の複数の対象物を表す輪郭点群の座標値を合わせたものを輪郭情報としてもよい。この場合は、ステップS203において、右心室領域を表す点群の座標値だけではなく、2つ以上の複数の対象物の全ての点群の座標値に関する統計解析を実施することで、ステップS205で2つ以上の複数の対象物の全ての点群の座標値を同時に推定できる。
本実施形態によれば、所定の特徴点の座標を用いて座標変換された正規化空間で統計解析した学習済モデルを用いることで、ユーザーによって手動入力された特徴点は正規化空間で固定された状態で、精度の高い輪郭推定結果をユーザーに提供できるという効果がある。
(変形例)
第1の実施形態では、入力画像や学習データとして扱う画像が、心臓領域を撮像した2次元の超音波画像である例を示したが、本発明は、心臓以外の他の臓器を撮像した画像や、超音波画像以外の画像を用いる場合でも実施可能である。
心臓以外の画像や超音波画像以外の画像に適用する例としては、例えば、股関節領域を撮像した2次元X線画像から、大腿骨の輪郭線を推定する処理が挙げられる。変形性股関節症の患者を撮像した画像の場合、骨盤と大腿骨との間が近接して、閾値処理のような単純な画像処理では境界線を算出できない場合が生じ得る。この場合、大腿骨頭と骨盤の接合開始位置・中間位置・終点位置の3点を手動で入力し、学習済モデルの構築および輪郭推定を行う。このようにすることで、これら入力点の特徴を生かして、大腿骨形状の統計的傾向に基づき、輪郭線を推定することが可能になる。
また、上記の実施形態では、1枚の(単一時相の)2次元画像を用いる場合を例に説明したが、複数枚の(複数時相の)2次元画像を用いる場合にも本実施形態の処理を適用することができる。
例えば、ステップS201では、入力画像として心臓の拡張末期時相の画像と収縮末期時相の画像を取得し、夫々の画像における心腔の輪郭推定を行う処理に上記の実施形態の処理を適用できる。
この場合、学習データの各サンプルにおいても、拡張末期時相の画像とその正解輪郭情報、収縮末期時相の画像とその正解輪郭情報、及び、いずれかの代表時相(例えば拡張末期時相)の画像上における所定の特徴点の座標を用意する。
そして、ステップS202では、位置取得部42は、入力画像のうちの代表時相の画像上における所定の特徴点(入力点)の座標を取得する。そして、ステップS203で、学習済モデルを生成する際に、学習モデル取得部43は、代表時相の画像を上記と同様に特徴点の座標を用いて正規化空間に座標変換するとともに、他の時相の画像も同様に(代表時相の画像の特徴点の座標を用いて)同じ正規化空間に座標変換する。そして、学習モデル取得部43は、両画像の画素値をラスタスキャン順に並べたものを画素値情報a(Nx×Ny×2)、両画像の輪郭点座標を順に並べたものを輪郭情報b(Np×2×2)として、上記と同様の統計解析処理を行って学習済モデルを生成すればよい。
また、ステップS204では、輪郭推定部44は、入力画像の夫々の画像を、ステップS202で得た代表時相の画像の特徴点(入力点)の情報を用いた共通の座標変換で正規化する。また、輪郭推定部44は、ステップS205の処理を、数6式を入力画像が2枚の場合に拡張して実行する。なお、推定に用いる時相数(画像数)は2時相(2枚)に限らず、他の任意の時相数(画像数)であっても同様に拡張できる。また、輪郭推定部44による輪郭の推定は全ての時相で行わなくてもよく、例えば、代表時相の輪郭だけを推定してもよい。この場合、ステップS203では、上記の輪郭情報bとして、代表時相の輪郭点座標だけを用いればよい。また、ステップS205では、輪郭推定部44は、代表時相の輪郭点座標だけを欠損データとして推定すればよい。
上記の実施形態では、2次元画像を用いる場合を例に説明したが、2次元画像よりも次元の大きな画像、例えば、3次元画像を用いる場合にも、上記の実施形態の処理を適用することができる。例えば、経食道3次元プローブを用いて撮像された、3次元の心臓超音波画像(3D-TTE画像)に対しても、上記の実施形態の処理を適用して、同様に心腔の輪郭推定を行うことが可能である。この場合、数1式における画像の画素値情報aを表す列ベクトルのサイズは、Z方向の画素値をNzとするとNx×Ny×Nzとなる。また、輪郭はメッシュ状の輪郭点群で表記し、数2式における輪郭情報を表すベクトルの要素数は、輪郭点の数Np×3の列ベクトルとして構成される。
なお、3D-TTE画像を対象とした輪郭推定を行う場合、上述の方法以外にも、他の方法を用いることも可能である。例えば、3次元画像から切り出された所定の断面を基準断面とし、基準断面上で、第1の実施形態の処理を適用して2次元画像の輪郭推定を行い、その後、2次元画像上の輪郭線を初期輪郭として、3次元画像上の領域の輪郭を算出してもよい。この場合、例えば、初期輪郭から右心室領域の長軸を算出し、長軸を中心軸として180度分回転させることで、3次元画像上での右心室領域の初期輪郭を得る。そして、初期輪郭を、Active-contour modelやsnakesといった公知の手法で変形させることで、最終的な輪郭を得る。この時、基準断面(すなわちユーザーが入力点を入力した断面)上の初期輪郭のみ、初期輪郭から変動させないようにする。このようにすることで、ユーザーが入力した入力点で固定しつつ、3次元領域の輪郭を推定することが可能になる。
これにより、ユーザーの意図を反映した精度の高い輪郭推定を行うことが可能になる。
<第2の実施形態>
第2の実施形態に係る画像処理装置は、第1の実施形態と同様に、画像から所定の対象物の輪郭を推定する装置である。第1の実施形態では統計解析に基づくBPLP法を用いて輪郭推定を行う構成を説明したが、本実施形態では、例えば、CNN(Convolutional Neural Network)法に代表される機械学習を用いて輪郭推定を行う構成を説明する。
本実施形態に係る画像処理装置の装置構成および処理のフローチャートは、第1の実施形態と同様である。ただし、学習済モデルの構築処理(ステップS305)、および、輪郭線の推定処理(ステップS205)が異なる。以下、第1の実施形態との相違点を説明する。
(ステップS305:学習済モデルの構築)
本実施形態では、学習モデル取得部43は、CNN法のベースとして、公知のCNNモデルであるVGG16を用いて学習済モデルを構築する。このVGG16は、計16層から成る畳み込みニューラルネットワーク(CNN法)である。VGG16では入力画像のチャネル数が3と規定されているため、学習モデル取得部43は、3つのチャネルに同一の画像情報を格納する。
また、輪郭推定のタスクに適合させるため、本実施形態では、VGG16に変更を加える。オリジナルのVGG16は1000クラスの画像認識を行うネットワークであり、そのため、全結合層の出力パラメータ数は1000である。これを、推定すべき要素の数、すなわち、第1の実施形態における数2式のように、対象物の輪郭上に配置された各点のx座標値とy座標値を並べた要素数と同じNp×2へと変更する。学習済モデルの構築方法は、公知のCNN法の学習方法と同じ手法を利用することが可能である。このようにすることで、ステップS304で座標変換された正規化空間において、画像情報を入力し、輪郭線の座標情報を出力とするCNN法を用いた機械学習が実施される。学習モデル取得部43は、所定の対象物を撮像した画像(画像情報)を入力し、撮像した画像における対象物の輪郭情報(輪郭線の位置)を出力するCNN法を用いた学習データに基づいて、学習済モデルを取得する。
(ステップS205:輪郭線情報の推定)
輪郭線情報の推定手法において、輪郭推定部44は、公知のCNNの推定方法と同じ手法を利用可能である。輪郭推定部44は、正規化空間に座標変換された入力画像の画素値情報を入力し、入力画像における対象物の輪郭を出力するCNN法による学習に基づいて、入力画像における対象物の輪郭を推定する。すなわち、ステップS204で正規化空間に座標変換された入力画像の画素値情報を入力として、対象物の輪郭線を構成するNp個の点群の座標値を推定する。推定では、ステップS305で学習されたCNN法の重み情報が用いられる。
本実施形態によれば、ユーザーが入力した入力点に従い、CNN法を用いて対象物の輪郭推定を行うことが可能である。これにより、例えば、対象物の輪郭線のバリエーションが多様であり、統計解析に基づく学習済モデルでは表現能力が不足する場合であっても、精度の高い輪郭推定を行うことが可能になる。
なお、本実施形態では、CNNモデルとしてVGG16をベースとする場合を例に挙げて説明したが、CNNモデルはVGG16に限られず、他のモデルを用いることも可能である。例えば、VGG16から、畳み込み結果が画像全体をカバーできる程度に層の数を削減したネットワークを用いてもよいし、新規のモデルを構築し、機械学習をしてもよい。ネットワークのサイズを削減する場合、例えば、超音波診断装置に搭載する場合において、計算リソースに制約がある場合であっても、CNN法による輪郭推定を実施することが可能となる。
<第3の実施形態>
第3の実施形態に係る画像処理装置は、第1および第2の実施形態と同様に、画像から所定の対象物の輪郭を推定する装置である。本実施形態では、学習データ中の各サンプルにおいて、正規化に用いる特徴点の座標に人工的な変動を付与することで、学習データの水増しを行う構成を説明する。本実施形態において、学習モデル取得部43は、正規化部として機能して、特徴点の位置に変動値を付加した新たな特徴点に対して、複数の症例の画像における変動値を付加した新たな特徴点が同じ位置になるように、学習データの画像と輪郭とを正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する。そして、学習モデル取得部43は、正規化画像及び正規化輪郭に基づいて、学習済モデルを取得する。
本実施形態に係る画像処理装置の装置構成および処理のフローチャートは、第1の実施形態と同様である。ただし、学習データの水増し処理(ステップS304)が異なる。以下、第1の実施形態との相違点を説明する。
(ステップS304:学習データの水増し)
ステップS304において、学習モデル取得部43は、ステップS303で座標変換された正規化空間において、学習データの水増し処理(データオーグメンテーション)を行う。
まず、第1に、学習モデル取得部43は、正規化後の学習データの各サンプルに対して、夫々の特徴点の座標値を上下左右に所定量変動させ(変動値(Δx、Δy)を付与して)、変動後の座標値(位置)をそれぞれ記録する。例えば、学習モデル取得部43は、2つの特徴点の夫々にN通りの変動を与えることで、変動前の位置も含めて、(N+1)×2通りの特徴点座標の組を得る。ここで、変動値は、例えば、十分な数のサンプルに対して十分な人数のユーザーに特徴点の座標を手動入力させることで事前に求めた、特徴点の座標のばらつきに基づいて、学習データの水増し処理における変動値を決定することができる。例えば、手動入力された特徴点の座標のばらつきを標準偏差によって事前にモデル化して、このモデルに基づいて変動値を生成すればよい。
また、特徴点の座標のばらつきのモデルは人手によって設定してもよい。この時、特徴点の座標のばらつきは特徴点の種別ごとにモデル化してもよいし、複数の特徴点に共通するモデルを求めてもよい。ユーザーの手動入力による座標の精度が高い場合(高い精度が期待できる場合)には、特徴点の変動値を小さく設定し、ユーザーの手動入力による座標の精度が低い場合(高い精度が期待できない場合)には、特徴点の変動値を大きく設定することができる。
学習モデル取得部43は、変動を許容する特徴点の位置に基づいて異なる変動値を付加する。例えば、心尖は画像上でも特徴的な位置であり高い精度が期待されるため変動値が小さく設定され、左右弁輪中点は画像上で特段の特徴が存在せず高い精度が期待できないため、変動値が大きく設定される。
また、特徴点の座標のばらつきのモデルを、各サンプルにおける特徴点の周辺の画素値の分布に基づいて決定してもよい。すなわち、学習モデル取得部43は、変動を許容する特徴点の周辺の領域における画素値の分散値に基づいて、変動値を設定する。例えば、特徴点の周辺の小領域において、各軸方向における画素値の分散を求め、分散に応じてモデルを設定することができる。例えば、分散が大きければばらつきが小さくなるようなモデルを設定し、分散が小さければばらつきが大きくなるようなモデルを設定することができる。これによると、心尖のように、画像上で線や角のような目立った特徴が存在する特徴点については、ばらつきが小さい(分散が小さい)場合のモデルを適用し、左右弁輪中点のように画像上で特段の特徴が存在しない特徴点については、ばらつきが大きい(分散が大きい)場合のモデルを適用できる。
なお、このモデルは、正規化後の学習データ中のサンプルごとに個別に求めてもよいし、複数のサンプルに基づいて、代表値を求めて共通モデルを用いてもよい。そして、生成する変動値の分布が共通モデルに従うように、変動値(Δx、Δy)を乱数により生成すればよい。
あるいは、夫々の特徴点から輪郭点までの距離に応じて特徴点ごとの変動値の基準値を設定してもよい。すなわち、輪郭点までの距離が遠い特徴点ほど変動値を大きく設定するようにしてもよい。また、変動後の座標を生成する数(N)は、特徴点ごとに異なる値としてもよい。例えば、高い精度が期待できる特徴点の数(N)を小さく設定し、高い精度が期待できない特徴点の数(N)を大きく設定するようにしてもよい。
特徴点の数(N)は、人手で設定してもよいし、上述した画素値の分散に基づいて、ばらつきのモデルに応じた値を算出して設定してもよい。例えば、画素値のばらつきが小さければ特徴点の数(N)が小さくなるような値を算出して設定し、画素値のばらつきが大きければ特徴点の数(N)が大きくなるような値を算出して設定してもよい。
また、変動値は、例えば、学習データにおける、心尖の位置と左右弁輪位置の中点との相対的な位置関係を考慮して決定してもよい。例えば、全ての学習データにおいて、心尖位置に対する左右弁輪位置の中点の上下方向の相対位置が、平均100ピクセルであり、標準偏差σが±5ピクセルの場合、標準偏差値の2倍(すなわち2σ)である±10ピクセルを変動値とすればよい。
心尖位置に対する左右弁輪位置の中点の左右方向の相対位置についても同様にして、変動値を決めればよい。変動値に応じた特徴点の数(N)は任意に設定することが可能であり、ここでは、上下方向に1点ずつ、左右方向に1点ずつ、計4点(すなわちN=4)の変動後の特徴点の座標が得られるものとする。なお、変動後の座標を生成する数(N)や変動値の設定方法は、上記の例に限られず、これ以外の何れの方法を用いることも可能である。
第2に、学習モデル取得部43は、(N+1)×2通りの特徴点座標の組の夫々を新たな特徴点の位置として、ステップS303で行う正規化空間への座標変換と同様の座標変換を、正規化後の学習データの各サンプルに対して改めて施す。これにより、学習モデル取得部43は、新たな特徴点の位置(変動値)が追加された学習データを(N+1)×2倍に水増しする。
なお、正規化後の学習データの各サンプルに対して改めてステップS303の正規化処理を行わず、正規化前の学習データのサンプルに対して、上述した特徴点の変動処理及び正規化処理を施すことにより、同様に学習データの水増しを行うことができる。
ここで、位置を変動させるのは特徴点の座標値のみであり、学習データの画像情報は変動させないものとする。このようにすることで、画像が同一であってもその画像に対して手動入力される特徴点の座標は、複数のユーザー間や各ユーザーの操作内でわずかに変動し得るという状況を、学習データで表現することができる。
また、図4(a)に例示した心尖401のように、輪郭上の点(輪郭点)と特徴点の位置が重なる場合、すなわち、特徴点と輪郭点が同一の点である場合でも、正解の輪郭点の位置は変動させないものとする。このようにすることで、ユーザーが手動入力する心尖の位置と、推定される輪郭点としての心尖の位置が(第1の実施形態では必ず一致していたものが)必ずしも一致しなくなる。これにより、ユーザーが手動入力する心尖の位置に誤差が含まれている場合に、第1の実施形態で生じていた、推定される輪郭点としての心尖の位置がその誤った位置に固定されてしまうことを抑制することができる。
また、本実施形態において、正規化部として機能する学習モデル取得部43は、変動を許容する特徴点に付加する変動値が、統計的にあり得ない値にならないように制約をかけることが可能である。学習モデル取得部43は、変動値が所定の許容範囲を超える場合に、当該変動値の付加を制限する。学習モデル取得部43は、正規化空間に座標変換した後の学習データの平均値と標準偏差に基づいて許容範囲を設定する。例えば、固定する特徴点(心尖位置)に対する変動を許容する特徴点(左右弁輪中点)の相対位置の平均値と標準偏差値(σ)を、正規化空間に座標変換した後の学習データから算出し、平均±2σの範囲内で変動値を付加するようにする。このように変動を許容する特徴点に付加する変動値を制限することで、統計的にあり得ない変動値が使われ、学習済モデルの質(精度)が低下することの可能性を低減することができる。
本実施形態では、夫々の特徴点の位置を変動させる場合を例に挙げて説明したが、学習データの各サンプルにおける特徴点を、正規化空間において、位置を固定する特徴点と位置の変動を許容する特徴点とに分類し、位置の変動を許容する特徴点に対してのみ変動を加えるようにしてもよい。例えば、入力点の精度が高い特徴点は固定する特徴点としてもよい。この場合、例えば、対象物は心臓の心腔であり、心腔の心尖を固定する特徴点としてもよい。また、心腔に係る三尖弁の左右弁輪位置の中点の位置を、変動を許容する特徴点としてもよい。また、特徴点と輪郭点が同一の点である場合、すなわち、輪郭点と位置が重なる特徴点を、固定する特徴点に設定してもよい。また、学習済モデルの生成時に固定する特徴点をユーザーが選択できる構成としてもよい。
また、本実施形態では、特徴点が2点である場合を例に挙げて説明したが、特徴点の数が1点または3点以上である場合についても同様に、本ステップの処理を適用可能である。この場合、ユーザーが入力する入力点の数や、固定特徴点と変動を許容する特徴点に選択に対するニーズに柔軟に対応した学習済モデルの構築を行うことができる。
本実施形態によると、変動を許容する特徴点については、かならずしもユーザーによる入力点の座標値で固定されるわけではなく、学習済モデルを構築する際に付加された変動値を反映して、座標値が変化するようにしてもよい。そのため、入力点の入力において、位置指定を厳密に行わなくても輪郭線情報の推定を行うことができ、ユーザーにとっての利便性を向上させることが可能になる。
一方で、第1の実施形態によれば、ユーザーが入力した特徴点位置が必ず固定されるため、(例えば、入力点に自信があるユーザーにとって)ユーザーの意図に合った輪郭推定の結果が得られるという効果がある。これらはトレードオフの関係にあるため、第1の実施形態による学習済モデルと、本実施形態による学習済モデルの両方を生成し、ユーザーの好みや種々の症例適用に応じて学習済モデルを選択できる構成としてもよい。
なお、本実施形態で説明した学習データの水増しの処理は、第1の実施形態のようにBPLP法を使う場合であっても、第2の実施形態のようにCNN法を用いる場合であっても、本実施形態の処理を適用することが可能である。
<第4の実施形態>
第4の実施形態に係る画像処理装置は、第1乃至第3の実施形態と同様に、画像から所定の対象物の輪郭を推定する装置である。第1乃至第3の実施形態では、輪郭の推定を行う際、ユーザーの手動により入力された入力点の取得を行い、対象物の輪郭推定を、入力点を用いた半自動推定により行う構成を説明した。ここで、対象物の輪郭推定は入力点を用いた処理に限られず、入力点に依存しない全自動輪郭推定と半自動輪郭推定とを、状況に応じて適応的に切り替えて動作させることも可能である。
本実施形態で説明する複数の学習済モデルには、ユーザーによる入力点を輪郭推定で使用しない第1の学習済モデルと、入力点を輪郭推定で使用する第2の学習済モデルと、が含まれ、ユーザーによる入力点を輪郭推定で使用しない輪郭推定を、本実施形態では全自動輪郭推定といい、入力点を輪郭推定で使用する輪郭推定を半自動輪郭推定という。
本実施形態では、全自動輪郭推定と半自動輪郭推定とを、状況に応じて適応的に切り替えて輪郭推定を行う構成について説明する。輪郭推定を行う際、まず、全自動輪郭推定を行い、ユーザーによって半自動輪郭推定が必要であると判断された場合は、入力点の入力を受け付けて半自動輪郭推定を行う例を説明する。半自動輪郭推定が必要であると判断される場合は、以下に説明する図6のステップS608で、特徴点(入力点)の座標情報(特徴点座標)が取得される場合である。
本実施形態に係る画像処理装置の装置構成は、第1乃至第3の実施形態の装置構成(図1)と同様である。ただし、学習モデル取得部43および輪郭推定部44の機能が第1乃至第3の実施形態とは異なっている。
学習モデル取得部43は、学習データをデータベース22から取得し、この学習データに対して統計解析を行うことで学習済モデルを取得する。学習モデル取得部43は、所定の対象物を撮像した画像と、当該画像における対象物の輪郭との関係を学習した複数の学習済モデルを取得する。
第1乃至第3の実施形態では、学習済モデルは、特徴点の座標情報を用いて、各サンプルにおける特徴点の座標がそれぞれ同一座標となるように座標変換された正規化空間上で定義されていた。すなわち、輪郭推定時には画像とともに特徴点(入力点)の座標が入力されることを前提とした、半自動輪郭推定用の学習済モデルのみが取得されていた。
一方、本実施形態に係る学習モデル取得部43は、特徴点の組み合わせ(例えば、対象物における位置や数の組み合わせ)が異なる正規化空間で生成された複数の学習済モデルを取得する。すなわち、本実施形態では、半自動輪郭推定用の学習済モデルだけでなく、特徴点の座標入力を前提としない全自動輪郭推定用の学習済モデルも取得する。このように、本実施形態における学習モデル取得部43は、半自動輪郭推定用の学習済モデルと全自動輪郭推定用の学習済モデルという2種類の学習済モデルを取得する。
輪郭推定部44は、ユーザーが入力する入力点の有無により複数の学習済モデルから選択(学習済モデルの種別を変更)した学習済モデルと、当該学習済モデルの正規化空間に座標変換した正規化画像とを用いて、入力画像における対象物の輪郭を推定する。輪郭推定部44は、入力点が入力されていない場合、ユーザーによる入力点を輪郭推定で使用しない第1の学習済モデルを用いて、入力画像における対象物の輪郭を推定し、入力点が入力されている場合、入力点を輪郭推定で使用する第2の学習済モデルを用いて、入力画像における対象物の輪郭を推定する。
輪郭推定部44は、全自動輪郭推定用の学習済モデルを用いた輪郭推定を行う場合に、全自動輪郭推定用の学習済モデルが生成された正規化空間と同一の正規化空間に入力画像を座標変換した正規化画像を取得する。そして、輪郭推定部44は、選択した学習済モデルと、正規化画像とを用いて、入力画像における対象物の輪郭を推定する。
また、輪郭推定部44は、半自動輪郭推定用の学習済モデルを用いた輪郭推定を行う場合に、入力点(S608で入力される入力点)の組み合わせに対応する学習済モデルを複数の学習済モデル(S602で生成される複数の学習済モデル)から選択し、選択した学習済モデルの正規化空間と同一の正規化空間に入力画像を座標変換した正規化画像を取得する。そして、輪郭推定部44は、選択した学習済モデルと正規化画像とを用いて、入力画像における対象物の輪郭を推定する。
輪郭推定部44は、第1乃至第3の実施形態と同様に、学習モデル取得部43で取得した学習済モデルを用いた行列演算によって、画像取得部41で取得した入力画像中の対象物の輪郭(例えば、輪郭情報として輪郭線の位置)を推定する。第1乃至第3の実施形態では半自動輪郭推定のみを行っていたのに対し、本実施形態では入力点の有無により、全自動輪郭推定と半自動輪郭推定を状況に応じて切り替えて実行する。すなわち、全自動輪郭推定を行うと判定される状況では、輪郭推定部44は、全自動輪郭推定用の学習済モデルを用いて、画像取得部41で取得した入力画像のみを入力として(特徴点の座標は使わずに)、入力画像中の対象物の輪郭を推定する。
一方、半自動輪郭推定を行うと判定される状況では、輪郭推定部44は、半自動輪郭推定用の学習済モデルを用いて、画像取得部41で取得した入力画像と位置取得部42で取得した特徴点の座標を用いて、入力画像における対象物の輪郭を推定する。
次に、図6のフローチャートを用いて、図1の画像処理装置10の処理手順の例について説明する。ここで、図6におけるステップS601、S605、S606は、図2におけるステップS201、S206、S207とそれぞれ同一の処理であるため、説明を省略し、以下、図2の処理との相違点を説明する。
(ステップS602:学習済モデルの取得)
ステップS602において、学習モデル取得部43は、データベース22から取得した学習データから、全自動輪郭推定用の学習済モデルと半自動輪郭推定用の学習済モデルを構築する。図7は第4の実施形態に係る学習済モデルの取得処理の手順の例を示すフローチャートであり、以下、図7のフローチャートを用いて、学習モデル取得部43が行う処理の詳細を説明する。
ここで、図7におけるステップS711及びS721からS724の処理は、図3におけるステップS301からS305の処理とそれぞれ同一である。ただし、特徴点の種類と数が異なる複数の学習済モデルを取得する点が、第1の実施形態とは異なっている。
(S712:正規化空間(全自動輪郭推定用)への座標変換)
ステップS712において、学習モデル取得部43は、次のステップにおける学習済モデルの構築に先立って、学習データの各サンプルの画像の画素値情報等の画像情報を、全自動輪郭推定用の学習済モデルを定義する正規化空間へと座標変換する。このとき、学習モデル取得部43は、学習データの各サンプル画像におけるプローブ位置(例えば、図5(a)の509)の座標値が互いに一致するように座標変換を行う。すなわち、学習モデル取得部43は、学習データの各サンプルの画像を、画像中における所定の位置(例えば、プローブ位置)が所定の座標値になるように平行移動させることにより座標変換を行う。
なお、本実施形態では、プローブ位置という1点の座標情報(位置情報)を用いて、全自動輪郭推定用の正規化空間への座標変換を行う場合を例として説明したが、各サンプルの画像における画素値情報等の画像情報のみから同定可能な位置であれば、プローブの位置に限られず、他の点を用いて正規化空間へ座標変換を行ってもよい。また、座標変換の基準となる点(位置)は1点に限られず、複数の点(位置)を座標変換の基準とすることが可能である。例えば、プローブ位置と中隔中心点という2点を画像情報から同定して座標変換を行ってもよい。この場合、第1の実施形態におけるステップS303と同様に、これら2点が一致するような平行移動、回転移動、スケール変換により座標変換行列が算出され、適用される。また、公知の手法を用いて3点以上の点を自動的に検出し、ステップS303と同様に座標変換を行ってもよい。
(S713:学習データの水増し(全自動輪郭推定用))
ステップS713において、学習モデル取得部43は、ステップS712で座標変換された正規化空間において、学習データの水増し処理(データオーグメンテーション)を行う。学習モデル取得部43は、各サンプルの画像に対する水増し処理を、公知の一般的な手法を適用することで行うことが可能である。例えば、学習モデル取得部43は、平行移動や回転、拡大または縮小などの複数通りの操作を各サンプル画像の画素値情報に対して実行する。なお、学習モデル取得部43は、輝度コントラストの変換など、画素値に対して変更を加える水増しを行うことも可能である。
(S714:学習済モデル(全自動輪郭推定用)の構築)
ステップS714において、学習モデル取得部43は、ステップS711で取得され、ステップS712で座標変換された学習データと、ステップS713で水増しされた学習データの全てを統計解析して、全自動輪郭推定用の学習済モデルを構築する。
本ステップの処理で生成される正規化空間は、心尖や左右弁輪位置中点といった特徴点座標が一致するように座標変換された正規化空間ではなく、各サンプルの画像における位置(例えば、プローブ位置)が一致するように、平行移動、回転移動、スケール変換等により座標変換された正規化空間である。
本ステップにおける処理は、上記のように正規化空間の生成処理において第1の実施形態と相違するが、本ステップにおけるその他の処理は第1の実施形態におけるステップS305の処理と同一である。以上の処理により全自動抽出用の学習済モデルの構築処理が終了する。
次のステップS721~S724の処理は、半自動推定用の学習済モデルを構築するための処理であり、図3のステップS302~S305と同様の処理である。ただし、ステップS721~S724の処理は、入力点に対応した学習済モデルの限られない点で第1の実施形態の処理を相違しており、学習モデル取得部43は、ステップS721~S724の処理を実行して、特徴点の種類と数が異なる複数の学習済モデルを取得する。以上の処理により半自動抽出用の学習済モデルの構築処理が終了し、処理は図6のステップS603に戻される。
(ステップS603:正規化空間への座標変換)
ステップS603において、輪郭推定部44は、選択部として機能して、ユーザーが入力する入力点の有無により複数の学習済モデル(S602)から学習済モデルを選択する。また、輪郭推定部44は、正規化部として機能して、ステップS601で取得された入力画像を、選択した学習済モデルが生成された正規化空間と同一の正規化空間に座標変換した正規化画像を取得する。そして、輪郭推定部44は、正規化空間における入力画像の画素値情報を算出する。
全自動輪郭推定用の学習済モデルを用いた輪郭推定では、入力点を用いた座標変換を正規化空間で行うことができないため、ステップS712と同一の処理を用いて、正規化空間への座標変換を行う。すなわち、ステップS712において、各サンプルの画像における既知の位置(例えば、プローブ位置)が一致するように座標変換を行った場合、同様にプローブ位置を用いる。輪郭推定部44は、選択された学習済モデルと、正規化画像とを用いて、入力画像における対象物の輪郭を推定する。
一方、半自動輪郭推定用の学習済モデルを用いた輪郭推定では、入力点を用いた座標変換を正規化空間で行うことが可能である。輪郭推定部44は、入力点が入力されている場合に、入力点の位置を学習済モデル(半自動輪郭推定用の学習済モデル)の特徴点の位置に合わせるように、入力画像を正規化空間に座標変換した正規化画像を取得する。ここで、半自動輪郭推定用の学習済モデルを用いた輪郭推定は、第1乃至第3の実施形態で説明した処理と同様のものとなる。
輪郭推定部44は、本ステップの処理を、特徴点座標取得の有無によって変更する。図6のステップS608で、特徴点(入力点)の座標情報(特徴点座標)が取得されていないとき、ステップS601、S602、S603という順番で本ステップの処理が実行される場合に、輪郭推定部44は、入力画像を、全自動輪郭推定用の学習済モデルが生成された正規化空間と同一の正規化空間に座標変換する。この場合の座標変換処理は、図7のステップS712の処理と同一である。
一方、ステップS608で、特徴点(入力点)の座標情報(特徴点座標)が取得されているとき、すなわち、ステップS608を経て本ステップの処理が実行される場合に、輪郭推定部44は、入力画像を、半自動輪郭推定用の学習済モデルが生成された正規化空間と同一の正規化空間へ座標変換する。この場合の座標変換処理は、ステップS722(図3のS303)の処理と同一である。
上記のように、輪郭推定部44がステップS712あるいはS722(図3のS303)の処理によって入力画像を座標変換した後、輪郭推定部44は、ステップS204と同様に座標変換後の入力画像の画素数がNx×Nyとなるように入力画像をクロップする。
(ステップS604:輪郭線情報の推定)
ステップS604において、輪郭推定部44は、ステップS603で座標変換された入力画像と、ステップS602で取得した学習済モデルから、入力画像中に写る対象物の輪郭情報を推定する。より具体的には、輪郭推定部44は、BPLP法に基づいて画像中に写る対象物(右心室領域)の輪郭情報を推定し、その結果をRAM33に格納する。
輪郭推定部44は、図6のステップS608で特徴点(入力点)の座標情報(特徴点座標)が取得されているか否かにより、輪郭情報推定に使用する学習済モデルを選択(変更)する。すなわち、図6のステップS608で、特徴点(入力点)の座標情報(特徴点座標)が取得されていない場合、輪郭推定部44は、輪郭情報推定において全自動輪郭推定用の学習済モデル(S714)を選択する。一方、ステップS608で、特徴点(入力点)の座標情報(特徴点座標)が取得されている(ステップS608を経由している)場合、輪郭推定部44は、輪郭情報推定において半自動輪郭推定用の学習済モデル(S724)を選択する。
この際、半自動輪郭推定用の学習済モデルは、ステップS608で取得されている特徴点の組み合わせ(種類と数)に応じたものが使用される。例えば、特徴点として心尖位置が入力(取得)されている場合、使用する学習済モデルは心尖位置の1点で正規化された学習済モデルである。なお、このように学習済モデルが切り替わること以外は、本ステップの処理は、第1の実施形態におけるステップS205の処理と同一である。
(ステップS607:輪郭線推定を終了するか否かの指示取得)
ステップS607において、表示処理部45は、ユーザーによる輪郭線推定を終了するか否かの指示を取得するための確認画面を、表示部36の画像表示領域に表示させる。例えば、表示処理部45は、ユーザーからの指示を入力するための指示入力部として、「終了する」「終了しない」という2つのボタンを有するダイアログボックスを表示部36に表示させる。この他、ユーザーによる指示を取得するための構成は、所定のキーボード入力を受け付けるなど、任意の方法を用いることが可能である。輪郭線の推定処理を「終了する」という指示が入力された場合(S607-Yes)、本実施形態の画像処理装置10による輪郭線の推定処理は終了する。一方、ステップS607の判定処理で、輪郭線の推定処理を「終了しない」という指示が入力された場合(S607-No)、処理はステップS608へと進められる。
(ステップS608:特徴点座標の取得)
ステップS608において、位置取得部42は、ユーザーによる特徴点(入力点)の座標情報の入力を受け付ける。位置取得部42は、所定の特徴点の座標情報を取得し、RAM33に格納する。
ステップS608では、表示処理部45は、ステップS606で推定された推定の結果を入力画像に重畳した重畳画像を表示部36に表示させる。そして、位置取得部42は、重畳画像に対してユーザーが入力した特徴点の位置を入力点として取得する。
ユーザーが入力する特徴点は、ステップS602の処理によって、どの半自動輪郭推定用の学習済モデルが取得されているかによって決まる。例えば、未だ特徴点が入力されていない場合、すなわち、初めて本ステップ(S608)が実行される場合は、本ステップで入力される特徴点は「1点目」の特徴となる。そして、半自動輪郭推定用の学習済モデルのうち、特徴点の数が1点の場合の学習済モデルが、心尖位置で正規化されている場合、この学習済モデルが選択され、ユーザーが入力する「所定の特徴点」は、心尖位置として決まる。
次に、特徴点が既に1点、心尖位置に入力された状態で、本ステップ(S608)が実行される場合、本ステップで入力される特徴点は「2点目」の特徴となる。そして、半自動輪郭推定用の学習済モデルのうち、特徴点の数が2点の場合の学習済モデルが、心尖位置と左右弁輪位置中点の2点で正規化されている場合、この学習済モデルが選択され、ユーザーが入力する2点目の「所定の特徴点」は、左右弁輪位置中点として決まる。
このように、本ステップ(S608)が実行されるたびに1点ずつ特徴点が追加され、以降のステップでは、入力されている1点以上の特徴点に対応する半自動輪郭推定用の学習済モデルが選択され、選択された半自動輪郭推定用の学習済モデルに基づいて、半自動輪郭推定が実行される。
なお、図6のステップS608において、特徴点の入力は1点ずつに追加してもよいし、複数の特徴点をまとめて追加してもよい。この場合、選択される半自動輪郭推定用の学習済モデルは、入力された特徴点の数に対応したものとなる。例えば、複数の特徴点(N点)が入力された場合、N点に対応する半自動輪郭推定用の学習済モデルが選択され、選択された学習済モデルに基づいて、半自動輪郭推定が実行される。
なお、入力される特徴点の数に対応する半自動輪郭推定用の学習済モデルがステップS602の処理で取得されていない場合、輪郭推定部44は、学習済モデルを用いた輪郭推定を行わず、入力される特徴点を補間した曲線を輪郭として出力する。例えば、ステップS602の処理で、3種類の半自動輪郭推定用の学習済モデルが、3種類の特徴点(1点、2点、3点)に対応して取得されているときに、特徴点N=4点目の特徴点が入力された場合、輪郭推定部44は、これら4点をスプライン補間で滑らかに補間した曲線を輪郭として出力する。
なお、本実施形態では、まず全自動輪郭推定を行い、ユーザーが必要であると判断した場合に半自動輪郭推定を行う場合を例に挙げて説明したが、例えば、ステップS601において入力される入力画像の画質の評価結果に基づいて、全自動輪郭推定をスキップする処理を行うことも可能である。
この場合、画像取得部41は、入力画像を取得し、入力画像の画質を評価する。そして、輪郭推定部44は、選択部として機能して、画質の評価結果に基づいて複数の学習済モデルから学習済モデルを選択する。また、輪郭推定部44は、ステップS601で取得された入力画像を、選択した学習済モデルが生成された正規化空間と同一の正規化空間に座標変換した正規化画像を取得する。そして、輪郭推定部44は、選択された学習済モデルと、正規化画像とを用いて、入力画像における対象物の輪郭を推定する。
輪郭推定部44は、入力画像の画質が閾値を満たさないと評価された場合に、入力点を輪郭推定で使用しない第1の学習済モデルを用いず、入力点を輪郭推定で使用する第2の学習済モデルを用いて、入力画像における対象物の輪郭を推定する。
表示処理部45は、画像取得部41(評価部)により入力画像の画質が閾値を満たさないと評価された場合に、特徴点の入力を促すユーザインタフェースを表示部36に表示させ、位置取得部42は、ユーザインタフェースから入力された特徴点の位置を入力点として取得する。輪郭推定部44は入力された所定の特徴点の座標を用いて、第2の学習済モデルを用いた半自動輪郭推定を行う。
画質の評価の例として、画像取得部41(評価部)は、ステップS601で入力画像を取得した後、入力画像にフーリエ変換を適用して周波数領域に変換し、高周波成分が一定以上である場合に、入力画像の画質はノイズの閾値を満たさないと評価する。あるいは、画像取得部41(評価部)は、入力画像のコントラストを算出し、コントラストが一定のコントラストの閾値以下である場合、入力画像の画質はコントラストの閾値を満たさないと評価する。入力画像の画質が閾値(例えば、ノイズの閾値、またはコントラストの閾値)を満たさないと評価された場合に、全自動輪郭推定をスキップして、輪郭推定部44は半自動輪郭推定を行う。
(変形例)
図6及び図7の処理では、複数の学習済モデルをステップS602で取得しておき、ステップS608で取得された特徴点に対応する半自動輪郭推定用の学習済モデルを選択して、半自動輪郭推定を行う処理を説明した。
なお、学習済モデルの取得処理は、この例に限られず、例えば、図8に示すように、特徴点(入力点)の有無により、全自動推定用の学習済モデルの構築処理(S711~S714)と、半動推定用の学習済モデルの構築処理(S721~S724)とに分けることも可能である。
図8は第4の実施形態に係る学習済モデルの取得処理の変形例を示すフローチャートである。本フローチャートでは、ステップS608(図6)に対応する処理が学習済モデルの取得処理の前に実行される。すなわち、学習モデル取得部43が、複数の学習済モデルを生成する前に、ステップS800において特徴点の有無が判定される。
例えば、特徴点(入力点)が入力されておらず、特徴点(入力点)の座標情報が取得されていない場合(S800-No)、学習モデル取得部43は、処理をS711に進め、全自動輪郭推定用の学習済モデルの構築処理(S711~S714)を実行する。
一方、ステップS800の判定で、特徴点(入力点)が入力されており、特徴点(入力点)の座標情報が取得されている場合(S800-Yes)、学習モデル取得部43は、処理をS721に進め、取得された特徴点の組み合わせ(対象物における位置や数の組み合わせ)に対応した半自動輪郭推定用の学習済モデルの構築処理(S721~S724)を実行する。
本実施形態によれば、まず、全自動の輪郭推定結果を表示し、特徴点座標のインタラクティブな入力に応じて学習済モデルを切り替えて、入力された特徴点に基づく半自動輪郭推定を行うことが可能になる。そのため、ユーザーの意図を反映した精度の高い輪郭推定を行うことが可能になる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
10 画像処理装置
21 ネットワーク
22 データベース
31 通信IF
32 ROM
33 RAM
34 記憶部
35 操作部
36 表示部
37 制御部
41 画像取得部
42 位置取得部
43 学習モデル取得部
44 輪郭推定部
45 表示処理部

Claims (16)

  1. 対象物を撮像した画像における前記対象物の輪郭を、所定の特徴点の位置に基づいて学習された学習済モデルを取得する学習装置であって、
    複数の症例の画像における対象物の輪郭の位置と、当該画像における前記対象物の特徴点の位置とを学習データとして取得する学習データ取得部と、
    前記複数の症例の画像における前記特徴点が同じ位置になるように、前記画像と前記輪郭とを正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する正規化部と、
    前記正規化空間における前記特徴点の位置を同じ位置に固定した状態で、前記正規化画像と前記正規化輪郭とに変形を付加した変形画像と変形輪郭とを生成する変形部と、
    前記変形画像及び前記変形輪郭に基づいて、前記学習済モデルを取得するモデル取得部と、
    を備えることを特徴とする学習装置。
  2. 前記変形部は、前記正規化空間で位置を平行移動させる変動値を付加して前記変形画像と前記変形輪郭とを生成することを特徴とする請求項1に記載の学習装置。
  3. 前記変形部は、前記正規化空間で回転させる変動値を付加して前記変形画像と前記変形輪郭とを生成することを特徴とする請求項1または2に記載の学習装置。
  4. 前記変形部は、前記固定する特徴点の位置に対する相対距離を拡大または縮小させた位置の変動値を付加して前記変形画像と前記変形輪郭とを生成することを特徴とする請求項1乃至3のいずれか1項に記載の学習装置。
  5. 前記変形部は、前記変動値が所定の許容範囲を超える場合に、当該変動値の付加を制限することを特徴とする請求項2乃至4のいずれか1項に記載の学習装置。
  6. 前記変形部は、前記正規化空間に座標変換した後の前記学習データの平均値と標準偏差に基づいて前記許容範囲を設定することを特徴とする請求項5に記載の学習装置。
  7. 対象物を撮像した画像における前記対象物の輪郭を、所定の特徴点の位置に基づいて学習された学習済モデルを取得する学習装置であって、
    複数の症例の画像における対象物の輪郭の位置と、当該画像における前記対象物の特徴点の位置とを学習データとして取得する学習データ取得部と、
    前記特徴点の位置に変動値を付加した新たな特徴点に対して、前記複数の症例の画像における前記変動値を付加した新たな特徴点が同じ位置になるように、前記画像と前記輪郭とを正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する正規化部と、
    前記正規化画像及び前記正規化輪郭に基づいて、前記学習済モデルを取得するモデル取得部と、
    を備えることを特徴とする学習装置。
  8. 前記正規化部は、前記正規化空間における前記特徴点を、前記位置を固定する特徴点と、前記変動値の付加により位置の変動を許容する特徴点とに分類することを特徴とする請求項7に記載の学習装置。
  9. 前記正規化部は、前記変動を許容する特徴点の位置に基づいて異なる変動値を付加することを特徴とする請求項8に記載の学習装置。
  10. 前記正規化部は、前記変動を許容する特徴点の周辺の領域における画素値の分散値に基づいて、前記変動値を設定することを特徴とする請求項8に記載の学習装置。
  11. 前記対象物は心臓の心腔であり、前記固定する特徴点は当該心腔の心尖位置であることを特徴とする請求項8乃至10のいずれか1項に記載の学習装置。
  12. 前記対象物は心臓の心腔であり、前記変動を許容する特徴点は当該心腔に係る三尖弁の左右弁輪位置の中点の位置であることを特徴とする請求項8乃至11のいずれか1項に記載の学習装置。
  13. 請求項1乃至12のいずれか1項に記載の学習装置と、
    入力画像を取得する画像取得部と、
    前記入力画像に対してユーザーが入力した入力点の位置を取得する位置取得部と、
    前記入力点の位置を前記学習装置で取得された学習済モデルにおける所定の特徴点の位置に合わせるように、前記入力画像を座標変換した正規化画像を取得する正規化部と、
    前記正規化画像と前記学習済モデルとを用いて、前記入力画像における前記対象物の輪郭を推定する推定部と、
    を備えることを特徴とする画像処理装置。
  14. 撮像した画像を処理する画像処理装置を有する医用画像撮像装置であって、
    前記画像処理装置は、
    請求項1乃至12のいずれか1項に記載の学習装置と、
    入力画像を取得する画像取得部と、
    前記入力画像に対してユーザーが入力した入力点の位置を取得する位置取得部と、
    前記入力点の位置を前記学習装置で取得された学習済モデルにおける所定の特徴点の位置に合わせるように、前記入力画像を座標変換した正規化画像を取得する正規化部と、
    前記正規化画像と前記学習済モデルとを用いて、前記入力画像における前記対象物の輪郭を推定する推定部と、
    を備えることを特徴とする医用画像撮像装置。
  15. 所定の対象物を撮像した画像における前記対象物の輪郭を、所定の特徴点の位置に基づいて学習された学習済モデルを取得する学習装置の学習方法であって、
    複数の症例の画像における対象物の輪郭の位置と、当該画像における前記対象物の特徴点の位置とを学習データとして取得する学習データ取得工程と、
    前記複数の症例の画像における前記特徴点が同じ位置になるように、前記画像と、前記輪郭の位置との夫々を正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する正規化工程と、
    前記正規化空間における前記特徴点の位置を固定した状態で、前記正規化画像と前記正規化輪郭とに変形を付加した変形画像と変形輪郭とを生成する変形工程と、
    前記変形画像及び前記変形輪郭に基づいて、前記学習済モデルを取得するモデル取得工程と、
    を有することを特徴とする学習方法。
  16. コンピュータを、請求項1乃至12のいずれか1項に記載の学習装置の各部として機能させるプログラム。
JP2021007312A 2021-01-20 2021-01-20 学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム Pending JP2022111705A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021007312A JP2022111705A (ja) 2021-01-20 2021-01-20 学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021007312A JP2022111705A (ja) 2021-01-20 2021-01-20 学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2022111705A true JP2022111705A (ja) 2022-08-01

Family

ID=82655926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021007312A Pending JP2022111705A (ja) 2021-01-20 2021-01-20 学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2022111705A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024047774A1 (ja) * 2022-08-30 2024-03-07 楽天モバイル株式会社 通信システムに係る所与の予測目的で用いられる機械学習モデルの決定
WO2024069727A1 (en) * 2022-09-27 2024-04-04 Nec Corporation Training apparatus, training method, and non-transitory computer-readable storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024047774A1 (ja) * 2022-08-30 2024-03-07 楽天モバイル株式会社 通信システムに係る所与の予測目的で用いられる機械学習モデルの決定
WO2024069727A1 (en) * 2022-09-27 2024-04-04 Nec Corporation Training apparatus, training method, and non-transitory computer-readable storage medium

Similar Documents

Publication Publication Date Title
CN107909622B (zh) 模型生成方法、医学成像的扫描规划方法及医学成像系统
JP6346445B2 (ja) 処理装置、処理装置の制御方法、およびプログラム
EP3100236B1 (en) Method and system for constructing personalized avatars using a parameterized deformable mesh
JP5335280B2 (ja) 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
JP2010527647A (ja) 半自動式輪郭検出方法
CN108198235B (zh) 一种三维超声重建方法、装置、设备及存储介质
JP6905323B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2022111705A (ja) 学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム
JP2022111704A (ja) 画像処理装置、医用画像撮像装置、画像処理方法、およびプログラム
JP6383153B2 (ja) 処理装置、処理方法、およびプログラム
JP6934734B2 (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
US11138736B2 (en) Information processing apparatus and information processing method
JP6643416B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2017148438A (ja) 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
JP7551419B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6253992B2 (ja) 臓器位置推定装置、臓器位置推定装置の制御方法および臓器位置推定装置の制御プログラム
JP7419037B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7356330B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022111706A (ja) 画像処理装置および画像処理方法、医用撮像装置、プログラム
JP5706933B2 (ja) 処理装置および処理方法、プログラム
US20240338941A1 (en) Image processing apparatus, and image processing method
JP6660428B2 (ja) 処理装置、処理方法、およびプログラム
JP7165541B2 (ja) ボリュームデータ処理装置、方法及びプログラム
JP2013505779A (ja) 運動情報を用いて医用画像の質を改善するコンピュータ可読媒体、システム、および方法
JP2024070359A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241015