JP2020114302A - 超音波診断装置、画像処理装置、画像処理プログラム、学習済モデル生成装置、及び、学習プログラム - Google Patents

超音波診断装置、画像処理装置、画像処理プログラム、学習済モデル生成装置、及び、学習プログラム Download PDF

Info

Publication number
JP2020114302A
JP2020114302A JP2019006523A JP2019006523A JP2020114302A JP 2020114302 A JP2020114302 A JP 2020114302A JP 2019006523 A JP2019006523 A JP 2019006523A JP 2019006523 A JP2019006523 A JP 2019006523A JP 2020114302 A JP2020114302 A JP 2020114302A
Authority
JP
Japan
Prior art keywords
image data
image
ultrasonic
unit
coordinate conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019006523A
Other languages
English (en)
Other versions
JP7258568B2 (ja
Inventor
良太 大住
Ryota Osumi
良太 大住
武史 佐藤
Takeshi Sato
武史 佐藤
奥村 貴敏
Takatoshi Okumura
貴敏 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019006523A priority Critical patent/JP7258568B2/ja
Priority to US16/732,386 priority patent/US11216964B2/en
Publication of JP2020114302A publication Critical patent/JP2020114302A/ja
Application granted granted Critical
Publication of JP7258568B2 publication Critical patent/JP7258568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】対象物を含む領域を推定する処理の精度を向上させること。【解決手段】実施形態に係る超音波診断装置は、取得部と、記憶部と、推定部と、を備える。前記取得部は、対象物に対する超音波スキャンの実施により収集された画像データであり、前記超音波スキャンの形状に応じた座標変換が行われる前の画像データである第1画像データを取得する。前記記憶部は、前記超音波スキャンを過去に実施したときの前記第1画像データと当該第1画像データにおける前記対象物を含む領域とを用いた学習により生成された学習済モデルを記憶する。前記推定部は、前記学習済モデルを用いて、前記取得部により取得された前記第1画像データにおける前記領域を推定する。【選択図】図1

Description

本発明の実施形態は、超音波診断装置、画像処理装置、画像処理プログラム、学習済モデル生成装置、及び、学習プログラムに関する。
例えば、過去に生成したボリュームデータと当該ボリュームデータにおける対象物(例えば、妊婦の子宮内の胎児)を含む領域とを用いた学習により、今回生成したボリュームデータにおける対象物(胎児)を含む領域を推定する方法が知られている。しかし、座標変換(スキャンコンバート)が行われる前の超音波画像データは、原理上、スキャン方向によって、画素数と分解能が異なる。したがって、座標変換後の超音波画像データでは、方向によって分解能が異なることになり、かかる分解能の差異が、学習及び推定の処理の精度に影響を与える場合がある。
特許第6125256号 特開2017−221269号公報
本発明が解決しようとする課題は、対象物を含む領域を推定する処理の精度を向上させることである。
実施形態に係る超音波診断装置は、取得部と、記憶部と、推定部と、を備える。前記取得部は、対象物に対する超音波スキャンの実施により収集された画像データであり、前記超音波スキャンの形状に応じた座標変換が行われる前の画像データである第1画像データを取得する。前記記憶部は、前記超音波スキャンを過去に実施したときの前記第1画像データと当該第1画像データにおける前記対象物を含む領域とを用いた学習により生成された学習済モデルを記憶する。前記推定部は、前記学習済モデルを用いて、前記取得部により取得された前記第1画像データにおける前記領域を推定する。
図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。 図2は、座標変換前の超音波画像データと座標変換後の超音波画像データとの関係を示す図である。 図3は、第1の実施形態に係る超音波診断装置による処理の手順を示すフローチャートである。 図4は、第1の実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。 図5は、第1の実施形態における学習済モデル生成装置の構成例を示すブロック図である。 図6は、第1の実施形態における機械学習の一例を説明するための図である。 図7は、第1の実施形態における学習済モデルを生成する処理の一例を説明するための図である。 図8は、第2の実施形態に係る超音波診断装置の構成例を示すブロック図である。 図9は、第2の実施形態に係る超音波診断装置による処理の手順を示すフローチャートである。 図10は、第2の実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。 図11は、第2の実施形態に係る超音波診断装置の画像処理回路による処理を説明するための図である。 図12は、第1の変形例における超音波診断装置の画像処理回路による処理を説明するための図である。 図13は、第2の変形例における超音波診断装置の画像処理回路による処理を説明するための図である。 図14は、その他の変形例における超音波診断装置の画像処理回路による処理を説明するための図である。
以下、添付図面を参照して、実施形態に係る超音波診断装置及び画像処理プログラムを説明する。なお、実施形態は、以下の実施形態に限られるものではない。また、一つの実施形態に記載した内容は、原則として他の実施形態にも同様に適用される。
(第1の実施形態)
図1は、第1の実施形態に係る超音波診断装置1の構成例を示すブロック図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、装置本体100と、超音波プローブ101と、入力装置102と、ディスプレイ103とを備える。超音波プローブ101、入力装置102、及びディスプレイ103は、それぞれ装置本体100に接続される。
超音波プローブ101は、超音波の送受信(超音波スキャン)を実行する。例えば、超音波プローブ101は、被検体Pの体表面(例えば、妊婦の腹部)に接触され、妊婦の子宮内の胎児の少なくとも一部を含む領域に対して、超音波の送受信を実行する。超音波プローブ101は、複数の圧電振動子を有する。複数の圧電振動子は、電気信号(パルス電圧)と機械振動(音による振動)とを相互に変換する圧電効果を有する圧電素子であり、装置本体100から供給される駆動信号(電気信号)に基づいて、超音波を発生させる。発生した超音波は、被検体P内の音響インピーダンスの不整合面で反射され、組織内の散乱体によって散乱された成分等を含む反射波信号(電気信号)として複数の圧電振動子にて受信される。超音波プローブ101は、複数の圧電振動子にて受信した反射波信号を装置本体100へ送る。
ここで、超音波プローブ101は、複数の圧電振動子が格子状に2次元で配置された2Dアレイプローブや、1次元で配列された複数の圧電振動子が機械的に揺動することで3次元領域を走査するメカニカル4Dプローブなど、如何なる形態の超音波プローブが用いられてもよい。
入力装置102は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、ホイール、トラックボール、ジョイスティック等を有し、超音波診断装置1の操作者からの各種設定要求を受け付け、装置本体100に対して受け付けた各種設定要求を転送する。なお、入力装置102は、入力部の実現手段の一例である。
ディスプレイ103は、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データ等を表示したりする。また、ディスプレイ103は、装置本体100の処理状況を操作者に通知するために、各種のメッセージを表示する。また、ディスプレイ103は、スピーカー(図示しない)を有し、音声を出力することもできる。例えば、ディスプレイ103のスピーカーは、装置本体100の処理状況を操作者に通知するために、ビープ音などの所定の音声を出力する。なお、ディスプレイ103は、表示部の実現手段の一例である。
装置本体100は、超音波プローブ101が受信した反射波信号に基づいて、超音波画像データを生成する装置である。装置本体100により生成される超音波画像データは、2次元の反射波信号に基づいて生成される2次元の超音波画像データであってもよいし、3次元の反射波信号に基づいて生成される3次元の超音波画像データであってもよい。
図1に示すように、装置本体100は、例えば、送受信回路110と、Bモード処理回路120と、ドプラ処理回路130と、画像処理回路140と、画像メモリ150と、記憶回路160と、制御回路170とを有する。送受信回路110、Bモード処理回路120、ドプラ処理回路130、画像処理回路140、画像メモリ150、記憶回路160、及び制御回路170は、通信可能に互いに接続される。また、装置本体100は、院内のネットワーク2に接続される。
送受信回路110は、超音波プローブ101による超音波の送信を制御する。例えば、送受信回路110は、制御回路170の指示に基づいて、振動子ごとに所定の送信遅延時間が付与されたタイミングで超音波プローブ101に上述の駆動信号(駆動パルス)を印加する。これにより、送受信回路110は、超音波がビーム状に集束された超音波ビームを超音波プローブ101に送信させる。
また、送受信回路110は、超音波プローブ101による反射波信号の受信を制御する。反射波信号は、上述のように、超音波プローブ101から送信された超音波が被検体Pの体内組織で反射された信号である。例えば、送受信回路110は、制御回路170の指示に基づいて、超音波プローブ101が受信した反射波信号に所定の遅延時間を与えて加算処理を行う。これにより、反射波信号の受信指向性に応じた方向からの反射成分が強調される。そして、送受信回路110は、加算処理後の反射波信号をベースバンド帯域の同相信号(I信号、I:In-phase)と直交信号(Q信号、Q:Quadrature-phase)とに変換する。そして、送受信回路110は、I信号及びQ信号(以下、IQ信号と記載する)を反射波データとして、Bモード処理回路120及びドプラ処理回路130へ送る。なお、送受信回路110は、加算処理後の反射波信号を、RF(Radio Frequency)信号に変換した上で、Bモード処理回路120及びドプラ処理回路130へ送ってもよい。IQ信号や、RF信号は、位相情報が含まれる信号(反射波データ)となる。
Bモード処理回路120は、送受信回路110が反射波信号から生成した反射波データに対して各種の信号処理を行う。Bモード処理回路120は、送受信回路110から受信した反射波データに対して、対数増幅、包絡線検波処理等を行って、サンプル点(観測点)ごとの信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。Bモード処理回路120は、生成したBモードデータを画像処理回路140へ送る。
また、Bモード処理回路120は、高調波成分を映像化するハーモニックイメージングを行うための信号処理を実行する。ハーモニックイメージングとしては、コントラストハーモニックイメージング(CHI:Contrast Harmonic Imaging)や組織ハーモニックイメージング(THI:Tissue Harmonic Imaging)が知られている。また、コントラストハーモニックイメージングや組織ハーモニックイメージングには、スキャン方式として、振幅変調(AM:Amplitude Modulation)、「Pulse Subtraction法」や「Pulse Inversion法」と呼ばれる位相変調(PM:Phase Modulation)、及び、AMとPMとを組み合わせることで、AMの効果及びPMの効果の双方が得られるAMPM等が知られている。
ドプラ処理回路130は、送受信回路110が反射波信号から生成した反射波データより、移動体のドプラ効果に基づく運動情報を走査領域内の各サンプル点で抽出したデータを、ドプラデータとして生成する。ここで、移動体の運動情報とは、移動体の平均速度、分散値、パワー値等の情報であり、移動体とは、例えば、血流や、心壁等の組織、造影剤である。ドプラ処理回路130は、生成したドプラデータを画像処理回路140へ送る。
例えば、移動体が血流である場合、血流の運動情報は、血流の平均速度、分散値、パワー等の情報(血流情報)である。血流情報は、例えば、カラードプラ法により得られる。
カラードプラ法では、まず、超音波の送受信が同一の走査線上で複数回行われ、次に、MTI(Moving Target Indicator)フィルタを用いて、同一位置(同一サンプル点)の反射波データのデータ列を表す信号に対して特定の周波数帯域の信号を通過させ、それ以外の周波数帯域の信号を減衰させる。すなわち、静止している組織、或いは、動きの遅い組織に由来する信号(クラッタ成分)を抑制させる。これにより、反射波データのデータ列を表す信号から、血流に関する血流信号が抽出される。そして、カラードプラ法では、抽出した血流信号から、血流の平均速度、分散値、パワー等の血流情報を推定し、推定した血流情報をドプラデータとして生成する。
画像処理回路140は、画像データ(超音波画像データ)の生成処理や、画像データに対する各種の画像処理等を行う。例えば、画像処理回路140は、Bモード処理回路120が生成した2次元のBモードデータから、反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像処理回路140は、ドプラ処理回路130が生成した2次元のドプラデータから、血流情報が映像化された2次元ドプラ画像データを生成する。2次元ドプラ画像データは、血流の平均速度を表す速度画像データ、血流の分散値を表す分散画像データ、血流のパワーを表すパワー画像データ、又は、これらを組み合わせた画像データである。画像処理回路140は、ドプラ画像データとして、血流の平均速度、分散値、パワー等の血流情報がカラーで表示されるカラードプラ画像データを生成したり、1つの血流情報がグレースケールで表示されるドプラ画像データを生成したりする。
ここで、画像処理回路140は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換し、表示用の超音波画像データを生成する。具体的には、画像処理回路140は、超音波プローブ101による超音波の走査形態に応じて座標変換(スキャンコンバート)を行うことで、表示用の超音波画像データを生成する。また、画像処理回路140は、座標変換以外に、種々の画像処理として、例えば、座標変換後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行う。また、画像処理回路140は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。
すなわち、Bモードデータ及びドプラデータは、座標変換前の超音波画像データであり、画像処理回路140が生成する画像データは、座標変換後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像処理回路140は、座標変換前の2次元超音波画像データから、座標変換後の表示用の2次元超音波画像データを生成する。
更に、画像処理回路140は、座標変換前の3次元超音波画像データから、座標変換後の表示用の3次元超音波画像データを生成する。例えば、画像処理回路140は、Bモード処理回路120が生成した3次元のBモードデータに対して座標変換を行うことで、3次元Bモード画像データを生成する。また、画像処理回路140は、ドプラ処理回路130が生成した3次元のドプラデータに対して座標変換を行うことで、3次元ドプラ画像データを生成する。
更に、画像処理回路140は、ボリューム画像データをディスプレイ103にて表示するための各種の2次元画像データを生成するために、ボリューム画像データに対してレンダリング処理を行う。画像処理回路140が行うレンダリング処理としては、例えば、多断面再構成法(MPR:Multi Planer Reconstruction)を行ってボリューム画像データからMPR画像データを生成する処理がある。また、画像処理回路140が行うレンダリング処理としては、例えば、3次元画像の情報を反映した2次元画像データを生成するボリュームレンダリング(VR:Volume Rendering)処理がある。また、画像処理回路140が行うレンダリング処理としては、例えば、3次元画像の表面情報のみを抽出した2次元画像データを生成するサーフェスレンダリング(SR:Surface Rendering)処理がある。
画像処理回路140は、生成した画像データや、各種の画像処理を行った画像データを、画像メモリ150に格納する。なお、画像処理回路140は、各画像データの表示位置を示す情報、超音波診断装置1の操作を補助するための各種情報、患者情報等の診断に関する付帯情報についても画像データとともに生成し、画像メモリ150に格納してもよい。
また、第1の実施形態に係る画像処理回路140は、取得機能141と、推定機能142と、抽出機能143と、座標変換機能144と、表示制御機能145とを実行する。なお、取得機能141は、取得部の一例である。推定機能142は、推定部の一例である。抽出機能143は、抽出部の一例である。座標変換機能144は、座標変換部の一例である。表示制御機能145は、表示制御部の一例である。
ここで、図1に示す画像処理回路140の構成要素である取得機能141、推定機能142、抽出機能143、座標変換機能144、表示制御機能145が実行する各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路160に記録されている。画像処理回路140は、各プログラムを記憶回路160から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の画像処理回路140は、図1の画像処理回路140内に示された各機能を有することとなる。画像処理回路140が実行する取得機能141、推定機能142、抽出機能143、座標変換機能144、表示制御機能145の処理内容については、後述する。
なお、図1においては、単一の画像処理回路140にて、以下に説明する各処理機能が実現されるものとして説明するが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路160に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路160にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。
画像メモリ150及び記憶回路160は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などである。
画像メモリ150は、座標変換後の超音波画像データとして、画像処理回路140が生成したBモード画像データやドプラ画像データ等の画像データを記憶するメモリである。また、画像メモリ150は、座標変換前の超音波画像データとして、Bモード処理回路120が生成したBモードデータやドプラ処理回路130が生成したドプラデータ等の画像データを記憶する。画像メモリ150が記憶する超音波画像データは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像処理回路140を経由して表示用の超音波画像データとなる。
記憶回路160は、超音波送受信、画像処理及び表示処理を行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、記憶回路160は、必要に応じて、画像メモリ150が記憶する画像データの保管等にも使用される。また、記憶回路160が記憶するデータは、図示しないインターフェースを経由して、外部装置へ転送することができる。なお、外部装置は、例えば、画像診断を行なう医師が使用するPC(Personal Computer)や、CDやDVD等の記憶媒体、プリンター等である。なお、記憶回路160は、記憶部の実現手段の一例である。また、記憶回路160は、超音波診断装置1がネットワーク2上でアクセス可能であれば、超音波診断装置1に内蔵されていなくてもよい。
制御回路170は、超音波診断装置1の処理全体を制御する。具体的には、制御回路170は、入力装置102を介して操作者から入力された各種設定要求や、記憶回路160から読み込んだ各種制御プログラム及び各種データに基づき、送受信回路110、Bモード処理回路120、ドプラ処理回路130、画像処理回路140等の処理を制御する。
なお、装置本体100に内蔵される送受信回路110、Bモード処理回路120、ドプラ処理回路130、画像処理回路140、及び制御回路170等は、プロセッサ(CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、集積回路等)のハードウェアにより構成されることもあるが、ソフトウェア的にモジュール化されたプログラムにより構成される場合もある。
以上、第1の実施形態に係る超音波診断装置1の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置1では、対象物を含む領域を推定する処理の精度を向上させることができる。
例えば、過去に生成した座標変換後の超音波画像データと当該座標変換後の超音波画像データにおける対象物(例えば、妊婦の子宮内の胎児)を含む領域とを用いた学習により、今回生成した座標変換後の超音波画像データにおける対象物(胎児)を含む領域を推定する方法が知られている。しかし、この方法を適用する場合、以下のような問題点がある。
図2は、座標変換前の超音波画像データと座標変換後の超音波画像データとの関係を示す図である。図2に示すように、座標変換が行われる前の超音波画像データは、原理上、スキャン方向によって、画素数と分解能が相当異なる。胎児用としてしばしば利用されるメカニカル4Dプローブを用いる場合、最も画素数が多く、かつ、分解能が高い方向は、深さ方向であるレンジ方向201(サンプル方向)であって、次いで、アジマス方向202(ラスタ方向)である。最も画素数が少なく、かつ、分解能が低い方向は、エレベーション方向203(メカスキャン方向)となる。ここで、座標変換前の超音波画像データのボクセル204においては、長さ方向別で相当に異なるが、座標変換後の超音波画像データのボクセル214においては、長さがどの方向も同じになる。したがって、座標変換後の超音波画像データに対してレンダリング処理を行うことにより、胎児の見え方は自然になる一方、方向によって分解能が異なることになり、最も分解能のよい方向の分解能が、学習及び推定の処理の精度に影響を与える場合がある。
例えば、座標変換後の超音波画像データの画像サイズを分解能の良い方向に合わせると、それ以外の方向のサンプルサイズが分解能に対して過大になり、学習及び推定の処理に要する時間が余計にかかることになる。また、学習及び推定の処理時間を短縮するために、座標変換後の超音波画像データの画像サイズを小さくすると、最も分解能のよい方向の分解能が、リサンプリング処理によって低下し、その影響で学習及び推定の処理の性能が悪くなる。
そこで、第1の実施形態に係る超音波診断装置1では、画像処理回路140は、超音波スキャンを過去に実施したときの座標変換前の超音波画像データと座標変換前の超音波画像データにおける対象物を含む領域とを用いた学習により、今回取得した座標変換前の超音波画像データにおける対象物を含む領域を推定する。
以下、図3、図4を用いて、画像処理回路140が実行する取得機能141、推定機能142、抽出機能143、座標変換機能144、表示制御機能145の各機能について説明する。
図3は、第1の実施形態に係る超音波診断装置1による処理の手順を示すフローチャートである。図3では、超音波診断装置1全体の動作(画像処理方法)を説明するフローチャートを示し、各構成要素がフローチャートのどのステップに対応するかを説明する。図4は、第1の実施形態に係る超音波診断装置1の画像処理回路140による処理を説明するための図である。
図3のステップS101は、超音波プローブ101により実施されるステップである。ステップS101では、超音波プローブ101は、被検体Pの体表面(例えば、妊婦の腹部)に接触され、対象物(例えば、妊婦の子宮内の胎児)を含む領域に対して超音波スキャンを実行し、超音波スキャンの結果として、上記領域の反射波信号を収集する。ここで、Bモード処理回路120は、超音波プローブ101により収集された反射波信号に基づいてBモードデータを生成する。生成されたBモードデータは、座標変換前の超音波画像データである。
すなわち、座標変換前の超音波画像データ(図4に示す座標変換前画像データ401)は、超音波スキャンの実施により収集された画像データであり、超音波スキャンの形状に応じた座標変換が行われる前の画像データである。以下、座標変換前画像データ401を、第1画像データ401と記載する。例えば、本実施形態において、超音波プローブ101としてメカニカル4Dプローブが用いられる場合、第1画像データ401は、3次元の画像データである。
図3のステップS102(取得処理)は、画像処理回路140が記憶回路160から取得機能141に対応するプログラムを呼び出して実行されるステップである。ステップS102では、取得機能141は、第1画像データ401を取得する。ここで、図4に示すように、取得機能141により取得された第1画像データ401は、胎児451を表す画像とアーティファクト452を表す画像とを含む。
図3のステップS103(推定処理)は、画像処理回路140が記憶回路160から推定機能142に対応するプログラムを呼び出して実行されるステップである。ステップS103では、推定機能142は、学習済モデル402を用いて、取得機能141により取得された第1画像データ401における対象物(胎児)を含む領域を推定することにより、図4に示すようなマスクデータ403を得る。
学習済モデル402は、超音波スキャンを過去に実施したときの第1画像データ401と、当該第1画像データ401における対象物を含む領域を表すマスクデータ(学習用マスクデータ)とを用いた学習により生成されたモデルである。当該学習としては、例えば、ニューラルネットワークを基にしたAI(Artificial Intelligence)を用いた学習や機械学習等が挙げられる。学習済モデル402の詳細については後述する。
図3のステップS104(抽出処理)は、画像処理回路140が記憶回路160から抽出機能143に対応するプログラムを呼び出して実行されるステップである。ステップS104では、抽出機能143は、取得機能141により取得された第1画像データ401から、推定機能142により推定されたマスクデータ403が表す領域を抽出することにより、図4に示すような第2画像データ453を得る。第2画像データ453は、第1画像データ401から、アーティファクト452を表す画像などがカットされた画像データである。
ここで、抽出機能143が行う抽出について説明する。例えば、マスクデータ403は、第1画像データ401と空間的に同じデータ構造を有し、その各画素の位置が、第1画像データ401の各画素の位置に対応する。マスクデータ403は、閾値により2値化され、画素を表示させる場合には値「1」が設定され、画素を表示させない場合には値「0」が設定されている。抽出機能143は、第1画像データ401とマスクデータ403との画素毎の積を演算することにより、第1画像データ401から、アーティファクト452を表す画像などがカットされた第2画像データ453を得る。
図3のステップS105(座標変換処理)は、画像処理回路140が記憶回路160から座標変換機能144に対応するプログラムを呼び出して実行されるステップである。ステップS105では、座標変換機能144は、抽出機能143により得られた第2画像データ453に対して座標変換を行うことにより、図4に示すような座標変換後画像データ406を得る。すなわち、第2画像データ453が、表示に適した座標系に変換されることにより、座標変換後画像データ406が得られる。以下、座標変換後画像データ406を、第3画像データ406と記載する。第3画像データ406は、上記胎児451に対応する胎児454を表す画像を含む。
図3のステップS106(表示処理)は、画像処理回路140が記憶回路160から表示制御機能145に対応するプログラムを呼び出して実行されるステップである。ステップS106では、表示制御機能145は、第3画像データ406をディスプレイ103に表示させる。
例えば、表示制御機能145は、第3画像データ406に対してレンダリング処理(例えば、ボリュームレンダリング)を行うことにより、レンダリング像を生成し、生成されたレンダリング像をディスプレイ103に表示させる。また、表示制御機能145は、第3画像データ406から、所定断面における断層像を生成し、生成された断層像をディスプレイ103に表示させる。ここで、表示制御機能145は、レンダリング像と断層像とを並べてディスプレイ103に表示させてもよい。また、例えば、座標変換機能144が、推定機能142により推定されたマスクデータ403が表す領域に対して座標変換を行い、表示制御機能145は、座標変換機能144により座標変換が行われた後の領域の輪郭を表す曲線を生成し、生成された曲線を、断層像に重畳してディスプレイ103に表示させてもよい。
ここで、機械学習により、学習済モデル402を生成する処理について説明する。
学習済モデル402は、例えば、超音波診断装置1とは別の装置(以下、学習済モデル生成装置と記載する)で生成されて、超音波診断装置1内に保管される(例えば、記憶回路160に記憶される)。ここで、学習済モデル生成装置は、超音波診断装置1により実現してもよく、例えば、学習済モデル402は、超音波診断装置1(例えば、推定機能142)により生成されて、その記憶回路160に保管されてもよい。以下、学習済モデル402が、学習済モデル生成装置で生成されて、超音波診断装置1内に保管される場合を例にして説明する。
図5は、第1の実施形態における学習済モデル生成装置300の構成例を示すブロック図である。図5に示すように、学習済モデル生成装置300は、入力装置302と、ディスプレイ303と、画像処理回路340と、記憶回路360とを有する。学習済モデル生成装置300は、図4の学習済モデル402を生成するビューアとして用いられる。
入力装置302は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、ホイール、トラックボール、ジョイスティック等を有し、学習済モデル生成装置300の操作者からの各種設定要求を受け付け、画像処理回路340に対して受け付けた各種設定要求を転送する。ディスプレイ303は、学習済モデル生成装置300の操作者によって参照されるモニタである。
画像処理回路340は、学習済モデル生成装置300の処理全体を制御する。例えば、画像処理回路340は、図5に示すように、学習用データ取得機能341、学習済モデル生成機能342を実行する。なお、学習用データ取得機能341は、学習用データ取得部の一例である。学習済モデル生成機能342は、学習済モデル生成部の一例である。
記憶回路360は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などである。ここで、画像処理回路340の構成要素である学習用データ取得機能341、学習済モデル生成機能342が実行する各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路360に記録されている。画像処理回路340は、各プログラムを記憶回路360から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。また、記憶回路360は、ニューラルネットワークのアルゴリズムとして学習用プログラム502を記憶する。
図6は、第1の実施形態における機械学習の一例を説明するための図である。
学習済モデル402を生成する処理では、図6に示すように、まず、学習済モデル生成装置300の学習用データ取得機能341は、超音波スキャンを過去に実施したときに得られた複数のデータセットを取得する。複数のデータセットの各々は、第1画像データ501(座標変換前画像データ)と、学習用マスクデータ503とを含む。
第1画像データ501は、対象物に対する超音波スキャンを過去に実施したときに収集された画像データであり、超音波スキャンの形状に応じた座標変換が行われる前の画像データである。学習用マスクデータ503は、第1画像データ501における対象物を含む領域を表すマスクデータである。なお、ニューラルネットワークのアルゴリズムは経験から学習していくものであるため、学習に用いられるデータセットは、同一の被検体でなくてもよい。
ここで、各データセットにおいて、第1画像データ501に対して、教師データとしての学習用マスクデータ503を操作者により予め作成(描画)しておく必要がある。ここで、操作者は、座標変換前画像データである第1画像データ501をディスプレイ303に表示させながら、学習用マスクデータ503をディスプレイ303上で描画することは可能であるものの、操作者にとっては、第1画像データ501が座標変換された状態で学習用マスクデータ503を描画するほうが視認性や操作性が良い。このため、学習用マスクデータ503は、第1画像データ501と共に座標変換されて、第1画像データ501に合成表示された状態で、操作者に描画される。
学習済モデル生成装置300の学習済モデル生成機能342は、記憶回路160から読み出した学習用プログラム502を用いて、複数のデータセットからマスクデータのパターンを学習する。このとき、学習済モデル生成機能342は、入力データ(第1画像データ401)の入力を受けて第1画像データ401における対象物を含む領域をマスクデータ403として推定する出力データを出力するように機能付けられた学習済モデル402を生成する。例えば、生成した学習済モデル402は、超音波診断装置1内に保管される(記憶回路160に記憶される)。記憶回路160内の学習済モデル402は、例えば、超音波診断装置1の推定機能142により読み出し可能である。
学習済モデル402を利用する処理では、図4に示すように、超音波診断装置1の推定機能142は、第1画像データ401を入力データとして入力する。そして、推定機能142は、記憶回路160から読み出した学習済モデル402を用いて、第1画像データ401における対象物を含む領域をマスクデータ403として推定し、推定した結果を出力データとして出力する。
本実施形態に適用できる機械学習による処理には様々な手法が考えられるが、本実施形態では、その一例として、畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)を用いた手法であるU−Net(医療画像のセグメンテーションを行うU字型のニューラルネットワーク)を挙げる。図7は、第1の実施形態における学習済モデル402を生成する処理の一例を説明するための図である。U−Netは、物体の局所的特徴と全体的位置情報(大域的特徴)との両方を統合して学習させる手法である。
図7において、図6の学習用プログラム502(U−Net)の各処理段階の機能としては、畳み込み層、マックスプーリング層、アップサンプリング層、結合層、出力処理層に分類される。畳み込み層は、入力される画像データに対して畳み込み演算を行い、特徴量を取り出す層である。特徴量を取り出す処理には、例えば、活性化関数としてReLU(Rectified Linear Unit)関数が用いられる。マックスプーリング層は、画像データのダウンサンプリングを行い、特徴量を圧縮する層である。アップサンプリング層は、アップサンプリングを行う層である。結合層は、取り出した特徴量から重み付き和を計算し、2つの画像データを結合する層である。出力処理層は、重み付き和から予測結果を出力する層である。
U−Netの処理は、縮小パス(Contracting Path)(図7の左側のパス)と、拡大パス(Expanding Path(図7の右側のパス)とに大別される。
例えば、縮小パスにおいて、第1画像データ501(座標変換前画像データ)を入力画像600とし、入力画像600に対して畳み込み層601、602により畳み込み演算が行われる。畳み込み層602の出力に対してマックスプーリング層603によりダウンサンプリングが行われ、マックスプーリング層603の出力に対して畳み込み層611、612により畳み込み演算が行われる。畳み込み層612の出力に対してマックスプーリング層613によりダウンサンプリングが行われ、マックスプーリング層613の出力に対して畳み込み層621、622により畳み込み演算が行われる。
次に、拡大パスにおいて、畳み込み層622の出力に対してアップサンプリング層623によりアップサンプリングが行われ、アップサンプリング層623の出力と畳み込み層612の出力とが結合層630により結合される。結合層630の出力に対して畳み込み層631、632により畳み込み演算が行われる。畳み込み層632の出力に対してアップサンプリング層633によりアップサンプリングが行われ、アップサンプリング層633の出力と畳み込み層602の出力とが結合層640により結合される。結合層640の出力に対して畳み込み層641、642により畳み込み演算が行われ、出力処理層650により畳み込み層642の出力が出力画像699(学習用マスクデータ503)として出力される。
縮小パスでは、マックスプーリングによって画像データの解像度を繰り返し落としていき、層が深くなるにつれてより大局的な物体の特徴を捉えられるようにする。拡大パスでは、アップサンプリング後の画像データと、縮小パスにおける同じレベルの画像データとを結合した結果の畳み込み演算を繰り返して解像度を戻していく。結果として、入力画像600と出力画像699の画像サイズは同一となり、縮小パスと拡大パスの各種処理により、物体の局所的特徴と全体的位置情報(大域的特徴)との双方を捉えることができる。
ネットワークの構成にU−Netを利用する場合、そのパラメータとして、重みをwとし、入力xに対する出力をy(x,w)とし、yに対する目標変数をtとすると、誤差関数(Error Function)e(w)は、交差エントロピー関数(Cross-entropy Error Function)として、数1で定義される。
Figure 2020114302
ここで、畳み込み層で用いられる活性化関数をa(x,w)とすれば、yは、例えばソフトマックス関数(Softmax Function)として、数2で定義され、誤差関数Eを最小にするwを求める最適化によって、学習が実行される。
Figure 2020114302
なお、ネットワークの構成には、U−Netのほか、SegNet(画像のセグメンテーションを高速かつ省メモリで行うニューラルネットワーク)等の他の様々なモデルを利用することができ、これらに限定されない。学習のための誤差関数の計算にはソフトマックス関数のほか、ロジスティックシグモイド関数(Logistic sigmoid Function)なども利用できる。
以上の説明により、第1の実施形態に係る超音波診断装置1では、画像処理回路140は、超音波スキャンを過去に実施したときの座標変換前の超音波画像データと座標変換前の超音波画像データにおける対象物を含む領域とを用いた学習により、今回取得した座標変換前の超音波画像データにおける対象物を含む領域を推定する。例えば、座標変換後の超音波画像データから対象物を含む領域を推定する方法では、上述のように、座標変換後の超音波画像データの画像サイズを分解能の良い方向に合わせると、それ以外の方向のサンプルサイズが分解能に対して過大になり、学習及び推定の処理時間が余計にかかることになる。また、学習及び推定の処理時間を短縮するために、座標変換後の超音波画像データの画像サイズを小さくすると、最も分解能のよい方向の分解能が、リサンプリング処理によって低下し、その影響で学習及び推定の処理の性能が悪くなる。一方、第1の実施形態に係る超音波診断装置1では、座標変換前の超音波画像データから対象物を含む領域を推定するため、画像サイズを分解能の良い方向に合わせる必要がなく、座標変換後の超音波画像データから対象物を含む領域を推定する方法に比べて、学習及び推定の処理時間を短縮することができる。また、第1の実施形態に係る超音波診断装置1では、座標変換前の超音波画像データから対象物を含む領域を推定するため、画像サイズを小さく必要がなく、座標変換後の超音波画像データから対象物を含む領域を推定する方法に比べて、学習及び推定の処理の精度に影響を与えない。したがって、第1の実施形態に係る超音波診断装置1では、対象物を含む領域を推定する処理の精度を向上させることができる。
(第2の実施形態)
上述した第1の実施形態では、抽出処理を行ってから、座標変換処理を行う場合について説明した。第2の実施形態では、座標変換処理を行ってから、抽出処理を行う場合について説明する。第2の実施形態に係る超音波診断装置1は、図1に示した超音波診断装置1とは処理の一部が相違する。以下、第1の実施形態において説明した構成と同様の構成を有する点については、図1と同一の符号を付し、説明を省略する。
図8は、第2の実施形態に係る超音波診断装置1の構成例を示すブロック図である。図8に示すように、第2の実施形態に係る画像処理回路140は、更に、カット面作成機能146と、座標変換機能147とを実行する。なお、座標変換機能144、147は、それぞれ、第1座標変換部、第2座標変換部の一例である。
次に、図9〜図11を用いて、画像処理回路140が実行する取得機能141、推定機能142、抽出機能143、座標変換機能144、表示制御機能145、カット面作成機能146、座標変換機能147の各機能について説明する。
図9は、第2の実施形態に係る超音波診断装置1による処理の手順を示すフローチャートである。図9では、超音波診断装置1全体の動作(画像処理方法)を説明するフローチャートを示し、各構成要素がフローチャートのどのステップに対応するかを説明する。図10、図11は、第2の実施形態に係る超音波診断装置1の画像処理回路140による処理を説明するための図である。
図9のステップS201は、超音波プローブ101により実施されるステップである。ステップS201では、超音波プローブ101は、被検体Pの体表面(例えば、妊婦の腹部)に接触され、対象物(例えば、妊婦の子宮内の胎児)を含む領域に対して超音波スキャンを実行し、超音波スキャンの結果として、上記領域の反射波信号を収集する。ここで、Bモード処理回路120は、超音波プローブ101により収集された反射波信号に基づいてBモードデータを生成する。生成されたBモードデータは、座標変換前の超音波画像データである。
すなわち、座標変換前の超音波画像データ(図10に示す座標変換前画像データ701)は、超音波スキャンの実施により収集された画像データであり、超音波スキャンの形状に応じた座標変換が行われる前の画像データである。以下、座標変換前画像データ701を、第1画像データ701と記載する。例えば、本実施形態において、超音波プローブ101としてメカニカル4Dプローブが用いられる場合、第1画像データ701は、3次元の画像データである。
図9のステップS202(取得処理)は、画像処理回路140が記憶回路160から取得機能141に対応するプログラムを呼び出して実行されるステップである。ステップS202では、取得機能141は、第1画像データ701を取得する。ここで、取得機能141により取得された第1画像データ701は、胎児を表す画像とアーティファクトを表す画像とを含む。
図9のステップS203(推定処理)は、画像処理回路140が記憶回路160から推定機能142に対応するプログラムを呼び出して実行されるステップである。ステップS203では、推定機能142は、学習済モデル702を用いて、取得機能141により取得された第1画像データ701における対象物(胎児)を含む領域を推定することにより、マスクデータ703を得る。
学習済モデル702は、超音波スキャンを過去に実施したときの第1画像データ701と、当該第1画像データ701における対象物を含む領域を表すマスクデータ(学習用マスクデータ)とを用いた学習により生成されたモデルである。当該学習としては、例えば、ニューラルネットワークを基にしたAIを用いた学習や機械学習等が挙げられる。学習済モデル702の詳細については、学習済モデル402と同じであるため、説明を省略する。
図9のステップS204(座標変換処理)は、画像処理回路140が記憶回路160からカット面作成機能146、座標変換機能144、147に対応するプログラムを呼び出して実行されるステップである。ステップS204では、まず、カット面作成機能146は、推定機能142により推定されたマスクデータ703が表す領域をカット面として作成する。
次に、ステップS204では、座標変換機能144は、取得機能141により取得された第1画像データ701に対して座標変換を行うことにより、座標変換後の画像データとして第2画像データを得る。すなわち、第1画像データ701が、表示に適した座標系に変換されることにより、第2画像データが得られる。また、座標変換機能147は、カット面(マスクデータ703が表す領域)に対して座標変換を行う。すなわち、カット面(領域)が、表示に適した座標系に変換されることにより、座標変換後の領域が得られる。
図9のステップS205(抽出処理)は、画像処理回路140が記憶回路160から抽出機能143に対応するプログラムを呼び出して実行されるステップである。ステップS205では、抽出機能143は、座標変換機能144により得られた第2画像データから、座標変換機能147により座標変換が行われた後のカット面(領域)を抽出することにより、第3画像データを得る。第3画像データは、第2画像データから、アーティファクトを表す画像などがカットされた画像データである。
図9のステップS206(表示処理)は、画像処理回路140が記憶回路160から表示制御機能145に対応するプログラムを呼び出して実行されるステップである。ステップS206では、表示制御機能145は、第3画像データをディスプレイ103に表示させる。
ここで、表示制御機能145は、図10に示すように、レンダリング機能145A、断層像生成機能145B、カット曲線生成機能145Cを有する。レンダリング機能145Aは、レンダリング部の一例である。断層像生成機能145Bは、断層像生成部の一例である。カット曲線生成機能145Cは、曲線生成部の一例である。
レンダリング機能145Aは、第3画像データに対してレンダリング処理(例えば、ボリュームレンダリング)を行うことにより、図11に示すようなレンダリング像802を生成する。断層像生成機能145Bは、第3画像データから、所定断面における断層像803を生成する。表示制御機能145は、レンダリング機能145Aにより生成されたレンダリング像802と、断層像生成機能145Bにより生成された断層像803とを並べて、図11に示すような表示データ801としてディスプレイ103に表示させる。
カット曲線生成機能145Cは、図11に示すようなカット曲線804を生成する。カット曲線804は、所定断面において、座標変換機能147により座標変換が行われた後のカット面(領域)の輪郭を表す。表示制御機能145は、カット曲線生成機能145Cにより生成されたカット曲線804を、断層像803に重畳してディスプレイ103に表示させる。
ここで、第2の実施形態では、図11において、画面を横に分割して、2分割画面の一方に断層像803とカット曲線804とが重畳して表示されているが、分割画面は何分割でもよく、分割画面に表示される断層像は1断面に限定されない。例えば、第2の実施形態では、断層像として2断面(例えばA面とB面)または3断面(A面・B面・C面)をレンダリング像802と並べて表示させ、それぞれの断面に対応するカット曲線を表示することもできる。
(第1の変形例)
第2の実施形態では、抽出処理において、抽出機能143は、座標変換機能144により得られた第2画像データから、座標変換機能147により座標変換が行われた後のカット面(領域)を抽出することにより、第3画像データを得ている。しかし、これに限定されず、第1の変形例では、第2画像データから、胎児を表す領域をカットしないように、当該カット面(領域)を表す輪郭を操作者が変更してもよい。
例えば、表示制御機能145は、抽出処理が行われる前に、第2画像データと、座標変換が行われた後のカット面(領域)とを重ねてディスプレイ103に表示させて、当該カット面(領域)を表す輪郭901を操作者により変更させる操作を受け付ける。このとき、例えば、表示制御機能145は、「この領域を変更しますか?」などのメッセージをディスプレイ103に表示させる。操作者は、入力装置102を用いて、ディスプレイ103上の当該輪郭901を、例えば、図12に示すような輪郭902に変更させる。そして、抽出処理において、抽出機能143は、座標変換機能144により得られた第2画像データから、操作者の操作により変更が行われた後の領域を抽出することにより、第3画像データを得る。
(第2の変形例)
第1の実施形態では、抽出処理において、抽出機能143は、取得機能141により取得された第1画像データ401から、推定機能142により推定されたマスクデータ403が表す領域を抽出することにより、第2画像データ453を得ている。しかし、これに限定されず、第2の変形例では、第1画像データ401から、胎児を表す領域をカットしないように、学習段階でマスクデータ403に対して複数の領域を用意しておき、複数の領域のうちの1つの領域を操作者が選択してもよい。
まず、推定処理において、学習済モデル402は、取得機能141により取得された第1画像データ401の各画素に対して、胎児を表す領域である確度を対応付けて出力する。このとき、推定機能142は、図13に示すように、確度に応じて複数の異なる閾値で設定される複数の領域403A〜403Cをマスクデータ403として推定する。ここで、複数の領域403A〜403Cは、閾値により2値化され、画素を表示させる場合には値「1」が設定され、画素を表示させない場合には値「0」が設定されている。
例えば、推定処理の実行後、表示制御機能145は、抽出処理が行われる前に、第1画像データ401と、マスクデータ403である複数の領域403A〜403Cとをディスプレイ103に表示させて、複数の領域403A〜403Cのうちの1つの領域を操作者により選択させる操作を受け付ける。このとき、例えば、表示制御機能145は、「どの領域にしますか?」などのメッセージをディスプレイ103に表示させる。ここで、操作者にとっては、第1画像データ401とマスクデータ403(複数の領域403A〜403C)とが座標変換された状態で1つの領域を選択するほうが視認性や操作性が良い。このため、複数の領域403A〜403Cは、第1画像データ401と共に座標変換されて、ディスプレイ103上で第1画像データ401に合成表示され、操作者の操作により1つの領域(例えば、領域403C)が選択される。そして、抽出処理において、抽出機能143は、取得機能141により取得された第1画像データ401から、操作者の操作により選択が行われた領域(領域403C)を抽出することにより、第2画像データ453を得る。
又は、推定処理の実行後、抽出処理において、抽出機能143は、取得機能141により取得された第1画像データ401から、マスクデータ403である複数の領域403A〜403Cをそれぞれ抽出して、複数の第2画像データを取得する。そして、表示制御機能145は、第1画像データ401と、抽出機能143により得られた複数の第2画像データとをディスプレイ103に表示させて、複数の第2画像データのうちの1つの第2画像データを第2画像データ453として操作者により選択させる操作を受け付ける。このとき、例えば、表示制御機能145は、「どの画像データにしますか?」などのメッセージをディスプレイ103に表示させる。ここで、操作者にとっては、第1画像データ401と複数の第2画像データとが座標変換された状態で1つの第2画像データを選択するほうが視認性や操作性が良い。このため、複数の第2画像データは、第1画像データ401と共に座標変換されて、ディスプレイ103上で第1画像データ401に合成表示され、操作者の操作により1つの第2画像データが選択される。すなわち、第2画像データ453が選択される。
(その他の変形例)
実施形態は、上述した実施形態に限られるものではない。例えば、画像処理回路140は、超音波診断装置1とは別に設置されたワークステーションでもよい。この場合、ワークステーションが、画像処理回路140と同様の処理回路を有し、上述した処理を実行する。
また、スキャン変換前画像データ(第1の実施形態、第2の実施形態における第1画像データ)は、図14に示すように、レンジ方向201(サンプル方向)が他の方向に対して分解能と画素数とが相当に多いという特徴がある。そこで、本実施形態では、レンジ方向201に限ってはデータを2分の1程度に間引いても学習及び推定の質に大きな影響がない。このため、第1画像データにおいて、レンジ方向(深さ方向)に対する間引きが行われた後に、学習及び推定が行われてもよい。
例えば、第1の実施形態の場合、学習段階において、学習済モデル生成装置300の学習用データ取得機能341は、対象物(胎児)に対する超音波スキャンを過去に実施したときに収集された画像データにおいて、レンジ方向に対する間引きを行い、レンジ方向に対する間引きが行われていない第1画像データ501と当該第1画像データ501における胎児を含む領域である学習用マスクデータ503とをデータセットとして取得する。そして、学習済モデル生成装置300の学習済モデル生成機能342は、取得したデータセットから領域のパターンを学習して、学習済モデル402を生成する。超音波診断装置1の取得機能141は、取得処理において、対象物(胎児)に対する超音波スキャンの実施により収集された画像データにおいて、レンジ方向に対する間引きを行い、レンジ方向に対する間引きが行われていない第1画像データ401を取得する。そして、超音波診断装置1の推定機能142は、推定処理において、学習済モデル402を用いて、取得機能141により取得された第1画像データ401における胎児を含む領域をマスクデータ403として推定する。
また、本実施形態では、胎児を対象物として説明したが、対象物は胎児に限らず、胎児以外の特定部位、例えば心臓であってもよい。心臓について本実施形態が適用される場合、例えば心筋について、上述したような取得処理、推定処理、抽出処理、座標変換処理、表示処理などが行われてもよい。
また、本実施形態では、超音波プローブ101としてメカニカル4Dプローブが用いられる場合を例に説明したが、これに限定されず、例えば、複数の圧電振動子が格子状に2次元で配置された2Dアレイプローブが用いられてもよい。
また、実施形態で図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。
また、上記実施形態で説明した方法は、予め用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な非一時的な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
以上、説明したとおり、各実施形態によれば、対象物を含む領域を推定する処理の精度を向上させることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 超音波診断装置
101 超音波プローブ
103 ディスプレイ
141 取得機能
142 推定機能
143 抽出機能
144 座標変換機能
145 表示制御機能

Claims (14)

  1. 対象物に対する超音波スキャンの実施により収集された画像データであり、前記超音波スキャンの形状に応じた座標変換が行われる前の画像データである第1画像データを取得する取得部と、
    前記超音波スキャンを過去に実施したときの前記第1画像データと当該第1画像データにおける前記対象物を含む領域とを用いた学習により生成された学習済モデルを記憶する記憶部と、
    前記学習済モデルを用いて、前記取得部により取得された前記第1画像データにおける前記領域を推定する推定部と、
    を備えた超音波診断装置。
  2. 前記取得部により取得された前記第1画像データから、前記推定部により推定された前記領域を抽出して、第2画像データを得る抽出部と、
    前記第2画像データに対して前記座標変換を行い、第3画像データを得る座標変換部と、
    前記第3画像データを表示部に表示させる表示制御部と、
    を更に備えた請求項1に記載の超音波診断装置。
  3. 前記学習済モデルは、前記取得部により取得された前記第1画像データの各画素に対して前記領域である確度を対応付けて出力し、
    前記推定部は、前記確度に応じて複数の異なる閾値で設定される複数の領域を推定し、
    前記表示制御部は、前記抽出が行われる前に、前記複数の領域のうちの1つの領域を操作者により選択させる操作を受け付け、
    前記抽出部は、前記第1画像データから、前記操作者の操作により選択が行われた後の前記領域を抽出して、前記第2画像データを得る、
    請求項2に記載の超音波診断装置。
  4. 前記学習済モデルは、前記取得部により取得された前記第1画像データの各画素に対して前記領域である確度を対応付けて出力し、
    前記推定部は、前記確度に応じて複数の異なる閾値で設定される複数の領域を推定し、
    前記抽出部は、前記第1画像データから、前記複数の領域をそれぞれ抽出して、複数の第2画像データを取得し、
    前記表示制御部は、前記複数の第2画像データのうちの1つの第2画像データを前記第2画像データとして操作者により選択させる操作を受け付ける、
    請求項2に記載の超音波診断装置。
  5. 前記取得部により取得された前記第1画像データに対して前記座標変換を行い、第2画像データを得る第1座標変換部と、
    前記推定部により推定された前記領域に対して前記座標変換を行う第2座標変換部と、
    前記第2画像データから、前記座標変換が行われた後の前記領域を抽出して、第3画像データを得る抽出部と、
    前記第3画像データを表示部に表示させる表示制御部と、
    を更に備えた請求項1に記載の超音波診断装置。
  6. 前記表示制御部は、前記抽出が行われる前に、前記座標変換が行われた後の前記領域の輪郭を操作者により変更させる操作を受け付け、
    前記抽出部は、前記第2画像データから、前記操作者の操作により変更が行われた後の前記領域を抽出して、前記第3画像データを得る、
    請求項5に記載の超音波診断装置。
  7. 前記第1画像データは、3次元の画像データである、
    請求項1〜6のいずれか一項に記載の超音波診断装置。
  8. 前記第3画像データをレンダリングしてレンダリング像を生成するレンダリング部と、
    前記第3画像データから、所定断面における断層像を生成する断層像生成部と、
    を更に備え、
    前記表示制御部は、前記レンダリング像と前記断層像とを表示部に表示させる、
    請求項7に記載の超音波診断装置。
  9. 前記所定断面において、前記推定部により推定された前記領域の輪郭を表す曲線を生成する曲線生成部と、
    を更に備え、
    前記表示制御部は、前記曲線を前記断層像に重畳して前記表示部に表示させる、
    請求項8に記載の超音波診断装置。
  10. 前記第1画像データにおいて、深さ方向に対する間引きが行われた後に、前記学習及び前記推定が行われる、
    請求項1〜9のいずれか一項に記載の超音波診断装置。
  11. 対象物に対する超音波スキャンの実施により収集された画像データであり、前記超音波スキャンの形状に応じた座標変換が行われる前の画像データである第1画像データを取得する取得部と、
    前記超音波スキャンを過去に実施したときの前記第1画像データと当該第1画像データにおける前記対象物を含む領域とを用いた学習により生成された学習済モデルを記憶する記憶部と、
    前記学習済モデルを用いて、前記取得部により取得された前記第1画像データにおける前記領域を推定する推定部と、
    を備えた画像処理装置。
  12. 対象物に対する超音波スキャンの実施により収集された画像データであり、前記超音波スキャンの形状に応じた座標変換が行われる前の画像データである第1画像データを取得し、
    前記超音波スキャンを過去に実施したときの前記第1画像データと当該第1画像データにおける前記対象物を含む領域とを用いた学習により、前記取得された第1画像データにおける前記領域を推定する、
    処理をコンピュータに実行させる、画像処理プログラム。
  13. 対象物に対する超音波スキャンを過去に実施したときに収集された画像データであり、前記超音波スキャンの形状に応じた座標変換が行われる前の画像データである第1画像データと当該第1画像データにおける前記対象物を含む領域とをデータセットとして取得する学習用データ取得部と、
    前記取得したデータセットから前記領域のパターンを学習して、前記超音波スキャンを実施したときの前記第1画像データの入力を受けて前記第1画像データにおける前記領域を推定するように機能付けられた学習済モデルを生成する学習済モデル生成部と、
    を備えた学習済モデル生成装置。
  14. 対象物に対する超音波スキャンを過去に実施したときに収集された画像データであり、前記超音波スキャンの形状に応じた座標変換が行われる前の画像データである第1画像データと当該第1画像データにおける前記対象物を含む領域とをデータセットとして取得し、
    前記取得したデータセットから前記領域のパターンを学習して、前記超音波スキャンを実施したときの前記第1画像データの入力を受けて前記第1画像データにおける前記領域を推定するように機能付けられた学習済モデルを生成する、
    処理をコンピュータに実行させる、学習プログラム。
JP2019006523A 2019-01-18 2019-01-18 超音波診断装置、画像処理装置、及び画像処理プログラム Active JP7258568B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019006523A JP7258568B2 (ja) 2019-01-18 2019-01-18 超音波診断装置、画像処理装置、及び画像処理プログラム
US16/732,386 US11216964B2 (en) 2019-01-18 2020-01-02 Apparatus and trained-model generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019006523A JP7258568B2 (ja) 2019-01-18 2019-01-18 超音波診断装置、画像処理装置、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020114302A true JP2020114302A (ja) 2020-07-30
JP7258568B2 JP7258568B2 (ja) 2023-04-17

Family

ID=71609120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019006523A Active JP7258568B2 (ja) 2019-01-18 2019-01-18 超音波診断装置、画像処理装置、及び画像処理プログラム

Country Status (2)

Country Link
US (1) US11216964B2 (ja)
JP (1) JP7258568B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022071265A1 (ja) * 2020-09-29 2022-04-07 テルモ株式会社 プログラム、情報処理装置及び情報処理方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7301562B2 (ja) * 2019-03-14 2023-07-03 キヤノンメディカルシステムズ株式会社 医用画像処理装置、学習用データ作成装置および超音波診断装置
US11457891B2 (en) * 2020-08-17 2022-10-04 Clarius Mobile Health Corp. Method and system for defining cut lines to generate a 3D fetal representation
CN111931684B (zh) * 2020-08-26 2021-04-06 北京建筑大学 一种基于视频卫星数据鉴别特征的弱小目标检测方法
US20220096055A1 (en) * 2020-09-29 2022-03-31 The Board Of Trustees Of The Leland Stanford Junior University Functional ultrasound imaging of the brain using deep learning and sparse data
CN113679421A (zh) * 2021-08-26 2021-11-23 深圳蓝韵医学影像有限公司 一种超声测量方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538340A (ja) * 1991-02-21 1993-02-19 Hitachi Medical Corp 超音波診断装置
US6083168A (en) * 1997-08-22 2000-07-04 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
US20060074315A1 (en) * 2004-10-04 2006-04-06 Jianming Liang Medical diagnostic ultrasound characterization of cardiac motion
JP2007268148A (ja) * 2006-03-31 2007-10-18 Olympus Medical Systems Corp 超音波診断装置
JP2013057108A (ja) * 2011-09-09 2013-03-28 Ulvac Japan Ltd 多元スパッタリング装置
JP2015057108A (ja) * 2014-11-17 2015-03-26 株式会社東芝 超音波診断装置、超音波画像処理装置、医用画像診断装置及び医用画像処理装置
WO2016151951A1 (ja) * 2015-03-23 2016-09-29 オリンパス株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP2017221269A (ja) * 2016-06-13 2017-12-21 東芝メディカルシステムズ株式会社 情報処理装置、超音波診断装置及び画像処理プログラム
WO2018095516A1 (en) * 2016-11-22 2018-05-31 Universidad De Las Palmas De Gran Canaria Method of non-invasive detection of tumour and/or healthy tissue and hyperspectral imaging apparatus
US20180330518A1 (en) * 2017-05-11 2018-11-15 Verathon Inc. Probability map-based ultrasound scanning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6125256B2 (ja) 2013-02-07 2017-05-10 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及び画像処理プログラム
US11278259B2 (en) * 2018-02-23 2022-03-22 Verathon Inc. Thrombus detection during scanning

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538340A (ja) * 1991-02-21 1993-02-19 Hitachi Medical Corp 超音波診断装置
US6083168A (en) * 1997-08-22 2000-07-04 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
US20060074315A1 (en) * 2004-10-04 2006-04-06 Jianming Liang Medical diagnostic ultrasound characterization of cardiac motion
JP2007268148A (ja) * 2006-03-31 2007-10-18 Olympus Medical Systems Corp 超音波診断装置
JP2013057108A (ja) * 2011-09-09 2013-03-28 Ulvac Japan Ltd 多元スパッタリング装置
JP2015057108A (ja) * 2014-11-17 2015-03-26 株式会社東芝 超音波診断装置、超音波画像処理装置、医用画像診断装置及び医用画像処理装置
WO2016151951A1 (ja) * 2015-03-23 2016-09-29 オリンパス株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP2017221269A (ja) * 2016-06-13 2017-12-21 東芝メディカルシステムズ株式会社 情報処理装置、超音波診断装置及び画像処理プログラム
WO2018095516A1 (en) * 2016-11-22 2018-05-31 Universidad De Las Palmas De Gran Canaria Method of non-invasive detection of tumour and/or healthy tissue and hyperspectral imaging apparatus
US20180330518A1 (en) * 2017-05-11 2018-11-15 Verathon Inc. Probability map-based ultrasound scanning
JP2020519369A (ja) * 2017-05-11 2020-07-02 ベラソン インコーポレイテッドVerathon Inc. 確率マップに基づいた超音波検査

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022071265A1 (ja) * 2020-09-29 2022-04-07 テルモ株式会社 プログラム、情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
US11216964B2 (en) 2022-01-04
JP7258568B2 (ja) 2023-04-17
US20200234461A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
JP7258568B2 (ja) 超音波診断装置、画像処理装置、及び画像処理プログラム
JP5586375B2 (ja) 超音波診断装置、及びプログラム
JP5002181B2 (ja) 超音波診断装置及び超音波診断装置制御方法
JP2009153918A (ja) 超音波診断装置、超音波画像処理装置、超音波画像処理プログラム
US20200015785A1 (en) Volume rendered ultrasound imaging
JP2016093277A (ja) 医用画像処理装置、超音波診断装置、医用画像処理方法および医用画像処理プログラム
US20190175142A1 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and method for calculating plaque score
US8858442B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image processing apparatus
JP2016067704A (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2019213859A (ja) 解析装置及びプログラム
JP6651405B2 (ja) 超音波診断装置及びプログラム
JP7171291B2 (ja) 超音波診断装置及び画像処理プログラム
JP2018020114A (ja) 超音波診断装置及び超音波イメージングプログラム
JP7034686B2 (ja) 超音波診断装置、医用画像処理装置及びそのプログラム
JP7308600B2 (ja) 超音波診断装置、医用画像処理装置、及び超音波画像表示プログラム
JP2020092936A (ja) 超音波診断装置及び超音波診断プログラム
JP5060141B2 (ja) 超音波診断装置
JP2024018636A (ja) 医用画像処理装置、医用画像処理方法、及び、医用画像処理プログラム
JP2019063483A (ja) 解析装置
JP5797514B2 (ja) 超音波診断装置、画像処理装置及びプログラム
WO2021230230A1 (ja) 超音波診断装置、医用画像処理装置、及び、医用画像処理方法
JP7326151B2 (ja) 超音波診断装置、医用情報処理装置、及び医用情報処理プログラム
JP5072585B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
US20220361843A1 (en) Ultrasound diagnosis apparatus
JP2021186208A (ja) 超音波診断装置及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7258568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150