JP6943138B2 - 医用画像処理装置 - Google Patents

医用画像処理装置 Download PDF

Info

Publication number
JP6943138B2
JP6943138B2 JP2017206756A JP2017206756A JP6943138B2 JP 6943138 B2 JP6943138 B2 JP 6943138B2 JP 2017206756 A JP2017206756 A JP 2017206756A JP 2017206756 A JP2017206756 A JP 2017206756A JP 6943138 B2 JP6943138 B2 JP 6943138B2
Authority
JP
Japan
Prior art keywords
image processing
unit
frame data
data
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017206756A
Other languages
English (en)
Other versions
JP2019076541A (ja
Inventor
川端 章裕
章裕 川端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017206756A priority Critical patent/JP6943138B2/ja
Priority to US16/160,532 priority patent/US10832405B2/en
Publication of JP2019076541A publication Critical patent/JP2019076541A/ja
Application granted granted Critical
Publication of JP6943138B2 publication Critical patent/JP6943138B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、医用画像処理装置に関する。
超音波診断は、超音波探触子を体表から当てるだけの簡単な操作で心臓の拍動や胎児の動きの様子がリアルタイム表示で得られ、かつ安全性が高いため繰り返して検査を行うことができる。超音波診断装置は、超音波探触子を介して被検体内部に向けて超音波を送受信することで得られる反射超音波に基づき、被検体内部情報を超音波画像として画像化するものである。
また、超音波画像などの医用画像の種類(モダリティ、画質、撮影部位)を自動判別し、判別された種類に適したアルゴリズムで当該医用画像を画像処理する画像処理装置が知られている(特許文献1参照)。
また、X線画像などの医用画像の撮影部位を分類した木構造を作成し、木構造に対応した識別器に従って撮影部位を識別し、当該医用画像に、識別された撮影部位に対応した画像処理を施す画像処理装置が知られている(特許文献2参照)。
特開2002−360521号公報 特開2011−156272号公報
超音波画像における画像処理は、例えば、
・B(Brightness)モード、Cモード(カラーフローモード)共通…平滑化、エッジ強調、パーシスタンス、
・Bモード特有…階調変換、
・Cモード特有…ノイズカット、
がある。
上記の画像処理は、被検体の対象部位によって適切なパラメーターが異なるが、上記従来の画像処理装置においては、1フレーム全体に対応する対象部位の判別や識別を行うものであった。このため、選択された対象部位の設定入力に応じて最も適するであろう単一のパラメーターで画像処理を行うこととなる。
しかし、1枚の画像中には、複数の部位が含まれうる。例えば、
・整形の場合…筋肉、腱、骨表面、神経束、血管、皮下など、
・腹部の場合…肝臓、腎臓、膵臓、横隔膜、血管など、
・頭頸部の場合…血管内腔、血管壁、甲状腺、神経束など、
・心臓の場合…心筋、心内膜、心腔、弁、血管など、
である。
本発明の課題は、1枚の画像中あるいは一連の複数画像中に複数の部位が含まれている場合に、各部位に適したパラメーターで画像処理を施すことである。
上記課題を解決するため、請求項1に記載の発明の医用画像処理装置は、
被検体のスキャンによりフレームデータを生成するフレームデータ生成部と、
前記生成されたフレームデータに画像処理を施して医用画像データを生成する画像生成部と、を備え、
前記画像生成部は、
前記生成されたフレームデータを複数のサブ領域のフレームデータに分割する領域分割部と、
連続する複数フレームの前記各サブ領域のフレームデータから、前記各サブ領域のフレームデータをパターンに応じて分類するパターン分類部と、
前記各サブ領域の分類の結果に応じて、画像処理のパラメーターをサブ領域ごとに選択するパラメーター選択部と、
前記各サブ領域の選択されたパラメーターを用いて、当該各サブ領域のフレームデータに画像処理を施す画像処理実行部と、を備える。
請求項2に記載の発明は、請求項1に記載の医用画像処理装置において、
駆動信号を生成し、駆動信号に応じて前記被検体に送信超音波を送信し反射超音波を受信する超音波探触子に、当該生成した駆動信号を入力する送信部と、
前記超音波探触子で生成された電気信号から受信信号を生成する受信部と、を備え、
前記フレームデータ生成部は、前記受信信号からフレームデータを生成する。
請求項3に記載の発明は、請求項2に記載の医用画像処理装置において、
前記パターン分類部は、前記各サブ領域のフレームデータを前記被検体の組織の種類ごとに応じて分類する。
請求項4に記載の発明は、請求項2又は3に記載の医用画像処理装置において、
前記パターン分類部は、機械学習に基づく識別器であって、前記各サブ領域のフレームデータ及び当該フレームデータから抽出された特徴量の少なくとも1つの入力により、当該各サブ領域のフレームデータをパターンに応じて分類する識別器を有する。
請求項5に記載の発明は、請求項4に記載の医用画像処理装置において、
前記識別器は、前記被検体の患者情報と前記各サブ領域のフレームデータ及び当該フレームデータから抽出された特徴量の少なくとも1つとの入力により、当該各サブ領域のフレームデータをパターンに応じて分類する。
請求項6に記載の発明は、請求項4又は5に記載の医用画像処理装置において、
前記識別器は、診断用途情報と前記各サブ領域のフレームデータ及び当該フレームデータから抽出された特徴量の少なくとも1つとの入力により、当該各サブ領域のフレームデータをパターンに応じて分類する。
請求項7に記載の発明は、請求項4から6のいずれか一項に記載の医用画像処理装置において、
前記送信部は、Cモードの駆動信号を生成し、前記超音波探触子に当該生成したCモードの駆動信号を入力し、
前記受信部は、前記超音波探触子で生成された電気信号からCモードの受信信号を生成し、
前記フレームデータ生成部は、前記受信信号からCモードのフレームデータを生成し、
前記識別器は、前記各サブ領域のフレームデータを血流及びノイズの少なくとも1つのパターンに応じて分類する。
請求項8に記載の発明は、請求項7に記載の医用画像処理装置において、
前記パターン分類部は、連続する複数フレームの前記各サブ領域のフレームデータから、血流の太さ、方向及び拍動性、並びにノイズの有無、密度、粒の大きさ及びフレーム間変化の少なくとも1つの特徴量としての特徴ベクトルを抽出する特徴量抽出部を備え、
前記識別器は、前記特徴ベクトルの入力により、前記各サブ領域のフレームデータを分類する。
請求項9に記載の発明は、請求項8に記載の医用画像処理装置において、
前記特徴量抽出部は、1フレームの前記各サブ領域のフレームデータから、血流の太さ及び方向、並びにノイズの有無、密度及び粒の大きさの少なくとも1つの特徴量としての特徴ベクトルを抽出する。
請求項10に記載の発明は、請求項8又は9に記載の医用画像処理装置において、
前記識別器は、畳み込みニューラルネットワークであり、前記各サブ領域のフレームデータの入力により、畳み込みのフィルタリングを行う畳み込みフィルターを有する。
請求項11に記載の発明は、請求項7から10のいずれか一項に記載の医用画像処理装置において、
前記画像処理実行部は、平滑化、エッジ強調、パーシスタンス、ノイズカット処理の少なくとも1つを含む画像処理を実行する。
請求項12に記載の発明は、請求項から11のいずれか一項に記載の医用画像処理装置において、
前記送信部は、Bモードの駆動信号を生成し、前記超音波探触子に当該生成したBモードの駆動信号を入力し、
前記受信部は、前記超音波探触子で生成された電気信号からBモードの受信信号を生成し、
前記フレームデータ生成部は、前記受信信号からBモードのフレームデータを生成し、
前記識別器は、前記各サブ領域のフレームデータをスペックルパターンの構造に応じて分類する。
請求項13に記載の発明は、請求項12に記載の医用画像処理装置において、
前記パターン分類部は、前記各サブ領域のフレームデータから、スペックルパターンの有無、密度、粒の大きさ及びコントラストの少なくとも1つの特徴量としての特徴ベクトルを抽出する特徴量抽出部を備え、
前記識別器は、前記特徴ベクトルの入力により、前記各サブ領域のフレームデータを分類する。
請求項14に記載の発明は、請求項13に記載の医用画像処理装置において、
前記識別器は、畳み込みニューラルネットワークであり、前記各サブ領域のフレームデータの入力により、畳み込みのフィルタリングを行う畳み込みフィルターを有する。
請求項15に記載の発明は、請求項12から14のいずれか一項に記載の医用画像処理装置において、
前記画像処理実行部は、平滑化、エッジ強調、パーシスタンス、階調変換の少なくとも1つを含む画像処理を実行する。
請求項16に記載の発明は、請求項2から15のいずれか一項に記載の医用画像処理装置において、
前記画像処理のパラメーターの種類の入力を受け付ける操作部を備え、
前記パラメーター選択部は、前記入力されたパラメーターの種類と前記各サブ領域の分類の結果とに応じて、前記入力された種類のパラメーターを選択する。
請求項17に記載の発明は、請求項2から15のいずれか一項に記載の医用画像処理装置において、
前記パラメーター選択部は、前記各サブ領域の分類の結果に応じて、予め設定された種類のパラメーターを選択する。
請求項18に記載の発明は、請求項2から17のいずれか一項に記載の医用画像処理装置において、
前記画像処理後の超音波画像データに対応する前記画像処理前のフレームデータを保存先に保存する保存制御部を備える。
請求項19に記載の発明は、請求項18に記載の医用画像処理装置において、
前記保存制御部は、画像処理後の医用画像データとしての超音波画像データの保存指示に応じて、当該保存指示された画像処理後の超音波画像データと、当該画像処理後の超音波画像データに対応する画像処理前のフレームデータと、を前記保存先に保存する。
請求項20に記載の発明は、請求項19に記載の医用画像処理装置において、
前記保存制御部は、前記保存指示された画像処理後の超音波画像データと、当該画像処理後の超音波画像データに対応する画像処理前のフレームデータと、当該画像処理後の超音波画像データに付されるテキストアノテーション情報、ボディマーク情報及び診断用途情報の少なくとも1つと、を前記保存先に保存する。
本発明によれば、1枚の画像中あるいは一連の複数画像中に複数の部位が含まれている場合に、各部位に適したパラメーターで画像処理を施すことができる。
本発明の実施の形態の超音波診断装置の構成を示す概略ブロック図である。 (a)は、実施の形態のBモード画像生成部の内部構成を示す概略ブロック図である。(b)は、実施の形態のCモード画像生成部の内部構成を示す概略ブロック図である。 (a)は、Bモード画像処理部又はCモード画像処理部の内部構成を示す概略ブロック図である。(b)は、Bモード画像処理部又はCモード画像処理部に含まれるパターン分類部の内部構成を示す概略ブロック図である。 (a)は、画像変換前のフレームデータを示す図である。(b)は、領域分割されたフレームデータを示す図である。(c)は、画像処理後のフレームデータ及び画像変換後のBモード画像データを示す図である。 Cモード画像表示処理を示すフローチャートである。 (a)は、変形例のBモード画像生成部の内部構成を示す概略ブロック図である。(b)は、変形例のCモード画像生成部の内部構成を示す概略ブロック図である。
以下、本発明に係る実施の形態及び変形例について、図面を参照して説明する。ただし、発明の範囲は図示例に限定されない。なお、以下の説明において、同一の機能及び構成を有するものについては、同一の符号を付し、その説明を省略する。
(実施の形態)
図1〜図5を参照して、本発明に係る実施の形態を説明する。先ず、図1〜図4を参照して、本実施の形態の装置構成を説明する。図1は、本実施の形態の超音波診断装置100の構成を示す概略ブロック図である。図2(a)は、Bモード画像生成部5の内部構成を示す概略ブロック図である。図2(b)は、Cモード画像生成部7の内部構成を示す概略ブロック図である。図3(a)は、Bモード画像処理部54又はCモード画像処理部76の内部構成を示す概略ブロック図である。図3(b)は、Bモード画像処理部54又はCモード画像処理部76に含まれるパターン分類部R2の内部構成を示す概略ブロック図である。図4(a)は、画像変換前のフレームデータF1を示す図である。図4(b)は、領域分割されたフレームデータF1を示す図である。図4(c)は、画像処理後のフレームデータF2及び画像変換後のBモード画像データF3を示す図である。
本実施の形態の医用画像処理装置としての図1の超音波診断装置100は、超音波診断装置本体1に、超音波探触子101と、表示部102と、が接続された状態を示している。
超音波診断装置本体1は、操作部2と、送信部3と、受信部4と、Bモード画像生成部5と、ROI(Region Of Interest:関心領域)設定部6と、Cモード画像生成部7と、表示処理部8と、制御部9と、フレームデータ記憶部10と、記憶部11と、を備える。
超音波探触子101は、一次元方向に配列された複数の振動子(圧電変換素子)101aを有し、振動子101aそれぞれが後述する送信部3からの駆動信号(送信電気信号)を超音波へと変換し、超音波ビームを生成する。従って、ユーザー(操作者)は、被計測物である被検体表面に超音波探触子101を配置することで、被検体内部に超音波ビームを照射することができる。そして、超音波探触子101は、被検体内部からの反射超音波を受信し、複数の振動子101aでその反射超音波を受信電気信号へと変換して後述する受信部4に供給する。
なお、本実施の形態においては、複数の振動子101aが一次元方向に配列されたコンベックス型の超音波探触子101を例に説明するが、これに限定されるものではない。例えば、複数の振動子101aが一次元方向に配列されたリニア型、セクター型などの超音波探触子101や、複数の振動子101aが2次元に配列された超音波探触子101や、一次元方向に配列された複数の振動子101aが揺動する超音波探触子101などを用いることも可能である。また、制御部9の制御に基づき、送信部3は、超音波探触子101が使用する振動子101aを選択し、振動子101aに電圧を与えるタイミングや電圧の値を個々に変化させることによって、超音波探触子101が送信する超音波ビームの照射位置や照射方向を制御することができる。
また、超音波探触子101は、後述する送信部3や受信部4の一部の機能を含んでいてもよい。例えば、超音波探触子101は、送信部3から出力された駆動信号を生成するための制御信号(以下、「送信制御信号」とする。)に基づき、超音波探触子101内で駆動信号を生成し、この駆動信号を振動子101aにより超音波に変換するとともに、受信した反射超音波を受信電気信号に変換し、超音波探触子101内で受信電気信号に基づき後述する受信信号を生成する構成が挙げられる。
また、超音波探触子101は、超音波診断装置本体1とケーブルを介して電気的に接続された構成が一般的であるが、これに限定されるものではなく、例えば、超音波探触子101は、超音波診断装置本体1との間で、送信信号や受信信号の送受信をUWB(Ultra Wide Band)などの無線通信により行う構成であってもよい。ただし、係る構成の場合は、超音波診断装置100及び超音波探触子101に無線通信可能な通信部を備える構成となることは言うまでもない。
さらに、超音波探触子101は、ケーブルを介して超音波診断装置本体1に接続されるコネクター(図示略)を有する。このコネクターは、超音波探触子101の種類を示す識別情報が記憶された記憶部を有する。このため、制御部9は、受信部4を介して、超音波診断装置本体1に接続されているコネクターから、超音波探触子101の種類の情報を読み出すことができる。
表示部102は、超音波診断装置本体1(表示処理部8)から出力された画像データを表示する、いわゆるモニターである。なお、本実施の形態においては、表示部102が、超音波診断装置100に接続される構成を示しているが、例えば、表示部102と後述の操作部2が一体として構成され、操作部2の操作が表示部102をタッチ操作することにより行われる、いわゆるタッチパネル式の超音波診断装置の場合には、超音波診断装置本体1と表示部102とを一体として構成されることになる。ただし、本願においては、超音波診断装置本体1と表示部102とを一体として構成される場合も、「表示部102が超音波診断装置本体1に接続されている」とすることにする。
操作部2は、ユーザーから入力を受け取り、ユーザーの入力に基づく指令を超音波診断装置100、具体的には制御部9に出力する。操作部2は、Bモード画像のみを表示させるモード(以下、「Bモード」とする。)か、Bモード画像上にCモード(カラーフローモード)画像を重畳表示させるモード(以下、「Cモード」とする。)を、ユーザーが選択することできる機能を備える。そして、操作部2は、ユーザーがBモード画像上のCモード画像を表示させるROIの位置を指定する機能も含まれる。また、表示させるCモード画像としては、さらに、血流の状態を示す血流信号としての血流速度Vにより血流の流速及び方向をカラー表示するVモードと、血流信号としての血流のパワーPにより血流のパワーをカラー表示するPモードと、血流速度V、血流信号としての分散Tにより血流の流速及び分散をカラー表示するV−Tモードと、の表示モードのCモード画像があるものとする。操作部2は、ユーザーからCモードの入力を受け付けた場合に、さらにその表示モードの入力も受け付けるものとする。なお、Cモード画像の表示モードには、T(分散)モード、dP(方向付パワー)モードなどを含めてもよい。このように、Cモードは、カラードプラーモード(Vモード、V−Tモードなど)、パワードプラーモード(Pモードなど)が含まれる。
送信部3は、少なくとも駆動信号を生成し、超音波探触子101に超音波ビームを送信させる送信処理を行う。一例として、送信部3は、振動子101aを有する超音波探触子101から超音波ビームを送信するための駆動信号を生成する送信処理を行い、この駆動信号に基づき超音波探触子101に対して所定のタイミングで発生する高圧の駆動電気信号を供給することで、超音波探触子101の振動子101aを駆動させる。これにより、超音波探触子101は、駆動電気信号を超音波へと変換することで、被計測物である被検体に超音波ビームを照射することができる。
送信部3は、制御部9の制御に従い、Cモードがオンされている場合には、Bモード画像を表示させるための送信処理に加え、Cモード画像を表示させるための送信処理が行われる。例えば、Bモード画像を表示させるための電気的な送信信号を供給した後に、Cモード画像を表示させるためのQSP(4列並列受信)用の駆動信号を同一方向(同一ライン)にn(nは例えば6〜12)回繰り返し供給することを、ROI設定部6で設定されたROIの全方向(全ライン)に対して行う。但し、QSP用の駆動信号に限定されるものではない。また、送信部3は、送信処理時にBモード画像用の送信処理或いはCモード画像用の送信処理を示す付加情報を指定しておき、この付加情報を受信部4に供給する。
受信部4は、制御部9の制御に従い、反射超音波に基づく電気的なRF(Radio Frequency)信号としての受信信号を生成する受信処理を行う。受信部4は、例えば、超音波探触子101で反射超音波を受信し、その反射超音波に基づき変換された受信電気信号に対し、受信電気信号を増幅してA/D変換、整相加算を行うことで受信信号(音線データ)を生成する。
受信部4は、送信部3から付加情報を取得し、取得した付加情報がBモード画像用の付加情報であれば受信信号をBモード画像生成部5に供給し、取得した付加情報がCモード画像用の付加情報であれば受信信号をCモード画像生成部7に供給する。以下、Bモード画像生成用の受信信号を「Bモード受信信号」、Cモード画像生成用の受信信号を「Cモード受信信号」と称することとする。
なお、本実施の形態においては、生成した画像フレームに係る受信信号を、受信部4が、Bモード画像用かCモード画像用かを選別して各ブロックに供給する構成としたが、これに限定されるものではなく、例えば、生成した画像フレームに係る受信信号を、Bモード画像生成部5及びCモード画像生成部7のそれぞれで選別する構成であってもよい。
Bモード画像生成部5は、制御部9の制御に従い、受信部4から入力されたBモード受信信号からBモード画像データを生成し、表示処理部8に出力する。
図2(a)に示すように、Bモード画像生成部5は、周波数フィルター部51と、包絡線検波部52と、対数圧縮部53と、Bモード画像処理部54と、Bモード画像変換部55と、を有する。周波数フィルター部51、包絡線検波部52、対数圧縮部53は、フレームデータ生成部として機能し、Bモード画像処理部54と、Bモード画像変換部55は、画像生成部として機能する。
周波数フィルター部51は、いわゆるダイナミックフィルターであり、制御部9の制御に従い、受信部4から入力されたBモード受信信号に所定の使用周波数帯域の信号を透過させるフィルタリングを行う処理部である。包絡線検波部52は、制御部9の制御に従い、周波数フィルター部51から入力されたフィルタリング後のBモード受信信号に包絡線検波を実施する。
対数圧縮部53は、制御部9の制御に従い、包絡線検波部52から入力された包絡線検波後のBモード受信信号に対数圧縮を実施し、対数圧縮後のBモード受信信号(フレームデータとしてのフレーム信号データとする)をフレームデータ記憶部10に出力する。Bモード画像処理部54は、制御部9の制御に従い、フレームデータ記憶部10に記憶された1フレーム分の対数圧縮後のBモードのフレーム信号データを読み出し画像処理を実施する。
図3(a)に示すように、Bモード画像処理部54は、領域分割部R1と、パターン分類部R2と、パラメーター保持部R3と、パラメーター選択部R4と、画像処理実行部R5と、を有する。
領域分割部R1は、制御部9の制御に従い、フレームデータ記憶部10に記憶された1フレーム分の対数圧縮後のBモードのフレーム信号データを読み出し、読み出した1フレーム分のBモードのフレーム信号データを、空間的に複数のサブ領域に分割する処理を行う。各サブ領域の大きさは、例えば、予め設定された所定の縦×横のピクセルの大きさであるとする。
例えば、図4(a)に示すように、対数圧縮部53から入力された対数圧縮後のBモード受信信号としてのフレーム信号データFSが集まり1つのフレームデータF1が構成される場合を考える。図4(b)に示すように、領域分割部R1は、フレームデータF1を所定の大きさのサブ領域SB1に分割する。なお、フレームデータF1の画像は、例えば、被検体の肝臓L1及び腎臓K1の画像が含まれるものとする。
パターン分類部R2は、制御部9の制御に従い、領域分割部R1から入力された各サブ領域のフレーム信号データを分類して、当該各サブ領域の組織(部位)の種類又は組織の特徴を示す画像パターンの情報を分類結果として生成し、当該各サブ領域のフレーム信号データ及び分類結果をパラメーター選択部R4に出力する。
図3(b)に示すように、パターン分類部R2は、例えば、機械学習に基づく識別器R22を有する。識別器R22は、領域分割部R1から入力された各サブ領域のフレーム信号データ又は当該各サブ領域のフレーム信号データの特徴量の入力に応じて、各サブ領域のフレーム信号データを分類して分類結果を出力する。各サブ領域のフレーム信号データの特徴量を識別器に入力する場合に、パターン分類部R2は、領域分割部R1から入力された各サブ領域のフレーム信号データから特徴量を抽出して識別器R22に入力する特徴量抽出部R21を有する。
識別器R22は、例えば、各サブ領域のフレーム信号データ又は当該各サブ領域のフレーム信号データの特徴量の入力に応じて、当該各サブ領域のフレーム信号データのスペックルパターンの構造に応じて分類結果を生成する。この場合、特徴量抽出部R21は、例えば、各サブ領域のフレーム信号データから、スペックルパターンの有無、密度、粒の大きさ及びコントラストの少なくとも1つの特徴ベクトルを特徴量として抽出して識別器R22に入力する。
また、識別器R22は、各サブ領域のフレーム信号データに加えて、患者情報及び診断用途情報の少なくとも1つを用いて、当該各サブ領域のフレーム信号データを分類する構成としてもよい。患者情報とは、被検体となる患者の性別、人種、年齢、身長、体重などである。各患者の患者情報は、例えば、当該各患者の患者IDに対応付けられて記憶部11に記憶されているものとする。診断用途情報は、プリセット(被検体の診断部位)情報及び超音波探触子101の種類の情報の少なくとも1つである。
また、識別器R22に各サブ領域のフレーム信号データの特徴量が入力される場合に、識別器R22は、例えば、判別分析器、サポートベクトルマシーン又はニューラルネットワークである。判別分析器は、事前に与えられている異なる分類に分かれるデータ(教師データ)があり、新しいデータが入力された場合に、新しいデータの属性値(特徴量)に基づいて、分類を判別するための基準(判別関数)を得るための正規分布を前提として、新しいデータの分類を判別する。この新しいデータの属性値が、特徴量抽出部R21で抽出される各サブ領域のフレーム信号データの特徴量となる。例えば、分類を判別するための基準(判別関数)は、予め識別器R22のメモリー(図示略)に設定されており、更新も可能であるものとする。
サポートベクトルマシーンは、教師有学習を用いるパターン認識モデルの一つであり、線形入力素子を利用して2クラスのパターン識別器が構成される。サポートベクトルマシーンは、訓練サンプルから、各データ点の距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で線形入力素子のパラメーターを学習し、マージン最大化超平面により線形入力素子を分類する。この線形入力素子が、特徴量抽出部R21で抽出される各サブ領域のフレーム信号データの特徴量となる。例えば、訓練サンプルに基づくマージン最大化超平面のデータは、予め識別器R22のメモリー(図示略)に設定されており、更新も可能であるものとする。
ニューラルネットワークは、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によってシナプスの結合強度を変化させ、問題解決能力を持つモデルである。ニューラルネットワークは、入力層→中間層→出力層の各層のノードと、各ノード間の繋がりの強さを表す重みと、により構成される。中間層が複数ある場合には、ディープランニングと呼ばれる。入力層のノードへの入力情報が、特徴量抽出部R21で抽出される各サブ領域のフレーム信号データの特徴量となる。出力層のノードの出力情報が、分類結果となる。また、ニューラルネットワークにおいて、出力ノードの値を、正解である教師データに近づけるように、ノード間の繋がりの重みを調整していくこととする。例えば、ノード間の繋がりの重みのデータは、予め識別器R22(図示略)のメモリーに設定されており、更新も可能であるものとする。
また、識別器R22に各サブ領域のフレーム信号データが入力される場合に、識別器R22は、例えば、畳み込みニューラルネットワークである。畳み込みニューラルネットワークは、入力画像に対してそれよりも小さい大きさの画像のピース(特徴と呼ばれる)を用いて入力画像全体にわたって一致を計算し、一致件数を計算することによりフィルターをかける畳み込みフィルター(畳み込み層)を中間層として有するニューラルネットワークである。このため、入力層のノードへの入力情報が、各サブ領域のフレーム信号データとなる。ここで識別器R22は、スペックルパターンに対応した畳み込みフィルターを有するものとする。このような畳み込みフィルターは、スペックルパターンを有する学習用フレームデータのサブ領域を用いて、あらかじめ機械学習させることによって構成することができる。出力層のノードの出力情報が、分類結果となる。例えば、ノード間の繋がりの重みのデータは、予め識別器R22のメモリー(図示略)に設定されており、更新も可能であるものとする。
パラメーター保持部R3は、情報を記憶するメモリーであり、パターン分類部R2の分類結果としての組織の種類又は画像パターンの情報に対応するBモード用の画像処理のパラメーターを記憶している。パラメーター選択部R4は、制御部9の制御に従い、パターン分類部R2から入力された各サブ領域のフレーム信号データ及び分類結果のうち、分類結果に対応するBモード用の画像処理のパラメーターを選択し、選択したパラメーターをパラメーター保持部R3から読み出し、各サブ領域のフレーム信号データ及びパラメーターを画像処理実行部R5に出力する。
Bモード画像用の画像処理は、例えば、平滑化(スムージングフィルター)、エッジ強調、パーシスタンス、階調変換の少なくとも1つを含む画像処理である。平滑化とは、注目サンプルデータ(画像であれば画素)の周辺データの加重平均を求めることにより、フレームデータを滑らかにする処理である。平滑化フィルターとも言い、加重平均の重みがすなわちフィルター係数となる。重みをガウシアンにしたものは、ガウシアンフィルターと呼ばれる。平滑化のパラメーターは、重み(フィルター係数)、カーネルサイズ(フィルターサイズ)である。ガウシアンフィルターのパラメーターとは、重みの標準偏差、カーネルサイズ(フィルターサイズ)である。
エッジ強調とは、鮮鋭化フィルターとも言い、フレームデータ(画像)の輪郭(変化)を際立たせる処理である。代表的なアルゴリズムにアンシャープマスキングがある。アンシャープマスキングは、元データ(元画像)にエッジ成分(ラプラシアンフィルター結果に重みをかけた値)を加算する処理である。エッジ強調のパラメーターは、フィルター係数、カーネルサイズ(フィルターサイズ)である。アンシャープマスキングのパラメーターは、エッジ成分(ラプラシアンフィルター結果)の係数、カーネルサイズ(マスクサイズ)である。
パーシスタンスとは、連続フレームの同一位置のサンプルデータどうしでフィルタリングすることにより、画像の変化を滑らかにしたり残像効果をもたせたりする処理である。パーシスタンスをIIR(Infinite Impulse Response)で構成する場合の一例としては以下の式(0)で表される。
Vout=(1−C(Vout,Vout-1))×Vcurrent+C(Vout,Vout-1)×Vout-1 …(0)
ただし、Vout:現フレームのパーシスタンス処理結果の値(VはValueの頭文字)、
Vcurrent:現フレームのサンプル値(同上)、
Vout-1:1つ前のフレームのパーシスタンス処理結果の値(同上)、
C(Vout,Vout-1):パーシスタンス係数(CはCoefficientの頭文字)、Vout及びVout-1に応じて値が定まる(Vout及びVout-1の関数)、である。パーシスタンスのパラメーターは、パーシスタンス係数又はパーシスタンス係数を定める関数である。
階調変換とは、予め定められた階調変換カーブに従って、フレームデータ(画像)の輝度値を変換する処理であり、コントラスト調整やガンマ補正を含む。階調変換のパラメーターは、階調変換テーブル(LUT:Look Up Table)である。ガンマ補正のパラメーターは、ガンマ補正値である。
パラメーター選択部R4は、組織の種類又は画像パターンの情報に応じて予め選択設定された画像処理のパラメーターを選択するが、例えば操作部2を介してユーザー(検査者(医師、技師など))から組織の種類又は画像パターンの情報ごとに使用するパラメーターの種類が入力されている場合には、操作入力された種類のパラメーターの値を選択するものとする。画像処理のパラメーターは、サブ領域ごとに選択設定される。
画像処理実行部R5は、制御部9の制御に従い、パラメーター選択部R4から入力された画像処理のパラメーターを用いて、パラメーター選択部R4から入力された各サブ領域のフレーム信号データに画像処理を施す。
Bモード画像変換部55は、制御部9の制御に従い、Bモード画像処理部54(画像処理実行部R5)から入力された画像処理後のフレーム信号データに、DSC(Digital Scan Converter)として座標変換を行い、またダイナミックレンジやゲインの調整を行って輝度変換(グレイスケールマッピング)を行うことで、Bモード画像データを生成して表示処理部8に出力する。図4(c)に示すように、Bモード画像変換部55は、例えば、画像処理実行部R5によりフレームデータF1が画像処理されたフレームデータF2を、コンベックス方式のBモード画像データF3に変換する。
図1に戻り、ROI設定部6は、制御部9の制御に従い、操作部2を介してユーザーから入力されたROIの設定情報に応じて、ROIの設定情報を送信部3及び表示処理部8に出力する。
Cモード画像生成部7は、制御部9の制御に従い、受信部4から入力されたCモード受信信号に応じて、Cモード画像データを生成し、表示処理部8に出力する。ここで、図2(b)を参照して、Cモード画像生成部7の内部構成を説明する。図2(b)に示すように、Cモード画像生成部7は、直交検波回路71と、コーナーターン制御部72と、MTI(Moving Target Indication)フィルター73と、相関演算部74と、データ変換部75と、Cモード画像処理部76と、Cモード画像変換部77と、を有する。直交検波回路71、コーナーターン制御部72、MTIフィルター73、相関演算部74、データ変換部75は、フレームデータ生成部として機能し、Cモード画像処理部76、Cモード画像変換部77は、画像生成部として機能する。
直交検波回路71は、制御部9の制御に従い、受信部4から入力されたCモード受信信号を直交検波することにより、取得したCモード受信信号と、参照信号との位相差を算出し、複素ドプラー信号I,Qを取得する。
コーナーターン制御部72は、制御部9の制御に従い、直交検波回路71から入力されたドプラー信号I,Qを、同一音響線(ライン)毎に、超音波探触子101から被検体への深さ方向と、超音波の送受信の繰り返し回数nのアンサンブル方向と、に配列してメモリー(図示略)に格納し、深さ毎にドプラー信号I,Qをアンサンブル方向に読み出す。
受信信号(ドプラー信号I,Q)は、Cモード画像生成に必要な血流の信号成分に加えて、不要な血管壁や組織等の情報(クラッター成分)も混在している。MTIフィルター73は、制御部9の制御に従い、コーナーターン制御部72から出力されたドプラー信号I,Qをフィルタリングしてクラッター成分を除去する。
相関演算部74は、制御部9の制御に従い、次式(1)により、MTIフィルター73によりフィルタリングされたドプラー信号I,Q(複素ドプラー信号z)から、ドプラー信号の自己相関演算の平均値S(位相差ベクトルの平均値)の実部D及び虚部Nを算出する。
Figure 0006943138
データ変換部75は、制御部9の制御に従い、MTIフィルター73によりフィルタリングされたドプラー信号I,Qや、ドプラー信号の自己相関演算の平均値Sの実部D及び虚部Nから、血流速度V、パワーP、分散Tを算出する。より具体的には、データ変換部75は、次式(2)により、ドプラー信号の自己相関演算の平均値Sの実部D及び虚部Nから、血流速度Vを算出する。
Figure 0006943138
また、データ変換部75は、次式(3)により、ドプラー信号I,Q(複素ドプラー信号z)から、ドプラー信号の強度の平均値としてのパワーPを算出する。
Figure 0006943138
また、データ変換部75は、次式(4)により、ドプラー信号I,Q(複素ドプラー信号z)から、位相差ベクトルの大きさとパワーとの比(但し、1から引いて大小を逆転したもの)としての分散Tを算出する。
Figure 0006943138
データ変換部75は、算出した血流速度V、パワーP、分散T(フレームデータとしてのフレーム信号データとする)をフレームデータ記憶部10に出力する。
Cモード画像処理部76は、制御部9の制御に従い、フレームデータ記憶部10に記憶された1フレーム分又は直近の連続する複数フレーム分のCモードのフレーム信号データを読み出し画像処理を実施する。
図3に示すように、Cモード画像処理部76は、領域分割部R1と、パターン分類部R2と、パラメーター保持部R3と、パラメーター選択部R4と、画像処理実行部R5と、を有する。
領域分割部R1は、制御部9の制御に従い、フレームデータ記憶部10に記憶された1フレーム分又は直近の連続する複数フレーム分のROI分のCモードのフレーム信号データを読み出し、読み出した1フレーム分又は連続する複数フレーム分のCモードのフレーム信号データを、空間的に複数のサブ領域に分割する処理を行う。
パターン分類部R2は、制御部9の制御に従い、領域分割部R1から入力された1又は複数フレームの各サブ領域のフレーム信号データを分類して、当該各サブ領域の組織(部位)の種類又は組織の特徴を示す画像パターンの情報を分類結果として生成し、1フレームの各サブ領域のフレーム信号データ及び分類結果をパラメーター選択部R4に出力する。
図3(b)に示すように、パターン分類部R2は、例えば、機械学習に基づく識別器R22を有する。識別器R22は、領域分割部R1から入力された1又は複数フレームの各サブ領域のフレーム信号データ又は当該各サブ領域のフレーム信号データの特徴量の入力に応じて、各サブ領域のフレーム信号データを分類して分類結果を出力する。各サブ領域のフレーム信号データの特徴量を識別器R22に入力する場合に、パターン分類部R2は、領域分割部R1から入力された1又は複数フレームの各サブ領域のフレーム信号データから特徴量を抽出して識別器R22に入力する特徴量抽出部R21を有する。
識別器R22は、例えば、1又は複数フレームの各サブ領域のフレーム信号データ又は当該各サブ領域のフレーム信号データの特徴量の入力に応じて、当該1フレームの各サブ領域のフレーム信号データの血流及びノイズのパターンに応じて分類結果を生成する。Cモードのフレーム信号データには、血流の成分に加えて、クラッターノイズ、モーションノイズと呼ばれる、組織の動きに伴うノイズも含まれている。
特徴量が入力される場合、特徴量抽出部R21は、例えば、1フレーム分の各サブ領域のフレーム信号データから、血流の太さ及び方向、並びにノイズの有無、密度及び粒の大きさの少なくとも1つの特徴ベクトルを特徴量として抽出して識別器R22に入力する。また、特徴量抽出部R21は、例えば、連続する複数フレーム分の各サブ領域のフレーム信号データから、血流の太さ、方向及び拍動性、並びにノイズの有無、密度、粒の大きさ及びフレーム間変化の少なくとも1つの特徴ベクトルを特徴量として抽出して識別器R22に入力する。拍動性は、内蔵の周期的な収縮、弛緩が繰り返される運動の性質であり、例えば、大動脈及び頸動脈と、甲状腺及び手指と、静脈とで異なる。フレーム間変化について、パラパラと出たり消えたりするノイズは消すべきであり、例えば、後述するノイズカット処理が強くかかるパラメーターが選択される。
また、識別器R22は、各サブ領域のフレーム信号データに加えて、患者情報及び診断用途情報の少なくとも1つを用いて、当該各サブ領域のフレーム信号データを分類する構成としてもよい。
また、各サブ領域のフレーム信号データの特徴量が入力される場合に、識別器R22は、例えば、判別分析器、サポートベクトルマシーン又はニューラルネットワークである。
また、各サブ領域のフレーム信号データが入力される場合に、識別器R22は、例えば、畳み込みニューラルネットワークである。入力層のノードへの入力情報は、1又は連続する複数フレーム分の各サブ領域のフレーム信号データとなる。また、識別器R22は、血流及びノイズのパターンに対応した畳み込みフィルターを有するものとする。このような畳み込みフィルターは、血流及びノイズのパターンを有する学習用フレームデータのサブ領域を用いて、あらかじめ機械学習させることによって構成することができる。出力層のノードの出力情報は、分類結果となる。例えば、ノード間の繋がりの重みのデータは、予め識別器R22のメモリー(図示略)に設定されており、更新も可能であるものとする。
パラメーター保持部R3は、情報を記憶するメモリーであり、パターン分類部R2の分類結果としての組織の種類又は画像パターンの情報に対応するCモード用の画像処理のパラメーターを記憶している。パラメーター選択部R4は、制御部9の制御に従い、パターン分類部R2から入力された各サブ領域のフレーム信号データ及び分類結果のうち、分類結果に対応するCモード用の画像処理のパラメーターを選択し、選択したパラメーターをパラメーター保持部R3から読み出し、各サブ領域のフレーム信号データ及びパラメーターを画像処理実行部R5に出力する。
Cモード画像用の画像処理とは、例えば、平滑化、エッジ強調、パーシスタンス、ノイズカット処理の少なくとも1つを含む画像処理である。ノイズカット処理とは、ノイズを除去する処理であるが、例えば、メディアンフィルター、孤立点除去、閾値処理などの手法がある。メディアンフィルターとは、注目サンプルデータ(画像であれば画素)の周辺データの中央値を取る処理であり、周辺データと大きく異なるノイズを除去する効果がある。メディアンフィルターのパラメーターは、カーネルサイズ(フィルタサイズ)である。
孤立点除去は、注目サンプルデータ(画像であれば画素)の周囲のゼロでないデータ数が所定の閾値以上かを調べ、閾値に満たない場合は除去する処理である。孤立点除去のパラメーターは、周囲のゼロでないデータ数の閾値である。
閾値処理は、注目サンプルデータ(Cモードでは血流速度VやパワーP)を所定の閾値と比較し、血流速度Vが閾値に満たない場合はクラッターノイズ、パワーPが閾値に満たない場合は背景ノイズとみなして、除去する処理であり、いわゆるキーホールフィルターである。閾値処理のパラメーターは、血流速度VやパワーPの閾値である。
パラメーター選択部R4は、組織の種類又は画像パターンの情報に応じて予め選択設定された画像処理のパラメーターを選択するが、例えば操作部2を介してユーザーから組織の種類又は画像パターンの情報ごとに使用するパラメーターの種類が入力されている場合には、操作入力された種類のパラメーターの値を選択するものとする。画像処理のパラメーターは、サブ領域ごとに選択設定される。
画像処理実行部R5は、制御部9の制御に従い、パラメーター選択部R4から入力された画像処理のパラメーターを用いて、パラメーター選択部R4から入力された各サブ領域のフレーム信号データに画像処理を施す。
Cモード画像変換部77は、制御部9の制御に従い、Cモード画像処理部76(画像処理実行部R5)から入力された画像処理後のフレーム信号データに、DSCとして座標変換を行い、またカラーマッピングを行うことで、Cモードのユーザーに指定された指定モードにおけるROIのCモード画像データを生成して表示処理部8に出力する。
表示処理部8は、表示部102に表示させる表示画像データを構築し、表示部102にその表示画像データを表示させる処理を行う。特に、Bモードが選択されている場合は、超音波画像として、Bモード画像生成部5で生成したBモード画像データのBモード画像を表示画像データ中に含める処理を行う。また、Cモードが選択されている場合は、超音波画像として、Bモード画像生成部5で生成したBモード画像上に選択されたROIの位置に、Cモード画像生成部7で生成したCモード画像データのCモード画像を重畳させた合成画像データを生成し、これを表示画像データ中に含める処理を行う。
制御部9は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えて構成され、ROMに記憶されているシステムプログラムなどの各種処理プログラムを読み出してRAMに展開し、展開したプログラムに従って超音波診断装置100の各部の動作を制御する。RAMは、CPUにより実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。ROMは、半導体などの不揮発メモリーなどにより構成され、超音波診断装置100に対するシステムプログラム及び該システムプログラム上で実行可能な、初期設定プログラムや超音波診断プログラムなどの各種処理プログラムや、各種データなどを記憶する。これらのプログラムは、コンピューターが読み取り可能なプログラムコードの形態で格納され、CPUは、当該プログラムコードに従った動作を逐次実行する。特に、ROMには、Cモード画像表示プログラムが記憶されているものとする。
記憶部11は、例えば、HDD(Hard Disk Drive)などの大容量記録媒体によって構成されており、超音波画像データ(Bモード画像データ、Cモードの合成画像データ、フレーム信号データ)などを記憶する。また、記憶部11には、患者IDに対応付けられた患者情報が記憶されているものとする。
超音波診断装置100が備える各部について、各々の機能ブロックの一部又は全部の機能は、集積回路などのハードウェア回路として実現することができる。集積回路とは、例えばLSI(Large Scale Integration)であり、LSIは集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサーで実現してもよいし、FPGA(Field Programmable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。また、各々の機能ブロックの一部又は全部の機能をソフトウェアにより実行するようにしてもよい。この場合、このソフトウェアは一つ又はそれ以上のROMなどの記憶媒体、光ディスク、又はハードディスクなどに記憶されており、このソフトウェアが演算処理器により実行される。
次に、図5を参照して、超音波診断装置100の動作を説明する。図5は、Cモード画像表示処理を示すフローチャートである。
図5のCモード画像表示処理を説明する。Cモード画像表示処理は、Bモード画像、Cモード画像のフレーム信号データを領域分割し、各サブ領域に適切な画像処理を施して画像変換し、得られたBモード画像データ及びCモード画像データを合成して表示、保存する処理である。予め、医療機関の超音波診断装置100が設置された診断室に、被検体としての患者が入室してベッドなどに横たわり、検査者としてのユーザーが超音波診断装置100を操作可能な状態にあり、超音波検査の準備が完了しているものとする。
超音波診断装置100において、例えば、操作部2を介して、ユーザーからCモード画像表示処理の実行指示が入力されたことをトリガとして、制御部9は、内部のメモリーから読み出されてRAMに適宜展開されたCモード画像表示プログラムに従い、Cモード画像表示処理を実行する。
先ず、制御部9は、操作部2を介して、ユーザーからの各種設定情報の入力を受け付け、超音波探触子101のコネクターから超音波探触子101の種類情報を設定情報として取得する(ステップS11)。操作入力される設定情報は、検査する患者ID、CモードにおけるVモードなどの指定モードの選択情報、使用する画像処理のパラメーターの種類の選択情報、プリセット情報(被検体の診断部位)、ROIの指定情報などである。患者IDが入力されると、制御部9は、入力された患者IDに対応する患者情報を記憶部11から読み出して取得する。
そして、ユーザーは、超音波探触子101を被検体の検査対象部位の表皮に適宜当てる。そして、制御部9は、ROIの指定情報に応じてROI設定部6を制御し、送信部3に、Bモード画像用の駆動信号及びROIに対応するCモード画像用の駆動信号を生成させ、当該駆動信号に応じて超音波探触子101に送信超音波を送信させ、受信部4に、その送信超音波の反射超音波が超音波探触子101で受信された受信信号に基づき、受信部4に、Bモード受信信号、Cモード受信信号を生成させる(ステップS12)。
そして、制御部9は、周波数フィルター部51、包絡線検波部52、対数圧縮部53を制御して、ステップS12で生成されたBモード受信信号に基づき、Bモードのフレーム信号データを生成させる(ステップS13)。そして、制御部9は、ステップS13で生成されたBモードのフレーム信号データをフレームデータ記憶部10に記憶する(ステップS14)。
そして、制御部9は、直近のステップS13〜S15のループにより、1フレーム分のBモードのフレーム信号データがフレームデータ記憶部10に記憶されたか否かを判別する(ステップS15)。1フレーム分のBモードのフレーム信号データが記憶されていない場合(ステップS15;NO)、ステップS13に移行される。1フレーム分のBモードのフレーム信号データが記憶された場合(ステップS15;YES)、制御部9は、Bモード画像処理部54を制御し、フレームデータ記憶部10から1フレーム分のBモードのフレーム信号データを読み出させ、読み出された1フレームのフレーム信号データにステップS11で入力された設定情報を用いた画像処理を実施させる(ステップS16)。
そして、制御部9は、Bモード画像変換部55を制御し、ステップS16で生成された画像処理後の1フレーム分のBモードのフレーム信号データを画像変換させ、Bモード画像データを生成させる(ステップS17)。
また、ステップS12の後、制御部9は、直交検波回路71、コーナーターン制御部72、MTIフィルター73、相関演算部74及びデータ変換部75を制御して、ステップS12で生成されたCモード受信信号に基づき、Cモードのフレーム信号データを生成させる(ステップS18)。そして、制御部9は、ステップS18で生成されたCモードのフレーム信号データをフレームデータ記憶部10に記憶する(ステップS19)。
そして、制御部9は、直近のステップS18〜S20のループにより、1フレーム分のCモードのフレーム信号データがフレームデータ記憶部10に記憶されたか否かを判別する(ステップS20)。1フレーム分のCモードのフレーム信号データが記憶されていない場合(ステップS20;NO)、ステップS18に移行される。1フレーム分のCモードのフレーム信号データが記憶された場合(ステップS20;YES)、制御部9は、Cモード画像処理部76を制御し、フレームデータ記憶部10から1フレーム分又は直近の連続する複数フレーム分のCモードのフレーム信号データを読み出させ、読み出された1又は複数フレームのフレーム信号データとステップS11で入力された設定情報とを用いた1フレームのフレーム信号データへの画像処理を実施させる(ステップS21)。ステップS21では、1フレーム分の画像処理後のCモードのフレーム信号データが生成される。
そして、制御部9は、Cモード画像変換部77を制御し、ステップS21で生成された画像処理後の1フレーム分のCモードのフレーム信号データを画像変換させ、Cモード画像データを生成させる(ステップS22)。
そして、制御部9は、表示処理部8を制御し、ステップS17で生成された1フレーム分のBモード画像データと、ステップS22で生成された1フレーム分のCモード画像データとを合成させて、合成画像データを生成させて表示部102に表示させ、当該合成画像データをシネメモリー(図示略)に保持させる(ステップS23)。シネメモリーは、例えば、先入れ先出し方式のメモリーで、直近の所定数のフレームの超音波画像データが保持される。
そして、制御部9は、操作部2を介して、ユーザーからのフリーズ入力を受け付け、フリーズ入力があるか否かを判別する(ステップS24)。フリーズ入力がない場合(ステップS24;NO)、ステップS12に移行される。フリーズ入力がある場合(ステップS24;YES)、制御部9は、操作部2を介して、ユーザーからの、フリーズされた所定数のフレームのうちの保存フレームの選択情報、保存用情報、保存指示の入力を受け付ける(ステップS25)。保存用情報とは、保存用の画像データ(合成画像データ)に付加するテキストアノテーション情報、ボディマーク情報などである。
そして、制御部9は、ステップS24で保存指示が入力されたか否かを判別する(ステップS26)。保存指示が入力されない場合(ステップS26;NO)、Cモード画像表示処理が終了する。保存指示が入力された場合(ステップS26;YES)、制御部9は、ステップS25で選択されたフレームの合成画像データをシネメモリーから読み出し、ステップS25で入力された保存用情報を合成画像データに合成し、当該フレームの合成画像データに対応するBモード及びCモードのフレーム信号データをフレームデータ記憶部10から読出し、当該Bモード及びCモードのフレーム信号データ、保存用情報、ステップS11で入力された診断用途情報を当該合成画像データに対応付けて記憶部11に保存(記憶)し(ステップS27)、Cモード画像表示処理を終了する。
Bモード画像表示処理については、Cモード画像表示処理のうち、ステップS12では、Bモード画像用の超音波が送受信され、ステップS18〜S22が実行されず、ステップS23では、Bモード画像データが表示、保持され、ステップS27では、Bモードのフレーム信号データ、保存用情報を、画像処理後のB画像データに対応付けて記憶部11に記憶される流れとなる。
記憶部11に記憶されている情報のうち、Bモードのフレーム信号データ、又はBモード及びCモードのフレーム信号データは、保存用情報とともに、Bモード画像処理部54、Cモード画像処理部76のパターン分類部R2の識別器の学習用のデータとして用いられる。例えば、超音波診断装置100において、制御部9が、記憶部11に記憶されたBモードのフレーム信号データ、又はBモード及びCモードのフレーム信号データ及び保存用情報は、通信部(図示略)を介して通信接続されたサーバーに送信し、パターン分類部R2の識別器の調整(例えば、判別分析器の教師データ、サポートベクトルマシーンのマージン最大化超平面のデータ、ニューラルネットワークにおけるノード間の繋がりの重みのデータ、の調整)に用いられる。例えば、調整後の識別器の調整のデータは、パターン分類部R2の識別器に設定される構成をとることができる。
また、記憶部11は、超音波診断装置100の内蔵ストレージであったが、これに限定されるものではなく、外付ストレージとしてもよく、超音波診断装置100にネットワーク接続された外部ストレージとしてもよい。いずれの構成でも、記憶部11に記憶されたBモードのフレーム信号データ、又はBモード及びCモードのフレーム信号データ及び保存用情報は、パターン分類部R2の識別器の調整に用いることが可能である。
以上、本実施の形態によれば、超音波診断装置100は、駆動信号を生成し、駆動信号に応じて前記被検体に送信超音波を送信し反射超音波を受信する超音波探触子101に、生成した駆動信号を入力する送信部3と、超音波探触子101で生成された電気信号から受信信号を生成する受信部4と、被検体のスキャンによりフレーム信号データを生成する周波数フィルター部51、包絡線検波部52、対数圧縮部53、直交検波回路71、コーナーターン制御部72、MTIフィルター73、相関演算部74、データ変換部75と、生成されたフレーム信号データに画像処理を施して超音波画像データを生成する画像生成部(Bモード画像処理部54、Bモード画像変換部55、Cモード画像処理部76、Cモード画像変換部77)と、を備える。画像生成部は、生成されたフレーム信号データを複数のサブ領域のフレーム信号データに分割する領域分割部R1と、各サブ領域のフレーム信号データをパターンに応じて分類するパターン分類部R2と、各サブ領域の分類の結果に応じて、画像処理のパラメーターを選択するパラメーター選択部R4と、各サブ領域の選択されたパラメーターを用いて、各サブ領域のフレーム信号データに画像処理を施し、画像処理後のフレーム信号データを生成する画像処理実行部R5と、を備える。
このため、1枚の画像中あるいは一連の複数の超音波画像中に複数の部位が含まれている場合に、各サブ領域のパラメーターで各サブ領域のフレーム信号データに画像処理を施すことで、各部位に適したパラメーターで画像処理を施すことができる。
また、パターン分類部R2は、各サブ領域のフレーム信号データを被検体の組織の種類ごとに応じて分類する。このため、被検体の組織の種類ごとの各部位に適したパラメーターで画像処理を施すことができる。
また、パターン分類部R2は、機械学習に基づく識別器であって、各サブ領域のフレーム信号データ及びフレーム信号データから抽出された特徴量の少なくとも1つの入力により、各サブ領域のフレーム信号データをパターンに応じて分類する識別器R22を有する。このため、各部位により適したパラメーターで画像処理を施すことができる。
また、識別器R22は、被検体の患者情報と、各サブ領域のフレーム信号データ及びフレーム信号データから抽出された特徴量の少なくとも1つと、の入力により、各サブ領域のフレーム信号データをパターンに応じて分類する。このため、患者情報の被検体の各部位により適したパラメーターで画像処理を施すことができる。
また、識別器R22は、診断用途情報と、各サブ領域のフレーム信号データ及びフレーム信号データから抽出された特徴量の少なくとも1つと、の入力により、各サブ領域のフレーム信号データをパターンに応じて分類する。このため、診断用途情報に対応する各部位により適したパラメーターで画像処理を施すことができる。
また、送信部3は、Bモードの駆動信号を生成し、超音波探触子101に生成したBモードの駆動信号を入力する。受信部4は、超音波探触子101で生成された電気信号からBモードの受信信号を生成する。周波数フィルター部51、包絡線検波部52、対数圧縮部53は、受信信号からBモードのフレーム信号データを生成する。識別器R22は、各サブ領域のフレーム信号データをスペックルパターンの構造に応じて分類する。このため、Bモード画像について各部位に適したパラメーターで画像処理を施すことができる。
また、パターン分類部R2は、各サブ領域のフレーム信号データから、スペックルパターンの有無、密度、粒の大きさ及びコントラストの少なくとも1つの特徴量としての特徴ベクトルを抽出する特徴量抽出部R21を備える。識別器R22は、特徴ベクトルの入力により、各サブ領域のフレーム信号データを分類する。このため、Bモード画像について各部位により適したパラメーターで画像処理を施すことができる。
また、識別器R22は、畳み込みニューラルネットワークであり、各サブ領域のフレーム信号データの入力により、畳み込みのフィルタリングを行う畳み込みフィルターを有する。このため、Bモード画像について、特徴量の抽出の負担を低減でき、各部位により適したパラメーターで画像処理を施すことができる。
また、画像処理実行部R5は、平滑化、エッジ強調、パーシスタンス、階調変換の少なくとも1つを含む画像処理を実行する。このため、Bモード画像について各部位に適したパラメーターで適切な種類の画像処理を施すことができる。
また、送信部3は、Cモードの駆動信号を生成し、超音波探触子101に生成したCモードの駆動信号を入力する。受信部4は、超音波探触子101で生成された電気信号からCモードの受信信号を生成する。直交検波回路71、コーナーターン制御部72、MTIフィルター73、相関演算部74、データ変換部75は、受信信号からCモードのフレーム信号データを生成する。識別器R22は、各サブ領域のフレーム信号データを血流及びノイズの少なくとも1つのパターンに応じて分類する。このため、Cモード画像について各部位に適したパラメーターで画像処理を施すことができる。
また、パターン分類部R2は、1フレームの各サブ領域のフレーム信号データから、血流の太さ及び方向、並びにノイズの有無、密度及び粒の大きさの少なくとも1つの特徴量としての特徴ベクトルを抽出する特徴量抽出部R21を備える。識別器R22は、特徴ベクトルの入力により、各サブ領域のフレーム信号データを分類する。このため、Cモード画像について静止画像からの各部位により適したパラメーターで画像処理を施すことができる。
また、パターン分類部R2は、連続する複数フレームの各サブ領域のフレームデータから、血流の太さ、方向及び拍動性、並びにノイズの有無、密度、粒の大きさ及びフレーム間変化の少なくとも1つの特徴量としての特徴ベクトルを抽出する特徴量抽出部R21を備える。識別器R22は、特徴ベクトルの入力により、各サブ領域のフレーム信号データを分類する。このため、Cモード画像について動画像からの各部位により適したパラメーターで画像処理を施すことができる。
また、識別器R22は、畳み込みニューラルネットワークであり、1フレーム又は連続する複数フレームの各サブ領域のフレーム信号データの入力により、畳み込みのフィルタリングを行う畳み込みフィルターを有する。このため、Cモード画像について、特徴量の抽出の負担を低減でき、各部位により適したパラメーターで画像処理を施すことができる。
また、画像処理実行部R5は、平滑化、エッジ強調、パーシスタンス、ノイズカット処理の少なくとも1つを含む画像処理を実行する。このため、Cモード画像について各部位に適したパラメーターで適切な種類の画像処理を施すことができる。
また、超音波診断装置100は、画像処理のパラメーターの種類の入力を受け付ける操作部2を備える。パラメーター選択部R4は、入力されたパラメーターの種類と、各サブ領域の分類の結果とに応じて、パラメーターを選択する。このため、ユーザーが選択した適切な種類と、分類の結果と、に基づいて、自動で各部位に適した種類のパラメーターで画像処理を施すことができる。
また、パラメーター選択部R4は、各サブ領域の分類の結果に応じて、予め設定された種類のパラメーターを選択する。このため、ユーザーの操作負担を低減できつつ、自動で各部位に適した種類のパラメーターで画像処理を施すことができる。
また、超音波診断装置100は、画像処理後の超音波画像データに対応する、フレームデータ記憶部10に記憶された画像処理前のフレーム信号データを記憶部11に保存する制御部9を備える。このため、画像処理前のフレーム信号データを識別器R22の機械学習用のデータとして保存して使用することにより、より適切な識別器R22を構成できる。
また、制御部9は、画像処理後の超音波画像データとしての合成画像データの保存指示に応じて、当該指示された画像処理後の合成画像データと、当該画像処理後の超音波画像データに対応する画像処理前のフレーム信号データと、を記憶部11に保存する。このため、合成画像データに対応付けられた画像処理前のフレーム信号データを識別器R22の機械学習用のデータとして保存して使用することにより、より適切な識別器R22を構成できる。
また、制御部9は、指示された画像処理後の合成画像データと、画像処理後の合成画像データに対応する画像処理前のフレーム信号データと、画像処理後の合成画像データに付されるテキストアノテーション情報、ボディマーク情報及び診断用途情報の少なくとも1つと、を記憶部11に保存する。このため、合成画像データに対応付けられた画像処理前のフレーム信号データと、テキストアノテーション情報、ボディマーク情報及び診断用途情報の少なくとも1つとを識別器R22の機械学習用のデータとして保存して使用することにより、より適切な識別器R22を構成できる。
(変形例)
図6(a)、図6(b)を参照して、上記実施の形態の変形例を説明する。ただし、上記実施の形態と同じ構成部分は、同じ符号を付してその説明を省略する。図6(a)は、変形例のBモード画像生成部5Aの内部構成を示す概略ブロック図である。図6(b)は、変形例のCモード画像生成部7Aの内部構成を示す概略ブロック図である。
本変形例の超音波診断装置100は、上記実施の形態のBモード画像生成部5、Cモード画像生成部7を、図6(a)に示すBモード画像生成部5A、図6(b)に示すCモード画像生成部7Aに代える構成とする。
図6(a)に示すように、Bモード画像生成部5Aは、周波数フィルター部51、包絡線検波部52と、対数圧縮部53と、Bモード画像変換部55Aと、Bモード画像処理部54Aと、を有する。
Bモード画像変換部55Aは、Bモード画像変換部55と同様に、制御部9の制御に従い、対数圧縮部53から入力された対数圧縮後のBモードのフレーム信号データに、DSCとして座標変換を行い、またグレイスケールマッピングを行うことで、フレームデータとしてのBモード画像データを生成してフレームデータ記憶部10に出力する。フレームデータ記憶部10は、Bモード画像変換部55Aから入力されたBモード画像データを記憶する。
Bモード画像処理部54Aは、Bモード画像処理部54と同様な構成を有し、制御部9の制御に従い、フレームデータ記憶部10に記憶された1フレーム分のBモード画像データを読み出し、読み出した1フレームのBモード画像データに画像処理を実施する。
図6(b)に示すように、Cモード画像生成部7Aは、直交検波回路71と、コーナーターン制御部72と、MTIフィルター73と、相関演算部74と、データ変換部75と、Cモード画像変換部77Aと、Cモード画像処理部76Aと、を有する。
Cモード画像変換部77Aは、Cモード画像変換部77Aと同様に、制御部9の制御に従い、データ変換部75から入力されたデータ変換後のフレーム信号データに、DSCとして座標変換を行い、またカラーマッピングを行うことで、Cモードのユーザーに指定された指定モードにおけるフレームデータとしてのROIのCモード画像データを生成してフレームデータ記憶部10に出力する。フレームデータ記憶部10は、Cモード画像変換部77Aから入力されたCモード画像データを記憶する。
Cモード画像処理部76Aは、Cモード画像処理部76と同様に、制御部9の制御に従い、フレームデータ記憶部10に記憶された1フレーム分又は直近の連続する複数フレーム分のCモード画像データを読み出し、読み出した1又は複数フレームのCモード画像データなどを用いて1フレームのCモード画像データに画像処理を実施する。
以上、本変形例によれば、上記実施の形態と同様の効果を奏する。特に、識別器R22が、畳み込みニューラルネットワークである場合に、1フレーム又は連続する複数フレームの各サブ領域のBモード画像データ、Cモード画像データの入力により、畳み込みのフィルタリングを行う畳み込みフィルターを有する。このため、Bモード画像、Cモード画像について、特徴量の抽出の負担を低減でき、各部位により適したパラメーターで画像処理を施すことができる。
なお、上記実施の形態及び変形例における記述は、本発明に係る好適な医用画像処理装置の一例であり、これに限定されるものではない。
例えば、上記実施の形態及び変形例における画像処理部(領域分割部R1、パターン分類部R2、パラメーター保持部R3、パラメーター選択部R4、画像処理実行部R5)に関する構成を、超音波画像以外の医用画像処理装置に適用する構成としてもよい。例えば、被写体をスキャンしてフレームデータ(フレーム信号データ又はフレーム画像データ)を生成し、フレームデータに上記実施の形態及び変形例における画像処理部と同様の画像処理を実施し医用画像データを生成する医用画像処理装置としてもよい。この医用画像処理装置は、例えば、X線撮像装置(CR(Computed Radiography)装置)、CT(Computed Tomography)装置、MRI(Nuclear Magnetic Resonance)装置などであり、医用画像データは、X線画像データ、CTの画像データ、MRIの画像データなどである。
また、以上の実施の形態における超音波診断装置100を構成する各部の細部構成及び細部動作に関して本発明の趣旨を逸脱することのない範囲で適宜変更可能である。
100 超音波診断装置
1 超音波診断装置本体
2 操作部
3 送信部
4 受信部
5,5A Bモード画像生成部
51 周波数フィルター部
52 包絡線検波部
53 対数圧縮部
54,54A Bモード画像処理部
55,55A Bモード画像変換部
6 ROI設定部
7,7A Cモード画像生成部
71 直交検波回路
72 コーナーターン制御部
73 MTIフィルター
74 相関演算部
75 データ変換部
76,76A Cモード画像処理部
77,77A Cモード画像変換部
8 表示処理部
9 制御部
10 フレームデータ記憶部
11 記憶部
101 超音波探触子
101a 振動子
102 表示部

Claims (20)

  1. 被検体のスキャンによりフレームデータを生成するフレームデータ生成部と、
    前記生成されたフレームデータに画像処理を施して医用画像データを生成する画像生成部と、を備え、
    前記画像生成部は、
    前記生成されたフレームデータを複数のサブ領域のフレームデータに分割する領域分割部と、
    連続する複数フレームの前記各サブ領域のフレームデータから、前記各サブ領域のフレームデータをパターンに応じて分類するパターン分類部と、
    前記各サブ領域の分類の結果に応じて、画像処理のパラメーターをサブ領域ごとに選択するパラメーター選択部と、
    前記各サブ領域の選択されたパラメーターを用いて、当該各サブ領域のフレームデータに画像処理を施す画像処理実行部と、を備える医用画像処理装置。
  2. 駆動信号を生成し、駆動信号に応じて前記被検体に送信超音波を送信し反射超音波を受信する超音波探触子に、当該生成した駆動信号を入力する送信部と、
    前記超音波探触子で生成された電気信号から受信信号を生成する受信部と、を備え、
    前記フレームデータ生成部は、前記受信信号からフレームデータを生成する請求項1に記載の医用画像処理装置。
  3. 前記パターン分類部は、前記各サブ領域のフレームデータを前記被検体の組織の種類ごとに応じて分類する請求項2に記載の医用画像処理装置。
  4. 前記パターン分類部は、機械学習に基づく識別器であって、前記各サブ領域のフレームデータ及び当該フレームデータから抽出された特徴量の少なくとも1つの入力により、当該各サブ領域のフレームデータをパターンに応じて分類する識別器を有する請求項2又は3に記載の医用画像処理装置。
  5. 前記識別器は、前記被検体の患者情報と前記各サブ領域のフレームデータ及び当該フレームデータから抽出された特徴量の少なくとも1つとの入力により、当該各サブ領域のフレームデータをパターンに応じて分類する請求項4に記載の医用画像処理装置。
  6. 前記識別器は、診断用途情報と前記各サブ領域のフレームデータ及び当該フレームデータから抽出された特徴量の少なくとも1つとの入力により、当該各サブ領域のフレームデータをパターンに応じて分類する請求項4又は5に記載の医用画像処理装置。
  7. 前記送信部は、Cモードの駆動信号を生成し、前記超音波探触子に当該生成したCモードの駆動信号を入力し、
    前記受信部は、前記超音波探触子で生成された電気信号からCモードの受信信号を生成し、
    前記フレームデータ生成部は、前記受信信号からCモードのフレームデータを生成し、
    前記識別器は、前記各サブ領域のフレームデータを血流及びノイズの少なくとも1つのパターンに応じて分類する請求項4から6のいずれか一項に記載の医用画像処理装置。
  8. 前記パターン分類部は、連続する複数フレームの前記各サブ領域のフレームデータから、血流の太さ、方向及び拍動性、並びにノイズの有無、密度、粒の大きさ及びフレーム間変化の少なくとも1つの特徴量としての特徴ベクトルを抽出する特徴量抽出部を備え、
    前記識別器は、前記特徴ベクトルの入力により、前記各サブ領域のフレームデータを分類する請求項7に記載の医用画像処理装置。
  9. 前記特徴量抽出部は、1フレームの前記各サブ領域のフレームデータから、血流の太さ及び方向、並びにノイズの有無、密度及び粒の大きさの少なくとも1つの特徴量としての特徴ベクトルを抽出する請求項に記載の医用画像処理装置。
  10. 前記識別器は、畳み込みニューラルネットワークであり、前記各サブ領域のフレームデータの入力により、畳み込みのフィルタリングを行う畳み込みフィルターを有する請求項8又は9に記載の医用画像処理装置。
  11. 前記画像処理実行部は、平滑化、エッジ強調、パーシスタンス、ノイズカット処理の少なくとも1つを含む画像処理を実行する請求項から10のいずれか一項に記載の医用画像処理装置。
  12. 前記送信部は、Bモードの駆動信号を生成し、前記超音波探触子に当該生成したBモードの駆動信号を入力し、
    前記受信部は、前記超音波探触子で生成された電気信号からBモードの受信信号を生成し、
    前記フレームデータ生成部は、前記受信信号からBモードのフレームデータを生成し、
    前記識別器は、前記各サブ領域のフレームデータをスペックルパターンの構造に応じて分類する請求項7から11のいずれか一項に記載の医用画像処理装置。
  13. 前記パターン分類部は、前記各サブ領域のフレームデータから、スペックルパターンの有無、密度、粒の大きさ及びコントラストの少なくとも1つの特徴量としての特徴ベクトルを抽出する特徴量抽出部を備え、
    前記識別器は、前記特徴ベクトルの入力により、前記各サブ領域のフレームデータを分類する請求項12に記載の医用画像処理装置。
  14. 前記識別器は、畳み込みニューラルネットワークであり、前記各サブ領域のフレームデータの入力により、畳み込みのフィルタリングを行う畳み込みフィルターを有する請求項13に記載の医用画像処理装置。
  15. 前記画像処理実行部は、平滑化、エッジ強調、パーシスタンス、階調変換の少なくとも1つを含む画像処理を実行する請求項12から14のいずれか一項に記載の医用画像処理
    装置。
  16. 前記画像処理のパラメーターの種類の入力を受け付ける操作部を備え、
    前記パラメーター選択部は、前記入力されたパラメーターの種類と前記各サブ領域の分類の結果とに応じて、前記入力された種類のパラメーターを選択する請求項2から15のいずれか一項に記載の医用画像処理装置。
  17. 前記パラメーター選択部は、前記各サブ領域の分類の結果に応じて、予め設定された種類のパラメーターを選択する請求項2から15のいずれか一項に記載の医用画像処理装置。
  18. 前記画像処理後の超音波画像データに対応する前記画像処理前のフレームデータを保存先に保存する保存制御部を備える請求項2から17のいずれか一項に記載の医用画像処理装置。
  19. 前記保存制御部は、画像処理後の医用画像データとしての超音波画像データの保存指示に応じて、当該保存指示された画像処理後の超音波画像データと、当該画像処理後の超音波画像データに対応する画像処理前のフレームデータと、を前記保存先に保存する請求項18に記載の医用画像処理装置。
  20. 前記保存制御部は、前記保存指示された画像処理後の超音波画像データと、当該画像処理後の超音波画像データに対応する画像処理前のフレームデータと、当該画像処理後の超音波画像データに付されるテキストアノテーション情報、ボディマーク情報及び診断用途情報の少なくとも1つと、を前記保存先に保存する請求項19に記載の医用画像処理装置。
JP2017206756A 2017-10-26 2017-10-26 医用画像処理装置 Active JP6943138B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017206756A JP6943138B2 (ja) 2017-10-26 2017-10-26 医用画像処理装置
US16/160,532 US10832405B2 (en) 2017-10-26 2018-10-15 Medical image processing apparatus with awareness of type of subject pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206756A JP6943138B2 (ja) 2017-10-26 2017-10-26 医用画像処理装置

Publications (2)

Publication Number Publication Date
JP2019076541A JP2019076541A (ja) 2019-05-23
JP6943138B2 true JP6943138B2 (ja) 2021-09-29

Family

ID=66243165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206756A Active JP6943138B2 (ja) 2017-10-26 2017-10-26 医用画像処理装置

Country Status (2)

Country Link
US (1) US10832405B2 (ja)
JP (1) JP6943138B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7455508B2 (ja) * 2018-12-26 2024-03-26 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置および医用複素数画像処理装置
JP7280711B2 (ja) * 2019-02-26 2023-05-24 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像処理装置、及び位置情報補正処理プログラム
CN109920518B (zh) * 2019-03-08 2021-11-16 腾讯科技(深圳)有限公司 医学影像分析方法、装置、计算机设备和存储介质
JP7379120B2 (ja) * 2019-11-28 2023-11-14 キヤノン株式会社 超音波診断装置、医用画像撮影装置、学習装置、超音波画像表示方法及びプログラム
JP7419081B2 (ja) 2020-01-24 2024-01-22 キヤノン株式会社 超音波診断装置、画像処理方法、画像処理方法及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002360521A (ja) 2001-06-07 2002-12-17 Hitachi Medical Corp 画像処理装置
JP2003334194A (ja) * 2002-03-14 2003-11-25 Matsushita Electric Ind Co Ltd 画像処理装置及び超音波診断装置
JP5089442B2 (ja) * 2008-03-07 2012-12-05 富士フイルム株式会社 超音波画像処理装置及び方法並びにプログラム
JP5534840B2 (ja) 2010-02-03 2014-07-02 キヤノン株式会社 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP6193225B2 (ja) * 2011-06-29 2017-09-06 インナー モンゴリア フルイ メディカル サイエンス カンパニー リミテッドInner Mongolia Furui Medical Science Co., Ltd 肝線維症検出装置および検出システム
JP5897227B1 (ja) * 2014-06-11 2016-03-30 オリンパス株式会社 医用診断装置、医用診断装置の作動方法および医用診断装置の作動プログラム
US10430688B2 (en) * 2015-05-27 2019-10-01 Siemens Medical Solutions Usa, Inc. Knowledge-based ultrasound image enhancement
CN113876353A (zh) * 2016-06-20 2022-01-04 蝴蝶网络有限公司 引导超声装置的操作者定位超声装置的方法、系统和介质
JP6670222B2 (ja) * 2016-11-01 2020-03-18 株式会社日立ハイテク 画像診断支援装置及びシステム、画像診断支援方法

Also Published As

Publication number Publication date
US10832405B2 (en) 2020-11-10
JP2019076541A (ja) 2019-05-23
US20190130564A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
JP6943138B2 (ja) 医用画像処理装置
CN109758178B (zh) 超声成像中的机器辅助工作流
CN106204465B (zh) 基于知识的超声图像增强
JP5645811B2 (ja) 医用画像診断装置、関心領域設定方法、医用画像処理装置、及び関心領域設定プログラム
US8094893B2 (en) Segmentation tool for identifying flow regions in an image system
EP1904971A1 (en) Method and computer program for spatial compounding of images
EP1198200A1 (en) Intravascular ultrasonic analysis using active contour method and system
US10101450B2 (en) Medical image processing apparatus, a medical image processing method and a medical diagnosis apparatus
CN111345847B (zh) 基于组织密度管理波束成形参数的方法和系统
US20210113190A1 (en) Ultrasound lesion assessment and associated devices, systems, and methods
JP2021510595A (ja) 超音波画像から解剖学的測定値を取得するための装置及び方法
KR20170086311A (ko) 의료 영상 장치 및 그 동작방법
CN112773393A (zh) 用于通过基于超声图像分析自动调整波束形成器参数来提供超声图像增强的方法和系统
JP7061232B6 (ja) 超音波画像の取得をガイドするためのシステム及び方法
JP6815259B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
CN112672695A (zh) 用于执行胎儿重量估计的方法和系统
CN109640831A (zh) 超声诊断装置
US11672503B2 (en) Systems and methods for detecting tissue and shear waves within the tissue
JP2022158712A (ja) 超音波診断装置、画像処理装置、及び画像処理プログラム
JP2022543540A (ja) 画像データを使用する超音波システム音響出力制御
Alessandrini Statistical methods for analysis and processing of medical ultrasound: applications to segmentation and restoration
KR101956460B1 (ko) 초음파 의료영상 장치를 이용한 미세석회화 조직 검출 방법 및 그 초음파 의료영상 장치
JP2022172565A (ja) 超音波画像診断装置、識別器変更方法および識別器変更プログラム
Thomas et al. 17 Machine Learning Algorithms in the Handling of Ultrasonography Big Data for Disease
JP2023077810A (ja) 超音波画像分析装置、超音波診断装置および超音波画像分析装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6943138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150