JP2023156101A - 超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラム - Google Patents

超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラム Download PDF

Info

Publication number
JP2023156101A
JP2023156101A JP2022065764A JP2022065764A JP2023156101A JP 2023156101 A JP2023156101 A JP 2023156101A JP 2022065764 A JP2022065764 A JP 2022065764A JP 2022065764 A JP2022065764 A JP 2022065764A JP 2023156101 A JP2023156101 A JP 2023156101A
Authority
JP
Japan
Prior art keywords
image
ultrasound
likelihood
ultrasonic
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022065764A
Other languages
English (en)
Inventor
義浩 武田
Yoshihiro Takeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2022065764A priority Critical patent/JP2023156101A/ja
Priority to US18/113,136 priority patent/US20230320698A1/en
Priority to CN202310378123.8A priority patent/CN116898474A/zh
Publication of JP2023156101A publication Critical patent/JP2023156101A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3401Puncturing needles for the peridural or subarachnoid space or the plexus, e.g. for anaesthesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4411Device being modular
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4488Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Vascular Medicine (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Gynecology & Obstetrics (AREA)
  • Anesthesiology (AREA)
  • Robotics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】空間コンパウンド法を用いた超音波画像診断における、ターゲット領域を示す尤度画像の確度の向上を可能とする超音波診断装置を提供すること。【解決手段】本開示に係る超音波診断装置1は、超音波プローブ20に対して超音波ビームの送受信を実行させる送受信部11と、超音波プローブ20から取得した受信信号に基づいて、超音波画像を生成する信号処理部12と、前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成するターゲット識別部13cと、互いに異なるステア角度の超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する尤度画像合成部13eと、を備えている。【選択図】図8

Description

本発明は、超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラムに関する。
従来、医用画像診断装置の一つとして、超音波を被検体に向けて送信し、その反射波を受信して受信信号に所定の信号処理を行うことにより、被検体内部の形状、性状又は動態を超音波画像として可視化する超音波診断装置が知られている。超音波診断装置は、超音波探触子を体表に当てる又は体内に挿入するという簡単な操作で超音波画像を取得することができるので、安全であり、被検体にかかる負担も小さい。
超音波診断装置は、例えば、超音波ガイド下で、被検体の体内に穿刺針を挿入して対象領域の治療を行う場合に用いられる。このような治療において、医師等の施術者は、超音波診断装置により得られる超音波画像を見て、治療対象領域を確認しながら穿刺針を挿入するとともに、治療を行うことができる。
超音波ガイド下で治療を行う場合、治療対象領域の位置及び領域を正確に把握するために、ターゲットとなる対象領域が超音波画像(Bモード画像)に鮮明に反映されていることが好ましい。例えば、末梢神経に直接又はその周辺に穿刺して局所麻酔を行う神経ブロックにおいては、麻酔薬を注入する神経や、麻酔薬を誤注入してはいけない血管等がターゲットとなり得る。また、神経ブロックでは、施術者が超音波画像上で神経と血管とを目視にて区別して、血管に穿刺しないように注意しているが、高い技量及び豊富な経験が要求される。
このような背景から、近年では、超音波画像内におけるターゲットを識別し、かかるターゲットの領域を識別可能な態様で、超音波画像の表示画像を施術者(以下、「ユーザ」とも称する)に提供する技術も提案されている(例えば、特許文献1、特許文献2を参照)。
図1は、従来技術に係る超音波画像の画像処理方法の一例を示す図である。
従来技術に係る画像処理方法では、例えば、機械学習により訓練された識別モデルを用いて、超音波画像内におけるターゲット(例えば、神経組織)を識別し、超音波画像内においてターゲットの存在領域として尤度(即ち、確信度)が高い領域を、尤度(即ち、確信度)が低い領域と区別した尤度画像を生成する(セグメンテーション処理とも称される)。そして、従来技術に係る画像処理方法では、カラーマップを用いて、超音波画像の画素値と尤度画像の画素値とに基づいて、超音波画像の各画素に対して色情報(色相、彩度、明度)を付加し、超音波画像の色相、彩度、明度の少なくとも1つを変化させて、ユーザに提供する表示画像を生成する。
尚、ターゲットの「尤度」とは、ターゲットであることの尤もらしさを示す指標であり、ターゲットの存在領域は尤度が大きく、非ターゲットの領域は尤度が小さくなる。又、「尤度画像」とは、超音波画像全体に対応するターゲットの尤度の分布(即ち、ターゲットの存在領域)を表す画像である。
特表2019-508072号公報 特開2021-058232号公報
ところで、本願の発明者らは、この種の超音波診断装置において、ユーザに対して、高画質な超音波画像を提供するとともに、超音波画像内におけるターゲット(神経組織等の穿刺対象に加えて、穿刺針等のユーザに対して存在領域の注意喚起を促す対象も含む。以下同じ)の領域を、より正確に提示することを目的として、空間コンパウンド法を適用することを検討している。空間コンパウンド法とは、被検体内の同一部位に向けて互いに異なる方向から超音波ビームを送信することにより複数のフレーム画像を生成し、これら複数のフレーム画像を合成して1枚の空間コンパウンド画像を生成する手法である。
図2は、一般的な空間コンパウンド法について、説明する図である。
空間コンパウンド法では、例えば、図2に示すように、ステア角度0度の超音波ビームを用いた超音波走査により生成される超音波画像Bと、ステア角度-θ度の超音波ビームを用いた超音波走査により生成される超音波画像Aと、ステア角度+θ度の超音波ビームを用いた超音波走査により生成される超音波画像Cと、を、3フレーム周期で且つ同一の順序で繰り返し生成し、1フレームの受信データを取得する毎に、直前の2つのフレーム分の超音波画像を併せた3フレーム分の超音波画像を合成して空間コンパウンド画像Syを生成する。これにより、常に3種類のステア角度に対応する超音波画像A、BおよびCを合成した空間コンパウンド画像Syが更新されることとなる。
かかる空間コンパウンド法によれば、互いに異なる方向から超音波ビームを送信して生成された複数のフレーム画像を合成することで、被検体内に存在する無数の散乱源からの散乱波に起因して発生するスペックルノイズを低減し、且つ、陰影等の音響ノイズを低減することができる。
しかしながら、従来技術に係る空間コンパウンド法は、ターゲットの存在領域を不確かにするいくつかの問題点を有する。
図3は、従来技術に係る空間コンパウンド法の問題点の一つであるモーションアーチファクトについて、説明する図である。
一般に、ユーザは、超音波検査においては、被検体内に存在する治療対象(例えば、神経組織)等を探すため、超音波プローブを被検体の体表に沿って移動させる。そのため、空間コンパウンド処理において合成する対象の各方向のフレーム画像は、撮像位置がずれたものとなってしまう。その結果、各方向のフレーム画像の合成により生成される空間コンパウンド画像は、不鮮明なものとなってしまい、当該空間コンパウンド画像からターゲット(図3では、神経組織HT)を識別するのが困難となる。尚、かかるモーションアーチファクトは、超音波プローブの移動以外にも、被検体内の組織(例えば、心臓)自体の動きに起因しても発生する。
図4は、従来技術に係る空間コンパウンド法の他の問題点である超音波ビームに対して音響反射異方性(以下、単に「異方性」と称する)を有する構造物の識別難易度の上昇について、説明する図である。
一般に、超音波検査においてユーザに対して存在位置を注意喚起するターゲットとしては、神経組織(図4中のHT)のように、超音波ビームに対して異方性を有しない構造物と、穿刺針(図4中のQT)のように、超音波ビームに対して異方性を有する構造物とが混在する。超音波は、一般に、音響インピーダンスに差異がある境界で反射するが、境界面に対して90度に近い角度であたるほど強く反射し、明瞭な反射超音波が得られる。そのため、神経組織のように、入射された超音波ビームに対して、種々の方向への反射超音波を誘起する構造物は、超音波ビームのビーム方向に依拠することがないため、空間コンパウンド画像上で描画状態が不鮮明となるおそれはない。しかしながら、穿刺針の場合には、超音波ビームのビーム方向が穿刺針の延在方向に直交する方向であるときには、穿刺針は、超音波画像内で鮮明に描出されるが、超音波ビームのビーム方向が穿刺針の延在方向に平行な方向であるときには、穿刺針は、超音波画像内でほとんど描出されない状態となる。
つまり、従来技術に係る空間コンパウンド法のように、各方向のフレーム画像を単純に平均化して空間コンパウンド画像を生成する手法では、画像合成の結果、穿刺針等の異方性を有する構造物の画像は、不鮮明となり、空間コンパウンド画像中においてかかる構造物を識別するのは、通常よりも困難となる。
図5は、従来技術に係る空間コンパウンド法の他の問題点である画像端に存在する構造物の識別難易度の上昇について、説明する図である。
一般に、空間コンパウンド処理においては、ステア角度0度の超音波ビームを用いた超音波走査により生成される超音波画像の画像領域にあわせて、外側の送信方向の超音波ビームを用いた超音波走査により生成される超音波画像(図2では、超音波画像A及び超音波画像C)をトリミングした上で、これらの画像の画像合成を行う。
通常、ターゲット(図3では、神経組織HT)が全周囲に亘って超音波画像内に映っているほど、ターゲットの識別処理は容易となり、ターゲットが画像端に存在し、一部が欠けた状態で描出されている場合には、ターゲットの識別難易度は上昇する。つまり、外側の送信方向の超音波ビームを用いた超音波走査により生成される超音波画像(図5の超音波画像Aを参照)では、識別可能であるものが、各方向のフレーム画像を単純に平均化して生成される空間コンパウンド画像内においては、通常よりも、困難となる。
本開示は、上記問題点に鑑みてなされたものであり、空間コンパウンド法を用いた超音波画像診断における、ターゲット領域を示す尤度画像の確度の向上を可能とする超音波診断装置、超音波診断装置の制御方法、及び超音波診断装置の制御プログラムを提供することを目的とする。
前述した課題を解決する主たる本開示は、
超音波プローブに対して超音波ビームの送受信を実行させる送受信部と、
前記超音波プローブから取得した受信信号に基づいて、超音波画像を生成する信号処理部と、
前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成するターゲット識別部と、
互いに異なるステア角度の前記超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する尤度画像合成部と、
を備える超音波診断装置である。
又、他の局面では、
超音波プローブに対して超音波ビームの送受信を実行させる処理と、
前記超音波プローブから取得した受信信号に基づいて、超音波画像を生成する処理と、
前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成する処理と、
互いに異なるステア角度の前記超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する処理と、
を有する超音波診断装置の制御方法である。
又、他の局面では、
コンピュータに、
超音波プローブに対して超音波ビームの送受信を実行させる処理と、
前記超音波プローブから取得した受信信号に基づいて、超音波画像を生成する処理と、
前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成する処理と、
互いに異なるステア角度の前記超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する処理と、
を実行させる超音波診断装置の制御プログラムである。
本開示に係る超音波診断装置によれば、空間コンパウンド法を用いた超音波画像診断における、ターゲット領域を示す尤度画像の確度の向上を図ることができる。
従来技術に係る超音波画像の画像処理方法の一例を示す図 一般的な空間コンパウンド法について、説明する図 従来技術に係る空間コンパウンド法の問題点の一つであるモーションアーチファクトについて、説明する図 従来技術に係る空間コンパウンド法の他の問題点である超音波ビームに対して音響反射異方性を有する構造物の識別難易度の上昇について、説明する図 従来技術に係る空間コンパウンド法の他の問題点である画像端に存在する構造物の識別難易度の上昇について、説明する図 本発明の一実施形態に係る超音波診断装置の外観の一例を示す図 超音波診断装置の制御系の主要部を示すブロック図 画像処理部の詳細構成を示す図 ターゲット識別部の行う処理について説明する図 尤度画像合成部の行う処理について説明する図 画像合成方法データテーブルに記憶された識別対象に応じた画像合成方法の一例を示す図
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[超音波診断装置の全体構成]
以下、図5~図6を参照して、本発明の一実施形態に係る超音波診断装置(以下、「超音波診断装置1」)の全体構成について説明する。尚、本実施形態に係る超音波診断装置1は、例えば、被検体内の形状、性状又は動態を超音波画像として可視化し、画像診断するために用いられる。
図6は、本実施形態に係る超音波診断装置1の外観の一例を示す図である。図7は、本実施形態に係る超音波診断装置1の制御系の主要部を示すブロック図である。
超音波診断装置1は、被検体内の形状、性状又は動態を超音波画像として可視化し、画像診断するために用いられる。超音波診断装置1は、例えば、被検体に穿刺して神経又は神経周辺に麻酔薬を投入して神経ブロックを行う際に、穿刺支援情報として、Bモード画像に重畳するように、ターゲットの存在領域を視認可能に提示する機能を備えている。
尚、本実施形態では、例えば、穿刺針を刺入すべき領域を把握するための神経組織、及び、穿刺針そのものが、ユーザに対して存在領域の注意喚起を促す「ターゲット」となり得る。但し、ターゲットの設定は、ユーザの超音波診断装置の利用態様に応じて任意に変更可能であり、神経をターゲットと扱い、血管や骨、筋繊維等の神経以外の構造物を非ターゲットとして扱ってもよいし、穿刺針を刺入してはいけない神経及び血管をターゲットして扱い、それ以外の構造物を非ターゲットとして扱ってもよい。
超音波診断装置1は、超音波診断装置本体10及び超音波プローブ20を備える。超音波診断装置本体10と超音波プローブ20とは、例えば、ケーブル30を介して接続される。
超音波プローブ20は、被検体に対して超音波を送信するとともに、被検体内で反射された超音波エコーを受信し、受信信号に変換して超音波診断装置本体10に送信する。超音波プローブ20には、コンベックス型、リニア型、又はセクタ型等の任意のプローブを適用することができる。
超音波プローブ20は、アレー状に配設された複数の圧電振動子によって構成された配列振動子21、及び、配列振動子21を構成する複数の圧電振動子それぞれの駆動状態のオンオフを個別に切替制御するためのチャンネル切替部(図示せず)を有する。
配列振動子21は、例えば、走査方向に沿って、アレー状に配設された複数の圧電振動子によって構成されている。そして、配列振動子21を構成する複数の圧電振動子の駆動状態のオンオフは、制御部16によるチャンネル切替部の制御により、個別に又はブロック単位で、走査方向に沿って順番に切り替え制御される。つまり、複数の圧電振動子は、個別に又はブロック単位で、送受信部11で発生された電圧パルスを超音波ビームに変換して被検体内へ送信すると共に、当該超音波ビームが被検体内で反射して発生する反射波ビームを受信して電気信号に変換して送受信部11へ出力する。これによって、超音波プローブ20において、被検体内を走査するように、超音波の送受信が実行される。
超音波診断装置本体10は、送受信部11、信号処理部12、画像処理部13、表示部14、操作入力部15、及び、制御部16を備えている。
送受信部11は、超音波プローブ20に対して、超音波の送受信を実行させる送受信回路である。
送受信部11は、電圧パルス(以下、「駆動信号」と称する)を生成して超音波プローブ20の個々の圧電振動子に対して送出する送信部11aと、超音波プローブ20の個々の圧電振動子で生成された受信ビームに係る電気信号(以下、「受信信号」と称する)を受信処理する受信部11bとを有している。そして、送信部11a及び受信部11bは、それぞれ、制御部16の制御のもと、超音波プローブ20に対して、超音波の送受信を行わせる動作を実行する。
送信部11aは、例えば、超音波プローブ20に接続するチャンネル毎に設けられたパルス発振器及びパルス設定部等を含んで構成される。当該送信部11aは、パルス発振器が生成した電圧パルスを、パルス設定部に設定された電圧振幅、パルス幅及びタイミングに調整して、配列振動子21に送出する。尚、送信部11aは、超音波プローブ20の個々の圧電振動子から出力される超音波が、所定方向にビーム状に集束するように、チャンネル毎に適宜遅延時間を設定して、各圧電振動子に対して駆動信号を供給する。
受信部11bは、例えば、プリアンプ、ADコンバータ、及び、受信ビームフォーマを含んで構成される。プリアンプとADコンバータは、超音波プローブ20に接続するチャンネル毎に設けられ、微弱な受信信号を増幅すると共に、増幅した受信信号(アナログ信号)を、デジタル信号に変換する。受信ビームフォーマは、各チャンネルの受信信号(デジタル信号)を整相加算することで複数の受信信号を1つにまとめて、信号処理部12に出力する。受信ビームフォーマでは、例えば、所定方向からの超音波エコーを集束するように、チャンネル毎に適宜遅延時間を設定して、複数の受信信号を1つにまとめて、信号処理部12に出力する。又、受信ビームフォーマでは、受信フォーカス点を超音波プローブ20の超音波放射面の近傍から連続的に深い方向へ移動させるように、ダイナミック受信フォーカス制御が行われる。
信号処理部12は、受信部11bから入力される音線データを検波(包絡線検波)して信号を取得し、また、必要に応じて対数増幅、フィルタリング(例えば、低域透過、スムージングなど)や強調処理などを行う。そして、信号処理部12は、各走査位置における受信信号をフレームメモリに順次蓄積し、走査方向と深度方向に沿った断面内の各位置におけるサンプリングデータ(例えば、受信信号の信号強度)からなる二次元データを生成する。信号処理部12は、例えば、当該二次元データの各位置の受信信号の信号強度を画素値に変換して、1フレームのBモード表示用の超音波画像のデータ(以下、「超音波画像」と略称する)を生成する。そして、信号処理部12は、送受信部11が被検体内を走査する度に、かかる超音波画像を生成する。
尚、信号処理部12は、ドプラ画像に係る超音波画像を生成し得るように、直交検波処理部や自己相関演算部等を有していてもよい。
画像処理部13は、信号処理部12で生成された超音波画像に対して、空間コンパウンド処理を施して、互いに異なるステア角度の超音波ビームを用いた超音波走査により生成された複数の超音波画像を合成して、表示用画像としての一枚の超音波画像(以下、「空間コンパウンド超音波画像」と称する)を生成する。
又、画像処理部13は、信号処理部12で生成された超音波画像に対して、構造物種別に基づくセグメンテーション処理を施して、ターゲットの存在領域を示す尤度画像を生成する。そして、画像処理部13は、互いに異なるステア角度の超音波ビームを用いた超音波走査により生成された複数の超音波画像それぞれの尤度画像を合成して、表示用画像としての一枚の尤度画像(以下、「空間コンパウンド尤度画像」と称する)を生成する。
尚、送受信部11、信号処理部12、画像処理部13は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の、各処理に応じた専用もしくは汎用のハードウェア(即ち、電子回路)で構成され、制御部16と協働して各機能を実現する。但し、これらの一部又は全部は、DSP(Digital Signal Processor)、CPU(Central Processing Unit)、またはGPGPU(General-Purpose Graphics Processing Units)等がプログラムに従って演算処理することによって実現されてもよい。
表示部14は、例えば、LCD(Liquid Crystal Display)等のディスプレイである。表示部14は、画像処理部13から表示画像データを取得して、当該表示画像データを表示する。
操作入力部15は、例えば、キーボード又はマウス等であって、ユーザが入力した操作信号を取得する。操作入力部15は、例えば、ユーザの操作入力に基づいて、超音波プローブ20の種類、被検体の種別(即ち、生体組織の種別)、被検体内の撮像対象の深度、又は、撮像モード(例えば、Bモード、Cモード、又は、Eモード)等を設定可能とする。
制御部16は、送受信部11、信号処理部12、画像処理部13、表示部14、及び、操作入力部15を、それぞれの機能に応じて制御することによって、超音波診断装置1の全体制御を行う。
制御部16は、例えば、演算/制御装置としてのCPU(Central Processing Unit)、主記憶装置としてのROM(Read Only Memory)及びRAM(Random Access Memory)等を有する。ROMには、基本プログラムや基本的な設定データが記憶される。CPUは、ROMから処理内容に応じたプログラムを読み出してRAMに展開し、展開したプログラムを実行することにより、超音波診断装置本体10の各機能ブロックの動作を集中制御する。
尚、本実施の形態では、機能ブロックを構成する各ハードウェアと制御部16とが協働することにより、各機能ブロックの機能が実現される。但し、制御部16がプログラムを実行することにより、各機能ブロックの一部又は全部の機能が実現されるようにしてもよい。
尚、制御部16は、操作入力部15に設定された超音波プローブ20の種類(例えば、コンペックス型、セクタ型、又は、リニア型等)、被検体内の撮像対象の深度、及び、撮像モード(例えば、Bモード、Cモード、又は、Eモード)等に基づいて、超音波プローブ20における超音波の送受信条件(例えば、開口条件、集束点、送信波形、中心周波数や帯域、及び、アポダイズ)を決定する。そして、制御部16は、超音波プローブ20における超音波の送受信条件に従って、送受信部11を動作させる。
[画像処理部13の詳細構成]
図8は、本実施形態に係る画像処理部13の詳細構成を示す図である。
本実施形態に係る画像処理部13は、第1DSC(Digital Scan Converter)13aと、超音波画像合成部13bと、ターゲット識別部13cと、第2DSC(Digital Scan Converter)13dと、尤度画像合成部13eと、表示画像生成部13fと、を備えている。
第1DSC13aは、信号処理部12によって生成された超音波画像に対して、超音波プローブ20の種類に応じた座標変換処理及び画素補間処理を施し、超音波画像のデータを、表示部14のテレビジョン信号の走査方式に従う表示画像のデータに変換する。
超音波画像合成部13bは、図2を参照して上記したように、互いに異なるステア角度の超音波ビームを用いた超音波走査により生成される複数の超音波画像を、合成して1枚の空間コンパウンド超音波画像を生成する。
本実施形態では、一例として、制御部16の制御のもと、超音波プローブ20から送信する超音波ビームのステア角度が制御され、図2に示すように、ステア角度0度の超音波ビームを用いた超音波走査により生成された超音波画像Bと、ステア角度-θ度の超音波ビームを用いた超音波走査により生成された超音波画像Aと、ステア角度+θ度の超音波ビームを用いた超音波走査により生成された超音波画像Cと、が、3フレーム周期で且つ同一の順序で繰り返し生成される。超音波画像合成部13bは、1フレーム分の超音波画像を取得する毎に、直前の2つのフレーム分の超音波画像を併せた3フレーム分の超音波画像を合成して空間コンパウンド超音波画像Syを生成する。
この際、超音波画像合成部13bは、例えば、ステア角度-θ度の超音波ビームを用いた超音波走査により生成された超音波画像A、及びステア角度+θ度の超音波ビームを用いた超音波走査により生成された超音波画像Cのうち、ステア角度0度の超音波ビームを用いた超音波走査により生成された超音波画像Bに重ならない外側領域については、トリミングし、これら超音波画像A、超音波画像B及び超音波画像Cの座標系を統一した後、これら超音波画像A、超音波画像B及び超音波画像Cを同一位置から取得されたBモード画像信号が重なる部分を加算平均する方法により合成する。
尚、超音波画像合成部13bが合成する対象の超音波画像のフレーム数は、3枚以外であってもよい。
ターゲット識別部13cは、図1を参照して上記したように、識別モデルD1を用いて、信号処理部12によって生成された超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、超音波画像中におけるターゲットの存在領域を示す尤度画像(超音波画像中のターゲットの尤度の分布を示す画像)を生成する。即ち、ターゲット識別部13cは、超音波画像中におけるターゲット(例えば、神経組織や穿刺針)を識別する。
ここで、識別モデルD1は、例えば、ニューラルネットワーク(例えば、畳み込みニューラルネットワーク)であって、入力された超音波画像から、超音波画像の特徴量を抽出し、超音波画像中におけるターゲットの尤度分布を出力するように、公知の機械学習アルゴリズム(例えば、誤差逆伝播法)を利用して事前に学習処理が施され、画像処理部13が有する記憶部に予め記憶されている。かかる識別モデルD1は、典型的には、超音波画像と、ターゲットの尤度分布と、が対応付けられたデータセットにより構成された教師データを用いた教師有り学習により構築される。尚、識別モデルD1の学習処理の一例については、例えば、本願の出願人の先願である特許文献2を参照されたい。
識別モデルD1は、例えば、超音波画像中から、神経組織、血管組織、筋肉組織、筋膜組織、腱組織又は穿刺針のうち、少なくとも一つ構造物種別を識別するように学習処理が施されている。識別モデルD1は、構造物種別毎に別個に用意されてもよいし、一つの識別モデルD1が、複数の構造物種別を識別するように構成されてもよい。又、同様に、ターゲット識別部13cは、識別対象のターゲットの種類に応じて、識別モデルD1の種類を切り替えてもよい。
つまり、識別モデルD1は、超音波画像中の各画素領域と対応付けて、一画素毎又は一画素ブロック(複数の画素からなる画素群を意味する。)毎に、ターゲットの尤度を算出し、入力された超音波画像全体に対応するターゲットの尤度の分布(即ち、尤度画像)を出力する。本実施形態に係る識別モデルD1は、入力された所定サイズの超音波画像の中央の画素ブロックに対応するターゲットの尤度を出力するように構成されている。そして、ターゲット識別部13cは、識別モデルD1に対する入力画像を、超音波画像の全体の中でラスタスキャンにより所定サイズ毎に走査するように切り替え、これにより、超音波画像の全体におけるターゲットの尤度の分布(即ち、尤度画像)を出力する。この際、ターゲット識別部13cは、例えば、識別モデルD1(ニューラルネットワーク)の順伝播処理により、入力画像からターゲットの尤度の分布を出力する。
ターゲット識別部13cによって生成される尤度画像は、例えば、超音波画像の各画素領域に対応して、画素領域毎に、0~1の範囲のいずれかの値の尤度が算出されたデータである(図1を参照)。かかる尤度画像は、例えば、超音波画像の全体における一種類のターゲット(例えば、神経組織)の尤度の分布を示すものであってもよいし、超音波画像の全体における複数種類のターゲット(例えば、神経組織と穿刺針)それぞれの尤度の分布を示すものであってもよい。又、尤度画像のサイズ(即ち、画素数)は、超音波画像のサイズと同一サイズのものであってもよいし、超音波画像のサイズよりもスケールダウンされたものであってもよい。
尚、ターゲット識別部13cに使用される識別モデルD1としては、ニューラルネットワーク以外の識別モデルであってもよく、SVM(Support Vector Machine)、k近傍法、ランダムフォレスト、又はこれらの組み合わせ等が用いられてもよい。この種の識別モデルは、学習処理が施されることによって、識別対象のパターンの特徴を抽出し、ノイズ等が重畳するデータからも識別対象のパターンを正確に識別し得るように自律的に最適化されるため、ロバスト性の高い識別器を構成し得る点で有用である。
第2DSC13dは、ターゲット識別部13cによって生成された尤度画像に対して、超音波プローブ20の種類に応じた座標変換処理及び画素補間処理を施し、尤度画像のデータを、表示部14のテレビジョン信号の走査方式に従う表示画像のデータに変換する。
尤度画像合成部13eは、互いに異なるステア角度の超音波ビームを用いた超音波走査により生成された複数の超音波画像それぞれから得られた尤度画像を合成して、空間コンパウンド尤度画像を生成する。
尤度画像合成部13eは、基本的には、超音波画像合成部13bの合成処理と同様、複数の尤度画像の座標系を統一した後、複数の尤度画像の同一位置における尤度の平均化等によって、複数の尤度画像を合成する。但し、尤度画像合成部13eは、画像処理部13が有する記憶部(図示せず)に予め記憶された画像合成方法データテーブルD2を参照して、構造物種別毎に設定された画像合成方法を用いて、複数の尤度画像を合成する(図11を参照)。
図9は、本実施形態に係るターゲット識別部13cの行う処理について説明する図である。図10は、本実施形態に係る尤度画像合成部13eの行う処理について説明する図である。図11は、画像合成方法データテーブルD2に記憶された識別対象に応じた画像合成方法の一例を示す図である。
本実施形態に係るターゲット識別部13cは、図9に示すように、信号処理部12によって順次生成される超音波画像に対して、各別に構造物種別に基づくセグメンテーション処理を施して、ターゲットの存在領域を示す尤度画像を生成する。即ち、ターゲット識別部13cは、例えば、ステア角度0度の超音波ビームを用いた超音波走査により生成される超音波画像Bに対して識別処理を施して、尤度画像B1を生成し、ステア角度-θ度の超音波ビームを用いた超音波走査により生成される超音波画像Aに対して識別処理を施して、尤度画像A1を生成し、ステア角度+θ度の超音波ビームを用いた超音波走査により生成される超音波画像Cに対して識別処理を施して、尤度画像C1を生成する。ここで、超音波画像A、超音波画像B、超音波画像Cに対して適用する識別モデルD1は、同一のものであってもよいし、ステア角度毎に最適化された異なるものであってもよい。
このターゲット識別部13cの処理によれば、空間コンパウンド合成に起因するモーションアーチファクトの影響を受けることがないため、ターゲット識別部13cは、超音波画像A、超音波画像B、及び超音波画像Cそれぞれから、精度良くターゲット領域の尤度が算出された尤度画像A1、尤度画像B1、及び尤度画像C1を生成することができる。
又、このターゲット識別部13cの処理によれば、穿刺針QTのように、超音波ビームに対して音響反射異方性を有する構造物についても、尤度画像A1、尤度画像B1、又は尤度画像C1のいずれかにおいて、高精度に識別することができる。図9では、ステア角度+θ度の超音波ビームのときに、穿刺針QTの延在方向に直交する方向となっており、穿刺針QTは、超音波画像C及び尤度画像C1内で鮮明に描出された状態となっている。
又、このターゲット識別部13cの処理によれば、画像端に存在する構造物についても、尤度画像A1、尤度画像B1、又は尤度画像C1のいずれかにおいて、高精度に識別することができる。例えば、図5では、超音波画像Aにおいて、神経組織HTが、鮮明に描出され、精度良くターゲット領域の尤度が算出された尤度画像A1を生成することができる。
そして、本実施形態に係る尤度画像合成部13eは、図11に示すように、画像合成方法データテーブルD2に記憶された構造物種別毎に設定された画像合成方法を用いて、複数の尤度画像A1、B1、C1を、合成して空間コンパウンド尤度画像Sy1を生成する。
例えば、尤度画像合成部13eは、識別対象のターゲットが超音波ビームに対して音響反射異方性を有する構造物(例えば、穿刺針QT)の場合、画素領域毎に、合成対象の複数の尤度画像A1、B1、C1それぞれの尤度のうち最大値を取る尤度を選択するか、又は、合成対象の複数の尤度画像A1、B1、C1それぞれの尤度のうち閾値以上の尤度を選択的に加算することで、複数の尤度画像A1、B1、C1を画像合成する。又、尤度画像合成部13eは、識別対象のターゲットが超音波ビームに対して音響反射異方性を有しない構造物(例えば、神経組織HT)の場合、画素領域毎に、合成対象の複数の尤度画像A1、B1、C1それぞれの尤度を平均化することで、複数の尤度画像A1、B1、C1を画像合成する。
尚、超音波ビームに対して音響反射異方性を有する構造物としては、例えば、穿刺針や筋膜が挙げられ、超音波ビームに対して音響反射異方性を有しない構造物としては、例えば、神経組織や筋肉組織が挙げられる。
ターゲットが一種類である場合には、尤度画像合成部13eは、尤度画像の全体領域に対して、当該ターゲットの構造物種別に対応する一種類の画像合成方法を用いて、尤度画像A1、B1、C1を合成してもよい。一方、ターゲットが複数種類である場合(即ち、複数種類のターゲットの尤度の分布を示す尤度画像を生成する場合)、尤度画像合成部13eは、尤度画像の画素領域毎に、当該画素領域に存在するターゲットの種類に応じた画像合成方法を用いて、複数の尤度画像を合成してもよい。
尚、図9では、識別対象のターゲットとして、神経組織HTと穿刺針QTの2種類のターゲットが設定された態様を示している。そして、空間コンパウンド尤度画像Sy1の神経組織HTの領域における各画素値は、尤度画像A1、B1、C1それぞれの尤度の平均値として算出され、空間コンパウンド尤度画像Sy1の穿刺針QTの領域における各画素値は、尤度画像A1、B1、C1それぞれの尤度のうち最大値が選択されて算出されている。
この尤度画像合成部13eの処理によれば、精度良くターゲット領域の尤度が算出された尤度画像A1、尤度画像B1、及び尤度画像C1を合成して、空間コンパウンド尤度画像Sy1を生成することができるため、尤度画像合成部13eは、モーションアーチファクトによる影響が抑制された確度の高い尤度画像(即ち、尤度分布)を構築することができる。これは、モーションアーチファクトによる影響によりボケて生成された空間コンパウンド超音波画像から、識別モデルを用いて、ターゲットを識別する困難性を回避することができるためである。
又、この尤度画像合成部13eの処理によれば、構造物種別毎に設定された画像合成方法を用いて、複数の尤度画像A1、B1、C1を、合成して空間コンパウンド尤度画像Sy1を生成するため、空間コンパウンド尤度画像Sy1上において、例えば、尤度画像A1、尤度画像B1、又は尤度画像C1のうち、超音波ビームに対して音響反射異方性を有する構造物(ここでは、穿刺針QT)が鮮明に描出された尤度画像の情報が鮮明に現れることになる。即ち、これによって、空間コンパウンド尤度画像Sy1上において、ターゲットの存在領域を明確化することが可能である。
又、この尤度画像合成部13eの処理によれば、超音波画像A、B、Cそれぞれから尤度画像A1、B1、C1を生成した後、これらを合成するため、画像端に存在するターゲットについても、高精度に識別することが可能である。これは、超音波画像A、超音波画像B、又は超音波画像Cのうちの少なくともいずれかにおいては、画像端に存在する構造物の全体が映った状態となっており、かかる超音波画像A、超音波画像B、及び超音波画像Cから生成された尤度画像A1、尤度画像B1、及び尤度画像C1の少なくともいずれかにおいては、ターゲットが高精度に識別されるためである。
尚、尤度画像合成部13eは、尤度画像A1、尤度画像B1及び尤度画像C1を合成する前に、時間的に連続する超音波画像から得られる尤度に関する情報(例えば、ターゲット尤度、尤度分布)の変化に基づいて、尤度画像A1、尤度画像B1及び尤度画像C1それぞれに含まれるノイズを除去することが好ましい。この際、尤度画像合成部13eは、例えば、ステア角度0度の超音波ビームを用いた超音波走査により生成された超音波画像Bから得られた尤度画像B1の時間的変化、ステア角度-θ度の超音波ビームを用いた超音波走査により生成された超音波画像Aから得られた尤度画像A1の時間的変化、及び、ステア角度+θ度の超音波ビームを用いた超音波走査により生成された超音波画像Cから得られた尤度画像C1の時間的変化に切り分けて、ノイズ処理を行うのが好ましい。
この場合、尤度画像合成部13eは、例えば、時間軸方向において、移動平均フェイルター処理やメディアンフィルター処理を適用することで、尤度画像に含まれるノイズを除去することができる。この場合、尤度に関する情報の変化(急峻度)が予め設定されたしきい値を超える領域をノイズ領域として検出し、このノイズ領域についてのみ、ノイズ除去処理を行うようにしてもよい。
又、尤度画像合成部13eは、尤度画像A1、尤度画像B1及び尤度画像C1を合成する際、前処理として、尤度画像A1、尤度画像B1及び尤度画像C1それぞれに対して正規化処理を施してもよい。
表示画像生成部13fは、ターゲット識別部13cにおいて生成された空間コンパウンド尤度画像Sy1を、超音波画像合成部13bにおいて生成された空間コンパウンド超音波画像Syにおけるターゲット領域の強調マップとして適用する。
表示画像生成部13fは、例えば、超音波画像合成部13bにおいて生成された空間コンパウンド超音波画像Sy上に、ターゲット識別部13cにおいて生成された空間コンパウンド尤度画像Sy1を重畳させて、表示部14に出力する。
この際、表示画像生成部13fは、例えば、図1に示したカラーマップを用いて、空間コンパウンド超音波画像Syと空間コンパウンド尤度画像Sy1とを画像合成してもよい。表示画像生成部13fは、例えば、画像内で互いに対応する位置関係にある空間コンパウンド超音波画像Syの画素値と空間コンパウンド尤度画像Sy1の画素値とに基づいて、空間コンパウンド超音波画像Syの各画素に対して色情報(色相、彩度、明度)を付加し、空間コンパウンド超音波画像Syの色相、彩度、明度の少なくとも1つを変化させて、ユーザに提供する表示画像を生成する。
尚、表示画像生成部13fは、超音波画像合成部13bにおいて生成された空間コンパウンド超音波画像Sy上に、ターゲット識別部13cにおいて生成された空間コンパウンド尤度画像Sy1を重畳させる代わりに、空間コンパウンド超音波画像Syと空間コンパウンド尤度画像Sy1とを並べて表示してもよい。
[効果]
以上のように、本実施形態に係る超音波診断装置1は、
超音波プローブ20に対して超音波ビームの送受信を実行させる送受信部11と、
超音波プローブ20から取得した受信信号に基づいて、超音波画像を生成する信号処理部12と、
前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成するターゲット識別部13cと、
互いに異なるステア角度の超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する尤度画像合成部13eと、
を備えている。
従って、本実施形態に係る超音波診断装置1によれば、モーションアーチファクトによる影響が抑制された確度の高い尤度画像(即ち、尤度分布)を構築することが可能である。又、これにより、画像端に映るターゲットについても高精度に識別することが可能である。即ち、これによって、尤度画像(ここでは、空間コンパウンド尤度画像Sy1)上において、ターゲットの存在領域をより明確化することが可能である。
又、本実施形態に係る超音波診断装置1においては、特に、尤度画像合成部13eは、構造物種別毎に設定された画像合成方法を用いて、複数の尤度画像を合成して空間コンパウンド尤度画像を生成する。
従って、本実施形態に係る超音波診断装置1によれば、超音波ビームに対して音響反射異方性を有する構造物(穿刺針や筋膜等)についても高精度に識別可能である。これによって、尤度画像(ここでは、空間コンパウンド尤度画像Sy1)上において、ターゲットの存在領域をより明確化することが可能である。
(変形例)
上記実施形態では、尤度画像合成部13eは、予め画像合成方法データテーブルD2に記憶された構造物種別毎に設定された画像合成方法を用いて、複数の尤度画像A1、B1、C1を合成して空間コンパウンド尤度画像Sy1を生成する構成を示した(図11を参照)。
しかしながら、尤度画像合成部13eにおける画像合成方法は、ユーザによって設定可能であってもよい。これによって、より柔軟な処理が可能となる。
尤度画像合成部13eは、例えば、ユーザによって、超音波画像に映る個々のターゲット毎、又は超音波画像の画素領域毎に、各別に画像合成方法を設定可能としてもよい。これによって、例えば、画像端に映るターゲットについては、尤度画像A1、B1、C1それぞれの尤度のうち最大値が選択されるようにして、一方、画像中央に映るターゲットについては、尤度画像A1、B1、C1それぞれの尤度の平均値が算出されるように設定することも可能である。尚、この場合、ユーザが超音波画像中から選択的に所定の画素領域の画像合成方法を設定し得るように、表示部14にユーザインターフェイス画像を表示してもよい。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本開示に係る超音波診断装置によれば、空間コンパウンド法を用いた超音波画像診断における、ターゲット領域を示す尤度画像の確度の向上を図ることができる。
1 超音波診断装置
10 超音波診断装置本体
11 送受信部
11a 送信部
11b 受信部
12 信号処理部
13 画像処理部
13a 第1DSC
13b 超音波画像合成部
13c ターゲット識別部
13d 第2DSC
13e 尤度画像合成部
13f 表示画像生成部
14 表示部
15 操作入力部
16 制御部
20 超音波プローブ
30 ケーブル

Claims (11)

  1. 超音波プローブに対して超音波ビームの送受信を実行させる送受信部と、
    前記超音波プローブから取得した受信信号に基づいて、超音波画像を生成する信号処理部と、
    前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成するターゲット識別部と、
    互いに異なるステア角度の前記超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する尤度画像合成部と、
    を備える超音波診断装置。
  2. 前記空間コンパウンド尤度画像は、互いに異なるステア角度の前記超音波ビームを用いた超音波走査により生成された複数の前記超音波画像の合成により生成された空間コンパウンド超音波画像におけるターゲット領域の強調マップとして適用される、
    請求項1に記載の超音波診断装置。
  3. 前記尤度画像合成部は、前記構造物種別毎に設定された画像合成方法を用いて、複数の前記尤度画像を合成して前記空間コンパウンド尤度画像を生成する、
    請求項1に記載の超音波診断装置。
  4. 複数種類の前記ターゲットが設定される場合、
    前記尤度画像合成部は、前記尤度画像の画素領域毎に、当該画素領域に存在する前記ターゲットの種類に応じた画像合成方法を用いて、複数の前記尤度画像を合成して前記空間コンパウンド尤度画像を生成する、
    請求項3に記載の超音波診断装置。
  5. 前記尤度画像合成部は、
    識別対象の前記ターゲットが前記超音波ビームに対して音響反射異方性を有する第1構造物の場合、画素領域毎に、合成対象の複数の前記尤度画像それぞれの尤度のうち最大値を取る尤度を選択するか、又は、合成対象の複数の前記尤度画像それぞれの尤度のうち閾値以上の尤度を選択的に加算することで、複数の前記尤度画像を画像合成し、
    識別対象の前記ターゲットが前記超音波ビームに対して音響反射異方性を有しない第2構造物の場合、画素領域毎に、合成対象の複数の前記尤度画像それぞれの尤度を平均化することで、複数の前記尤度画像を画像合成する、
    請求項3に記載の超音波診断装置。
  6. 前記第1構造物は、穿刺針を含み、
    前記第2構造物は、神経組織を含む、
    請求項5に記載の超音波診断装置。
  7. 前記尤度画像合成部は、ユーザによって設定された画像合成方法を用いて、複数の前記尤度画像を合成して前記空間コンパウンド尤度画像を生成する、
    請求項1に記載の超音波診断装置。
  8. 前記ターゲット識別部は、機械学習により学習済みの識別モデルを用いて、複数の前記超音波画像それぞれに対して前記構造物種別に基づくセグメンテーション処理を行う、
    請求項1に記載の超音波診断装置。
  9. 前記識別モデルは、ニューラルネットワークである、
    請求項8に記載の超音波診断装置。
  10. 超音波プローブに対して超音波ビームの送受信を実行させる処理と、
    前記超音波プローブから取得した受信信号に基づいて、超音波画像を生成する処理と、
    前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成する処理と、
    互いに異なるステア角度の前記超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する処理と、
    を有する超音波診断装置の制御方法。
  11. コンピュータに、
    超音波プローブに対して超音波ビームの送受信を実行させる処理と、
    前記超音波プローブから取得した受信信号に基づいて、超音波画像を生成する処理と、
    前記超音波画像に対して構造物種別に基づくセグメンテーション処理を施して、前記超音波画像中におけるターゲットの存在領域を示す尤度画像を生成する処理と、
    互いに異なるステア角度の前記超音波ビームを用いた超音波走査により生成された複数の前記超音波画像それぞれの前記尤度画像を合成して、空間コンパウンド尤度画像を生成する処理と、
    を実行させる超音波診断装置の制御プログラム。
JP2022065764A 2022-04-12 2022-04-12 超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラム Pending JP2023156101A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022065764A JP2023156101A (ja) 2022-04-12 2022-04-12 超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラム
US18/113,136 US20230320698A1 (en) 2022-04-12 2023-02-23 Ultrasonic diagnostic apparatus, method for controlling ultrasonic diagnostic apparatus, and control program for ultrasonic diagnostic apparatus
CN202310378123.8A CN116898474A (zh) 2022-04-12 2023-04-07 超声波诊断装置、超声波诊断装置的控制方法及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022065764A JP2023156101A (ja) 2022-04-12 2022-04-12 超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラム

Publications (1)

Publication Number Publication Date
JP2023156101A true JP2023156101A (ja) 2023-10-24

Family

ID=88240867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022065764A Pending JP2023156101A (ja) 2022-04-12 2022-04-12 超音波診断装置、超音波診断装置の制御方法、及び、超音波診断装置の制御プログラム

Country Status (3)

Country Link
US (1) US20230320698A1 (ja)
JP (1) JP2023156101A (ja)
CN (1) CN116898474A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220414402A1 (en) * 2021-06-28 2022-12-29 Varian Medical Systems, Inc. Automatic localized evaluation of contours with visual feedback
CN118154626A (zh) * 2024-05-09 2024-06-07 清泽医疗科技(广东)有限公司 一种神经阻滞麻醉超声引导图像处理方法

Also Published As

Publication number Publication date
US20230320698A1 (en) 2023-10-12
CN116898474A (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US10278670B2 (en) Ultrasound diagnostic apparatus and method of controlling ultrasound diagnostic apparatus
JP5645628B2 (ja) 超音波診断装置
US9833216B2 (en) Ultrasonic diagnosis apparatus and image processing method
US11672506B2 (en) Ultrasound diagnosis apparatus and image processing apparatus
JP4969985B2 (ja) 超音波診断装置、及び超音波診断装置の制御プログラム
EP1745745B9 (en) Apparatus for obtaining ultrasonic images and method of obtaining ultrasonic images
US20230320698A1 (en) Ultrasonic diagnostic apparatus, method for controlling ultrasonic diagnostic apparatus, and control program for ultrasonic diagnostic apparatus
JP2012213606A (ja) 超音波診断装置及び制御プログラム
JP2020531074A (ja) 画像アーチファクト特定及び除去のための深層学習ネットワークを有する超音波システム
US11191524B2 (en) Ultrasonic diagnostic apparatus and non-transitory computer readable medium
JP5231822B2 (ja) 超音波診断装置、及び超音波診断装置の制御プログラム
JP2019188005A (ja) 超音波診断装置及び穿刺支援プログラム
CN112654304A (zh) 利用超声成像的脂肪层识别
US20220313220A1 (en) Ultrasound diagnostic apparatus
JP2014054362A (ja) 超音波診断装置、画像処理装置及びプログラム
JP5996268B2 (ja) 超音波診断装置、画像処理装置、及びプログラム
CN113573645B (zh) 用于调整超声探头的视场的方法和系统
KR20180034974A (ko) 조영 초음파 이미지에서의 관심영역 설정 방법 및 초음파 시스템
EP4243695B1 (en) Methods and systems for tracking a motion of a probe in an ultrasound system
KR102634705B1 (ko) 증강 이미지를 생성하기 위한 초음파 이미징 시스템 및 방법
JP2012245092A (ja) 超音波診断装置
JP7343342B2 (ja) 超音波診断装置、及び画像処理装置
JP2022543540A (ja) 画像データを使用する超音波システム音響出力制御
US11883241B2 (en) Medical image diagnostic apparatus, ultrasonic diagnostic apparatus, medical imaging system, and imaging control method
EP4255308B1 (en) Analysing ultrasound image data of the rectus abdominis muscles