JP6935020B2 - 超音波画像の特徴を識別するシステム及び方法 - Google Patents

超音波画像の特徴を識別するシステム及び方法 Download PDF

Info

Publication number
JP6935020B2
JP6935020B2 JP2020546417A JP2020546417A JP6935020B2 JP 6935020 B2 JP6935020 B2 JP 6935020B2 JP 2020546417 A JP2020546417 A JP 2020546417A JP 2020546417 A JP2020546417 A JP 2020546417A JP 6935020 B2 JP6935020 B2 JP 6935020B2
Authority
JP
Japan
Prior art keywords
ultrasonic
images
ultrasound images
operation signal
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020546417A
Other languages
English (en)
Other versions
JP2021516105A (ja
Inventor
ビンヤム ジブレキダン ジブレ
ビンヤム ジブレキダン ジブレ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021516105A publication Critical patent/JP2021516105A/ja
Application granted granted Critical
Publication of JP6935020B2 publication Critical patent/JP6935020B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Description

本発明は、超音波画像処理の分野に係り、特には、超音波画像内の自動的な特徴構造の特徴付けの分野に関する。
超音波撮像は、種々の異なる用途で益々採用されるようになっている。被検体の状態を正確に評価するために、ユーザに該被検体に関する十分な情報を提供することが重要である。このことは、当該被検体が医療超音波スキャンを受ける患者である場合に特に当てはまる。
幾つかの超音波撮像システムは、被検体の1以上の超音波画像を得るための超音波プローブを有している。超音波プローブは、通常、当該超音波撮像システムのユーザ又は臨床医により保持されるように構成される。
超音波プローブは、超音波を送信すると共にエコー情報を受信するためのCMUTトランスジューサアレイを有することができる。受信されたエコー情報は1以上の超音波画像を発生するように処理される。上記トランスジューサアレイは、代わりに、PZT又はPVDF等の材料から形成された圧電トランスジューサを有することもできる。斯かるトランスジューサアレイは、2D面内で又は3D撮像のために三次元内でスキャンすることができるトランスジューサの二次元アレイを有することができる。他の例において、該トランスジューサアレイは1Dアレイとすることもできる。
超音波画像の特徴を識別したいという益々増加する要望が存在している。これらの特徴は、なかでも、超音波画像内に存在する特徴構造又は超音波画像の品質を含み得る。超音波画像における異常の正確な検出又は特徴構造の正確な測定を可能にするためには、高品質の超音波画像が必要とされる。典型的に、超音波画像の特徴は、キャプチャされた超音波画像に対して画像処理方法を実行することにより検出される。
米国特許出願公開第2016/048737号は、超音波医療画像の適応的コンピュータ支援診断(CAD)のための装置を記載しており、該装置は、画像解析アルゴリズムをプローブの速度又は該プローブにより得られた現画像の解像度に基づいて選択するように構成された画像解析アルゴリズム選択器並びに該選択された画像解析アルゴリズムを用いて現画像フレームにおける関心領域(ROI)を検出及び分類するように構成された画像解析器を含む。
米国特許出願公開第2016/155227号も、ユーザの診断意図の決定に基づくCAD装置に関するものである。該CAD装置は、プローブからの画像入力からROIを検出するように構成されたROI検出器及び該ROI検出器がROIを検出することに応答してプローブの運動を決定するように構成されたプローブ運動決定器を含む。該CAD装置は、更に、プローブの決定された運動に基づいてユーザの診断意図を決定するように構成された診断意図決定器及び該決定されたユーザの診断意図に基づいて診断手順を実行するように構成された診断意図プロセッサを有する。
本発明は、請求項により定義される。
本発明の一態様による例によれば、1以上の超音波画像の特徴を識別するコンピュータにより実施化される方法(コンピュータ実施方法)が提供され、各超音波画像は超音波撮像処理を用いて超音波プローブにより撮像された被検体のものであり、当該方法は、
前記超音波撮像処理の間における前記超音波プローブの操作を示す操作信号を取得するステップと、
前記操作信号の一部分を取得するステップであって、該取得された部分は或る期間における前記超音波プローブの操作を示し、該取得された部分が1以上の超音波画像に関連付けられるステップと、
ニューラルネットワークシステムを用いて、前記1以上の関連付けられた超音波画像の特徴を前記1以上の超音波画像及び前記操作信号の前記取得された部分の両方に基づいて分類するステップと、
を有する。前記1以上の関連付けられた超音波画像の特徴を分類するステップは、1以上の畳み込みカーネルを前記操作信号の前記取得された部分に適用して前記操作信号の前記取得された部分を表す畳み込み出力を発生するステップ、及び前記畳み込み出力を分類して前記取得された部分に関連付けられた前記1以上の超音波画像の特徴を示すステップを有する。
このように、超音波画像の特徴を、該超音波画像及び該超音波画像をキャプチャする超音波プローブ操作信号の両方を解析及び分類することにより識別する方法が提案される。操作信号の一部分は1以上の超音波画像に関連付けられ、該部分は少なくとも1つの超音波画像のキャプチャに関連した期間における超音波プローブの操作(例えば、空間的移動)を表す。該操作信号の部分は、関連する超音波画像(又は複数の画像)の特徴を識別することを補助するために分類される。このようにして、操作信号は超音波画像の特徴を識別することを支援するように処理することができる。
本発明は、超音波プローブが操作される態様が超音波画像の特徴に影響する又は該特徴を示すということを提唱する。このように、操作信号(超音波プローブの操作を示す)の特徴は、該超音波プローブにより収集された超音波画像の特徴を定める助けとなり得る。超音波画像に関する情報は、操作信号を処理又は解析することにより識別することができる。特に、畳み込みカーネルは、取得された部分の局部的時間パターン等を表す畳み込み出力をキャプチャすることができ、該出力は、次いで、上記取得された部分に関連付けられる1以上の超音波画像の特徴を識別するために有利に使用することができる。関連する超音波画像と併せて、操作信号の抽出部分、特に該部分の畳み込み出力を分類することにより、該抽出部分に関連する1以上の超音波画像の特徴を識別することができる。
即ち、本発明によれば、ニューラルネットワークシステムは前記1以上の超音波画像及び前記操作信号の取得された部分の両方を入力として取り込み、これらを処理して前記1以上の関連付けられた超音波画像の特徴を分類する。該ニューラルネットワークシステムにより実行される処理は、前記操作信号の取得された部分を表す畳み込み出力を発生するステップを含み、該出力は、次いで、該ニューラルネットワークシステムにおいて前記1以上の超音波画像及び/又は該画像の部分と、並びに恐らくは該ニューラルネットワークシステムの中間処理段により発生される前記1以上の超音波画像及び/又は該画像の部分を表す出力と一緒に用いられて、前記1以上の関連付けられた超音波画像の特徴を分類する。
好ましい実施態様において、前記1以上の関連付けられた超音波画像の特徴を分類するステップは、
前記ニューラルネットワークシステムに含まれる第1ニューラルネットワークを用いて、前記操作信号の取得された部分を表す畳み込み出力を発生すると共に、該畳み込み出力を分類して前記超音波プローブの操作パターンを示すステップと、
前記ニューラルネットワークシステムに含まれる第2ニューラルネットワークを用いて、前記1以上の関連付けられた超音波画像の特徴を前記1以上の超音波画像及び前記操作パターンに基づいて分類するステップと、
を有する。
例示として、被検体の異なる特徴構造(例えば、臓器等の関心領域)が当該超音波プローブの異なる動きがなされる場合にキャプチャされていることが分かり得る。超音波画像に関連付けられた操作信号の部分(該操作信号の時間抽出部である)が特定の動きと類似する又は同一であると分類することにより、被検体の特徴構造の検出を改善することができる。
提案される発明は、これにより、超音波画像の特徴が識別されることを可能にし、その場合において、操作信号を超音波画像と一緒に使用することは、超音波画像単独で見付かる情報に付け加わる又は該情報より一層正確な情報を提供し得る。提案される概念は、これにより、超音波画像の自動化され且つ一層正確な特徴付けを可能にする。
一実施態様において、前記1以上の関連付けられた超音波画像の特徴を分類するステップは、
a)前記操作信号の前記取得された部分が、
高品質超音波画像;
前記被検体の予め定められたビューの超音波画像;及び
前記関連付けられた1以上の超音波画像における前記被検体の1以上の予め定められた関心領域の存在;
のうちの1つに関連付けられるかを分類するステップと、
b)前記1以上の関連付けられた超音波画像の特徴を、前記取得された部分の分類を前記1以上の関連付けられた超音波画像の特徴として割り当てることにより識別するステップと、
を有する。即ち、前記1以上の関連付けられた超音波画像の特徴の識別は、前記取得された部分の分類を該1以上の関連付けられた超音波画像の特徴として割り当てることを含む。
前述したように、操作信号は、該操作信号の発生の間にキャプチャされた超音波画像の特徴を定め又は示す助けとなり得る。上記特徴(超音波画像の品質、超音波画像のビューポイント、及び超音波画像における被検体の特定の特徴構造の存在)は、操作信号において特別に識別可能であることが分かっている。
当該方法は、従って、超音波画像及び操作信号から超音波画像が所望の領域若しくは関心領域を描いているか又は妥当な品質のものであるかを識別することができる。
予め定められた関心領域が当該1以上の超音波画像内で見付かるか否か又は該超音波画像が予め定められたビューのものであるかを識別することは、改善されたラベル付け、注釈付け又は該画像のセグメンテーションを可能にする。幾つかの超音波ガイダンス規格は、スクリーニング又は分析目的で被検体(例えば、胎児)の特定のビューが取得されることを要求している。被検体のビューの自動化された検出は、このような規格が非常に高い精度及び容易さで満たされることを可能にする。
超音波画像が高品質のものであるか否かを識別することは、低品質画像(被検体の分析にとっては典型的に有用でない)の自動化された廃棄を可能にし、これにより、メモリ記憶要件を低減すると共に超音波システムのユーザに対する負荷を低減する。
他の実施態様において、前記1以上の関連付けられた超音波画像の特徴を分類するステップは、
前記操作信号を、各部分が同一の1以上の超音波画像に関連付けられた複数の部分に分割するステップと、
前記操作信号の取得された各部分に1以上の畳み込みカーネルを適用して、各時間区間の畳み込み出力を発生するステップと、
長短期記憶を用いて各時間区間の前記畳み込み出力を処理して、取得された各部分を分類するステップと、
を有する。
前記畳み込みカーネルは、取得された部分の局部的時間パターン等を表す畳み込み出力をキャプチャすることができる。各局部的時間パターンは、次いで、画像収集時間窓の間における当該プローブの運動の長期時間パターンを構築するために処理される。このことは、例えば、長短期記憶アーキテクチャにより実行することができる。
一実施態様において、
前記操作信号を取得するステップは、各々が前記超音波撮像処理の間における前記超音波プローブの操作を示す複数の操作信号を取得するステップを有し、
前記操作信号の一部分を取得するステップは、各操作信号から時間的に関連する部分を取得することにより複数の時間的に関連する部分を取得するステップであって、該複数の時間的に関連する部分が同一の1以上の超音波画像に関連付けられるステップを有し、
前記1以上の関連付けられた超音波画像の特徴を分類するステップは、前記複数の時間的に関連する部分を分類して前記1以上の関連付けられた超音波画像の特徴を示すステップを有する。
他の実施態様において、前記複数の時間的に関連する部分を分類するステップは、
前記複数の時間的に関連する部分を表す二次元データ構造を得るステップと、
前記二次元データ構造に畳み込みカーネルを適用して、該二次元データ構造の畳み込み出力を発生するステップと、
前記畳み込み出力を分類して、前記1以上の関連付けられた超音波画像の特徴を示すステップと、
を有する。
前記操作信号の取得された部分の二次元データ構造に畳み込みカーネルを適用することにより、該操作信号を畳み込みニューラルネットワークを用いて処理することが可能になる。このようにして、該操作信号における局部的時間パターンを識別し、前記超音波画像と一緒に使用して該超音波画像の特徴を分類することができる。
更に他の実施態様において、
前記操作信号の一部分を取得するステップは、前記操作信号の2以上の複数の時間的に関連する部分を取得するステップであって、該複数の各々が同一の1以上の超音波画像に関連付けられるステップを有し、
前記1以上の関連付けられた超音波画像の特徴を分類するステップは、
a)各データ構造が異なる複数の時間的に関連する部分を表す複数の二次元データ構造を得るステップと、
b)各二次元データ構造に畳み込みカーネルを適用して、対応する複数の畳み込み出力を発生するステップと、
c)長短期記憶を用いることにより前記複数の畳み込み出力を処理して、前記2以上の複数の時間的に関連する部分を分類し、これにより前記1以上の関連付けられた超音波画像の特徴を示すステップと、
を有する。
このようにして、前記畳み込みニューラルネットワークからの局部的時間パターン及び前記長短期記憶を使用した一層長い時間範囲にわたるパターンの両方を得ることが可能になる。両パターンを考慮に入れることにより、当該プローブの操作の一層正確な記述を確立することができ、これにより、特徴分類の精度を向上させる。
一構成例において、前記操作信号は、
前記被検体に対する前記超音波プローブの位置、
前記被検体に対する前記超音波プローブの角度、
前記被検体に対する前記超音波プローブの向き、
前記被検体に対し前記超音波プローブにより印加される圧力、
前記被検体に対する前記超音波プローブの加速度、
前記超音波プローブの運動の方向、及び
前記超音波プローブの運動のパターン、
のうちの1以上を示す。
これら因子のうちの1以上を考慮に入れることにより、前記1以上の超音波画像を収集する際の超音波プローブの運動の正確なプロファイルを得ることができ、これにより、当該特徴識別の精度を向上させる。
幾つか態様において、上述したコンピュータ実施方法は、前記超音波画像をセグメント化するステップを更に有することができる。
このようにして、当該超音波画像内の臓器又は骨格構造等の特徴構造を、前記操作信号の分類及び前記超音波プローブにより収集された1以上の超音波画像に基づいて識別することが可能になる。
他の実施態様において、上述したコンピュータ実施方法は、選択された各超音波画像にセグメント化された各関心領域を重ねるステップを更に有することができる。
このようにして、識別された関心領域は当該超音波画像上で強調することができ、これにより、当該超音波システムのユーザが上記領域を一層容易に見及び調べることができるようにする。
本発明の一態様に従う例によれば、コンピュータ上で実行された場合に上述したコンピュータ実施方法を実施するためのコード手段を有するコンピュータプログラムが提供される。
本発明の一態様に従う例によれば、超音波画像の特徴を識別するように構成された超音波画像処理システムが提供され、前記超音波画像は超音波撮像処理を用いて超音波プローブにより撮像された被検体のものであり、当該超音波画像処理システムは、
前記超音波撮像処理の間における前記超音波プローブの操作(例えば、空間運動)を示す操作信号を取得し、
前記操作信号の一部分を取得し、ここで、該取得された部分は或る期間における前記超音波プローブの操作を示し、該取得された部分は1以上の超音波画像に関連付けられ、且つ、
ニューラルネットワークシステムを用いて、前記1以上の関連付けられた超音波画像の特徴を前記1以上の超音波画像及び前記操作信号の前記取得された部分の両方に基づいて分類する、
ように構成される。
特に、該超音波画像処理システムは、
1以上の畳み込みカーネルを前記操作信号の前記取得された部分に適用して前記操作信号の前記取得された部分を表す畳み込み出力を発生し、及び
前記畳み込み出力を分類して前記取得された部分に関連付けられた前記1以上の超音波画像の特徴を示す、
ことにより前記1以上の関連付けられた超音波画像の特徴を分類するように構成される。
他の実施態様において、当該超音波画像処理システムは、
前記操作信号を、各部分が同一の1以上の超音波画像に関連付けられた複数の部分に分割し、
前記操作信号の取得された各部分に1以上の畳み込みカーネルを適用して、各時間区間の畳み込み出力を発生し、及び
長短期記憶を用いて各時間区間の前記畳み込み出力を処理して、取得された各部分を分類する、
ことにより前記1以上の関連付けられた超音波画像の特徴を分類するように構成される。
他の実施態様において、当該超音波画像処理システムは、
各々が前記超音波撮像処理の間における前記超音波プローブの操作を示す複数の操作信号を取得し、
各操作信号から時間的に関連する部分を取得することにより複数の時間的に関連する部分を取得し、ここで、該複数の時間的に関連する部分は同一の1以上の超音波画像に関連付けられ、及び
前記複数の時間的に関連する部分を分類して前記1以上の関連付けられた超音波画像の特徴を示す、
ように構成される。
好ましくは、当該超音波画像処理システムは、
前記複数の時間的に関連する部分を表す二次元データ構造を取得し、
前記二次元データ構造に畳み込みカーネルを適用して、該二次元データ構造の畳み込み出力を発生し、及び
前記畳み込み出力を分類して、前記1以上の関連付けられた超音波画像の特徴を示す、
ことにより前記複数の時間的に関連する部分を分類するよう構成される。
本発明の一態様に従う例によれば、
超音波撮像処理を用いて被検体を撮像し、これにより該被検体の1以上の超音波画像を発生するように構成された超音波プローブと、
前記超音波撮像処理の間における前記超音波プローブの操作(例えば、空間的操作)を監視して、該操作(例えば、空間的運動)を示す操作信号を発生するように構成されたプローブ操作センサと、
上述した超音波画像処理システムと、
を有する超音波撮像システムが提供される。
図1は、一般的動作を説明するための超音波診断撮像システムを示す。 図2は、本発明の方法を示す。 図3は、図2に示される方法で使用される畳み込みニューラルネットワーク/長短期記憶の方法を示す。 図4は、図2に示される方法で使用される他のニューラルネットワークの方法を示す。
以下、本発明の例を、添付図面を参照して詳細に説明する。
本発明は1以上の超音波画像の特徴を識別する方法を提供するものであり、各画像は超音波プローブにより超音波撮像処理を用いて撮像される被検体のものである。該方法は、撮像処理の間における超音波プローブの操作を示す操作信号を取得するステップを含む。該操作信号における或る期間の間のプローブの操作を示す部分が取得される。該取得された部分は、1以上の超音波画像に関連付けられる。次いで、該1以上の超音波画像の特徴を操作信号の上記取得された部分及び該1以上の画像自体の両方に基づいて分類するためにニューラルネットワークシステムが用いられる。このような分類は、操作信号の上記取得された部分に1以上の畳み込みカーネルを適用して操作信号の上記取得された部分を表す畳み込み出力を発生するステップ、及び該畳み込み出力を分類して上記取得された部分に関連付けられた1以上の超音波画像の特徴を示すステップを有する。
先ず、例示的超音波診断撮像システムの一般的動作を、図1を参照して説明するものとし、本発明はトランスジューサアレイにより測定される信号の処理に関係するものであるから、該システムの信号処理機能に重点を置く。
当該システムは、超音波を送信すると共にエコー情報を受信するためのCMUTトランスジューサアレイ100を備えたアレイトランスジューサプローブ10を有する。トランスジューサアレイ100は、代わりに、PZT又はPVDF等の材料から形成される圧電トランスジューサを有することもできる。トランスジューサアレイ100は、2D面内で又は3D撮像のために三次元でスキャンすることができるトランスジューサ110の二次元アレイである。他の例において、当該トランスジューサアレイは1Dアレイとすることもできる。
トランスジューサアレイ100は、CMUTアレイセル又は圧電素子による信号の受信を制御する当該プローブ内のマイクロビームフォーマ12に結合される。マイクロビームフォーマは、例えば米国特許第5,997,479号(Savord他)、同第6,013,032号(Savord)及び同第6,623,432号(Powers他)に記載されているように、トランスジューサの副アレイ(又は“グループ”若しくは“パッチ”)により受信される信号を少なくとも部分的にビーム形成することができる。
上記マイクロビームフォーマは完全にオプション的なものであることに注意されたい。以下の例は、アナログビーム形成は仮定していない。
マイクロビームフォーマ12はプローブケーブルにより送信/受信(T/R)スイッチ16に結合され、該スイッチは、送信及び受信モードの間で切り換わって、マイクロビームフォーマが使用されず、当該トランスジューサアレイが主システムビームフォーマにより直接動作される場合に主ビームフォーマ20を高エネルギ送信信号から保護する。トランスジューサアレイ100からの超音波ビームの送信は、該マイクロビームフォーマにT/Rスイッチ16及び主送信ビームフォーマ(図示略)により結合されるトランスジューサコントローラ18により指令され、該コントローラはユーザインターフェース又は制御パネル38のユーザ操作から入力を受ける。
トランスジューサコントローラ18により制御される機能の1つは、ビームがステアリング及び収束される方向である。ビームは、当該トランスジューサアレイから真っ直ぐ前方に(に対して直角に)、又は一層広い視野のために異なる角度でステアリングすることができる。トランスジューサコントローラ18は、当該CMUTアレイのためのDCバイアス制御部45を制御するように結合することができる。DCバイアス制御部45は、当該CMUTセルに印加されるDCバイアス電圧(又は複数の電圧)を設定する。
受信チャンネルにおいては、部分的にビーム形成された信号がマイクロビームフォーマ12により生成されて主受信ビームフォーマ20に結合され、該ビームフォーマにおいて、トランスジューサの個々のパッチからの該部分的にビーム成形された信号は完全にビーム成形された信号へと合成される。例えば、主ビームフォーマ20は128個のチャンネルを有することができ、これらチャンネルの各々が数十個又は数百個のCMUTトランスジューサセル又は圧電素子のパッチからの部分的にビーム成形された信号を受信する。このようにして、トランスジューサアレイの数千のトランスジューサにより受信された信号が、単一のビーム成形された信号に効率的に寄与することができる。
上記ビーム成形された受信信号は、信号プロセッサ22に結合される。信号プロセッサ22は受信されたエコー信号を、帯域通過フィルタ処理、デシメーション、I及びQ成分分離、並びに組織及び微小気泡から返送された非線形な(基本周波数の高調波)エコー信号の識別を可能にするために線形及び非線形信号を分離するように作用する調波成分分離等の種々の方法で処理することができる。該信号プロセッサは、スペックル低減、信号合成(signal compounding)及びノイズ除去等の付加的信号向上処理を実行することもできる。該信号プロセッサにおける前記帯域通過フィルタはトラッキングフィルタとすることができ、その通過帯域はエコー信号が受信される深度が増加するにつれて高い周波数帯域から低い周波数帯域にスライドし、これにより、高い周波数が解剖学的情報を有さないような一層大きな深度からの斯かる周波数におけるノイズを除去する。
送信のため及び受信のためのビームフォーマは、異なるハードウェアで実施化され、異なる機能を有することができる。勿論、受信器ビームフォーマは送信ビームフォーマの特性を考慮に入れるように設計される。図1には、簡略化のために、受信器ビームフォーマ12、20のみが示されている。完全なシステムにおいては、送信マイクロビームフォーマ及び主送信ビームフォーマを備える送信チェーンも存在するであろう。
マイクロビームフォーマ12の機能は、アナログ信号経路の数を低減するために信号の初期合成を提供することである。これは、典型的には、アナログドメインで実行される。
最終的ビーム成形は、主ビームフォーマ20において実行され、典型的にはデジタル化の後である。
送信及び受信チャンネルは、固定された周波数帯域を有する同一のトランスジューサアレイ10’を使用する。しかしながら、送信パルスが占める帯域幅は、使用された送信ビーム成形に依存して変化し得る。受信チャンネルは全トランスジューサ帯域幅をキャプチャする(古典的方法である)ことができるか、又は、帯域幅処理を使用することにより、有用な情報(例えば、主調波の高調波)を含む帯域幅のみを抽出することができる。
処理された信号は、Bモード(即ち、輝度モード又は2D撮像モード)プロセッサ26及びドプラプロセッサ28に結合される。Bモードプロセッサ26は、身体内の臓器及び血管の組織等の身体内の構造の画像化のために受信された超音波信号の振幅の検波を利用する。身体の構造のBモード画像は、高調波画像モード、基本画像モード又は米国特許第6,283,929号(Roundhill他)及び同第6,458,083号(Jago他)に記載されているように両方の組み合わせの何れかで形成することができる。ドプラプロセッサ28は、画像フィールド内の血液細胞の流れ等の物質の動きを検出するために、組織運動及び血流からの時間的に区別できる信号を処理する。該ドプラプロセッサ28は、典型的に、身体内の選択されたタイプの物質から戻るエコーを通過及び/又は拒絶するように設定することができるパラメータを備えたウォールフィルタを含む。
上記Bモード及びドプラプロセッサにより生成された構造及び動き信号は、スキャンコンバータ32及び多断面再フォーマッタ44に結合される。スキャンコンバータ32は、受信された空間関係におけるエコー信号を所望の画像フォーマットに配列する。例えば、該スキャンコンバータは、当該エコー信号を二次元(2D)扇状フォーマット又は角錐状三次元(3D)画像に配列することができる。該スキャンコンバータは、Bモード構造画像に、当該画像フィールド内の各点における斯かる点のドプラ推定速度による動きに対応するカラーを重ね合わせ、該画像フィールドにおいて組織の動き及び血流を描くカラードプラ画像を生成することができる。前記多断面再フォーマッタは、米国特許第6,443,896号(Detmer)に記載されているように、当該身体のボリューム領域における共通面内の各点から受信されるエコーを、該面の超音波画像に変換する。ボリュームレンダラ42は、米国特許第6,530,885号(Entrekin他)に記載されているように、3Dデータセットのエコー信号を、所与の基準点から見た投影3D画像に変換する。
上記2D又は3D画像は、スキャンコンバータ32、多断面再フォーマッタ44及びボリュームレンダラ42から、画像ディスプレイ40上で表示するための更なる強調、バッファリング及び一時的記憶のために画像プロセッサ30に結合される。画像化のために使用されることに加えて、ドプラプロセッサ28により生成された血流値及びBモードプロセッサ26により生成された組織構造情報は、定量化プロセッサ34にも結合される。該定量化プロセッサは、血流の体積流量等の異なる流れ条件の尺度並びに臓器の寸法及び妊娠期間等の構造的尺度を生成する。該定量化プロセッサは、画像の解剖学的構造における測定がなされるべき点等の入力をユーザ制御パネル38から受信することができる。該定量化プロセッサからの出力データは、ディスプレイ40上の画像による測定図形及び値の再生のために、及びディスプレイ装置40からのオーディオ出力のためにグラフィックプロセッサ36に結合される。グラフィックプロセッサ36は、超音波画像と一緒に表示するためのグラフィックオーバーレイも発生することができる。これらのグラフィックオーバーレイは、患者名、画像の日時及び撮像パラメータ等の標準的識別情報を含むことができる。これらの目的のために、該グラフィックプロセッサは、ユーザインターフェース38から患者名等の入力を受信する。該ユーザインターフェースは、トランスジューサアレイ100からの超音波信号の発生を、従って該トランスジューサアレイ及び当該超音波システムにより生成される画像を制御するために送信コントローラ18にも結合される。コントローラ18の送信制御機能は、実行される機能のうちの1つに過ぎない。コントローラ18は、動作モード(ユーザにより与えられた)並びに対応する所要の送信器構成及び受信器アナログ/デジタル変換器における帯域通過構成も考慮に入れる。コントローラ18は、固定された状態を備えるステートマシンとすることができる。
前記ユーザインターフェースは、複数の多断面再フォーマット(MPR)画像の画像フィールドにおいて定量化された測定法を実行するために使用することができる該複数の多断面再フォーマット画像の面の選択及び制御のために多断面再フォーマッタ44にも結合される。
コントローラ18は、更に、図2〜図4を参照して後述される方法の何れかの部分を実行するように構成することができる。代わりに、これらの方法は別のコントローラ又は複数のコントローラにより実行することもできる。
図2は本発明の一般的方法200を示す。第1ステップにおいて、超音波プローブ10(図1に示される)は1以上の超音波画像210を第1入力として収集する。該超音波画像に加えて、上記1以上の超音波画像を記録している間の当該プローブの運動が操作信号220の形で記録される。
操作信号220は、当該プローブ内に配置される加速度計、ジャイロスコープ及び磁力計等の複数のセンサによりキャプチャされる一群の信号であり得る。該操作信号は畳み込みニューラルネットワーク/長短期記憶組み合わせ(CNN-LSTM)処理段230に供給されるようになっており、該処理段の動作は図3を参照して後述される。この処理段の出力は、前記1以上の超音波画像210の収集に関連付けられた時間にわたるプローブ操作パターンの要約であり、該要約は他のニューラルネットワーク240へ供給される。
該他のニューラルネットワーク240は、例えばU-Netアーキテクチャ等のディープ畳み込みネットワークとすることができるもので、CNN-LSTM処理段230からの操作パターン及び1以上の超音波画像210の両方を受信する。該超音波プローブの操作パターン及び関連する超音波画像の両方を用いて、該他のニューラルネットワークは、該超音波画像に対し画像セグメント化を実行し、1以上の分類された特徴構造260を有するセグメント化超音波画像250を生成する。このシステムのニューラルネットワーク230及び240は、画像及び操作信号データ様式を組み合わせるように構成された畳み込み及び再帰型の両方のニューラルネットワークを有することができる。
言い換えると、超音波画像信号に加えて、超音波プローブ操作及び/又は方位信号が画像セグメント化及び/又は画像特徴構造分類のために使用される。画像セグメント化のために典型的に採用されるU-Net及びエンコーダ/デコーダネットワーク等の当該ニューラルネットワークアーキテクチャは、プローブ操作センサ信号を用いて更に調整される。当該システムは、該超音波システムの用途に依存する所望のフレームレートで出力されるセグメント化画像250を生成するように構成することができる。セグメント化超音波画像を生成することに加えて、当該他のニューラルネットワーク240は、上記1以上の超音波画像及びプローブ操作信号に基づいて生体測定値を発生するように構成することもできる。
図3は、上記プローブ操作信号を処理するための例示的CNN-LSTMアーキテクチャ300を示す。
画像収集の間における超音波プローブの向き及び操作は、超音波画像の品質及び解釈に影響を与える。例えば、超音波プローブはモニタ位置を変更することなく回転され得、このことは臓器又は胎児の向きの解釈に混乱を生じさせ得る。超音波検査者は、典型的に、プローブ上の方位マーカを使用し、該マーカを当該超音波診断のディスプレイ40上のマーカと比較して当該画像の正しい向きを決定する。超音波画像の自動的セグメント化のためには、超音波システムは、臓器等の何の特徴構造がスクリーン上の所与の位置において期待されるかを一層容易に識別することができるように当該超音波画像の向きも決定する必要がある。
かくして、プローブ操作は高品質超音波画像を生成する際の重要な考慮事項である。スライド、ロック、スイープ、扇形、圧力/圧縮、回転、傾き及び整列等の幾つかの既知の定義が存在する。これらの運動を識別し、これらの組合せを特定のプローブの向きにおける臓器又は胎児等の特定の特徴構造と相関させるようにCNN-LSTMネットワークを訓練することが可能である。
図3は、各々が所与の時間窓の間におけるプローブの操作を表す一群のプローブ操作信号(t1,t2,…,tn)を示す。該時間窓内のプローブ操作信号は、該プローブ操作信号の一部分として参照される。該時間窓の長さ、従って当該信号部分のサイズは、当該超音波システムの必要とされるフレームレートに依存して変化する。
上記操作信号部分の各々は、CNNによる一次元畳み込みカーネル310によって処理される。これら畳み込みカーネルは、当該プローブ操作信号部分内の局部的時間パターン320をキャプチャする。しかしながら、これらの局部的時間パターンは、超音波画像の収集の間におけるプローブの完全な操作を表すには十分でないであろう。従って、当該超音波プローブの動きを完全に記述するには長期的時間パターンが必要とされ得る。
局部的時間パターン320は、次いで、LSTM330に供給することができ、該LSTMは前記プローブ操作信号部分の長期的時間パターンを構築する。このようにして、該LSTMは、当該プローブ操作信号部分のものより長い時間範囲でプローブ操作信号内のパターンを検出することができる。斯かるCNN及びLSTMは、一緒になって、超音波検査者のプローブ操作を正確に表す短期及び長期の両方のパターンをキャプチャする。当該LSTMの出力340は再整形されて、1以上の超音波画像210のセグメント化に使用されるべきU-Netアーキテクチャ240に特徴構造マップとして供給される。
例示として、3つの加速度計信号、3つのジャイロスコープ信号及び3つの磁力計信号を含む9つの信号が存在し得る。この場合、該9個のプローブ信号は9個のチャンネルからの時系列データを構成する。行列形態において、該時系列データはCxNなるフォーマットを有し、ここで、Cは入力チャンネルの数であり、Nは該時系列データの長さ、即ちサンプルの総数である。該時系列データをCNN及びLSTMによるパターン認識のために整えるために、該時系列データは、各々が長さMの一連の重なり合う(オーバーラップする)操作信号部分に分割され、ここで、オーバーラップ寸法はM/2までとすることができる。形状CxNにおける各操作信号部分は、一次元畳み込み及びプーリング(ダウンサンプリングとも呼ばれる)層により処理される。
この例を更に続けると、加速度計、ジャイロスコープ及び/又は磁力計等の超音波プローブ操作センサは、毎秒60サンプルの率で操作信号を供給することができる。1秒が前記操作信号部分のサイズであるとすると、これらの1秒のセグメントに前記一次元畳み込み及びプーリング層が適用される。これらセグメントは、互いに30サンプル又は半秒だけ重なり合うことに注意されたい。下記の表1及び2は、これら1秒セグメントをCNN及びLSTMを各々用いて処理するための例示的ネットワークアーキテクチャの詳細を示す。
Figure 0006935020
このモデルは、60x9のデータ行列の形をとる1秒の操作信号部分を処理する。畳み込み層において、当該フィルタはフィルタ行列における値(重みと称される)と入力データの値との間の要素毎の乗算を実行するように作用する。該フィルタのサイズは、入力データの何の値が該要素毎乗算を受けるかを制御する。Conv1の場合、該フィルタは一次元であり、5なる長さを有する。種々の乗算の結果は次いで合計され、正規化線形ユニット及びシグモイド(これらは活性化関数として知られている)等の要素毎非線形関数を通されて、出力行列の第1データ点を生成する。該フィルタは、次いで、入力データ行列にわたって所与の量(ストライドと称される)だけ移動し、要素毎乗算を繰り返し、これにより出力行列の第2データ点を発生する。このような処理は、当該フィルタが入力データ行列における可能な各位置を処理してしまうまで繰り返される。
このように、この例は、入力行列の各行に対して出力行列における28のデータ点を結果として生じる。
例示として、前記操作センサは毎秒60個のサンプルを生成することができ、各サンプルは9個の数を有する。1秒の部分においては、60x9のデータ行列となり、このデータは64のフィルタでConv1を通過されて、形状28x64のデータを生成する。このデータは、次いで、当該ネットワークの後続の層に供給される。
時間は非常に長い時間にわたり経過し、データを長い時間範囲で効率的に処理することは不可能であるので、当該サンプルの各部分のみが解析される。この場合、1秒のサンプルが局部的パターンを識別するために使用され、長期依存性を持つパターンのために、10秒等の一層長い期間が用いられる。意志決定頻度もアプリケーションに従って選択することができる。例えば、決定は最後の10秒のデータを用いて秒毎に行うことができる。
プーリング層は畳み込み層の出力をダウンサンプリングするように作用し、これにより、CNNを動作させるために要する処理能力を低減する。加えて、プーリング層はニューラルネットワークを訓練する際の過剰適合(overfitting)の問題を低減するようにも作用する。
このCNNモデルの最終的出力は、各操作信号部分に対して256点の一次元ベクトルとなる。これらの256ベクトルのうちの幾つかの系列は、LSTM330に供給される局部的時間パターン320を形成する。
Figure 0006935020
LSTMは長期依存性を学習すると共に長期パターンを認識することができる一種の再帰型ニューラルネットワークである。再帰型ニューラルネットワークが機能する一般的方法が、上述した1つの特定の例に関して以下に概説される。
この例において、256ベクトルの系列は一緒になって長期依存性を持つパターンを形成し得る。プローブ操作の場合、長期パターンは10秒に跨がり得る。10秒のプローブ操作の場合、20個のセグメントが存在するであろう(1秒長のセグメントで、半秒の重なりと仮定する)。このことは、当該LSTM部分ネットワークへの入力は20x256行列(10秒のプローブ操作を表す)であることを意味する。
この場合、該LSTM部分ネットワークは20x256行列を入力として取り込む。該LSTM部分ネットワークは、各々が64個のフィルタを備えた2つのLSTM層を有する。第1LSTM層は上記20x256行列を取り込み、各セグメントベクトルを処理して、サイズ64の出力ベクトルを生成する。該処理は、セグメント毎に順次実施される。
各セグメントベクトルを処理する場合、該LSTMは前のセグメントベクトルからの自身の出力のコピーも利用する(勿論、第1セグメントの場合、前の出力がゼロに設定される等の、開始条件が定義されることを要する)。前のセグメントにおける出力は、当該LSTMの記憶として機能し、現入力に対する出力を生成する際に使用される。
当該系列の最後において、第1LSTM層の出力は20x64データ行列となる。ここで、該20x64の出力は第2LSTM層への入力となり、該第2LSTM層は、(i)入力が、ここでは、20x256データ行列の代わりに20x64データ行列となる;及び(ii)最後のセグメントだけの出力が維持される(該最後の出力ベクトルは当該系列における全セグメントの合成結果(再帰的に達成された)であるからである)ことを除き、第1LSTM層と同一の機能を果たす。
第2の最後のLSTM層の後には密層(全結合層)が存在し、該密層の結合重みは最後のLSTM層の64ベクトルの出力を画像信号(この例では、256x256x1)のように見えるように再形成することができることを保証する。この出力は、特徴構造マップの形状を有し、図4に示されるU-Netアーキテクチャの最後の畳み込み層に供給される(後述される)。
上記最後の畳み込み層は決定がなされる場所であり、該最後の畳み込み層に処理されたプローブ情報を投入することにより、該プローブ情報は当該ネットワークの意志決定処理に可能な限り直接的に影響を与えることができる。
図4は、1以上の超音波画像210及びCNN-LSTMアーキテクチャ300の出力の両方を処理するための拡張されたU-Netアーキテクチャ400を示す。医療画像セグメント化の分野で知られている標準的U-Netアーキテクチャは、典型的に、画像を取り込んで、同じ解像度のセグメント化された出力画像を生成する。
該U-Netアーキテクチャは、畳み込みニューラルネットワークの形態であり、当該処理の第1部分410において前述したCNNモデルと非常に類似した態様で機能する。この第1部分は前記1以上の超音波画像を一連の畳み込み及びプーリング層を通過させる処理を含み、その場合において、入力データ行列は当該画像のピクセル値を有する。
該U-Netアーキテクチャは、更に、一連のアップサンプリング層420を有し、ここで、より早い層の出力(白いボックスとして示される)は後続の層に渡される前にアップサンプリングされた層と連結される。最後のアップサンプリング層の後であって最後の畳み込み層の前において、前記CNN-LSTMからの出力340は特徴構造マップとして再形成され、最後のアップサンプリング層の特徴構造マップと深さ的に連結される。U-Netアーキテクチャの詳細の一例が、以下に形状(256,251,1)の例示的入力画像を用いて表3に示され、ここで、conv2d_NはN番目の畳み込み層を表し、average_pooling2d_NはN番目のプーリング層を表す。更に、concatenate_Nは、より早い層の出力をアップサンプリングされた層と結合するN番目の連結層を表す。当該U-Netの最後の入力層は画像セグメント化又は分類を実行する前に、CNN-LSTM出力と組み合わされる。代わりに、該CNN-LSTM出力を当該ワークフローの一層早い段階で該U-Netネットワークに導入することもできる。原理的に、その出力が当該U-Netネットワークの早期のステージに接続されるような他のCNN-LSTM層を配置することもできる。
Figure 0006935020
このように、プローブ操作から及びUS画像から到来する情報の融合は種々の態様で、例えば上記例におけるように最後の層において又は一層早期の層において、組み合わせることができる。融合は、早い及び遅い両方の層において、早い及び遅い融合に特化した各副ネットワークを用いて行うこともできる。
表3に提示されたアーキテクチャは、勿論、完全さのために提示された例に過ぎず、限定しようとするものではない。
この場合、当該システムは3つの機能のうちの1つをU-Netアーキテクチャ400の最終層430の出力に基づいて実行することができる、これらの機能は、標準的ビュー検出、画像セグメント化及び生体測定である。
標準的ビュー検出の場合、当該システムは臨床超音波画像において普通に収集される画像ビューを自動的に検出するために使用することができる。例えば、UKにおける胎児異常スクリーニングプログラムは、12の標準的ビューが保存されることを要求している。当該システムは、標準的スキャン面を前記1以上の超音波画像及びプローブ操作信号に基づいて当然検出することができる。標準的ビューは、典型的に、予め定められたプローブ操作のプロトコルを用いてプローブが超音波検査者により正しく配置された後或る期間にわたり静止状態に保持された場合の画像ビューに対応する。超音波検査者のプローブ操作信号は、何の画像が標準的又は良いビューであるかについての貴重な情報を提供する。
画像セグメント化の場合、検出された標準的又は必要とされる超音波ビューから、被検者の解剖学的構造のセグメント化を実行することができる。例えば、当該超音波システムが胎児をスキャンするために使用されている場合、頭部、手、腹部、脚部及び他の同様の臓器構造を識別し、そのように印すことができる。セグメント化は、当該画像を向上させ、当該胎児に一層容易に識別可能な見え方を付与するために該胎児に着色するために用いることができる。セグメント化は、更に、自動化された乳癌検出及び分類又は超音波神経セグメンテーションのために採用することもできる。
生体測定の場合、生体測定は、当該システムのセグメント化出力を用いて自動的に実行することができ、次いで異常を検出し及び、例えば、胎児の成長をモニタするために使用することができる。当該システムからの斯かる測定を上記セグメント化出力と一緒に生成するために当該ニューラルネットワークを訓練することも可能である。当該ネットワークアーキテクチャのセグメント化及び回帰(生体測定)のための合同訓練は、該ネットワークに互いに支え合うセグメント化及び回帰を生じさせる。
当該システムは、解剖学的構造(及び、利用可能なら、生体測定)により予め注釈付けされた超音波画像の集合により訓練することができる。
開示された実施態様の他の変形例は、当業者によれば請求項に記載された本発明を実施するに際して図面、本開示及び添付請求項の精査から理解し実施することができる。尚、請求項において、“有する”なる文言は他の要素又はステップを除外するものではなく、単数形は複数を除外するものではない。また、特定の手段が互いに異なる従属請求項に記載されているという単なる事実は、これら手段の組合せを有利に使用することができないということを示すものではない。また、請求項における如何なる符号も、当該範囲を限定するものと見なしてはならない。

Claims (15)

  1. 1以上の超音波画像の特徴を識別するコンピュータ実施方法であって、各超音波画像は超音波撮像処理を用いて超音波プローブにより撮像された被検体のものであり、当該方法は、
    前記超音波撮像処理の間における前記超音波プローブの操作を示す操作信号を取得するステップと、
    前記操作信号の一部分を取得するステップであって、該取得された部分は或る期間における前記超音波プローブの操作を示し、該取得された部分が1以上の超音波画像に関連付けられるステップと、
    ニューラルネットワークシステムを用いて、前記1以上の関連付けられた超音波画像の特徴を前記1以上の超音波画像及び前記操作信号の前記取得された部分の両方に基づいて分類するステップと、
    を有し、
    前記1以上の関連付けられた超音波画像の特徴を分類するステップが、1以上の畳み込みカーネルを前記操作信号の前記取得された部分に適用して前記操作信号の前記取得された部分を表す畳み込み出力を発生するステップ、及び前記畳み込み出力を分類して前記取得された部分に関連付けられた前記1以上の超音波画像の特徴を示すステップを有する、
    コンピュータ実施方法。
  2. 前記1以上の関連付けられた超音波画像の特徴を分類するステップは、
    a)前記操作信号の前記取得された部分が、
    高品質超音波画像;
    前記被検体の予め定められたビューの超音波画像;及び
    前記関連付けられた1以上の超音波画像における前記被検体の1以上の予め定められた関心領域の存在;
    のうちの1つに関連付けられるかを分類するステップと、
    b)前記1以上の関連付けられた超音波画像の特徴を、前記取得された部分の分類を前記1以上の関連付けられた超音波画像の特徴として割り当てることにより識別するステップと、
    を有する、請求項1に記載のコンピュータ実施方法。
  3. 前記1以上の関連付けられた超音波画像の特徴を分類するステップが、
    前記操作信号を、各部分が同一の1以上の超音波画像に関連付けられた複数の部分に分割するステップと、
    前記操作信号の取得された各部分に1以上の畳み込みカーネルを適用して、各時間区間の畳み込み出力を発生するステップと、
    長短期記憶を用いて各時間区間の前記畳み込み出力を処理して、取得された各部分を分類するステップと、
    を有する、請求項1又は請求項2に記載のコンピュータ実施方法。
  4. 前記操作信号を取得するステップは、各々が前記超音波撮像処理の間における前記超音波プローブの操作を示す複数の操作信号を取得するステップを有し、
    前記操作信号の一部分を取得するステップは、各操作信号から時間的に関連する部分を取得することにより複数の時間的に関連する部分を取得するステップであって、該複数の時間的に関連する部分が同一の1以上の超音波画像に関連付けられるステップを有し、
    前記1以上の関連付けられた超音波画像の特徴を分類するステップが、前記複数の時間的に関連する部分を分類して前記1以上の関連付けられた超音波画像の特徴を示すステップを有する、
    請求項1から3の何れか一項に記載のコンピュータ実施方法。
  5. 前記複数の時間的に関連する部分を分類するステップが、
    前記複数の時間的に関連する部分を表す二次元データ構造を得るステップと、
    前記二次元データ構造に畳み込みカーネルを適用して、該二次元データ構造の畳み込み出力を発生するステップと、
    前記畳み込み出力を分類して、前記1以上の関連付けられた超音波画像の特徴を示すステップと、
    を有する、請求項4に記載のコンピュータ実施方法。
  6. 前記操作信号の一部分を取得するステップは、前記操作信号の2以上の複数の時間的に関連する部分を取得するステップであって、該複数の各々が同一の1以上の超音波画像に関連付けられるステップを有し、
    前記1以上の関連付けられた超音波画像の特徴を分類するステップが、
    a)各データ構造が異なる複数の時間的に関連する部分を表す複数の二次元データ構造を得るステップと、
    b)各二次元データ構造に畳み込みカーネルを適用して、対応する複数の畳み込み出力を発生するステップと、
    c)長短期記憶を用いることにより前記複数の畳み込み出力を処理して、前記2以上の複数の時間的に関連する部分を分類し、これにより前記1以上の関連付けられた超音波画像の特徴を示すステップと、
    を有する、請求項5に記載のコンピュータ実施方法。
  7. 前記操作信号が、
    前記被検体に対する前記超音波プローブの位置、
    前記被検体に対する前記超音波プローブの角度、
    前記被検体に対する前記超音波プローブの向き、
    前記被検体に対し前記超音波プローブにより印加される圧力、
    前記被検体に対する前記超音波プローブの加速度、
    前記超音波プローブの運動の方向、及び
    前記超音波プローブの運動のパターン、
    のうちの1以上を示す、請求項1から6の何れか一項に記載のコンピュータ実施方法。
  8. 前記超音波画像をセグメント化するステップを更に有する、請求項1から7の何れか一項に記載のコンピュータ実施方法。
  9. 選択された各超音波画像にセグメント化された各関心領域を重ねるステップを更に有する、請求項8に記載のコンピュータ実施方法。
  10. コンピュータ上で実行された場合に請求項1から9の何れか一項に記載のコンピュータ実施方法を実施するためのコード手段を有する、コンピュータプログラム。
  11. 1以上の超音波画像の特徴を識別する超音波画像処理システムであって、前記超音波画像は超音波撮像処理を用いて超音波プローブにより撮像された被検体のものであり、当該超音波画像処理システムは、
    前記超音波撮像処理の間における前記超音波プローブの操作を示す操作信号を取得し、
    前記操作信号の一部分を取得し、ここで、該取得された部分は或る期間における前記超音波プローブの操作を示し、該取得された部分は1以上の超音波画像に関連付けられ、且つ、
    ニューラルネットワークシステムを用いて、前記1以上の関連付けられた超音波画像の特徴を前記1以上の超音波画像及び前記操作信号の前記取得された部分の両方に基づいて分類し、
    当該超音波画像処理システムが、前記1以上の関連付けられた超音波画像の特徴を、1以上の畳み込みカーネルを前記操作信号の前記取得された部分に適用して前記操作信号の前記取得された部分を表す畳み込み出力を発生すると共に、前記畳み込み出力を分類して前記取得された部分に関連付けられた前記1以上の超音波画像の特徴を示すことにより分類する、
    超音波画像処理システム。
  12. 当該超音波画像処理システムが、
    前記操作信号を、各部分が同一の1以上の超音波画像に関連付けられた複数の部分に分割し、
    前記操作信号の取得された各部分に1以上の畳み込みカーネルを適用して、各時間区間の畳み込み出力を発生し、
    長短期記憶を用いて各時間区間の前記畳み込み出力を処理して、取得された各部分を分類する、
    ことにより前記1以上の関連付けられた超音波画像の特徴を分類する、
    請求項11に記載の超音波画像処理システム。
  13. 当該超音波画像処理システムが、更に、
    各々が前記超音波撮像処理の間における前記超音波プローブの操作を示す複数の操作信号を取得し、
    各操作信号から時間的に関連する部分を取得することにより複数の時間的に関連する部分を取得し、ここで、該複数の時間的に関連する部分は同一の1以上の超音波画像に関連付けられ、
    前記複数の時間的に関連する部分を分類して前記1以上の関連付けられた超音波画像の特徴を示す、
    請求項11又は請求項12に記載の超音波画像処理システム。
  14. 当該超音波画像処理システムが、
    前記複数の時間的に関連する部分を表す二次元データ構造を取得し、
    前記二次元データ構造に畳み込みカーネルを適用して、該二次元データ構造の畳み込み出力を発生し、
    前記畳み込み出力を分類して、前記1以上の関連付けられた超音波画像の特徴を示す、
    ことにより前記複数の時間的に関連する部分を分類する、
    請求項13に記載の超音波画像処理システム。
  15. 超音波撮像処理を用いて被検体を撮像し、これにより該被検体の1以上の超音波画像を発生する超音波プローブと、
    前記超音波撮像処理の間における前記超音波プローブの操作を監視して、該操作を示す操作信号を発生するプローブ操作センサと、
    請求項11から14の何れか一項に記載の超音波画像処理システムと、
    を有する、超音波撮像システム。
JP2020546417A 2018-03-08 2019-03-04 超音波画像の特徴を識別するシステム及び方法 Active JP6935020B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18160635.1A EP3536245A1 (en) 2018-03-08 2018-03-08 A system and method of identifying characteristics of ultrasound images
EP18160635.1 2018-03-08
PCT/EP2019/055256 WO2019170573A1 (en) 2018-03-08 2019-03-04 A system and method of identifying characteristics of ultrasound images

Publications (2)

Publication Number Publication Date
JP2021516105A JP2021516105A (ja) 2021-07-01
JP6935020B2 true JP6935020B2 (ja) 2021-09-15

Family

ID=61599017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020546417A Active JP6935020B2 (ja) 2018-03-08 2019-03-04 超音波画像の特徴を識別するシステム及び方法

Country Status (5)

Country Link
US (1) US11490877B2 (ja)
EP (2) EP3536245A1 (ja)
JP (1) JP6935020B2 (ja)
CN (1) CN111885964A (ja)
WO (1) WO2019170573A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11638569B2 (en) 2018-06-08 2023-05-02 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time needle detection, enhancement and localization in ultrasound
US11426142B2 (en) * 2018-08-13 2022-08-30 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time localization of needles in ultrasound images
CN109920518B (zh) * 2019-03-08 2021-11-16 腾讯科技(深圳)有限公司 医学影像分析方法、装置、计算机设备和存储介质
CN110459324B (zh) * 2019-06-27 2023-05-23 平安科技(深圳)有限公司 基于长短期记忆模型的疾病预测方法、装置和计算机设备
US20210056357A1 (en) * 2019-08-19 2021-02-25 Board Of Trustees Of Michigan State University Systems and methods for implementing flexible, input-adaptive deep learning neural networks
CN111326256B (zh) * 2020-02-28 2023-12-29 李胜利 胎儿超声标准切面图像智能识别自我训练学习系统及考试方法
CN111223092A (zh) * 2020-02-28 2020-06-02 长沙大端信息科技有限公司 胎儿超声切面图像自动质控系统及检测方法
US11523801B2 (en) * 2020-05-11 2022-12-13 EchoNous, Inc. Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured
US11532084B2 (en) * 2020-05-11 2022-12-20 EchoNous, Inc. Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification
US11819363B2 (en) * 2020-09-01 2023-11-21 GE Precision Healthcare LLC Systems and methods to improve resolution of ultrasound images with a neural network
US11636593B2 (en) 2020-11-06 2023-04-25 EchoNous, Inc. Robust segmentation through high-level image understanding
US20230125779A1 (en) * 2021-10-25 2023-04-27 EchoNous, Inc. Automatic depth selection for ultrasound imaging
CN117272118B (zh) * 2023-11-17 2024-02-13 成都天奥集团有限公司 一种t/r组件健康状态预测方法、系统、设备和介质

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6283919B1 (en) 1996-11-26 2001-09-04 Atl Ultrasound Ultrasonic diagnostic imaging with blended tissue harmonic signals
US6458083B1 (en) 1996-11-26 2002-10-01 Koninklijke Philips Electronics N.V. Ultrasonic harmonic imaging with adaptive image formation
US6013032A (en) 1998-03-13 2000-01-11 Hewlett-Packard Company Beamforming methods and apparatus for three-dimensional ultrasound imaging using two-dimensional transducer array
US5997479A (en) 1998-05-28 1999-12-07 Hewlett-Packard Company Phased array acoustic systems with intra-group processors
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
US6468216B1 (en) 2000-08-24 2002-10-22 Kininklijke Philips Electronics N.V. Ultrasonic diagnostic imaging of the coronary arteries
US6695778B2 (en) * 2002-07-03 2004-02-24 Aitech, Inc. Methods and systems for construction of ultrasound images
US8162837B2 (en) * 2005-06-13 2012-04-24 Spentech, Inc. Medical doppler ultrasound system for locating and tracking blood flow
CN103565473A (zh) * 2012-07-27 2014-02-12 三星电子株式会社 图像处理模块和图像处理方法
KR20150010860A (ko) * 2013-07-19 2015-01-29 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
US10561401B2 (en) * 2013-09-11 2020-02-18 Boston Scientific Scimed, Inc. Systems and methods for selection and displaying of images using an intravascular ultrasound imaging system
JP2015167789A (ja) * 2014-03-10 2015-09-28 キヤノン株式会社 被検体情報取得装置および信号処理方法
KR20160020918A (ko) * 2014-08-14 2016-02-24 삼성전자주식회사 적응형 컴퓨터 보조 진단 장치 및 방법
US9918701B2 (en) 2014-09-03 2018-03-20 Contextvision Ab Methods and systems for automatic control of subjective image quality in imaging of objects
KR102314650B1 (ko) * 2014-11-28 2021-10-19 삼성전자주식회사 사용자의 진단 의도에 기초한 컴퓨터 보조 진단 장치 및 방법
WO2017151757A1 (en) 2016-03-01 2017-09-08 The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Recurrent neural feedback model for automated image annotation
US10964424B2 (en) * 2016-03-09 2021-03-30 EchoNous, Inc. Ultrasound image recognition systems and methods utilizing an artificial intelligence network
EP3463098B1 (en) * 2016-06-06 2019-09-25 Koninklijke Philips N.V. Medical ultrasound image processing device
US20180055483A1 (en) * 2016-08-26 2018-03-01 yoR Labs, Inc. Methods and Systems for Ultrasound Controls
EP3424434A1 (en) * 2017-07-07 2019-01-09 Koninklijke Philips N.V. Method and device for processing ultrasound signal data
EP3590436A1 (en) * 2018-07-06 2020-01-08 Koninklijke Philips N.V. Identifying an optimal image from a number of ultrasound images
JP7407790B2 (ja) * 2018-07-26 2024-01-04 コーニンクレッカ フィリップス エヌ ヴェ 誘導肝イメージングのための人工ニューラルネットワークを有する超音波システム
US11064977B2 (en) * 2019-01-04 2021-07-20 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Preset free imaging for ultrasound device
US11532084B2 (en) * 2020-05-11 2022-12-20 EchoNous, Inc. Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification

Also Published As

Publication number Publication date
EP3536245A1 (en) 2019-09-11
CN111885964A (zh) 2020-11-03
US11490877B2 (en) 2022-11-08
US20210068791A1 (en) 2021-03-11
WO2019170573A1 (en) 2019-09-12
EP3761881A1 (en) 2021-01-13
EP3761881B1 (en) 2021-10-06
JP2021516105A (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
JP6935020B2 (ja) 超音波画像の特徴を識別するシステム及び方法
CN110678933B (zh) 超声临床特征检测与相关联的设备、系统和方法
JP6839328B2 (ja) 胎児超音波画像処理
JP7240405B2 (ja) 超音波画像から解剖学的測定値を取得するための装置及び方法
CN109310399B (zh) 医学超声图像处理设备
JP2011505951A (ja) 取得された画像データに反応するフィードバックを用いる微調整及び位置決め制御を持つロボット超音波システム
JP2006507883A (ja) 撮像システム内で流れ領域を識別するセグメンテーション・ツール
JP2020501713A (ja) 胎児超音波撮像
JP2010094181A (ja) 超音波診断装置および超音波診断装置のデータ処理プログラム
CN112867444B (zh) 用于引导对超声图像的采集的系统和方法
EP3506832B1 (en) Ultrasound diagnosis apparatus
EP3685753A1 (en) Ultrasound imaging apparatus and method of controlling the same
US11877893B2 (en) Providing a three dimensional ultrasound image
JP5921610B2 (ja) 超音波診断装置
JP2004188213A (ja) 超音波計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210611

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210824

R150 Certificate of patent or registration of utility model

Ref document number: 6935020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150