JP6839328B2 - 胎児超音波画像処理 - Google Patents

胎児超音波画像処理 Download PDF

Info

Publication number
JP6839328B2
JP6839328B2 JP2020502410A JP2020502410A JP6839328B2 JP 6839328 B2 JP6839328 B2 JP 6839328B2 JP 2020502410 A JP2020502410 A JP 2020502410A JP 2020502410 A JP2020502410 A JP 2020502410A JP 6839328 B2 JP6839328 B2 JP 6839328B2
Authority
JP
Japan
Prior art keywords
ultrasound image
fetal ultrasound
fetal
image
spine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020502410A
Other languages
English (en)
Other versions
JP2020527080A (ja
Inventor
ドゥニーズ フランソワーズ レイノー,カロリーヌ
ドゥニーズ フランソワーズ レイノー,カロリーヌ
ルーエ,ローレンス
シオフォロ−ヴェイト,シベール
ルフェーヴル,ティエリー
ナイジェル ラウンドヒル,デイヴィッド
ナイジェル ラウンドヒル,デイヴィッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020527080A publication Critical patent/JP2020527080A/ja
Application granted granted Critical
Publication of JP6839328B2 publication Critical patent/JP6839328B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、胎児超音波画像の処理に関する。
臨床の場において、2D超音波(US)は、妊娠中の生体測定、成長モニタリング及び解剖学的評価のための好適なスキャニングプロトコルである。再現性のある正確な値を得ることは、特に、異常を探索するために又は例えば頭部及び腹部の周囲長又は大腿骨の長さなどの生体測定を行うために使用される標準的な2D観察(ビューイング)プレーン(平面)の選択に関して、厳格なガイドラインに従うことを必要とする。この作業は、例えば、母親モルフォロジ、胎児の向きが未知であって非常に変わりやすいこと、及びよく知られたUSアーチファクト、特に、シャドーイング効果などの、多重的な要因のために非常に困難であり得る。
3D USは、上述の難しさの一部を克服する可能性を持った、より最近になっての撮像技術である。特に、単一の3Dボリュームの収集が、必要な観察プレーンを選択することを可能にする。さらに、臨床医はオフライン読み取りを行うことができ、必要な場合に、標準測定に先立って、抜出しプレーン(“臨床プレーン”と呼ばれる)の位置を調整することができる。
目標とする臨床プレーンの抜出しを可能にするために3D USボリュームを自動的に処理することが望ましい。しかしながら、この作業は、収集時の胎児の向きが非常に変わりやすいことに起因して難題である。2Dにおける自動観察プレーン抜出しのために、様々な戦略が提案されてきた。関心ビューは、2D USシーケンスから、各フレームのコンテンツを分類し、動径成分モデル又は予め訓練された再帰型ニューラルネットワークを用いて、各フレームが標準プレーンに相当するかを決定することによって、選択されることができる。
文献US2010/099987A1(特許文献1)は、3Dボリュームスキャンに含まれた胎児の脊椎を、胎児の胸部内の心臓の位置を高精度で認識するためのランドマークとして使用する、超音波画像収集及び診断表示技術を記載している。
別の2Dアプローチは、解剖学的コンテンツをラベル付けるために、複数の解像度及び向きで構築された幾何学的テンプレートをフィッティングすることからなる。
3Dの胎児US画像から関心ある情報を抽出するための、より信頼できる自動化アプローチに対するニーズが残ったままである。
米国特許出願公開第2010/099987号明細書
本発明の一態様に従った例によれば、3D胎児超音波画像を処理するためのコンピュータ実装された方法が提供され、当該方法は、
3D胎児超音波画像を取得し、
画像内で脊椎を検出し、
画像内の脊椎の方向及び位置に基づいて第1の基準軸を決定し、
検出された脊椎に対する胎児胴体方向に基づいて、第1の基準軸に垂直な第2の基準軸を決定し、そして、
第1及び第2の基準軸を用いて3D胎児超音波画像を更新する、
ことを有する。
この方法は、胎児の異なる向きから生じる変動を除去する正規化された表現を提供するために、2つの基準軸を用いた3Dボリューム画像のアライメントを可能にする。第1の基準軸は脊椎に基づき、それは、脊椎の中央における脊椎の方向であってもよいし、又は、例えば、脊椎の特定された両端点を接続するベクトルの方向であってもよい。脊椎は、特に画像認識技術を用いるときに、超音波システムにとって容易に認識可能となる、胎児内のはっきりした特有の構造である。
第2の基準軸は、胎児の3D方向が特定されるよう、脊椎の周り(すなわち、第1の基準軸の周り)でのボリューム回転を可能にする。
更新された画像は、上記画像の回転バージョンであってもよいし、又は、基準軸を特定する追加のデータ注釈を有する上記画像であってもよい。
当該方法は、当該方法の一部として3D超音波画像が超音波スキャンによって得られるよう、リアルタイムに実行されてもよい。それに代えて、当該方法は、以前にキャプチャされた画像に適用されてもよい。
正規化されたボリューム方向を提供することにより、自動化された機械学習アプローチによる画像内のランドマーク箇所(例えば臓器など)の識別が可能になる。当該方法は、例えば、機械学習処理を提供するために訓練データベースのサンプルを処理するために使用されることができ、その後、機械学習されたアルゴリズムが、見たことがないキャプチャ画像(すなわち、訓練データベースを作成するために既に処理されたものに含まれないもの)を処理して自動識別を提供するために使用され得る。
本発明は、関心ある臨床プレーンの自動抜出しを行うために機械学習アプローチを適用することの前に適用されることができる画像フィルタリング又は正規化プロセスを提供すると見なされてもよい。
第2の基準軸の前記決定は、
各々が第1の基準軸に直交する又は脊椎に局所的に直交する一組のプレーン(平面)を抜き出すことと、
各プレーン内で胎児の楕円形又は円形の腹部又は胸部を検出することと、
脊椎と上記楕円形の中心との間の各プレーン内の方向ベクトルに基づいて、第2の基準軸を決定することと、
を有する。
脊椎は腹部/胸部の一端にあり、故に、脊椎と楕円(又は円)の中心との間のベクトルは回転方向を表す。斯くして、胎児の胴体/腹部形状に基づいて3Dボリューム画像の向きを正規化することが可能である。胴体/腹部は、胎児の最も大きい部分であるため、容易に測定可能であり、それによりアライメントの精度が高められる。
上記楕円形又は円形は、例えば、プレーン上でハンケル変換を実行することによって取得される。
第2の基準軸の生成は、
上記方向ベクトルを、脊椎の中央に位置する中心プレーン上に投影することと、
投影された方向ベクトルの平均をとることと、
投影された方向ベクトルの平均を用いて第2の基準軸を形成することと、
を有し得る。
投影された方向値の平均に基づいて横軸を生成することにより、異なる画像間で信頼性を持って一貫性ある第2の基準軸が得られる。
平均をとることは、脊椎の中央で脊椎の端部でよりも大きい重みを用いて、加重平均を計算することを有していてもよい。
当該方法は更に、
3D胎児超音波画像の頭部/つま先方向を決定し、そして、
頭部/つま先方向を用いて3D胎児超音波画像を更新する、
ことを有し得る。
これは、上下胎児位置に関して3D画像の向きを決定すること、すなわち、脊椎のどちらの端部が頭部であり、どちらの端部が臀部(そして、下方につま先までの脚部)であるかを決定することを伴う。これは、仰角方向であるとして見なされてもよい。ここでも、更新は、画像操作、又は上/下を指し示すインジケーションを用いた画像の注釈を有し得る。
当該方法は更に、
3D胎児超音波画像上で強度正規化を実行し、且つ/或いは
胎児妊娠期間に基づいて3D胎児超音波画像をスケーリングする、
ことを有し得る。
斯くして、妊娠期間に起因した3D胎児超音波画像間のスケールばらつきが低減され、且つ/或いは、変化する画像収集利得及び撮像条件に起因した強度ばらつきが低減され得る。このスケーリング及び強度正規化は、基準軸の決定及び向け直しの前又は後に行われ得る。
3D胎児超音波画像内での脊椎の検出は、例えば、
細長い明るい構造を検出するように適応された形態学的フィルタを用いて画像を分析することと、
ディープラーニングベースの脊椎骨検出器を用いて画像を分析することと、
形態学的フィルタからの応答及びディープラーニングベースの脊椎骨検出器からの応答に基づいて脊椎マスクを取得することと、
を有する。
脊椎マスクは好ましくはバイナリマスクである。
斯くして、脊椎の検出は、3D胎児超音波画像内の脊椎の位置をよりロバストに決定することができるよう、双方の方法の強みを活用する。

本発明はまた、3D胎児超音波画像に基づいて訓練データベースを生成し且つアルゴリズムを生成する方法を提供し、当該方法は、
3D胎児超音波画像の訓練セットを受信し、
訓練セットの各3D胎児超音波画像内のランドマークの識別を受信し、
上で規定した方法を用いて、訓練セットの各3D胎児超音波画像を処理し、
訓練セットの各3D胎児超音波画像を、それぞれの第1及び第2の基準軸並びに頭部/つま先方向を用いて方向付け、そして、
方向付けた訓練セットに対して機械学習を用いて、3D胎児超音波画像について、対応するランドマークの識別なしで、ランドマークの位置を決定することができるアルゴリズムを提供する、
ことを有する。
受信した訓練セットにおけるランドマーク識別は、例えば、臨床医によって手動で提供される。これらは、機械学習アルゴリズムが新たな画像内のランドマークを識別することができるための情報を提供する。ランドマークは、例えば、心臓、膀胱、腎臓、及び臍帯挿入などの臓器である。
訓練データベース生成において、当該方法は、胎児の頭部/つま先方向を、
第1及び第2の基準軸によって定められる関心プレーンを抜き出し、
抜き出した関心プレーンの、決められたパッチサイズの、パッチをランダムにサンプリングし、そして、
パッチに基づいて分類器を生成し、該分類器が、胎児の前記頭部/つま先方向を指し示す、
ことによって決定することを有し得る。
抜き出したプレーンのランダムにサンプリングされたパッチに基づいて3Dボリューム画像用の分類器を生成することにより、3Dボリューム画像の向きを、例えばバイナリインジケータとして、効率的に表現することが可能である。パッチサイズは、例えば、胎児妊娠期間及び3D胎児超音波画像の解像度に基づく。
本発明はまた、3D胎児超音波画像内でランドマークを識別する方法を提供し、当該方法は、
3D胎児超音波画像を受信し、
上で規定した方法を用いて3D胎児超音波画像を処理し、
第1及び第2の基準軸を用いて3D胎児超音波画像を方向付け、そして、
ランドマーク情報を有する訓練データベースから導出された機械学習アルゴリズムを用いて、方向付けた3D胎児超音波画像を分析し、それにより、3D胎児超音波画像について、対応するランドマーク情報を見付ける、
ことを有する。
当該方法は、試験データベースからの前もっての機械学習を用いたランドマークの識別を提供し、その結果、自動化された手法でランドマークを見付け得る。3D方向付け処理は、未知の胎児位置から生じる不確定性を除去又は低減する。
識別されたランドマークは、その後、関心ある2D画像プレーン、すなわち、関心ある臓器又は他のランドマークを通るプレーン又はそのような臓器又は他のランドマークの位置に対して規定されるプレーンの生成を制御するために使用され得る。
この方法で使用される訓練データベースは、上で規定した方法を用いて生成される。
本発明はまた、3D胎児超音波画像を処理することを制御するためのコンピュータプログラム及びコントローラを提供し、当該コントローラは、実行されるときに当該コントローラに上で規定した方法を実行させる命令を有する。
本発明はまた、超音波システムを提供し、当該超音波システムは、
トランスデューサ素子のアレイを有する超音波プローブであり、関心領域の3D胎児超音波画像を取得するように適応された超音波プローブと、
上で規定したコントローラと、
位置合わせされた3D胎児超音波画像を表示する表示装置と、
を有し、
上記コントローラは、訓練データベースから導出された機械学習アルゴリズムを使用して、更新された3D胎児超音波画像を分析し、それにより、3D胎児超音波画像内のランドマーク位置を導出するように適応される。
以下、添付の図面を参照して、本発明の例を詳細に説明する。
胎児を表現したものを、本発明にて提案されるように胎児に割り当てられるxyz基準軸とともに示している。 ランダムな向きの脊椎と、規定された垂直方向への回転バージョンとを示している。 脊椎を、脊椎に沿って間隔を置かれた4つのxy画像化プレーンとともに示している。 複数の脊椎プレーンに沿って見つけられる円又は楕円のセットとそれらの中心点とを示している。 概略的なボリューム内のxz平面を示している。 胎児の向きが反対であるxz平面内の2つの画像を示している。 スケーリング関数をグラフで示している。 強度正規化ルックアップテーブルの例示である。 識別された脊椎の向きを示す線とランドマークの位置としての点とで、3D US腹部収集の大きなセットを示している。 向け直し及びスケーリングの後の3D US腹部収集を示している。 本発明に従った方法を示している。 例示的な超音波診断撮像システムを示している。
本発明は、3D胎児超音波画像を処理するためのコンピュータ実装された方法を提供する。3D胎児超音波画像が取得され(収集されるかメモリから受信されるかのいずれか)、該画像内で脊椎が検出される。これは、第1の基準軸が画成されることを可能にする。第1の基準軸に対して垂直に第2の基準軸が画成され、第1及び第2の基準軸並びに上/下(仰角)方向検出を用いて3D胎児超音波画像が更新される(例えば、3D空間内で回転される)。これは、画像の向きの正規化を提供し、その結果、機械学習アプローチが、新たな画像内で、より良好にランドマークを識別することができる。
図1は、頭部10及び脊椎12を有する胎児を表現したものを示している。胎児は、軸x,y,zによって規定されるとともに脊椎の中心に原点を持つ3D空間内に位置している。
3D超音波スキャンから2D超音波画像プレーンを選択するとき、プレーンは、関心あるランドマークを通るように選択される。それらのランドマークは、典型的に、例えば胃14、心臓16、又は臍帯挿入18などの臓器又は他の解剖学的フィーチャである。
この発明は、更なる画像分析の前に画像が3D空間内で一貫したやり方で位置合わせされるアライメント手順に関する。更なる画像分析は、所望の画像化プレーンが自動的に生成されるようにランドマークを見つけるためのものであってもよいし、又は、訓練データベースに取り込むためのものであってもよい。
従って、本発明の方法は、個々の画像分析及び/又は訓練データベースに取り込むための画像分析に使用され得る。
この方法の第1のステップは、脊椎を検出し、第1の基準(方向)軸を導出することである。
脊椎は、細長い明るい構造を検出する形態学的フィルタとディープラーニング(DL)ベースの脊椎骨検出器とを、双方の強みを活用するための組み合わせることによって、3D超音波画像内で自動的に検出され得る。
形態学的フィルタは、所与の球面近傍内のUSボリュームの各ボクセルxに対して、方向uに沿ったボクセルの強度をその他のボクセルの強度と比較するために使用され得る。フィルタ応答が、様々な近傍半径及び方向uに対して計算され、大域(グローバル)応答を得るために結合される。隣接する複数のボクセルの大域応答が集約されて、最良のフィルタ応答に対応する接続成分が画成される。
これら応答の一部は、このアプローチを用いて脊椎上に正確に位置決めされるが、例えば、肋骨、又は例えば長骨などの他の細長構造の上に位置し得る外れ値であるそれ以外のものも存在し得る。
ディープラーニングベースの脊椎骨検出器は、その入力が、元の特定されたz軸に対して直交して抜き出される2Dスライスからなる2D完全畳込みネットワークである。ボリュームをスライスすることは、ディープラーニング法に適したものである類似の特徴を持つ大量のデータを生成する。ネットワーク出力は、脊椎が位置しているかもしれないところで1に近い値を持つダウンサンプリングされた確率マップである。3Dディープラーニングベースの脊椎骨検出器は、1つのボリュームに関して取得された全ての2D確率マップを積み重ねることによって形成される。この出力ヒートマップは、形態学的フィルタ出力よりも粗いが、よりロバストに脊椎骨の周りに置かれる。
ディープラーニングによる脊椎骨検出器と形態学的フィルタ応答とを組み合わせることにより、ネットワーク出力がリファインされ、脊椎の外側にあるフィルタ応答が退けられ、その結果、ロバストな脊椎バイナリマスクが最終的に得られる。
これは、脊椎位置を特定するための一手法であり、特有の脊椎形状を検出することには他の好適な画像処理技術が使用されてもよい。
図2は、左側にランダムな向きの脊椎12を示している。脊椎検出は、基本的に、脊椎を識別し、そして、脊椎バイナリマスクの質量中心を用いて基準座標系の原点Oを規定することを伴う。検出された脊椎が大きく湾曲している場合、その質量中心がバイナリマスクに属さないことがある。これは、脊椎のいわゆる重心が、脊椎の外部にあり、それ故にマスクと位置が揃わないことがあり得るからである。この場合、質量中心に最も近いバイナリマスク点が使用される。次いで、脊椎バイナリマスクの先端20を用いて、縦z軸が規定される。それに代えて、脊椎の中心点に対して接線方向の通常方向が使用されてもよい。得られるz軸を図1に示す。
z軸を規定することにより、例えば、図2の右側部分に示すように、規定された(例えば、縦)方向にz軸を位置付けるように画像を回転することによって、z軸情報を含むように画像を更新することができる。
この方法の第2のステップは、第2の直交する基準(方向)軸を検出することである。これは、腹部を検出して横軸を規定することに基づく。
各々が第1の基準軸zに直交する(又は脊椎に対して局所的に直交する)一組のプレーンが探索される。方向軸の探索は、各々がローカル原点を通る一組のxy平面内で行われ、それらローカル原点は、脊椎に沿って等間隔に配置された点とされる。
図3は、脊椎12を、脊椎に沿って間隔を置かれた4つのxy画像化プレーンとともに示している。それらの画像が右側に示されている。
これらの2D画像の各々内で、例えば、円形又は楕円形の検出に合わせて調整されたハフ変換の変形を用いて、腹部検出が行われる。実際問題として、望まれる境界プロファイルを有するディスクをモデリングする半径方向に対称なカーネルとの、画像の最良のコンボリューションが、ある範囲の半径の中で探索される。
結果として見つかった円が各画像内に示されている。
図4は、複数の脊椎プレーンに沿って見つけられる円又は楕円40のセットとそれらの中心点42とを示している。凸包(convex hull)腹部が画成される。
各プレーンに対して、該プレーンとの脊椎の交わりから、検出された円の中心に進むベクトルの計算が行われる。これらのベクトル矢印が図3に示され、1つのそのようなベクトル44が図4に示されている。
腹部検出は、故に、各プレーン内で胎児の楕円形又は円形の腹部又は胸部を検出し、そして、そのプレーン内の胎児の回転方向に関係する各プレーン内のベクトルを特定することを伴う。
次いで、これらのベクトルの全てが中心原点Oを通る横断面上に投影される。そして、x軸基準方向が、この基準xy平面における平均投影ベクトルとして規定される。得られたx軸が図1に示されており、これが第2の基準軸を規定する。これらの2つの軸から、第3の座標軸yが、右手座標系で直交するように選択され得る。
この平均ベクトルは、脊椎の中央で脊椎の端部でよりも大きい重みを用いた加重平均を有してもよい。
従って、2つの基準軸を測定し、次いで決定論的方法で3つめを規定することによって、3D空間における正規化方向が定められ得る。
次に、ボリュームの頭部−つま先方向を特定し、z軸の2つの考え得る方向の間で選択することが望ましい。
これは、xz平面内のボリュームの2Dスライスにおいてこれら2つの構成を区別するように分類器を訓練することによって達成され得る。
図5は、概略的なボリューム52内の、原点Oを通るxz平面50を示している。この平面は背骨に沿って通っている。
図6は、胎児の向きが反対であるxz平面内の2つの画像を示している。画像認識アプローチを使用して、試験セットからの前もっての機械学習に基づいて、方向を特定することができる。この目的のために、畳み込みニューラルネットワークが使用され得る。
この(画像認識のためのリファレンスを提供するための)機械学習ステップにおいて、脊椎検出ステップの間に起こり得る不正確さに対してロバストであるために、訓練中にネットワークに破損データが供給されるよう、xzスライス抜出しの間にランダムノイズが付加されてもよい。次いで、分類器を訓練するためにスライス内でランダムなパッチが選択される。パッチサイズは、全ての構造が正規化されたサイズを有するように妊娠期間及び画像解像度に基づいて選定され得る。出力は、胎児の頭部が画像の頂部にあるときにバイナリ1であり、それが底部にあるときにバイナリ0である。
単一の画像を分析するときに使用される方向の最終的な検出は、ランダムノイズ付加なしで、同様のプロセスで実行される。
上で説明した方法ステップは、胎児画像が3D空間における既知の方向にマッピングされることを可能にする。
様々である妊娠期間(GA)に起因してスケールがばらつき得ることを抑制するために、例えば方向マッピングの前に、既存の成長表に基づいて、全てのボリュームにスケーリング係数が適用されてもよい。
例えば、以下の表は、異なる妊娠期間(“GA”)範囲(週単位)に対するスケーリング係数を示している:
GA_0_20 2.43
GA_20_25 1.30
GA_25_30 1.00
GA_30_35 0.83
GA_35_42 0.70。
図7は、このスケーリング関数をグラフで示している。y軸はスケーリング比(ratio)をプロットしており、x軸は妊娠期間範囲をプロットしている。点は、異なる解剖学的特徴(H心臓、S胃、B膀胱、UV臍帯静脈、K1腎臓1、K2腎臓2、UI臍帯挿入)について、原点までの距離を示している。
各ボリュームについて、例えば心臓(H)といった臓器と(上で規定したような)原点Oとの間の距離が測定される。試験結果がGA範囲に従って図示の5つのグループに分けられる。各グループ内で、各器官についての平均距離が計算される。
GA_25_30グループが基準として用いられており(従って、GA_25_30グループについて全ての臓器の、1なる比の値を持つプロットとの完全なアライメント)、各グループにおける各平均距離が、グループGA_25_30で得られた値で除算される。結果が、グラフ中に点としてプロットされている。連続したカーブは、上の表に提示される理論比を表している。測定値と理論比との間の不一致は、使用したサンプルセットに由来し、特に、各GA範囲内でのサンプルの広がりに由来する。
この方法はまた、強度正規化を提供し得る。変化する収集利得及び撮像条件に起因して、様々な臓器の相対強度が有意に変化し得る。強度正規化は、機械学習アプローチにおける特徴抽出を支援するために望ましい。1つのアプローチは、共通の正規化ルックアップテーブルを用いて、平均及び標準偏差を使用することである。
図8は、超音波収集の強度正規化を実行するためのデータベースルックアップテーブルの例示である。x軸は、ピクセル強度値の平均強度μ及び標準偏差σを持つ特定の画像の強度範囲を示している。データベースは、各画像が基準標準偏差σ及び基準平均μを有するように変換されるように強度マッピングを提供する。基準強度特性がy軸によって示されている。
従って、3D画像ボリュームは、関連する胎児ランドマークが共通の基準に対して完全にアライメントされるように、回転され、平行移動され、強度スケーリングされ、及びサイズスケーリングされる。
上の方法は、(既に上述したように)単一のキャプチャされた3D超音波画像を処理するために又は訓練データベースを作成するために使用され得る。以下、この方法のこれら2つの用途について説明する。
図9は、3D US腹部収集の大きなセットを示している。線は、識別された脊椎の向きを示している。各画像が、例えば心臓及び胃などのランドマークの位置を特定するように臨床医によって注釈付けられ、それらが点として示される。これらのランドマーク注釈付き画像は、機械学習を実行する訓練データベースを作成するために使用される。
図9は、胎児の位置及び向きの大きなばらつきを示しており、このようなデータベース上での学習が、実際の解剖学的なばらつきに焦点を当てることの代わりに、空間的な位置付けに起因するばらつきを含むことになることを確認するものである。
上で説明した3D方向付け(及びスケーリング)プロセスは、図10に示される画像を生じさせる。心臓の位置は概しておおよそ領域80内にあり、胃の位置は概しておおよそ領域82内にある。
これらのアライメントされた画像が代わりに学習ベースのアプローチに使用され、そして、それが、よりロバストな胎児ランドマーク位置の検出を可能にする。
訓練データベースは、ランドマーク(例えば、臓器)位置を学習するために、注釈付き画像に基づく機械学習を使用する。機械学習は、ランダムフォレストアルゴリズム(例えば、Criminisi,A.,J.,S.,Konukoglu,E.:Decision forests:A unified formation for classification, regression, density estagnment, manifold learning and semi−supervised learning,Foundations and Trends in Computer Graphics and Vision (2012))に基づき得る。Cuingnet,R.,Prevost,R.,Lesage,D.,Cohen,L.D.,Mory,B.,Ardon,R.:Automatic Detection and Segmentation of Kidneys in 3D CT Images using Random Forests. In:Proceedings of MICCAI’12. vol.7512,pp.66-74(2012)に開示されるようなアプローチが使用され得る。
原理は、ボリューム内の所与の点について、ターゲットランドマークに対する相対的な向きを学習することである。以下の説明では、そのような相対的な向きを、投票ベクトルとして参照する。
ランダムフォレストアルゴリズムを訓練するためには、多数のパラメータの値を設定する必要がある。最も影響力のあるものは、ツリーの数NT、ツリーの深さDT、画像当たりのトレーニングポイントNPの数、及びノードにおける投票ベクトルの分散についての閾値αである。このアルゴリズムは、画像ベースの特徴(f)にも依存する。それらの特徴は、ほとんどが、例えば、局所的に正規化された勾配及び勾配までの距離など、局所的な勾配から導出される。
全てのノードに対して分割基準が規定される。これは、双方のサブセットのエントロピーの合計が最小になるようなトレーニングポイントの2つのサブセットを見つけることを狙いとする。分割基準は、各ノードでランダムな特徴の大きなセットを試験することによって得られる。このセット内で、最適なサブセット分離を提供する特徴が、対応する分割閾値(θ)と共に選択され、そして、そのノードに格納される。各ランドマークへの投票ベクトルの分散としてエントロピー基準が規定される。
全てのリーフに対して複数の停止基準が規定される:(i)ツリーの所与の深さDTに達したとき、(ii)サブセット内の分散が所与の閾値αを下回ったとき、(iii)サブセットが小さすぎたとき。投票ベクトルの平均が各リーフに格納される。これが、このリーフに分類された各点の投票ベクトルとなる。
これは、識別された構造に対して位置を持つランドマークの識別のためのデータベースを訓練するために、機械学習がどのように使用され得るかの単なる1つの一般的説明に過ぎない。当然ながら、他のパターン認識アプローチが使用されてもよい。
トレーニングデータベースの目的は、注釈なしの3D画像ボリューム内のランドマークの自動識別を可能にすることである。
この目的のため、スキャンされた画像は、上で説明したのと同じ方向、スケーリング、及び強度正規化にかけられる。
実際のランドマーク位置特定プロセスは、腹部凸包の内側にあるボリューム領域に制限される。所与の入力ボリュームに対して、以下のステップが実行される:
Pランダム試験ポイントが選択される;
試験ポイントが、それらがリーフに達するまで、(f,θ)分割及び特徴基準を用いてツリー中を伝播される;
各ポイントが投票ベクトルを提供する;及び
全ての投票ベクトルがランドマーク予測へと変換される。
単一の予測を提供するために、全ての予測がガウス推定を通して結合されて、全ての予測のセットが単一の抽出された予測へと変換される。
ランドマークが識別されると、それらが臨床プレーンの自動抜出しに使用される。各臨床プレーンが、3つのランドマークによって規定され得る。
図11は、本発明に従った方法を示している。
右側は、訓練データベースを生成する方法を示している。それは、以下を有する。
ステップ110にて、N個の3D胎児超音波画像の訓練セットを受け取る。これらは、臨床医からの注釈を含む。従って、ステップ112にて、訓練セットの各3D胎児超音波画像内のランドマークの識別が受け取られる。
ステップ114にて、訓練セットの各3D胎児超音波画像が、少なくとも3D再方向付けを提供するために、上述の方法を用いて処理される。
これは、ステップ114aにて、画像内の脊椎を検出することと、ステップ114bにて、画像内の脊椎(12)の方向及び位置に基づいて第1の基準軸(z)を決定することとを伴い得る。ステップ114cにて、検出された脊椎に対する胎児胴体方向に基づいて、第1の基準軸(z)に対して垂直に、第2の基準軸(x)が決定される。
好ましくは、正規化ステップ115にて、強度正規化及びスケーリングも実行される。この処理は、それぞれの第1及び第2の基準軸を用いて、訓練セットの各3D胎児超音波画像の方向付けをもたらす。
ステップ116にて、方向付けられた訓練セットに機械学習が適用されることで、3D胎児超音波画像についてランドマークの位置を、対応するランドマークの識別なしで決定することができるアルゴリズムが提供される。
上で説明したように、訓練データベースを生成するとき、胎児の頭部/つま先の方向を決定するために、ある特定の方法が使用される(ステップ114の間)。特にはxz平面である第1及び第2の基準軸によって画成される関心プレーンが抜き出され、決められたパッチサイズのパッチがランダムにサンプリングされる。そして、分類器はこれらのパッチに基づいており、分類器が胎児の頭部/つま先方向を指し示す。
図11の左側は、新たな(訓練データベースに含まれていないことを意味する)3D胎児超音波画像内でランドマークを識別する方法を示している。
この方法は、ステップ118にて、3D胎児超音波画像を受け取ることを有する。これは、リアルタイムにおいてとし得るが、この方法は保管された画像にも等しく適用され得る。
ステップ120にて、3D胎児超音波画像が向け直され、次いで好ましくは、ステップ121にて、上述の方法を用いて、スケール変更され且つ強度正規化される。ここでも、脊椎を検出するステップ120aと、第1の基準軸(z)を決定するステップ120bと、第2の基準軸(x)を決定するステップ120cとが存在する。3D胎児超音波画像は、上述の方法によって生成された第1及び第2の基準軸を用いて向け直される。
ステップ122にて、向け直された3D胎児超音波画像が、ランドマーク情報を有する訓練データベースから導出された(ステップ116からの)機械学習アルゴリズムを用いて分析され、それにより、3D胎児超音波画像について、対応するランドマーク情報が位置特定される。
オプションで、ステップ124にて、ランドマーク位置が出力される。
ステップ126にて、ランドマーク位置を用いて、3D超音波ボリュームから生成されるべき画像スライスが自動的に規定される。
本発明は、診断撮像システムを用いて3D胎児超音波画像を処理するために使用される。
完全さを期すため、図12を参照して、そして、本発明はトランスデューサアレイによって測定された信号の処理に関するのでシステムの信号処理機能に重点を置いて、例示的な超音波診断撮像システムの全般的動作を説明することとする。
このシステムは、超音波を送信してエコー情報を受信するCMUTトランスデューサアレイ200を有したアレイトランスデューサプローブ210を有している。トランスデューサアレイ200は、それに代えて、例えばPZT又はPVDFなどの材料で形成された圧電トランスデューサを有していてもよい。トランスデューサアレイ200は、3D撮像のために3次元でスキャンすることが可能なトランスデューサ201の2次元アレイである。
トランスデューサアレイ200は、CMUTアレイセル又は圧電素子による信号の受信を制御するプローブ内のマイクロビームフォーマ212に結合されている。マイクロビームフォーマは、米国特許第5,997,479号(Savord他)、米国特許第6,013,032号(Savord)、及び米国特許第6,623,432号(Powers他)に記載されているように、トランスデューサのサブアレイ(又は“グループ”若しくは“パッチ”)によって受信される信号の少なくとも部分的なビームフォーミングが可能である。
なお、マイクロビームフォーマは完全にオプションである。以下の例は、アナログビームフォーミングを想定していない。
マイクロビームフォーマ212は、プローブケーブルによって送信/受信(T/R)スイッチ216に結合され、T/Rスイッチ216は、送信と受信との間で切り換わるとともに、マイクロビームフォーマが使用されずに、トランスデューサアレイがメインシステムビームフォーマによって直接的に動作されるとき、メインビームフォーマ220を高エネルギー送信信号から保護する。トランスデューサアレイ210からの超音波ビームの送信は、T/Rスイッチ216によってマイクロビームフォーマに結合されるトランスデューサコントローラ218と、ユーザインタフェース又は制御パネル238のユーザ操作からの入力を受信するものであるメイン送信ビームフォーマ(図示せず)とによって指示される。
トランスデューサコントローラ218によって制御される機能の1つは、ビームがステアリング及びフォーカシングされる方向である。ビームは、トランスデューサアレイから(直角に)まっすぐ前方に、又はより広い視野に対して複数の異なる角度で、ステアリングされ得る。トランスデューサコントローラ218は、CMUTアレイのためのDCバイアス制御部245を制御するように結合されることができる。DCバイアス制御部245は、CMUTセルに印加される(1つ以上の)DCバイアス電圧を設定する。
受信チャネルにおいて、部分的にビームフォーミングされた信号が、マイクロビームフォーマ212によって生成されて、メイン受信ビームフォーマ220に結合され、そこで、トランスデューサの個々のパッチからの部分的にビームフォーミングされた信号が、完全にビームフォーミングされた信号へと結合される。例えば、メインビームフォーマ220は、128チャンネルを有することができ、その各々が、数十個又は数百個のCMUTトランスデューサセル又は圧電素子のパッチから部分的にビームフォーミングされた信号を受信する。斯くして、トランスデューサアレイの何千個ものトランスデューサによって受信された信号が、単一のビームフォーミングされた信号に効率的に寄与することができる。
ビームフォーミングされた受信信号は信号プロセッサ222に結合される。信号プロセッサ222は、受信したエコー信号を、例えば帯域通過フィルタリング、デシメーション、I及びQ成分分離、並びに高調波信号分離などの様々な手法で処理することができる。高調波信号分離は、組織及びマイクロバブルから返された非線形(基本周波数の高調波)エコー信号の識別を可能にするように、線形信号と非線形信号とを分離するように作用する。信号プロセッサはまた、例えばスペックル抑制、信号合成、及びノイズ除去などの更なる信号エンハンスメントを実行し得る。信号プロセッサ内の帯域通過フィルタは、トラッキングフィルタとすることができ、その通過帯域が、ますます増す深さからエコー信号が受信されるにつれて、より高い周波数帯域からより低い周波数帯域へとスライドし、それにより、より大きい深さ(そこでは、高めの周波数は解剖学的情報を持たない)からの高めの周波数のノイズを退ける。
送信用及び受信用のビームフォーマは、異なるハードウェアで実装され、異なる機能を持つことができる。当然ながら、受信器ビームフォーマは、送信ビームフォーマの特性を考慮に入れて設計される。図12では、単純化のために、受信器ビームフォーマ212、220のみが示されている。完全なるシステムでは、送信マイクロビームフォーマ及びメイン送信ビームフォーマを有する送信チェーンも存在することになる。
マイクロビームフォーマ212の機能は、アナログ信号経路の数を減少させるために、信号の初期結合を提供することである。これは典型的に、アナログドメインで実行される。
最終的なビームフォーミングは、メインビームフォーマ220にて行われ、典型的にデジタル化の後である。
送信及び受信チャネルは、固定された周波数帯域を持つ同じトランスデューサアレイ210を使用する。しかしながら、送信パルスが占める帯域幅は、使用されている送信ビームフォーミングに依存して変わり得る。受信チャネルは、トランスデューサ帯域幅全体をキャプチャすることができ(これは、古典的なアプローチである)、あるいは、帯域通過処理を用いることによって、有用な情報(例えば、主調波の高調波)を含む帯域幅のみを抽出することができる。
処理された信号が、Bモード(すなわち、輝度モード、又は2D撮像モード)プロセッサ226及びドップラープロセッサ228に結合される。Bモードプロセッサ226は、例えば体内の臓器及び血管の組織などの体内の構造の画像化のために、受信した超音波信号の振幅の検出を使用する。体の構造のBモード画像は、高調波画像モード若しくは基本画像モードのいずれか、又は米国特許第6,283,919号(Roundhill他)及び米国特許第6,458,083号(Jago他)に記載されているように双方の組み合わせで形成され得る。ドップラープロセッサ228は、例えば画像フィールド内の血液細胞の流れなどの物質の動きの検出のために、組織運動及び血流からの時間的に異なる信号を処理する。ドップラープロセッサ228は典型的に、体内の選択されたタイプの物質から返されるエコーを通過させる及び/又は退けるように設定され得るパラメータを有するウォールフィルタを含む。
Bモードプロセッサ及びドップラープロセッサによって生成された構造信号及び運動信号が、スキャンコンバータ232及びマルチプレーナ(多断面)リフォーマッタ244に結合される。スキャンコンバータ232は、受信された空間的関係にあるエコー信号を所望の画像フォーマットにて配置する。例えば、スキャンコンバータは、エコー信号を、2次元(2D)セクター形状フォーマット又はピラミッド状3次元(3D)画像へと配置し得る。スキャンコンバータは、Bモード構造画像に、ドップラー推定速度を有する画像フィールド内の点における動きに対応する色を重ねて、画像フィールド内の組織及び血流の動きを描写するカラードップラー画像を生成することができる。マルチプレーナリフォーマッタは、米国特許第6,443,896(Detmer)に記載されているように、体のボリューム領域内の共通の平面内の点から受信されたエコーを、その平面の超音波画像へと変換する。ボリュームレンダラ242が、米国特許第6,530,885号(Entrekin他)に記載されているように、3Dデータセットのエコー信号を、所与の基準点から見た投影3D画像へと変換する。
スキャンコンバータ232、マルチプレーナリフォーマッタ244、及びボリュームレンダラ242から、2D又は3D画像が、画像ディスプレイ240上での表示のための更なるエンハンスメント、バッファリング、及び一時記憶のために、画像プロセッサ230に結合される。画像化のために使用されることに加えて、ドップラープロセッサ228によって生成される血流値及びBモードプロセッサ226によって生成される組織構造情報は、定量化プロセッサ234に結合される。定量化プロセッサは、例えば血流の体積速度などの様々な流れ状態の度合いと、例えば臓器の大きさ及び在胎期間など構造的測定値とを生成する。定量化プロセッサは、画像の解剖学的構造内の測定を行うべき点などの入力をユーザ制御パネル238から受け取り得る。定量化プロセッサからの出力データが、ディスプレイ240上の画像での測定グラフィックス及び値の再現のために、及び表示装置240からのオーディオ出力のために、グラフィックスプロセッサ236に結合される。グラフィックスプロセッサ236はまた、超音波画像と共に表示するためのグラフィックオーバーレイを生成することができる。これらのグラフィックオーバーレイは、例えば患者名、画像の日付及び時刻、撮像パラメータ、及びこれらに類するものなどの、標準的な識別情報を含むことができる。これらの目的のために、グラフィックスプロセッサは、例えば患者名などの入力をユーザインタフェース238から受け取る。ユーザインタフェースはまた、トランスデューサアレイ210からの超音波信号の生成、ひいては、トランスデューサアレイ及び超音波システムによって生成される画像の生成を制御するために、送信コントローラ218に結合される。コントローラ218の送信制御機能は、実行される機能のうちの1つにすぎない。コントローラ218はまた、動作モード(ユーザによって与えられる)と、それに対応する必要な送信器設定及び受信器アナログ−デジタル変換器における帯域通過設定とを考慮する。コントローラ218は、複数の一定の状態を有する状態マシンとすることができる。
ユーザインタフェースはまた、マルチプレーナリフォーマット(multi-planar reformatted;MPR)画像の画像フィールド内で定量化測定を実行するために使用され得る複数のMPR画像の平面の選択及び制御のために、マルチプレーナリフォーマッタ244に結合される。
上述の画像処理機能は、例えば、画像プロセッサ230によって実行され得る。
開示の実施形態への他の変形が、図面、本開示及び添付の請求項の検討から、特許請求される発明を実施する際に当業者によって理解されて実現され得る。請求項において、用語“有する”はその他の要素又はステップを排除するものではなく、不定冠詞“a”又は“an”は複数を排除するものではない。特定の複数の手段が相互に異なる従属項に記載されているという単なる事実は、それらの手段の組合せが有利に使用され得ないということを指し示すものではない。請求項中の如何なる参照符号も、範囲を限定するものとして解されるべきでない。

Claims (15)

  1. 3D胎児超音波画像を処理するためのコンピュータ実装された方法であって、当該方法は、
    3D胎児超音波画像を取得し、
    前記画像内で脊椎を検出し、
    前記画像内の前記脊椎の方向及び位置に基づいて第1の基準軸を決定し、
    検出された前記脊椎に対する胎児胴体方向に基づいて、前記第1の基準軸に垂直な第2の基準軸を決定し、そして、
    前記第1及び第2の基準軸を用いて前記3D胎児超音波画像を更新する、
    ことを有し、
    前記第2の基準軸の前記決定は、
    各々が前記第1の基準軸に直交する又は前記脊椎に局所的に直交する一組のプレーンを抜き出すことと、
    各プレーン内で胎児の楕円形又は円形の腹部又は胸部を検出することと、
    前記脊椎と前記楕円形の中心との間の各プレーン内の方向ベクトルに基づいて、前記第2の基準軸を決定することと、
    を有する、
    方法。
  2. 前記楕円形は、前記プレーン上でハンケル変換を実行することによって取得される、請求項1に記載の方法。
  3. 前記第2の基準軸の生成は、
    前記方向ベクトルを、前記脊椎の中央に位置する中心プレーン上に投影することと、
    投影された前記方向ベクトルの平均をとることと、
    投影された前記方向ベクトルの前記平均を用いて前記第2の基準軸を形成することと、
    を有する、請求項1又は2に記載の方法。
  4. 前記平均をとることは、前記脊椎の中央で前記脊椎の端部でよりも大きい重みを用いて、加重平均を計算することを有する、請求項3に記載の方法。
  5. 当該方法は更に、
    前記3D胎児超音波画像の頭部/つま先方向を決定し、そして、
    前記頭部/つま先方向を用いて前記3D胎児超音波画像を更新する、
    ことを有する、請求項1乃至4のいずれか一項に記載の方法。
  6. 当該方法は更に、
    前記3D胎児超音波画像上で強度正規化を実行し、且つ/或いは
    胎児妊娠期間に基づいて前記3D胎児超音波画像をスケーリングする、
    ことを有する、請求項1乃至5のいずれか一項に記載の方法。
  7. 前記3D胎児超音波画像内での前記脊椎の前記検出は、
    細長い明るい構造を検出するように適応された形態学的フィルタを用いて画像を分析することと、
    ディープラーニングベースの脊椎骨検出器を用いて画像を分析することと、
    前記形態学的フィルタからの応答及び前記ディープラーニングベースの脊椎骨検出器からの応答に基づいて脊椎マスクを取得することと、
    を有する、請求項1乃至6のいずれか一項に記載の方法。
  8. 3D胎児超音波画像内でランドマークを識別する方法であって、
    3D胎児超音波画像を受信し、
    請求項1乃至7のいずれか一項に記載の方法を用いて前記3D胎児超音波画像を処理し、
    前記第1及び第2の基準軸を用いて前記3D胎児超音波画像を方向付け、そして、
    ランドマーク情報を有する訓練データベースから導出された機械学習アルゴリズムを用いて、前記方向付けた3D胎児超音波画像を分析し、それにより、前記3D胎児超音波画像について、対応するランドマーク情報を見付ける、
    ことを有する方法。
  9. 3D胎児超音波画像に基づいて訓練データベースを生成し且つアルゴリズムを生成する方法であって、
    3D胎児超音波画像の訓練セットを受信し、
    前記訓練セットの各3D胎児超音波画像内のランドマークの識別を受信し、
    請求項1乃至8のいずれか一項に記載の方法を用いて、前記訓練セットの各3D胎児超音波画像を処理し、
    訓練セットの各3D胎児超音波画像を、それぞれの前記第1及び第2の基準軸並びに頭部/つま先方向を用いて方向付け、そして、
    前記方向付けた訓練セットに対して機械学習を用いて、3D胎児超音波画像について、対応するランドマークの識別なしで、ランドマークの位置を決定することができるアルゴリズムを提供する、
    ことを有する方法。
  10. 各3D胎児超音波画像の前記処理中に、胎児の頭部/つま先方向を、
    前記第1及び第2の基準軸によって定められる関心プレーンを抜き出し、
    前記抜き出した関心プレーンの、決められたパッチサイズの、パッチをランダムにサンプリングし、そして、
    前記パッチに基づいて分類器を生成し、該分類器が、胎児の前記頭部/つま先方向を指し示す、
    ことによって決定する、ことを有する請求項9に記載の方法。
  11. 前記パッチサイズは、胎児妊娠期間及び前記3D胎児超音波画像の解像度に基づく、請求項10に記載の方法。
  12. 前記機械学習アルゴリズムは、請求項9、10又は11に記載の方法を使用して生成される、請求項8に記載の方法。
  13. コンピュータプログラムコードを有するコンピュータプログラムであって、前記コンピュータプログラムコードは、当該コンピュータプログラムがコンピュータ上で実行されるときに、請求項1乃至8のいずれか一項に記載の方法を実行するように適応されている、コンピュータプログラム。
  14. 3D胎児超音波画像を処理することを制御するコントローラであって、当該コントローラは、実行されるときに当該コントローラに請求項1乃至8のいずれか一項に記載の方法を実行させる命令を有する、コントローラ。
  15. トランスデューサ素子のアレイを有する超音波プローブであり、関心領域の3D胎児超音波画像を取得するように適応された超音波プローブと、
    請求項14に記載のコントローラと、
    位置合わせされた前記3D胎児超音波画像を表示する表示装置と、
    を有し、
    前記コントローラは、訓練データベースから導出された機械学習アルゴリズムを使用して、更新された3D胎児超音波画像を分析し、それにより、前記3D胎児超音波画像内のランドマーク位置を導出するように適応されている、
    超音波システム。
JP2020502410A 2017-07-18 2018-07-12 胎児超音波画像処理 Active JP6839328B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762533702P 2017-07-18 2017-07-18
US62/533,702 2017-07-18
EP17183432.8A EP3435324A1 (en) 2017-07-27 2017-07-27 Fetal ultrasound image processing
EP17183432.8 2017-07-27
PCT/EP2018/068909 WO2019016064A1 (en) 2017-07-18 2018-07-12 TREATMENT OF A FETAL ULTRASONIC IMAGE

Publications (2)

Publication Number Publication Date
JP2020527080A JP2020527080A (ja) 2020-09-03
JP6839328B2 true JP6839328B2 (ja) 2021-03-03

Family

ID=59485205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020502410A Active JP6839328B2 (ja) 2017-07-18 2018-07-12 胎児超音波画像処理

Country Status (5)

Country Link
US (1) US11341634B2 (ja)
EP (2) EP3435324A1 (ja)
JP (1) JP6839328B2 (ja)
CN (1) CN110945560B (ja)
WO (1) WO2019016064A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110087555B (zh) * 2017-05-12 2022-10-25 深圳迈瑞生物医疗电子股份有限公司 一种超声设备及其三维超声图像的显示变换方法、系统
KR20200099910A (ko) * 2019-02-15 2020-08-25 삼성메디슨 주식회사 초음파 영상을 표시하는 방법, 장치 및 컴퓨터 프로그램 제품
CN113454484A (zh) * 2019-02-22 2021-09-28 皇家飞利浦有限公司 具有基于深度学习的波束形成的超声成像和相关联的设备、系统及方法
US20220211348A1 (en) * 2019-05-31 2022-07-07 Koninklijke Philips N.V. Guided ultrasound imaging
EP4027892A4 (en) * 2019-09-11 2023-09-27 Buros, Julie, C. TECHNIQUES FOR DETERMINING FETAL LOCATION DURING AN IMAGING PROCEDURE
CN112102244A (zh) * 2020-08-17 2020-12-18 湖南大学 胎儿超声标准切面图像检测方法、计算机设备和存储介质
US11457891B2 (en) * 2020-08-17 2022-10-04 Clarius Mobile Health Corp. Method and system for defining cut lines to generate a 3D fetal representation
EP4144301A1 (en) * 2021-09-03 2023-03-08 Diagnoly Device and method for guiding in ultrasound assessment of an organ
EP4383190A1 (en) 2022-12-09 2024-06-12 Koninklijke Philips N.V. Processing image data of a fetus
CN117078671B (zh) * 2023-10-13 2023-12-12 陕西秒康医疗科技有限公司 一种甲状腺超声影像智能分析系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6283919B1 (en) 1996-11-26 2001-09-04 Atl Ultrasound Ultrasonic diagnostic imaging with blended tissue harmonic signals
US6458083B1 (en) 1996-11-26 2002-10-01 Koninklijke Philips Electronics N.V. Ultrasonic harmonic imaging with adaptive image formation
US6013032A (en) 1998-03-13 2000-01-11 Hewlett-Packard Company Beamforming methods and apparatus for three-dimensional ultrasound imaging using two-dimensional transducer array
US5997479A (en) 1998-05-28 1999-12-07 Hewlett-Packard Company Phased array acoustic systems with intra-group processors
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
US6468216B1 (en) 2000-08-24 2002-10-22 Kininklijke Philips Electronics N.V. Ultrasonic diagnostic imaging of the coronary arteries
US8083678B2 (en) * 2003-04-16 2011-12-27 Eastern Virginia Medical School System, method and medium for acquiring and generating standardized operator independent ultrasound images of fetal, neonatal and adult organs
MXPA05011120A (es) * 2003-04-16 2005-12-15 Eastern Viriginai Medical Scho Sistema y metodo para generar imagenes de ultrasonido independientes del operador.
US8556814B2 (en) 2007-10-04 2013-10-15 Siemens Medical Solutions Usa, Inc. Automated fetal measurement from three-dimensional ultrasound data
US8882671B2 (en) * 2008-10-16 2014-11-11 Kabushiki Kaisha Toshiba Ultrasonic diagnostic device, ultrasonic image processing apparatus, ultrasonic image acquiring method and ultrasonic diagnosis display method
US20110125016A1 (en) * 2009-11-25 2011-05-26 Siemens Medical Solutions Usa, Inc. Fetal rendering in medical diagnostic ultrasound
KR101077752B1 (ko) * 2009-12-07 2011-10-27 삼성메디슨 주식회사 3차원 초음파 영상에 기초하여 태아의 머리 측정을 수행하는 초음파 시스템 및 방법
CN102429726A (zh) * 2011-08-03 2012-05-02 哈尔滨工业大学 基于图像导航的并联机器人辅助人工颈椎间盘置换手术定位方法
JP6037447B2 (ja) * 2012-03-12 2016-12-07 東芝メディカルシステムズ株式会社 超音波診断装置
KR101495528B1 (ko) * 2013-03-28 2015-03-02 삼성메디슨 주식회사 대상체의 방향 정보를 제공하는 초음파 시스템 및 방법
BR112016006097B1 (pt) 2013-09-20 2022-04-19 Transmural Biotech, S.L. Método de avaliação de uma condição de pelo menos uma porção de um tecido animal ou humano, método de diagnóstico de uma condição patológica de pelo menos uma porção de um tecido animal ou humano e dispositivo relacionado
JP2015171476A (ja) * 2014-03-12 2015-10-01 日立アロカメディカル株式会社 超音波診断装置及び超音波画像処理方法
US20160081663A1 (en) * 2014-09-18 2016-03-24 General Electric Company Method and system for automated detection and measurement of a target structure
WO2017009812A1 (en) 2015-07-15 2017-01-19 Oxford University Innovation Limited System and method for structures detection and multi-class image categorization in medical imaging
CN105433988B (zh) * 2015-12-28 2018-10-16 深圳开立生物医疗科技股份有限公司 一种目标图像识别方法、装置及其超声设备
US10540769B2 (en) * 2017-03-23 2020-01-21 General Electric Company Method and system for enhanced ultrasound image visualization by detecting and replacing acoustic shadow artifacts
CN110087551A (zh) * 2017-04-27 2019-08-02 深圳迈瑞生物医疗电子股份有限公司 一种胎心超声检测方法及超声成像系统

Also Published As

Publication number Publication date
WO2019016064A1 (en) 2019-01-24
US11341634B2 (en) 2022-05-24
CN110945560B (zh) 2023-09-01
EP3655917B1 (en) 2021-02-24
EP3655917A1 (en) 2020-05-27
JP2020527080A (ja) 2020-09-03
EP3435324A1 (en) 2019-01-30
US20200234435A1 (en) 2020-07-23
CN110945560A (zh) 2020-03-31

Similar Documents

Publication Publication Date Title
JP6839328B2 (ja) 胎児超音波画像処理
US11490877B2 (en) System and method of identifying characteristics of ultrasound images
US11931201B2 (en) Device and method for obtaining anatomical measurements from an ultrasound image
JP7266523B2 (ja) 出産前超音波イメージング
JP7292370B2 (ja) 胎児体重推定を実施するための方法およびシステム
JP2022111140A (ja) 超音波診断装置
CN112867444B (zh) 用于引导对超声图像的采集的系统和方法
US20210345987A1 (en) Methods and systems for determining complementary ultrasound views
JP6761365B2 (ja) 超音波診断装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201116

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210212

R150 Certificate of patent or registration of utility model

Ref document number: 6839328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250