JP2023511300A - 医用画像における解剖学的構造を自動的に発見するための方法及びシステム - Google Patents

医用画像における解剖学的構造を自動的に発見するための方法及びシステム Download PDF

Info

Publication number
JP2023511300A
JP2023511300A JP2022543166A JP2022543166A JP2023511300A JP 2023511300 A JP2023511300 A JP 2023511300A JP 2022543166 A JP2022543166 A JP 2022543166A JP 2022543166 A JP2022543166 A JP 2022543166A JP 2023511300 A JP2023511300 A JP 2023511300A
Authority
JP
Japan
Prior art keywords
bounding box
anatomy
image
medical image
classes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022543166A
Other languages
English (en)
Other versions
JPWO2021144230A5 (ja
Inventor
ソウマブハ ボウミック
ソブヘンドゥ セス
カルティク クリシュナン
セリーヌ フィルション
パラヴィ フェイネパリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2023511300A publication Critical patent/JP2023511300A/ja
Publication of JPWO2021144230A5 publication Critical patent/JPWO2021144230A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

この発明は、対象者の医用画像1における解剖学的構造3を自動的に検出するためのコンピュータ実施方法に関するものであり、コンピュータ実施方法は、医用画像に対して対象物検出機能4を適用するステップを有し、対象物検出機能は、(A) 医用画像に対して、第1の複数のクラスの大きいサイズの解剖学的構造3aを検出するように訓練された第1のニューラルネットワーク40を適用することにより、少なくとも1つの第1の境界ボックス51の座標と、第1の境界ボックスが大きいサイズの解剖学的構造を含んでいることの信頼度スコアとを、出力として生成するステップと、(B) 医用画像を第1の境界ボックスへとトリミングして、第1の境界ボックスの中に、画像のコンテンツを含んでいるトリミングされた画像を生成するステップ42と、(C) トリミングされた医用画像に対して、少なくとも1つの第2のクラスの小さいサイズの解剖学的構造3bを検出するように訓練された第2のニューラルネットワーク44を適用することにより、少なくとも1つの第2の境界ボックスの座標と、第2の境界ボックスが小さいサイズの解剖学的構造を含んでいることの信頼度スコアとを、出力として生成するステップとを実行する。

Description

本発明は、対象者の医用画像における解剖学的構造を自動的に検出するためのコンピュータ実施方法と、医用画像における複数のクラスの解剖学的構造を検出するのに有効な対象物検出機能を訓練するための方法と、関連するコンピュータプログラムと、システムとに関する。
X線、コンピュータ断層撮影法(CT)、磁気共鳴映像法(MRI)、陽電子射出断層撮影法(PET)及び超音波撮像モダリティなどの医用撮像は、広く使用可能になっており、診断及び他の医療目的のために繰り返し使用されている。しかしながら、例えば様々なアーチアファクト、ノイズ及び画像の不正確さといった他の原因ために、医用画像の解釈は難易度が高いままである。詳細には、超音波画像の解釈は、放射線専門医や公認の超音波検査士などの専門家の間でさえ、ユーザ内でもユーザ間でも、ばらつきが大きいことが知られている。この状況は、超音波診断が、多くの場合、内科救急の状況において年少の医者又は緊急処置室の医者によって実行されるという事実によって悪化する。したがって、医用画像から、解剖学的構造を検出したり識別したりすること、及び/又は既定の医学的状態の可能性を決定することにおいて、コンピュータ実施の支援が必要とされている。
そのようなコンピュータ実施の支援が望ましい例の1つには産前の超音波検査があり、すべての妊婦のために世界的に推奨されている。妊娠初期の超音波走査の主要目的は、妊娠の成育可能性を評価して、それに日付を入れ、胎児の数を数え、また子宮外妊娠や流産などの異常な妊娠第1三半期を排除することにある。妊娠損失はこの初期段階によくあり、子宮外妊娠は、臨床の重大な異常所見であるが発見されないことも多く、依然として、世界的に、母体死亡の重要な原因となっている。超音波撮像は、妊娠第1三半期の早期に前述の臨床所見を識別するとき、中心的な役割を果たす。しかしながら、専門家の間でさえ、観察者間や観察者内にばらつきがあって、超音波画像の診断価値が大幅に制限される。
深層学習技術は、パターン認識、対象物検出、画像分類、並びにセマンティックセグメント化に関して、過去数年のうちに著しい進展を遂げた。最初の試みは、医用画像における解剖学的構造の場所を突き止めるために人工ニューラルネットワークを適用するものであった。
Bob D. de Vos、Jelmer M. Wolterink、Pim A. de Jong、Tim Leiner、Max A. Viergever及びIvana Isgumの論文「ConvNet-Based Localization of Anatomical structures in 3D Medical Images」、IEEE Transactions on Medical Imaging、PP. DUI.: 10.1109/TMI. 2017. 2673121、2017年4月19日、は、1つ又は複数の解剖学的構造の存在を、畳み込みニューラルネットワーク(ConvNet)を使用して2D画像スライスの中に検出することにより、3D医用画像において、自動位置決めするための方法を提案している。1つのConvNetが、3D画像から抽出された、軸方向の冠状且つ矢状のスライスにおける、関心のある解剖学的構造の存在を検出するように訓練される。ConvNetが、異なるサイズのスライスを解析することができるように、空間的ピラミッドプーリングが適用される。検出した後に、すべてのスライスにおけるConvNetの出力を組み合わせることによって3D境界ボックスが生成される。空間的ピラミッドプール層の出力特徴マップは、一連の2つの完全接続層に接続され、これらが2Nのエンドノードの出力層に接続され、Nは対象の解剖学的構造の数を指示する。空間的ピラミッドプーリングにより、可変入力サイズの画像の分析が可能になる。
WO 2017/1242221 A1が開示している、対象物検出のための方法は、検出される対象物クラスを、階層樹構造を構成する複数の対象物クラスタへとグループ化するステップと、画像を得て、得られた画像の少なくとも1つの境界ボックスを得るステップと、それぞれ階層樹構造のクラスタの各々について訓練された畳み込みニューラルネットワークによって、階層樹構造のルートクラスタからリーフクラスタまで、それぞれの境界ボックスの中の対象物を評価して、対象物の最も深いリーフクラスタを決定するステップと、決定された最も深いリーフクラスタにおける対象物クラスラベルを、その対象物の予測された対象物クラスラベルとして出力するステップとを有する。
Y. Deng、Y. Wang、P. Chen及びJ. Yuによる論文「A hierarchical model for automatic nuchal translucency detection from ultrasound images」、Computers in Biology and Medicine、42号(2012年)706~713頁は、頂部透過性(NT)領域を自動検出するためのアルゴリズムを提案している。超音波画像を与えられたとき、最初に胎児の全身が認識されて位置付けられる。次いで、身体の知見を基に、画像からNT領域及び胎児の頭部が推測され得る。確立されたグラフィカルモデルは、NT領域、頭部及び身体の対象物の間のそのような因果関係を適切に表す。
CERVANTES ESTEVEらによる論文「Hierarchical part detection with deep neural networks」、2016 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)、IEEE、2016年9月25日、1933~1937頁、XP033016808は、エンドツーエンドの階層的対象物及び部分検出フレームワークを開示している。したがって、対象物を検出するために、1つの畳み込みニューラルネットワークを使用して、入力画像データにおける境界ボックスが決定される。さらに、境界ボックスの内部で、対象物の各部分に関して1つの提案が決定される。
EP 2911111 A2は、病巣検出のための装置及び方法を開示している。病巣検出の方法は、医用画像から病巣候補を検出するステップと、医用画像から解剖学的対象物を検出するステップと、病巣候補と解剖学的対象物との間の場所関係に関する情報を含む解剖学的状況の情報を基に、病巣候補の各々を検証するステップと、検証結果を基に、検出された病巣候補から1つ又は複数の偽陽性の病巣候補を削除するステップとを有する。
本発明の目的は、好ましくは汎用ハードウェア上で準リアルタイムの速度で動作する、医用画像における解剖学的構造を検出して識別する頑健なコンピュータ支援の方法を提供することである。本発明のさらなる目的は、人の性能と同等であるか又はこれに勝る精度で、ある特定の解剖学的構造を識別するためのコンピュータ支援の解決策を提供することである。一例として、子宮内妊娠(IUP)並びにその異常な片われ(詳細には妊娠損失、子宮外妊娠)の特徴を識別するための、OBGYNワークフロー(IUP及びその在胎齢の診断)を改善する、頑健なコンピュータ支援の解決策を得るのが望ましい。
これらの目標は、対象者の医用画像における解剖学的構造を自動的に検出するための、請求項1に記載のコンピュータ実施方法と、複数のクラスの解剖学的構造を検出するのに有効な対象物検出機能を訓練するための、請求項11に記載の方法と、請求項14に記載のコンピュータプログラムと、請求項15に記載のシステムとによって満たされるか又は超えられる。有利な実施形態は従属請求項において詳述される。特許請求される方法に関連して本明細書で説明される、あらゆる特徴、利点又は代替実施形態は、他の請求項のカテゴリ及び本発明の態様にも適用可能であり、詳細には、訓練方法、特許請求されるシステム及びコンピュータプログラムにも適用可能であり、逆の場合も同じである。詳細には、特許請求される方法によって、対象物検出機能及びニューラルネットワークが提供されるか又は改善され得る。その上、対象物検出機能に対する入出力データは、入出力訓練データの有利な特徴及び実施形態を含むことができ、逆の場合も同じである。
本発明は、第1の態様によれば、対象者の医用画像における解剖学的構造を自動的に検出するためのコンピュータ実施方法が提供され、このコンピュータ実施方法は、
a) 対象者のFOV(視野)の少なくとも1つの医用画像を受け取るステップと、
b) 医用画像に対して対象物検出機能を適用し、それによって、複数の境界ボックスの座標及び各境界ボックスに関する信頼度スコアを出力として生成するステップとを有し、対象物検出機能は、複数のクラスの解剖学的構造を検出するように訓練されており、信頼度スコアは、境界ボックスが、複数のクラスのうちの1つに属する解剖学的構造を含んでいる確率を示す、コンピュータ実施方法において、対象物検出機能が、
- 医用画像に対して、第1の複数のクラスの大きいサイズの解剖学的構造を検出するように訓練された第1のニューラルネットワークを適用することにより、少なくとも1つの第1の境界ボックスの座標と、この第1の境界ボックスが大きいサイズの解剖学的構造を含んでいることの信頼度スコアとを、出力として生成するステップと、
- 医用画像を第1の境界ボックスへとトリミングして、第1の境界ボックスの中に、画像コンテンツを含んでいるトリミングされた医用画像を生成するステップと、
- トリミングされた医用画像に対して、少なくとも1つの第2のクラスの小さいサイズの解剖学的構造を検出するように訓練された第2のニューラルネットワークを適用することにより、少なくとも1つの第2の境界ボックスの座標と、この第2の境界ボックスが小さいサイズの解剖学的構造を含んでいることの信頼度スコアとを、出力として生成するステップと
を実行する、
ことを特徴とするコンピュータ実施方法である。
したがって、本発明は、医用画像において種々のサイズの解剖学的構造又は詳細なスケールを自動検出するための、階層的な解剖学的識別機構を提供するものである。本発明は、小さいサイズ又はスケールの詳細の、一定の解剖学的構造(小さいサイズの解剖学的構造)が、大きいサイズ又はスケールの詳細の、別の解剖学的構造(大きいサイズの解剖学的構造)の内部に見つかることが期待されると仮定して、入力医用画像を、大きいサイズの解剖学的構造を含んでいる境界ボックスへと有利にトリミングして、トリミングされた画像を、小さいサイズの解剖学的構造を検索するために使用する。このように、それぞれの階層レベル(例えば大きいサイズや小さいサイズの階層レベル)において解剖学的構造を検出するために使用されるニューラルネットワークは、必要とするアーキテクチャが非常に簡単になり、より速く訓練され得、より頑健であり、すなわち、より高い平均精度を有する。言い換えれば、それぞれの階層レベルに、独立した個別のニューラルネットワークが実装され、したがって、その階層レベルに応じて特定の検出タスク向けに特別に訓練される。一例として、妊娠早期の超音波(US)画像では、胎嚢の中に卵黄嚢が見つかることが期待される。しかしながら、卵黄嚢(YS)は、非常に微細な組織体であり、比較的大きい解剖学的構造と一緒では、うまく訓練され得ないことが分かっている。より優れた検出を実現するために、専用の第2のニューラルネットワークが、例えば元の入力医用画像から胎嚢(GS)をトリミングした画像に対して訓練される。こうすると探索領域が縮小され、それによって訓練や検出が改善される。
一実施形態では、本発明のコンピュータ実施方法は、通常のPC、ラップトップコンピュータ、タブレットコンピュータ、クラウドコンピュータ、サーバなどの任意の汎用ハードウェア上で実施され、詳細には、超音波走査を実行するために使用される超音波システム上で実施される。この方法は、リモートコンピュータ上でも実行され、すなわち、超音波走査によって取得された画像が、例えばインターネット又はセル式接続を介して、遠く離れたコンピュータ又はサーバにアップロードされ、そこで、本発明に従って処理される。例えばある特定の解剖学的構造を含んでいる少なくとも1つの第1の境界ボックスの座標及び少なくとも1つの第2の境界ボックスの座標、及びこれら境界ボックスの信頼度スコア、並びに、一般的には前記解剖学的構造のクラスといった本発明の結果は、インターネット又はセル式接続を介して超音波スキャナ又は他のハードウェアデバイスに戻され、画像の評価に使用され得る。
本発明は、訓練された人工ニューラルネットワーク、すなわち相次いで使用される第1のニューラルネットワーク及び第2のニューラルネットワーク(NN)を利用するものである。すなわち、第1のニューラルネットワークと第2のニューラルネットワークとは、異なる入力及び/又は異なる出力を有し得る。このように、所定の解剖学的構造に対して階層的且つ解剖学的な識別機構が実施され、既定の解剖学的構造の検出において、優れた結果を確実に示した。それによって、診断手法がより系統的になり得る。妊娠第1三半期の場合には、本発明は、特に子宮外妊娠の検出率を向上することにより、異常な早期の妊娠第1三半期の臨床成績を根本的に改善する。しかしながら、本発明は妊娠早期の場合に限定されず、様々な医学的状態及び臨床応用に適用される。
対象物検出機能に入力される医用画像は、好ましくは2D画像である。これは、好適に採用される第1及び第2のニューラルネットワークが2D画像処理に最もよく適しているという理由による。しかしながら3Dへの拡張が可能である。入力される医用画像は、X線、CT、MRI、PETなどの任意の医用撮像モダリティ、又はBモード超音波、カラードップラ、せん断波エラストグラフィなどの超音波によって生成される。
一実施形態では、この方法は、心臓などの動く目標組織体から取得された一連の医用画像などの医用画像の時系列といった一連の医用画像に適用される。この方法は、関心領域の端から端までプローブを掃引することによって超音波走査中に得られるものなど、様々なFOVをカバーする一連の医用画像にも適用される。一実施形態では、この方法は、多くの医用画像を処理するために、例えば10~60FPS(1秒当たりのフレーム/画像)、好ましくは20~40FPSのフレームレートといった、リアルタイム又は準リアルタイムで、結果をレンダリングする。
入力医用画像のFOVは、人間又は動物の体の、例えば頭部又は脳、四肢、四肢の一部、或いは、例えば胸、胴又は腹部の内部の、心臓、肺、乳房、肝臓、腎臓、生殖器、腸など任意の臓器又は臓器のグループといった、任意の関心領域をカバーする。「解剖学的構造」はそのようなFOV内の識別可能な任意の解剖学的特徴であり、例えば、子宮、胎嚢、胎芽、ダグラス窩の体液、卵巣、卵黄嚢、特定の骨、血管、心臓弁などの前述の臓器若しくはその一部、又は腫瘍、嚢腫、病巣、動脈瘤、などの異常組織、又はねじ、膝若しくは肩の移植物などの移植された組織体、移植された心臓弁などのうちの1つである。一実施形態では、対象物検出機能は、複数の異なる既定の解剖学的構造を検出するように訓練され、それぞれの種類の解剖学的構造は、「クラス」(例えば「子宮」は1つのクラスであり、「卵巣」は別のクラスである)に対応する。一実施形態では、放射線専門医が、前記解剖学的構造を完全に含んでいる境界ボックスを描くことができるように、それぞれの既定の種類/クラスの解剖学的構造は、医用画像上の他の臓器に対して境界を定められる。一実施形態では、対象物検出機能によって生成された境界ボックスは、長方形であって好ましくは軸と整列し、すなわち、長方形の4つの側が医用画像の4つの縁部及び/又は他の境界ボックスの側と整列する。
一実施形態では、それぞれの入力医用画像は正方形の2D画像であり、すなわち幅方向と高さ方向とに同数のピクセルを有する。この発明については、対象物検出機能は特定の画像サイズ(例えば416×416のピクセル)に対して訓練されるのが有利である。したがって、本発明の方法は、さらなる任意選択のステップを有し、このステップで、画像診断法から受け取られた医用画像が、例えば既知の補間技術によって、対象物検出機能に関して規定された入力サイズに再スケーリングされる。
対象物検出機能は、大きいサイズの解剖学的構造を検出するように訓練された第1のニューラルネットワークと、小さいサイズの解剖学的構造を検出するように訓練された第2のニューラルネットワークとを備える。「大きいサイズ」や「小さいサイズ」は、小さいサイズの解剖学的構造が、一般的には(すなわちほとんどの対象者において)大きいサイズの解剖学的構造の平均よりも、小さいものであるか、又はより精細な細部を有することを意味する。一実施形態では、小さいサイズの解剖学的構造のうちの少なくとも1つが、一般的には、大きいサイズの解剖学的構造のうちの1つの内部に含有されているか、又はその一部である。実寸に関して、小さいサイズの解剖学的構造は、平均径において、一般的には40mm未満、好ましくは30mm未満、最も好ましくは20mm未満であり、任意選択で、最小サイズは0.2~5mmである。大きいサイズの解剖学的構造は、好ましくは平均径において、一般的には10mmよりも大きく、好ましくは20mmよりも大きく、より好ましくは30mmよりも大きく、任意選択で50~400mmの最大サイズを有する。大きいサイズの解剖学的構造と小さいサイズの解剖学的構造との、対応するセットの例は、下の表に見られる。
Figure 2023511300000002
対象物検出機能は、大きいサイズの解剖学的構造と小さいサイズの解剖学的構造との間の階層関係に基づくものであり、第1の複数のクラスの大きいサイズの解剖学的構造のうちの少なくとも1つが、少なくともいくつかの医学的状態において、小さいサイズのクラスの解剖学的構造のうちの1つ又はいくつかを含んでいると予期される。第1三半期のスクリーニングでは、例えば、大きいサイズのクラスの解剖学的構造は、子宮(U)と、胎嚢(GS)と、任意選択で胎芽(E)とを含む。小さいサイズのクラスの解剖学的構造は、卵黄嚢(Y)と、任意選択で胎芽(E)とを含む。それによって、本発明の方法は、境界ボックスを生成することによって自動化された深層学習ベースの手法を使用して、子宮、GS、卵黄嚢及び胎芽の場所を突き止める各境界ボックスの関係を基に、IUP(子宮内妊娠)の自動検出を可能にするものである。子宮とGSとの両方が、第1の複数のクラスの大きいサイズの解剖学的構造のものであるので、自動化の第1のレベル(すなわち第1のニューラルネットワーク)は、GSの存在を、子宮内又はそれ以外に場所を突き止める。次のステップで、医用画像が、一例では胎嚢を含んでいる境界ボックスである第1の境界ボックスへとトリミングされ、それによって、第1の境界ボックスの中に、画像コンテンツを含んでいるトリミングされた画像、すなわち主としてGSのみを含んでいる小さい画像を生成する。(第2のニューラルネットワークを使用する)第2のレベルの自動化は、トリミングされた画像の内部、すなわち胎嚢の内部の、胎芽ボックス及び卵黄嚢ボックスの存在/不在を識別する。境界ボックスのこの階層関係により、IUPと子宮外妊娠のような非IUPとが自動識別される。
本発明の方法の出力は、境界ボックスと、ある特定のクラスの解剖学的構造を含んでいるそれぞれの境界ボックスの信頼度スコアとである。この出力は、医用画像及び/又はトリミングされた画像を出力し、それに対して、最高の信頼度スコアを有する境界ボックスを、例えば対照をなす配色で表示するか又は重ね合わせて表示することによって可視化される。
本発明の利点には、大きいサイズの解剖学的構造と、大きいサイズの解剖学的構造のうちの1つの中に含有されている可能性がある、少なくとも1つの、通常はいくつかの、小さいサイズのクラスの解剖学的構造との両方の、コンピュータ支援の頑健な識別が可能になることがある。この2段階の手法を使用することにより、小さいサイズの解剖学的構造の検出及び識別が、大幅に、より精密且つ頑健になる。妊娠早期における女性の子宮をカバーするFOVの場合には、本発明は、妊娠早期の正常/異常、詳細には子宮外妊娠、奇胎妊娠又は付属器の特徴を、より系統的に診断するのに役立つ。
一実施形態では、この方法は、解剖学的構造の1つ又はいくつかのクラスの存否及び/又は解剖学的構造を含んでいる検出された境界ボックスの相対的な空間位置に基づく推論方式を使用して、対象者の既定の医学的状態の確率を決定するさらなるステップc)を含む。
所定の医学的状態は何らかの臨床所見であり、解剖学的構造を含んでいる検出された境界ボックスの存否及び相対的空間位置から推測され得る。臨床所見自体は、通常は診断ではなく、単に、ある特定の医学的状態の確率であり、例えば、既定の臓器(大きいサイズの解剖学的構造であり得る)における腫瘍又は他の局所的な異常(小さいサイズの解剖学的構造であり得る)、子宮内妊娠、子宮外妊娠、妊娠損失(例えば胎嚢の内部に胎芽又は卵黄嚢が見いだされないとき)の存否の確率である。
表現される確率は1又は0でよいが、中間の値を採用することも可能であり、決定のために使用された境界ボックスの信頼度スコアに依拠し得る。推論方式は、例えば、任意のコンピュータ言語のアルゴリズムで実施される複数のIF ELSEコマンドを含む。妊娠第1三半期の場合には、推論方式は、例えば子宮の境界ボックスをBuと表し、GSの境界ボックスをBGSと表す。BGSがBuのサブセットであれば正常なIUPと推測され、そうでなければ異常妊娠と称される。第2のニューラルネットワークを使用する第2のレベルの自動化では、卵黄嚢(YS)及び胎芽が検出されて場所を突き止められる。卵黄嚢の境界ボックスをBYSと称し、胎芽の境界ボックスをBEと称する。BYS及び/又はBEがBGSのサブセットであれば、正常妊娠と称される。GSの内部にYS及び胎芽が検出されなければ、異常妊娠の可能性が増大される。医学的状態の「増大された」確率は、例えば50~95%、好ましくは60~90%の値である既定の閾値を上回ることを意味する。
したがって、いくつかの実施形態では、第1のクラスの解剖学的構造(例えばGS)を含んでいる第1の検出用の境界ボックスが、第2のクラスの解剖学的構造(例えばGS)を含んでいる、第2の検出された境界ボックスを包含するか又は含んでいる場合には、既定の医学的状態(例えばIUP)の確率が増大される。第1の解剖学的構造が、第2の境界ボックスを完全に包含し、すなわち完全に含有し、又は、場合により、アルゴリズムが、既定の量のオーバーラップを許容する。例えば、確率を増大するためには、第2の境界ボックスの既定の割合(例えば少なくとも80%)が第1の境界ボックスの内部になければならない。
他の実施形態では、検出する各境界ボックスの相対空間位置は、1つの境界ボックスが他の境界ボックスのサブセットであることを必要とするばかりではなく、解剖学的構造の2つ以上のクラスの境界ボックスに対して、所定範囲内のサイズ比、所定の量のオーバーラップ、及び/又は所定の空間的関係を有すること、といった条件もあり得る。
一実施形態によれば、この方法は、対象者の同一の診察期間中に取得された別々のFOVを伴う複数の2次元医用画像に対して繰り返され、検出された境界ボックスの信頼度スコアは、さらなる評価に最適な医用画像又はFOVを計算するために使用される。この場合、さらなる評価は、最高の信頼度スコアを伴う境界ボックスを有するそれぞれの医用画像が、熟練ユーザによってさらに観察されるか、或いはセグメント化、モデリング、特徴検出、距離の測定、特徴追跡などのさらなる自動画像分析技術に供されるかの、いずれかとなる。さらなる評価はまた、ここまでに使用された医用画像がBモードのUS画像であるとき、識別されたFOVが、このFOVからさらなる画像を取得するために、場合により、例えばドップラ超音波法を使用する他の撮像技術によって使用されることを意味する。
別の実施形態では、また、検出された境界ボックスから、さらなる医用画像を取得するために使用されるさらなる2D平面の向きが決定される。したがって、検出された境界ボックスは、対応する入力画像とともに、例えば最大の信頼度スコアを伴うことを意味する最良の平面を計算するために使用される。例えば、境界ボックス及び信頼度スコアの加重平均が、信頼区間を定めるのに使用され、次に、信頼区間が、最良の平面を計算するために使用された。例えば、ある特定の解剖学的構造の最大の断面を取り込む医用画像が、さらなる評価のために使用される。次いで、妊娠第1三半期スクリーニングの例では、これらの平面/画像は、対応する境界ボックスとともに、例えば卵黄嚢の直径、胎嚢の平均嚢直径、胎芽の頭殿長、異所性/異所性マス、ダグラス窩の体液の量のような主要パラメータの自動計算のために使用される。したがって、本発明は、解剖学的構造に対してさらなる測定が実行される、標準的な平面/FOV又は優れた平面/FOVのいずれかを自動的に識別するためにも使用される。
本発明による対象物検出機能は、ソフトウェアプログラムの形態で提供されるが、ハードウェアとしても実施される。一実施形態では、対象物検出機能のそれぞれの検出ステップが1つのニューラルネットワークによって行われる。第1のステップにおいて1つの第1のNNが全医用画像に対して適用され、第2のステップにおいて、1つの第2のNNが、トリミングされた画像に対して適用される。それぞれのNNが入力画像を領域に分割し、それぞれの領域について境界ボックス及び確率を予測する。これらの境界ボックスは、予測された確率によって重み付けされる。一実施形態では、例えば25%以上といった、20~40%の、ある特定の信頼度スコアを有する境界ボックスのみが表示され、且つ/又は考慮に入れられる。
一実施形態では、対象物検出機能の一部を形成する第1の人工ニューラルネットワーク(NN)と第2のNNとは、類似又は同一のアーキテクチャを有するが、異なるクラスの解剖学的構造を検出するように、場合により異なる数のクラスを検出するように、訓練される。第2のNNは、第1のNNに入力される完全な医用画像では検出するのがより困難な、特定の、小さいサイズの解剖学的構造を検出するように、より特化されている。第1のNNと第2のNNとは、異なるタイプでもある。したがって、以下では、「ニューラルネットワーク」という用語が使用される場合は常に第1のNN及び/又は第2のNNを意味し、必須ではないが好ましくは両方を意味する。
人工ニューラルネットワーク(NN)は、ノードとも呼ばれる接続された人工ニューロンの集合に基づくものであり、エッジとも呼ばれるそれぞれの接続は、あるノードから別のノードに信号を送信することができる。それぞれの人工ニューロンが、受け取った信号を処理してから、接続されているさらなる人工ニューロンに伝達する。有効な実施形態では、第1のNNの人工ニューロンと第2のNNの人工ニューロンとは、層に構成される。医用画像のピクセル値である入力信号は、入力層とも称される第1の層から、出力層である最後の層に伝わる。一実施形態では、第1のNN及び/又は第2のNNはフィードフォワードネットワークである。第1のNN及び第2のNNは、好ましくは、それぞれが、隠れ層を含めていくつかの層を備え、したがって深層ニューラルネットワークである。一実施形態では、第1のNN及び第2のNNは、詳細には例えば逆伝搬法といった深層学習である機械学習技術を基に訓練される。さらに、第1のNN及び第2のNNはソフトウェア機能の形態で用意され、これは、必ずしも、訓練されたニューラルネットワークと正確に同じやり方で構築されるわけではない。例えば、ある特定の接続又はエッジが訓練の後に重み0を有する場合には、対象物検出機能を用意するとき、そのような接続は省略される。
一実施形態によれば、第1のニューラルネットワーク及び/又は第2のニューラルネットワークには、各ノードが後続の層の各ノードに接続されている完全接続層は備わっていない。一実施形態では、第1のNN及び/又は第2のNNは、少なくとも1つの畳み込み層を備える。一実施形態では、第1及び/又は第2のニューラルネットワークは、好ましくは、どちらも完全な畳み込みニューラルネットワーク(CNN)である。完全な畳み込みNNは、完全接続層を含まない畳み込みNNと定義される。畳み込み層は、層の内部のニューロンが、進行する層の小領域にのみ接続されるように、全体の層にわたって相対的に小さいフィルタカーネルを適用する。このアーキテクチャは、学習済みのフィルタカーネルが、空間的に局所の入力パターンに対して最も強い応答を生成することを保証するものである。本発明の一実施形態では、畳み込み層のパラメータは、学習可能なフィルタカーネルのセット含み、これらは、知覚フィールドは小さいが、層ボリュームの全深度に及ぶものである。畳み込み層を通るフォワードパスを通じて、各フィルタカーネルは、入力層の幅及び高さにわたって畳み込まれ、フィルタカーネルのエントリと入力層との間のドット積を計算して、それ自体のフィルタカーネルに関する出力マップを生成する。すべてのフィルタカーネルの出力マップを深さ寸法に沿って積み重ねると、本明細書では特徴マップとも称される、畳み込み層の全出力ボリュームを形成する。
畳み込み層は、一般に、そのフィルタカーネルのサイズ(大きさ)及びストライドによって定義され、1つの畳み込み層に備わっているいくつかのフィルタカーネルが、それぞれ異なる出力マップを生成し、出力マップは、すべての特徴カーネルについて、深さ寸法に沿って互いに積み重ねられることにより、出力ボリューム又は特徴マップを形成する。フィルタカーネルは、通常、入力ボリュームの全深度を通して広げられる。したがって、畳み込み層に対する入力層の大きさが416×416×3であって、フィルタカーネルのサイズが3×3であれば、基本的に、畳み込みフィルタカーネルの大きさは3×3×3であることを意味する。これは1つの特徴マップをもたらす。フィルタカーネルのストライドはピクセル数であり、フィルタカーネルは、入力層/ボリュームのまわりで畳み込むとき、この数だけシフトする。したがって、フィルタカーネルのストライドが2であれば、出力層の大きさは、入力層と比較して1/2になる。
一実施形態では、第1のNN及び/又は第2のNNは、3~14の層、好ましくは4~10の層のブロックを含み、各ブロックには、サイズが3×3でストライドが1のフィルタカーネルをそれぞれ有する複数のフィルタを用いる畳み込み層と、これに続く、サイズが2×2でストライドが2のmaxpool層とが、備わっている。したがって、それぞれのそのようなブロックにより、層の大きさが半分になる。一実施形態では、第1のNN及び/又は第2のNNの畳み込み層は、入力医用画像を、2~2の係数で、好ましくは2~2の係数で、例えば2=32の係数で、ダウンサンプリングする。この例では、416×416のサイズの入力画像を使用することにより、出力特徴マップは13×13の大きさを有する。
畳み込み層とmaxpool層との組合せを使用することにより、画像は、第1のNN及び/又は第2のNNを通って伝わるとき大きさが縮小され、それによって、最終的に、いくつかの境界ボックスの座標を符号化する3Dテンソルと、各境界ボックスの信頼度スコアと、例えば検出された対象物が解剖学的構造の既定のクラスのうちの1つに属する確率といったクラス予測とをもたらす。
一実施形態では、第1及び/又は第2のニューラルネットワークは、YOLOv3ネットワーク、詳細にはYOLOv3の小型ネットワークの改造である。YOLOv3は、J. Redmon、A. Farhadiの「YOLOv3: An Incremental Improvement」、arXiv preprint arXiv: 1804.02767、2018年、https://arxiv.org/abs/1804.02767の公開に開示されている。YOLOv3の小型バージョンに対して訓練されると、検出は、いかなる追加ハードウェアの支援も必要とせずに楽々と動作する。
第1のNN/第2のNNの出力:一実施形態では、第1のNN及び/又は第2のNNは、それぞれの可能な境界ボックスについて、その境界ボックスが、複数のクラスのうちのいずれか1つに属する解剖学的構造を含んでいる確率を示す信頼度スコア(「対象物らしさ」)と、境界ボックスの中の対象物(解剖学的構造)が、訓練されたクラスの各々に属する確率、すなわちクラス確率とを予測する。ネットワークは、10の異なるクラスの対象物/解剖学的構造において訓練されている場合には、それぞれの境界ボックスについて10の確率値を予測する。考慮に入れられるのは、信頼度スコア及びクラス確率が、ある特定の既定閾値を超える境界ボックスのみとなる。
本発明の第1のNN及び/又は第2のNNの最終的な出力は、一実施形態では、出力グリッドとも称される(最終的な)ダウンサンプリングされた特徴マップに対して、本発明の一実施形態ではネットワークにおける2つの異なる場所の2つの異なるサイズの特徴マップに対して、1×1の検出カーネルを適用することにより生成される。検出カーネルの形状は、1×1×(B*(5+C))である。ここで、Bは、グリッドセルが予測し得る、特徴マップ上の境界ボックスの数であり、「5」は、4つの境界ボックス属性(以下で説明されるようにアンカーボックスからのx、y方向におけるオフセット及び幅/高さのオフセット)、及び「対象物らしさ」とも称される1つの対象物信頼度スコアに関するものであり、Cはクラスの数である。したがって、最終的な特徴マップがN×N(例えば9×9、13×13又は26×26)の大きさを有する場合、3D出力テンソルは、Bのアンカーボックスに関するN×N×[B*(4+1+C)]のサイズ、4つの境界ボックス属性、1つの対象物らしさ予測及びCのクラス予測を有する。B=3であれば、最後の層におけるそれぞれのグリッドセルは3つまでの境界ボックス(3つのアンカーボックスに対応する)を予測する。それぞれのアンカーボックスについて、テンソルは、信頼度スコアすなわちボックスが対象物を含んでいる確率と、アンカーボックスに対して境界ボックスの座標を表すための4つの数と、対象物がそれぞれの既定のクラスのうちの1つに属する確率を含んでいる確率ベクトルとを含む。それぞれのクラススコアは、異なるクラス確率の中からロジスティク回帰を使用して予測され、それぞれの検出された解剖学的構造に関して1つ又はいくつかの注釈を予測するために閾値が使用される。この閾値よりも高いクラス確率が境界ボックスに割り当てられる。
アンカーボックス/境界ボックスのプライア:一実施形態では、YOLOv3の場合のように、NNは、出力グリッド(例えば13×13のグリッド)における特定のセルに対するxyオフセットによって境界ボックスの位置を予測する。画像が最終的なグリッドに分割されると、それぞれの対象物(解剖学的構造)について対象物の中心を含んでいるグリッドセルが識別され、このとき、このグリッドセルが対象物の予測に「関与」する。したがって、それぞれの境界ボックスの中心は、関与するセルからのオフセットによって記述される。さらに、この実施形態のNNは、境界ボックスの幅及び高さを直接予測する代わりに、(YOLOv3のように)本明細書ではアンカーボックスとも称される前のボックスに対する幅及び高さのオフセットを予測する。したがって、訓練中に、ネットワークは、クラスタ化を使用して訓練データから決定された特定の高さと幅との比を有するアンカーボックスの所定のセットからのオフセットを予測するように訓練される。訓練データの注釈ボックスの座標は、必要に応じてアンカーボックスの数にクラスタ化され、例えば小型yolov3では6つのアンカーボックスが必要とされる。通常、アンカーボックスのセット生成するために、k平均法クラスタ化アルゴリズムが使用されている。グラウンドトルースとアンカーボックスとの間の、共通部分と和集合の比(IOU)は、通常、k平均法クラスタ化アルゴリズムの距離メトリックと解釈される。本発明の第1のNN及び/又は第2のNNの一実施形態では、出力テンソルにおけるそれぞれのグリッドセルは、3つのアンカーボックスからの、高さ及び幅におけるそれらのオフセットによって、3つの境界ボックスを予測する。言い換えると、出力グリッドのサイズが13×13であれば、最大で13×13×3の境界ボックスが検出され得る。
スケール間検出:本発明の一実施形態によれば、第1のNN及び/又は第2のNNは、2つから3つ、好ましくは2つの異なるスケールにおいて、解剖学的構造を検出することを含み、それぞれのスケールは、医用画像の所定のダウンサンプリングによって与えられる。この概念は、YOLOv3の著者によって「スケール間予測」と名付けられている。それによって、NNにおける早期の層は、連結を使用して後の層(この層は最初にアップサンプリングされる)と組み合わされる。こうする理由は、早期の層では、大幅に間引きサンプリングされた低解像度の後の層よりも、小さい対象物がより高い解像度でより容易に検出されるためであるが、後の層は意味論的に強い特徴を含んでいる。この方法によれば、より高い解像度の早期の層を、アップサンプリングされた後の特徴マップと組み合わせることにより、アップサンプリングされた特徴マップからの、より有意義な意味情報と、早期の特徴マップからの、よりきめの細かい情報とを得ることが可能になる。それによって、スケール1における予測よりも2倍のサイズを有する第2の出力テンソルが予測される。YOLOv3では、これは3つのスケールで行われるが、本発明のネットワークでは、予測は、好ましくは2つの異なるスケールにおいてのみ行われ、1つは最もダウンサンプリングされた層で行われ、1つの層は、最終層の2~2倍の大きさを有する。一般的には、本発明のニューラルネットワークは2つの異なるスケールについて、(N×N+2N×2N)×3の境界ボックスを予測する。境界ボックスは、信頼度スコアに対する閾値並びにクラス確率を使用してフィルタリングされ、一実施形態によれば、2つの境界ボックスの共通部分と和集合の比(IOU)の関数である、非最大抑制と呼ばれる別のフィルタが適用される。最大値抑制フィルタの主要なステップは、
(クラス確率及び信頼度スコアに対する閾値を満たす)境界ボックスを選択し、
閾値を満たすすべての他のボックスとのオーバーラップを計算し、所定のIOU閾値以上のオーバーラップがあるボックスを除去し、
ステップa)に戻って、現在選択されているボックスよりも信頼度スコアが低いボックスがなくなるまで繰り返す、といったものである。
非最大抑制についてのさらなる情報は、https://arxiv.org/pdf/1704.04503.pdfに見られる。
これは、最良の境界ボックスが、詳細には2つのスケール間の最良の境界ボックスが、出力として残ることを保証するものである。
このネットワークアーキテクチャを使用することの大きな利点は、臨床応用に関して実現され得るように、特に、ネットワークが、限られた数のクラスに対してのみ訓練される場合、ネットワークの訓練と頑健性との両方が大幅に改善されることである。
入力医用画像のサイズは好ましくは2Zの奇数倍であって、Zは4~10の整数であり、その結果、数回(例えばZ回)のダウンサンプリングステップの後に、最終的なグリッドは、7×7、9×9、11×11又は13×13などの奇数の大きさを得る。それによって、中央のグリッドセルが1つになり、多くの場合、大きいサイズの対象物/解剖学的構造が画像の中央に見いだされるので有利であり、その結果、最大サイズの対象物の検出に関与するグリッドセルが1つになるので有利である。
好ましい実施形態によれば、対象物検出機能は、解剖学的構造の2~12のクラス、好ましくは3~6のクラスを検出するように訓練される。例えば、第1のニューラルネットワークは、2~10のクラス、好ましくは3~6のクラスを検出するように訓練される。例えば第1三半期スクリーニングの場合には、クラスはGS、子宮及び胎芽である。第2のニューラルネットワークは、さらに少ない、例えば1~4といったクラス、例えば卵黄嚢のみの1つのクラスを検出するように訓練される。このようにクラスが減少することにより、第1のNN及び第2のNNは、それぞれ、わずか9~16の畳み込み層、好ましくは13の畳み込み層と非常に小さくなり得、よって、非常に高速且つ頑健になり得る。
一実施形態によれば、方法のステップa)は、対象者の超音波走査中に取得された医用画像のビデオストリームを受け取るステップを有する。よって、本発明の方法は、20~100フレーム/秒のフレームレートにおける医用画像の時系列に対して適用される。さらに、超音波画像は、ビデオストリームに符号化される場合には、グレースケール画像ではなく3つのチャネルを有するカラー画像になる。一般的には、超音波画像がグレー画像であるため、3つのチャネルはすべて同一の値を有する。したがって、対象物検出機能に対する入力は、RGBなどの3チャネルフォーマットの医用画像になる。これには、写真画像に対して使用されるのと同一のNNアーキテクチャが、医用画像の処理に適合されるという利点がある。
有効な用途によれば、医用画像は、産前の第1三半期超音波走査中に取得され、複数のクラスの解剖学的構造は、子宮、胎嚢(GS)、胎芽及び/又は卵黄嚢(YS)を含む。最も好ましくは、第1のNNは、第1の複数のクラス、子宮を含む大きいサイズの解剖学的構造、胎嚢及び胎芽を検出するように訓練される。そこで、第2のNNは、卵黄嚢と、場合により、さらに小さいサイズの解剖学的構造とを検出するように訓練される。
推論方式を参照して、「第1三半期スクリーニング」の用途に関する一実施形態では、検出された子宮の境界ボックスが、検出された胎嚢の境界ボックスを含み、検出された胎嚢の境界ボックスが、検出された胎芽及び/又は卵黄嚢の境界ボックスを含む場合には、医学的状態の「正常妊娠」の確率が増大される。境界ボックスのこの階層推論方式により、正常なIUPと子宮外妊娠のような非IUPとが自動識別される。それによって、診断手法がより系統的になり、異常妊娠を検出するための簡単な方式が使用される。
別の態様によれば、本発明は、医用画像における複数のクラスの解剖学的構造を検出するのに有効な、第1のニューラルネットワークを備える対象物検出機能を訓練するための方法を提供するものであり、この方法は、
(a) 入力訓練データ、すなわち対象者のFOVの少なくとも1つの医用画像を受け取るステップと、
(b) 出力訓練データ、すなわち、第1の複数のクラスの大きいサイズの解剖学的構造のうちの1つに属する、大きいサイズの解剖学的構造を含んでいる医用画像の中の少なくとも1つの第1の境界ボックスの座標を備えるテンソルと、大きいサイズのクラスの解剖学的構造を指示する番号とを受け取るステップと、
(c) 入力訓練データ及び出力訓練データを使用して、第1のニューラルネットワーク機能を訓練するステップと
を有する。
訓練方法は、本明細書で説明した対象物検出機能を訓練するように使用され、好ましくは、訓練される第1のニューラルネットワークは、本明細書で説明されたように構築されている。また、入力訓練データは、本明細書で説明されたようなFOVの医用画像であり、例えば、人体の、詳細には妊娠第1三半期における生殖器の、Bモード超音波画像である。出力訓練データを生成するために、入力訓練データを構成する医用画像が、軸を整列させた境界ボックスを用いて手動で注釈され、それぞれの境界ボックスが1つの解剖学的構造を完全にカバーする。そこから生成されたデータは、大きいサイズの解剖学的構造を含んでいる少なくとも1つの第1の境界ボックスの座標を備えるテンソル、及び前記解剖学的構造のクラスを指示する番号であり、例えば、使用される異なるクラスは、子宮、GS及び胎芽である。一実施形態では、対象物検出機能は、5~15人の対象者から導出したデータセットに対して、1人の対象者ごとに約100~1000の画像を用いて訓練される。これらの画像に存在するすべての可能な解剖学的構造に対して境界ボックスが描かれる。訓練ステップは、https://pjreddie.com/darknet/yolo/において開発されたダークネットフレームワークと同様に行われる。しかしながら、配置パラメータは、好ましくは、訓練速度及び訓練損失に関してより優れた性能を達成するように調整される。詳細には、好ましくは、学習率及びバッチサイズが調整される。訓練方法の一実施形態では、以下のパラメータが使用される。
訓練中のバッチの数=64
訓練中の細区分の数=16
バッチの最大数=500200
最終層におけるフィルタの数=(クラスの数+5)×3
アンカポイント=画像の解像度、境界ボックスの大きさに依拠する
ステップ数=24000~27000
第1のNN及び/又は第2のNNの訓練段階では、通常、画像のバッチが読み取られ、入力訓練データとして渡される。それぞれのバッチがミニバッチに分割される。バッチサイズをNとし、ミニバッチの数をnとする。そこで、ネットワークに対して、一度に(N/n)の画像が供給される。パラメータはGPUの有効性に依拠する。小さい細区分を使用することにより、勾配を計算するためのミニバッチサイズが増大する。よって、大きいミニバッチサイズを基に計算された勾配は、より優れた最適化をもたらす。1つのバッチがまた、深層学習の慣例によって、エポックとして考慮に入れられ得る。
一実施形態によれば、訓練方法はまた、第2のNNを訓練するための、
(d) 入力訓練データ、すなわち大きいサイズの解剖学的構造を含有する第1の境界ボックスの画像コンテンツを含んでいる、トリミングされた画像を受け取るステップと、
(e) 出力訓練データ、すなわち少なくとも1つの第2のクラスの、小さいサイズの解剖学的構造に属する、小さいサイズの解剖学的構造を含んでいる、トリミングされた画像の内部の、少なくとも1つの第2の境界ボックスの座標を備えるテンソルを受け取るステップと、
(f) 入力訓練データ及び出力訓練データを使用して、第1のニューラルネットワーク機能を訓練するステップと
をさらに有する。
したがって、第1のNNの訓練に関して同一の入力訓練データが使用され得るが、この場合、入力訓練データとして、大きいサイズの解剖学的構造を含んでいる境界ボックスの画像コンテンツを含んでいるトリミングされた画像が使用される。出力訓練データは、小さいサイズの解剖学的構造の境界ボックスの座標である。
本明細書で説明された訓練方法は、解剖学的構造を検出するために使用される対象物検出機能を提供するため、すなわち、最初に第1のNN及び/又は第2のNNを訓練するために、使用される。この訓練方法は、既に訓練されたネットワークを再較正するためにも使用される。第1のNN及び第2のNNの訓練は逆伝搬法によって行われる。この方法では、入力訓練データは、それぞれのNNを通って、所定のフィルタカーネルを使用して伝搬される。出力は、誤差又はもたらされた機能を使用して出力訓練データと比較され、その出力はNNを通って伝搬して戻され、それによって、フィルタカーネルを見いだすための勾配、又は場合により最小の誤差を与えるバイアスなどの他のパラメータを計算する。これは、フィルタカーネルの重みを調整することと、続くコスト関数の負の勾配とによって行われる。
本発明は、命令を含むコンピュータプログラムにも関し、計算ユニットは、プログラムを実行することにより、本発明の方法を実行する。このことは、医用画像における解剖学的構造を自動的に検出する方法と、訓練方法、詳細には第1のNN及び第2のNNの訓練方法とに当てはまる。コンピュータプログラムはダークネットを使用して実施される。ダークネットは、ニューラルネットワークを訓練するために開発されたフレームワークであり、オープンソースであって、C/CUDAで書かれ、YOLOの基礎として働く。リポジトリ及びウィキは、リンク(https://pjreddie.com/darknet/)にある。コンピュータプログラムはコンピュータプログラム製品として提供される。
本発明の方法を実行する計算ユニットは、CPU(中央処理装置)又はGPU(グラフィック処理ユニット)などの任意の処理ユニットである。計算ユニットは、コンピュータ、クラウド、サーバの一部でよく、ラップトップコンピュータ、タブレットコンピュータ、携帯電話などの携帯機器でもよい。詳細には、計算ユニットは超音波撮像システムの一部でよい。前記超音波撮像システムは、コンピュータスクリーンなどの表示デバイスも備える。
本発明はまた、命令を含むコンピュータ可読媒体を対象とし、計算ユニットは、命令を実行することにより、本発明による方法、詳細には医用画像における解剖学的構造を自動的に検出するための方法又は訓練方法を実行する。そのようなコンピュータ可読媒体は、例えばハードディスク、サーバ、クラウド、若しくはコンピュータ、及び光学的若しくは磁気的なデジタル記憶媒体、CD-ROM、SSDカード、SDカード、DVD若しくはUSB又は他のメモリスティックといった、任意のデジタル記憶媒体である。コンピュータプログラムはコンピュータ可読媒体に記憶される。
一実施形態では、この方法はまた、医用画像を、少なくとも1つの第1の境界ボックス、及び対比色で表示される少なくとも1つの第2の境界ボックスと一緒に表示するステップ有し、その結果、ユーザは、予測の精度を検査し得る。
別の態様によれば、本発明はまた、対象者の医用画像における解剖学的構造を自動的に検出するためのシステムに関し、このシステムは、
a) 対象者のFOVの少なくとも1つの医用画像を受け取るように構成された第1のインターフェースと、
b) 医用画像に対して対象物検出機能を適用し、それによって、複数の境界ボックスの座標及び各境界ボックスに関する信頼度スコアを出力として生成するように構成された計算ユニットを備え、対象物検出機能が、複数のクラスの解剖学的構造を検出するように訓練されており、信頼度スコアは、境界ボックスが、複数のクラスのうちの1つに属する解剖学的構造を含んでいる確率を示し、この計算ユニットは、
- 医用画像に対して、第1の複数のクラスの大きいサイズの解剖学的構造を検出するように訓練された第1のニューラルネットワークを適用することにより、少なくとも1つの第1の境界ボックスの座標と、この第1の境界ボックスが、大きいサイズの解剖学的構造を含んでいることの信頼度スコアとを、出力として生成するステップと、
- 医用画像を第1の境界ボックスへとトリミングすることにより、第1の境界ボックスの中に、画像コンテンツを含んでいるトリミングされた画像を生成するステップと、
- トリミングされた医用画像に対して、少なくとも1つの第2のクラスの小さいサイズの解剖学的構造を検出するように訓練された第2のニューラルネットワークを適用することにより、少なくとも1つの第2の境界ボックスの座標と、この第2の境界ボックスが、小さいサイズの解剖学的構造を含んでいることの信頼度スコアとを、出力として生成するステップと
を実行するように構成されている。
このシステムは、好ましくは、医用画像における解剖学的構造を自動的に検出するための本発明の方法を実行するように構成されている。計算ユニットは、プログラムを実行する計算ユニットに関連して上記で説明されたように、任意の処理ユニットである。システムは、超音波撮像システムにおいて、詳細には、GPUなど、超音波撮像システムの処理ユニットのうちの1つにおいて実施される。しかしながら、医用画像は、撮像システムから、例えばインターネットを介してローカル又はリモートの別の計算ユニットにも伝達され、また、境界ボックスの座標、さらには既定の医学的状態の確率も、そこから撮像システムに戻され、ユーザに表示されるか又は出力される。一実施形態では、システムは、境界ボックス座標を出力するため、詳細には第1及び第2の境界ボックスを描き込まれた医用画像を出力するための、第2のインターフェースを含む。したがって、第2のインターフェースは、コンピュータスクリーン、タッチスクリーンなどの表示デバイスに接続される。
さらに、本発明は、対象物検出機能を訓練するためのシステム、詳細には、第1のNN及び/又は第2のNNを、本明細書で説明した訓練方法によって訓練するためのシステムも対象とする。
さらなる態様によれば、本発明は、本明細書で説明されたように、超音波信号を送受信するように構成された超音波トランスデューサを備える超音波撮像システムと、医用画像に対して対象物検出機能を適用するように構成された計算ユニットとを対象とするものであり、超音波撮像システムは、本発明によるシステムを備える。本発明の方法は、計算コストが低いので、既存の超音波撮像システム上で実行される。
次に、添付図を参照しながら本発明の有効な実施形態を説明する。類似の要素又は特徴は同一の参照符号を用いて示される。
対象者の、在胎齢8週間と4日の胎児の、注釈された境界ボックスを伴う超音波走査の医用画像である。 本発明による検知方法の一実施形態の流れ図である。 本発明による検知方法の別の実施形態の流れ図である。 本発明の一実施形態による推論方式の流れ図である。 本発明の一実施形態を用いて達成可能な解剖学的構造の位置決めの一例を示す図である。(a)は子宮、胎嚢(GS)及び胎芽のまわりのボックスを示し、(b)はトリミングされたGS画像における卵黄嚢(YS)の境界ボックスを示す。 第1及び/又は第2のニューラルネットワーク(NN)の概略図である。 本発明の一実施形態による訓練方法の流れ図である。 本発明の一実施形態によるシステムの概略図である。
図1は、対象物検出機能を訓練するための可能な訓練画像、すなわち在胎齢8週間と4日の第1三半期走査中に取得された2DのBモード医用超音波画像1を示す。境界ボックスは対象者によって描かれ、出力訓練データを生成するように注釈された。最大の境界ボックスが子宮(U)のまわりに描かれ、別の境界ボックスが胎嚢(GS)のまわりに描かれており、胎嚢の内部に胎芽(E)と卵黄嚢(YS)との両方が見られ、GSの内部に胎芽が見られない状況とは対照的に、正常妊娠の確率が高まる。
図2は、一連の2D超音波画像1a、1b、1cなどの医用画像1において解剖学的構造を検出するための方法の一実施形態を示す。これらの画像の各々が、少し異なるFOV2をカバーし、画像1において臓器すなわち解剖学的構造3が識別可能である。これらの画像は1つずつ渡されるが、対象物検出機能44は、以下でより詳細に説明される。対象物検出機能4は、本明細書で説明されたように、好ましくは少なくとも2つのニューラルネットワーク40、44を備える。対象物検出機能4の出力は、少なくとも1つの境界ボックス5又はむしろその座標、並びに境界ボックス5が特定の解剖学的構造を含んでいることの信頼度スコアである。信頼度スコアは、対象物らしさ、すなわちボックス5が対象物/解剖学的構造を含んでいる確率、及び/又は対象物が1つの特定のクラスのものである確率である。
有効な実施形態では、ステップ8において、入力画像1が、例えば画像収集ユニットに接続されたスクリーンなどの表示デバイスに表示され、十分に高い信頼度スコアを有する境界ボックス5が描かれる。次いで、ステップ6において、検出された解剖学的構造3、それらの空間位置及び/又は互いに対する関係を基に、例えば正常状態/異常状態(例えばIUP妊娠又は非IUP妊娠)といった対象者の既定の医学的状態の確率が決定され得る。したがって、推論方式6は、対象物検出機能4によって計算された境界ボックス5を使用するものであり、例えば特定のクラスの境界ボックス5が別のクラスの内部に完全に含まれるかどうかといったこと、並びに、ある特定のクラスの解剖学的構造3の存否を計算することができるアルゴリズムを含む。また、境界ボックス5の相対的な空間位置が計算され、医学的状態に関する適切な確率7を推測するのに使用される。
図3は、対象物検出機能4をより詳細に示すものである。入力は、ここでも、FOV2の1つ又はいくつかの医用画像1であり、それらのうちの少なくともいくつかは臓器すなわち解剖学的構造3を表す。一実施形態では、受け取られる医用画像は任意の大きさ及びピクセルサイズでよいが、第1のNN 40が最もよく働くのは、画像がM*2×M*2のサイズの正方形のときであり、Mは奇数である。したがって、医用画像1は、第1のニューラルネットワーク40の予期された入力サイズに適合するように、ステップ39において、任意選択でアップサンプリング又はダウンサンプリングされる。第1のNN 40の出力は、少なくとも境界ボックス50、51、52の座標である(通常は信頼度スコアも含む)。検出された境界ボックスのうちの1つが、所定の大きいサイズの解剖学的構造3aに属するクラスを有する場合には、検出された境界ボックス50は、医用画像1を第1の境界ボックス50にトリミングすることによってトリミングされた画像11を生成するために、トリミングするステップ42において使用される。「トリミング」は、例えば写真処理においてスニッピングツールによって実行される動作、すなわち、大きい画像1から、小さい画像11を、縁端が境界ボックス50の縁端に沿うように切り取ることを意味する。したがって、トリミングされた画像11は必ずしも正方形画像である必要はない。したがって、この画像は、好ましくはステップ45においてダウンサンプリング又はアップサンプリングされ、その結果、トリミングされた画像11は、好ましくは既定の大きさ(例えば第1のNNに関しては正方形の2D画像)を有し、次いで第2のNN 44に供給される。次いで、この第2のニューラルネットワークが、小さいサイズの解剖学的構造3bを含んでいる少なくとも1つの第2の境界ボックス54を出力する。小さいサイズの解剖学的構造3bは、一般的には、FOV2又は撮像された全体的な臓器若しくは組織体に対して非常に小さいか、又はそのような微細な組織体を有するので、これを検出するように第1のNN 40を訓練するのは困難である。しかしながら、最初に境界ボックス50のまわりで画像1をトリミングするとき、そのような組織体の予期された場所の知見を用いれば、この第2のクラスの小さいサイズの解剖学的構造3bを(場合によりこれだけを)検出するように第2のNN 44を訓練するのは困難ではない。
図4は、第1のNN及び第2のNNから計算された境界ボックスを使用する推論方式6の一実施形態の概略図である。第1三半期の超音波走査の例では、推測ステップ60は、GSの境界ボックスが存在するかどうかを計算する。存在する場合には、方法はステップ61に進む。存在しなければ、異常妊娠(医学的状態7c)である可能性が増大される。ステップ61において、アルゴリズムは、GSの境界ボックスが子宮の境界ボックスのサブセットであるかどうかを決定する。yesであれば、正常なIUP(条件7a)である確率が増大され、方法はステップ62に進む。そうでなければ、すなわちGSの存在が子宮内でなければ、医学的状態7b「子宮外妊娠」の確率が増大される。これらのステップは、画像が第1のNN 40を通過した後に、トリミングするステップ42及び第2のNN 44が適用される前に実行される。次いで、第2の推測ステージでは、YS及び胎芽が検出されて場所を突き止められる。ステップ62は、卵黄嚢及び/又は胎芽の境界ボックスが、GSの境界ボックスのサブセットであるかどうかを決定する。yesであれば正常妊娠(7a)の確率が増大される。GSの内部にYS及び胎芽が検出されなければ、異常妊娠(7c)の可能性が増大される。
図5は、階層的対象物検出機能の可能な結果を示す。図5aには、子宮、GS及び胎芽のまわりに識別された境界ボックスが表されている。本発明の一実施形態により、画像は、図5bに示されるように、GS境界ボックスのまわりにトリミングされている。第2のNNはGSの中のYSを検出するように訓練されており、結果として生じる境界ボックスが図に描かれている。
図6は、好ましくはYOLOv3小型ネットワークの改造である第1のNN及び/又は第2のNNの概略図を示す。この表現では、それぞれの画像入力又は特徴マップ20、22は、上部にその大きさ(正方形画像)が注釈され、下部にチャネル数が注釈されている。したがって、入力データセット20は、例えばRGBなどのカラー画像であり、416×416ピクセルのサイズ、及び3チャネルを有する正方形の2D画像である。グレースケール画像では、一般的には各チャネルが同一の値を有する。一方、出力層32aの直前の層は、大きさは13×13しかなく、512チャネルの深度を有する。
入力層20は、大きさ3×3でストライド1の畳み込みフィルタ24に提出され、これにサイズ2×2でストライド2のmaxpoolフィルタ28が続く。より正確には、この層では各々深度3のそのような畳み込みフィルタ24が16個使用されて、大きさ208で深度16の特徴マップ22aをもたらし、これは入力層20に対して1/2に縮小されている。特徴マップ22aは、大きさ3×3でストライド1の別の畳み込みフィルタを用いて畳み込まれ、これにサイズ2×2でストライド2のmaxpool 28が続き、結果として特徴マップ22bがもたらされる。この操作又は層のブロック、すなわち大きさ3×3でストライド1の畳み込みフィルタ24と、それに続くサイズ2×2でストライド2のmaxpool 28とが、あと2回繰り返され、合計5つの畳み込み層24と、各々に続くプール層28とをもたらし、各繰返しにおいて大きさが1/2に縮小される。次いで、特徴マップ22eは再び畳み込みフィルタ24に提出されるが、このときはサイズ2×2でストライド1のmaxpool 29が続き、したがって大きさをさらに縮小することはなく、次の特徴マップ22fは深度512及び大きさ13×13を有する。この層に、大きさ3×3でストライド1の別の畳み込みフィルタ24が続き、出力ボリュームを22gもたらす。これが、大きさ1×1でストライド1の畳み込みフィルタ25に提出され、畳み込みフィルタ25は、深度を1024から256に縮小するために使用される。したがって、畳み込みフィルタ25は、特徴マッププーリング又は投影層と呼ばれることもある。このフィルタは、顕著な特徴は保存したまま特徴マップの数(チャネルの数)を減少する。この投影層の出力22hが、大きさ3×3でストライド1の別の畳み込みフィルタ24に提出されて、出力ボリューム22iをもたらし、最終的に、畳み込みフィルタ24には、大きさkでストライド1の畳み込みフィルタ26が続き、k=(C+5)×Bであり、Cはクラスの数であり、Bはアンカーボックスの数であって、好ましい例では3である。これによってもたらされる出力層32aは、スケール1のYOLO推論と称され、上記で説明されたような出力フォーマットを有し、すなわち13×13のグリッド点の各々についてB(好ましくは3)までの境界ボックスのデータを含有し、各境界ボックスが、4つのボックス座標と、対象物らしさのスコア及び個々のクラス確率とを含む。境界ボックスは、対象物らしさ及び/又はクラススコアに関する閾値を使用してフィルタリングされる。
スケール2における検出を実施するために、早期の特徴マップ22dが、畳み込みフィルタ24に通されて、特徴マップ22jをもたらす。さらに、特徴マップ22hは畳み込みフィルタ25に提出され、これにサイズ2でストライド1のアップサンプリングが続き、特徴マップ22lをもたらす。これが、特徴マップ22jと連結されて特徴マップを22mもたらす。これが、別の3×3の畳み込みフィルタ24に提出されて、特徴マップを22nもたらす。この特徴マップは、再び畳み込みフィルタ26に提出されて出力ボリューム(3Dテンソル)32bをもたらし、したがって、出力ボリューム32bは、より高い解像度の26×26のグリッドのそれぞれのセルにおけるBの境界ボックスに関する座標及び確率を含んでいる。スケール1における境界ボックス予測とスケール2における境界ボックス予測とが、前述のように組み合わされる。
図7は、訓練方法を概略的に表すものである。図7には訓練画像12が用意されている。本明細書で説明された例については、アルゴリズムの開発のために、11週間未満の在胎齢の胎児の超音波走査が収集された。超音波走査から集められた画像フレームの各々が、次いで、手作業の注釈のために使用された。それぞれの画像は、全体の解剖学的構造(一例が図1に示されているU、GS、E、YS)をカバーする、軸と整列した境界ボックスを用いて注釈されている。データ分散は均一であることが保証され、すべての可能な在胎齢に対して均等な重み付けが与えられた。例えば、GS、U及び胎芽について、500~5,000の画像12が境界ボックスを描くことによって注釈され、それぞれの注釈は図7の70、71及び72に表されている。胎嚢の注釈70は、胎嚢をトリミングするために使用される(ステップ73)。トリミングされた画像において、卵黄嚢が注釈され、注釈が75として保存される。
このように、訓練画像12が入力訓練データとして使用され、GS注釈70、子宮注釈71及び胎芽注釈72は、ステップ76において、第1のNNを訓練するための出力訓練データとして使用される。したがって、GSのまわりでトリミングされた画像73及び卵黄嚢の注釈75が、ステップ78において、第2のNNを訓練するために使用される。
図8は、本発明の方法を実行するように構成された、本発明の一実施形態による超音波システム100の概略図である。超音波システム100が含む通常の超音波ハードウェアユニット102は、CPU 104と、GPU 106と、例えばハードディスク又はソリッドステートディスク2019PF00350 20といったデジタル記憶媒体108とを含む。コンピュータプログラムは、CD-ROM 110から、又はインターネット112を通じて、ハードウェアユニットにロードされる。ハードウェアユニット102は、キーボード116及び任意選択のタッチパッド118を備えるユーザインターフェース114に接続されている。タッチパッド118は、撮像パラメータを表示するための表示デバイスとしても働く。ハードウェアユニット102は、超音波トランスデューサ122の配列を含む超音波プローブ120に接続されており、この配列は、対象者又は患者(図示せず)から、Bモード超音波画像を、好ましくはリアルタイムで収集することを可能にするものである。超音波プローブ120を用いて取得されたBモード画像124、並びにCPU 104及び/又はGPUが本発明の方法を実行することによって生成された境界ボックス5は、例えばスクリーン、テレビジョンセット、フラットスクリーン、プロジェタなど、任意の市販の表示ユニットであるスクリーン126上に表示される。さらに、例えばインターネット112を介してリモートコンピュータ又はサーバ128が接続される。本発明による方法は、ハードウェアユニット102のCPU 104又はGPU 106によって実行されるが、リモートサーバ128のプロセッサによって実行されてもよい。
上記の議論は本システムの単なる例示となるように意図されており、何らかの添付の特許請求の範囲を、特定の実施形態又はグループの実施形態に限定するものと解釈されるべきでない。したがって、本システムは、例示の実施形態を参照しながら特に詳細に説明されているが、以下の特許請求の範囲において明記される、本システムの、広く意図された趣旨及び範囲から逸脱することなく、当業者によって、多くの修正形態及び代替実施形態が考案されることも理解されたい。したがって、明細書及び図面は例示と見なされるべきであり、添付の特許請求の範囲を制限するように意図されたものではない。
医用画像
FOV
解剖学的構造
3a 大きいサイズの解剖学的構造
3b 小さいサイズの解剖学的構造
対象物検出機能
境界ボックス
推論方式
医学的状態及びその確率
7a 医学的状態及びその確率
7b 医学的状態及びその確率
7c 医学的状態及びその確率
8 ディスプレイ
11 トリミングされた画像
12 訓練画像
20 入力層
22 特徴マップ
24 大きさ3×3でストライド1の畳み込みフィルタ
25 大きさ1×1でストライド1の畳み込みフィルタ
26 大きさK=(C+5)×Bでストライド1の畳み込みフィルタ
28 サイズ2×2でストライド2のMaxpool
28 サイズ2×2でストライド1のMaxpool
30 サイズ2×2でストライド1のアップサンプリング
32a 出力層
39 アップサンプリング又はダウンサンプリング
40 第1のニューラルネットワーク
42 トリミングするステップ
44 第2のニューラルネットワーク
45 アップサンプリング又はダウンサンプリング
50 第1の境界ボックス(の座標)
51 境界ボックス(の座標)
52 境界ボックス(の座標)
54 第2の境界ボックス(の座標)
60 IF/ELSE推論ステップ
61 IF/ELSE推論ステップ
62 IF/ELSE推論ステップ
70 GS注釈
71 U注釈
72 胎芽注釈
73 胎嚢のトリミング
75 YS注釈
76 訓練ステップNN1
78 訓練ステップNN2
100 超音波システム
102 ハードウェアユニット
104 CPU
106 GPU
108 デジタル記憶媒体
110 CD-ROM
112 インターネット
114 ユーザインターフェース
116 キーボード
118 タッチパッド
120 超音波プローブ
122 超音波トランスデューサ
124 Bモード画像
126 スクリーン
128 リモートサーバ

Claims (15)

  1. 対象者の医用画像における解剖学的構造を自動的に検出するためのコンピュータ実施方法であって、前記コンピュータ実施方法は、
    a) 前記対象者のFOVの少なくとも1つの医用画像を受け取るステップと、
    b) 前記医用画像に対して対象物検出機能を適用して、それによって、複数の境界ボックスの座標及び各境界ボックスに関する信頼度スコアを出力として生成するステップとを有し、前記対象物検出機能は、複数のクラスの解剖学的構造を検出するように訓練されており、前記信頼度スコアは、前記境界ボックスが、前記複数のクラスのうちの1つに属する解剖学的構造を含んでいる確率を示す、コンピュータ実施方法において、前記対象物検出機能が、
    前記医用画像に対して、第1の複数のクラスの大きいサイズの解剖学的構造を検出するように訓練された第1のニューラルネットワークを適用することにより、少なくとも1つの第1の境界ボックスの座標と、前記第1の境界ボックスが大きいサイズの解剖学的構造を含んでいることの前記信頼度スコアとを、出力として生成するステップと、
    前記医用画像を前記第1の境界ボックスへとトリミングして、前記第1の境界境界ボックスの中に、前記画像のコンテンツを含んでいるトリミングされた医用画像を生成するステップと、
    前記トリミングされた医用画像に対して、少なくとも1つの第2のクラスの小さいサイズの解剖学的構造を検出するように訓練された第2のニューラルネットワークを適用することにより、少なくとも1つの第2の境界ボックスの座標と、前記第2の境界ボックスが小さいサイズの解剖学的構造を含んでいることの前記信頼度スコアとを、出力として生成するステップと
    を実行し、
    前記対象物検出機能が、大きいサイズの解剖学的構造と小さいサイズの解剖学的構造との間の階層関係に基づくものであり、前記第1の複数のクラスの大きいサイズの解剖学的構造のうちの少なくとも1つが、前記小さいサイズのクラスの解剖学的構造のうちの1つ又はいくつかを含んでいると予期される、
    ことを特徴とする、コンピュータ実施方法。
  2. c) 前記対象者の既定の医学的状態の確率を決定するさらなるステップを有し、前記既定の医学的状態の確率が、1つ又はいくつかのクラスの解剖学的構造の存否、及び/又は、解剖学的構造を含んでいる検出された前記境界ボックスの相対的な空間位置に基づいた推論方式を使用して決定される、請求項1に記載のコンピュータ実施方法。
  3. 第1のクラスの解剖学的構造を含んでいる第1の検出された境界ボックスが、第2のクラスの解剖学的構造を含んでいる第2の検出された境界ボックスを包含する場合には、既定の医学的状態の前記確率が増大される、請求項1又は2に記載のコンピュータ実施方法。
  4. 前記コンピュータ実施方法が、前記対象者の同一の診察期間中に取得された、異なるFOVでの複数の2次元医用画像について繰り返され、前記検出された境界ボックスの前記信頼度スコアが、さらなる評価のために最適な医用画像又はFOVを計算するために使用される、請求項1から3のいずれか一項に記載のコンピュータ実施方法。
  5. 前記第1のニューラルネットワーク及び/又は前記第2のニューラルネットワークが完全な畳み込みニューラルネットワークである、請求項1から4のいずれか一項に記載のコンピュータ実施方法。
  6. 前記第1のニューラルネットワーク及び/又は前記第2のニューラルネットワークが、2つの異なるスケールで解剖学的構造を検出することを含み、それぞれのスケールが、前記医用画像の所定のダウンサンプリングによって与えられる、請求項1から5のいずれか一項に記載のコンピュータ実施方法。
  7. 前記第1のニューラルネットワーク及び/又は前記第2のニューラルネットワークが、YOLOv3の完全な畳み込みニューラルネットワークである、請求項1から6のいずれか一項に記載のコンピュータ実施方法。
  8. 前記対象物検出機能が、2~12の、好ましくは3~5のクラスの解剖学的構造を検出するように訓練されている、請求項1から7のいずれか一項に記載のコンピュータ実施方法。
  9. 前記医用画像が、産前の第1三半期の超音波走査中に取得されたものであり、前記複数のクラスの解剖学的構造が子宮、胎嚢、胎芽及び/又は卵黄嚢を含む、請求項1から8のいずれか一項に記載のコンピュータ実施方法。
  10. 検出された子宮の境界ボックスが検出された胎嚢の境界ボックスを含み、前記検出された胎嚢の前記境界ボックスが胎芽及び/又は卵黄嚢の検出された境界ボックスを含む場合には、前記医学的状態の「正常妊娠」の確率が増大される、請求項2又は9に記載のコンピュータ実施方法。
  11. 医用画像における複数のクラスの解剖学的構造を検出するための対象物検出機能を訓練するための方法であって、前記対象物検出機能は第1のニューラルネットワークを含み、前記方法は、
    (a) 入力訓練データ、すなわち対象者のFOVの少なくとも1つの医用画像を受け取るステップと、
    (b) 出力訓練データ、すなわち、第1の複数のクラスの大きいサイズの解剖学的構造のうちの1つに属する、大きいサイズの解剖学的構造を含んでいる前記医用画像の中の少なくとも1つの第1の境界ボックスの座標を備えるテンソルと、前記大きいサイズの前記クラスの解剖学的構造を指示する番号とを受け取るステップと、
    (c) 前記入力訓練データ及び前記出力訓練データを使用して、前記第1のニューラルネットワークを訓練するステップと
    (d) 入力訓練データ、すなわち大きいサイズの解剖学的構造を含有する前記第1の境界ボックスの画像コンテンツを含んでいる、トリミングされた画像を受け取るステップと、
    (e) 出力訓練データ、すなわち少なくとも1つの第2のクラスの、小さいサイズの解剖学的構造に属する、小さいサイズの解剖学的構造を含んでいる前記トリミングされた画像の内部の、少なくとも1つの第2の境界ボックスの座標を備えるテンソルを受け取るステップと、
    (f) 前記入力訓練データ及び前記出力訓練データを使用して、前記第2のニューラルネットワークを訓練するステップと
    を含む、方法。
  12. 前記出力訓練データがN×N×[B*(4+1+C)]のサイズを有するテンソルを含み、N×Nは最終的な特徴マップの大きさであり、Bはアンカーボックスの数であって、Cはクラスの数であり、アンカーボックスの数は好ましくは3又は6である、請求項11に記載の訓練方法。
  13. 前記出力訓練データが、ダウンサンプリングされた特徴マップに対して1×1の検出カーネルを適用することによって生成され、前記検出カーネルの形状が1×1×(B*(5+C))であり、Bはアンカーボックスの数であって、Cはクラスの数であり、アンカーボックスの数は好ましくは3又は6である、請求項11又は12に記載の訓練方法。
  14. 命令を含むコンピュータプログラムであって、計算ユニットが、前記コンピュータプログラムを実行することにより、請求項1から13のいずれか一項に記載の方法を実行する、コンピュータプログラム。
  15. 対象者の医用画像における解剖学的構造を自動的に検出するためのシステムであって、前記システムは、
    a) 前記対象者のFOVの少なくとも1つの医用画像を受け取るように構成された第1のインターフェースと、
    b) 前記医用画像に対して対象物検出機能を適用し、それによって、複数の境界ボックスの座標及び各境界ボックスに関する信頼度スコアを出力として生成するように構成された計算ユニットとを備え、前記対象物検出機能が、複数のクラスの解剖学的構造を検出するように訓練されており、前記信頼度スコアは、前記境界ボックスが、前記複数のクラスのうちの1つに属する解剖学的構造を含んでいる確率を示し、前記計算ユニットが、
    前記医用画像に対して、第1の複数のクラスの大きいサイズの解剖学的構造を検出するように訓練された第1のニューラルネットワークを適用することにより、少なくとも1つの第1の境界ボックスの座標と、前記第1の境界ボックスが大きいサイズの解剖学的構造を含んでいることの前記信頼度スコアとを、出力として生成するステップと、
    前記医用画像を前記第1の境界ボックスへとトリミングすることにより、前記第1の境界ボックスの中に、前記画像のコンテンツを含んでいるトリミングされた画像を生成するステップと、
    前記トリミングされた医用画像に対して、少なくとも1つの第2のクラスの小さいサイズの解剖学的構造を検出するように訓練された第2のニューラルネットワークを適用することにより、少なくとも1つの第2の境界ボックスの座標と、前記第2の境界ボックスが小さいサイズの解剖学的構造を含んでいることの前記信頼度スコアとを、出力として生成するステップとを
    実行し、
    前記対象物検出機能が、大きいサイズの解剖学的構造と小さいサイズの解剖学的構造との間の階層関係に基づくものであり、前記第1の複数のクラスの大きいサイズの解剖学的構造のうちの少なくとも1つが、前記小さいサイズのクラスの解剖学的構造のうちの1つ又はいくつかを含んでいると予期される、
    システム。
JP2022543166A 2020-01-16 2021-01-12 医用画像における解剖学的構造を自動的に発見するための方法及びシステム Pending JP2023511300A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20152186.1A EP3852054A1 (en) 2020-01-16 2020-01-16 Method and system for automatically detecting anatomical structures in a medical image
EP20152186.1 2020-01-16
PCT/EP2021/050416 WO2021144230A1 (en) 2020-01-16 2021-01-12 Method and system for automatically detecting anatomical structures in a medical image

Publications (2)

Publication Number Publication Date
JP2023511300A true JP2023511300A (ja) 2023-03-17
JPWO2021144230A5 JPWO2021144230A5 (ja) 2024-01-19

Family

ID=69174384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022543166A Pending JP2023511300A (ja) 2020-01-16 2021-01-12 医用画像における解剖学的構造を自動的に発見するための方法及びシステム

Country Status (5)

Country Link
US (1) US20230038364A1 (ja)
EP (2) EP3852054A1 (ja)
JP (1) JP2023511300A (ja)
CN (1) CN115004223A (ja)
WO (1) WO2021144230A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11636602B1 (en) * 2020-02-12 2023-04-25 Scale AI, Inc. Prelabeling for semantic segmentation tasks
JP7486349B2 (ja) * 2020-05-28 2024-05-17 キヤノン株式会社 ニューラルネットワーク、ニューラルネットワークの学習方法、プログラム、画像処理装置
US11693919B2 (en) * 2020-06-22 2023-07-04 Shanghai United Imaging Intelligence Co., Ltd. Anatomy-aware motion estimation
CN115496703A (zh) * 2021-06-18 2022-12-20 富联精密电子(天津)有限公司 肺炎区域检测方法及系统
CN113807464B (zh) * 2021-09-29 2022-05-13 东南大学 基于改进yolo v5的无人机航拍图像目标检测方法
WO2024044573A1 (en) * 2022-08-22 2024-02-29 Kaliber Labs Inc. Methods and apparatus for synthetic surgical data generation
CN115908272A (zh) * 2022-10-27 2023-04-04 华能伊敏煤电有限责任公司 一种基于视觉技术的皮带撕裂状态自动检测的方法和系统
CN116392166B (zh) * 2023-03-07 2024-02-23 广州市妇女儿童医疗中心 一种孕囊及胚芽自动测量方法、系统、装置及介质
CN116757507B (zh) * 2023-08-14 2023-11-10 武汉理工大学 一种作物灌浆过程预测方法、系统、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150098119A (ko) * 2014-02-19 2015-08-27 삼성전자주식회사 의료 영상 내 거짓양성 병변후보 제거 시스템 및 방법
CN108496185B (zh) 2016-01-18 2022-09-16 北京市商汤科技开发有限公司 用于对象检测的系统和方法

Also Published As

Publication number Publication date
WO2021144230A1 (en) 2021-07-22
US20230038364A1 (en) 2023-02-09
CN115004223A (zh) 2022-09-02
EP3852054A1 (en) 2021-07-21
EP4091133A1 (en) 2022-11-23

Similar Documents

Publication Publication Date Title
EP3852054A1 (en) Method and system for automatically detecting anatomical structures in a medical image
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
JP6657132B2 (ja) 画像分類装置、方法およびプログラム
CN109923554B (zh) 图像处理
US10039501B2 (en) Computer-aided diagnosis (CAD) apparatus and method using consecutive medical images
KR101805624B1 (ko) 장기 모델 영상 생성 방법 및 장치
Oghli et al. Automatic fetal biometry prediction using a novel deep convolutional network architecture
Huang et al. VP-Nets: Efficient automatic localization of key brain structures in 3D fetal neurosonography
JP2015080720A (ja) コンピュータ補助診断方法及び装置
CN102938013A (zh) 医用图像处理装置及医用图像处理方法
Cerrolaza et al. 3d fetal skull reconstruction from 2dus via deep conditional generative networks
US11468570B2 (en) Method and system for acquiring status of strain and stress of a vessel wall
CN112348908A (zh) 用于医学成像中分段的基于形状的生成对抗网络
CN113012173A (zh) 基于心脏mri的心脏分割模型和病理分类模型训练、心脏分割、病理分类方法及装置
US20210401407A1 (en) Identifying an intervntional device in medical images
US20210020304A1 (en) Systems and methods for generating classifying and quantitative analysis reports of aneurysms from medical image data
GB2605391A (en) Medical Image Analysis Using Neural Networks
Kareem et al. Ultrasound medical images classification based on deep learning algorithms: a review
Nie et al. Recent advances in diagnosis of skin lesions using dermoscopic images based on deep learning
Baumgartner et al. Fully convolutional networks in medical imaging: Applications to image enhancement and recognition
Khaledyan et al. Enhancing breast ultrasound segmentation through fine-tuning and optimization techniques: Sharp attention UNet
US20200060657A1 (en) System and method for assessing obstetric wellbeing
CN112862786A (zh) Cta影像数据处理方法、装置及存储介质
Mithila et al. U-net Based Autonomous Fetal Segmentation From 2D and 3D Ultrasound Images
KR20210001233A (ko) 혈관 세그멘테이션 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240111