JP2020175184A - 2d解剖学的画像から3d解剖学的画像を再構成するシステムおよび方法 - Google Patents
2d解剖学的画像から3d解剖学的画像を再構成するシステムおよび方法 Download PDFInfo
- Publication number
- JP2020175184A JP2020175184A JP2020048121A JP2020048121A JP2020175184A JP 2020175184 A JP2020175184 A JP 2020175184A JP 2020048121 A JP2020048121 A JP 2020048121A JP 2020048121 A JP2020048121 A JP 2020048121A JP 2020175184 A JP2020175184 A JP 2020175184A
- Authority
- JP
- Japan
- Prior art keywords
- anatomical
- image
- subject
- images
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 115
- 210000003484 anatomy Anatomy 0.000 claims abstract description 120
- 238000013528 artificial neural network Methods 0.000 claims abstract description 84
- 238000012549 training Methods 0.000 claims abstract description 56
- 230000008569 process Effects 0.000 claims description 42
- 210000000988 bone and bone Anatomy 0.000 claims description 35
- 238000001356 surgical procedure Methods 0.000 claims description 33
- 230000011218 segmentation Effects 0.000 claims description 31
- 210000000689 upper leg Anatomy 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000008439 repair process Effects 0.000 claims description 6
- 230000001054 cortical effect Effects 0.000 claims description 4
- 239000007943 implant Substances 0.000 claims description 4
- 230000001427 coherent effect Effects 0.000 claims description 3
- 210000004394 hip joint Anatomy 0.000 claims description 3
- 210000000629 knee joint Anatomy 0.000 claims description 3
- 230000003252 repetitive effect Effects 0.000 claims description 2
- 210000000323 shoulder joint Anatomy 0.000 claims description 2
- 238000013507 mapping Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 23
- 230000000875 corresponding effect Effects 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 10
- 238000002591 computed tomography Methods 0.000 description 9
- 238000002604 ultrasonography Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000005855 radiation Effects 0.000 description 8
- 238000010561 standard procedure Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 3
- 210000001503 joint Anatomy 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000013179 statistical model Methods 0.000 description 3
- 229910000831 Steel Inorganic materials 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000002601 radiography Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000002832 shoulder Anatomy 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000002202 sandwich sublimation Methods 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Pulmonology (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
【課題】1枚または複数の2D画像から3D点群を再構成するようにニューラルネットワークを訓練する方法を提供する。【解決手段】対象の解剖学的構造を描写している3D解剖学的画像から、複数の点群を抽出し104、その1つをテンプレートとして選択する106。このテンプレートを複数の点群それぞれと非剛体位置合わせし、それぞれの点群の形状を有しかつテンプレートの座標の順序を維持するそれぞれの歪んだテンプレートを計算する108。歪んだテンプレートが座標の順序に関して一貫性を維持し、対応する3D解剖学的画像に描写されている対象の解剖学的構造を描写している2D解剖学的画像を受信し110、1枚または複数の2D解剖学的画像を3D点群にマッピングするように、歪んだテンプレートおよび対応する2D画像の訓練データセットに従ってニューラルネットワークを訓練する114。【選択図】図1
Description
本発明は、そのいくつかの実施形態においては、3D画像の再構成に関し、より詳細には、これに限定されないが、2D解剖学的画像から3D解剖学的画像の再構成に関する。
3D再構成は、病態の診断および手術の計画(特に骨格に関連する状態)において重要なツールである。最も優れており広く普及している3D撮影技術は、CTである。CTは、人体の内部構造の高解像度情報を生成する正確な3D撮影技術である。この能力は代償を伴う。すなわちCTスキャンは、患者への高い放射線量を引き起こし、比較的高額であり、またCTスキャナーは固定されておりスキャン中に患者の姿勢が制約される(これは場合によっては重要でありうる)。
本出願は、米国特許出願第16/387,599号(出願日:2019年4月18日)の優先権の利益を主張し、この文書の内容はその全体が参照により本明細書に組み込まれている。
第1の態様によれば、少なくとも1枚の2D画像から3D点群を再構成するようにニューラルネットワークを訓練する方法は、対象の解剖学的構造を描写している複数の3D解剖学的画像から、それぞれが座標の順序付けられたリストによって表現される複数の点群、を抽出するステップと、複数の点群の1つをテンプレートとして選択するステップと、このテンプレートを複数の点群それぞれと非剛体位置合わせし(non-rigidly registering)、それぞれの点群の形状を有しかつテンプレートの座標の順序を維持するそれぞれの歪んだテンプレート(warped template)を計算するステップであって、複数の歪んだテンプレートが、座標の順序に関して一貫性がある、ステップと、対応する3D解剖学的画像に描写されている対象の解剖学的構造を描写している複数の2D解剖学的画像を受信するステップと、少なくとも1枚の2D解剖学的画像を3D点群にマッピングするように、歪んだテンプレートおよび対応する2D画像の訓練データセットに従って、ニューラルネットワークを訓練するステップと、を含む。
第2の態様によれば、患者の対象の解剖学的構造の外科治療の方法は、対象患者の対象の解剖学的構造を描写している2D解剖学的画像を取得するステップと、複数の歪んだテンプレートおよび対応する2D画像の訓練データセットに従って訓練された訓練済みニューラルネットワークに、2D解剖学的画像を入力するステップであって、複数の歪んだテンプレートが、複数の3D解剖学的画像から抽出される複数の点群から作成され、各点群が、座標の順序付けられたリストによって表現され、複数の点群の1つがテンプレートとして選択され、このテンプレートが複数の点群のそれぞれと非剛体位置合わせされて、それぞれがそれぞれの点群の形状を有しかつテンプレートの座標の順序を維持する複数の歪んだテンプレートが計算され、複数の歪んだテンプレートが、座標の順序に関して一貫性がある、ステップと、訓練済みニューラルネットワークによって、対象の解剖学的構造の再構成された3D点群モデルを出力するステップであって、患者の対象の解剖学的構造の外科治療が、対象の解剖学的構造の再構成された3D点群モデルに従って計画される、ステップと、を含む。
第3の態様によれば、2D画像から3D点群を再構成するようにニューラルネットワークを訓練するシステムは、少なくとも1つのハードウェアプロセッサであって、以下、すなわち、対象の解剖学的構造を描写している複数の3D解剖学的画像から、それぞれが座標の順序付けられたリストによって表現される複数の点群を抽出するステップと、複数の点群の1つをテンプレートとして選択するステップと、このテンプレートを複数の点群のそれぞれと非剛体位置合わせして、それぞれの点群の形状を有しかつテンプレートの座標の順序を維持するそれぞれの歪んだテンプレートを計算するステップであって、複数の歪んだテンプレートが、座標の順序に関して一貫性がある、ステップと、対応する3D解剖学的画像に描写されている対象の解剖学的構造を描写している複数の2D解剖学的画像を受信するステップと、少なくとも1枚の2D解剖学的画像を3D点群にマッピングするように、歪んだテンプレートおよび対応する2D画像の訓練データセットに従って、ニューラルネットワークを訓練するステップ、のためのコード、を実行する、少なくとも1つのハードウェアプロセッサ、を備えている。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、複数の2D解剖学的画像は、対応する3D解剖学的画像のそれぞれから計算される複数のエミュレートされた2D解剖学的画像を含み、複数のエミュレートされた2D解剖学的画像は、エミュレートされた2D解剖学的画像を仮想的に撮影する仮想2Dセンサーの向きに対応する方向に沿って、対応する3D解剖学的画像の撮影値を集積する(aggregate)ことによって計算される。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、複数のエミュレートされた2D解剖学的画像は、患者に関連する事前定義される向きにおけるX線源およびX線センサーアレイによって撮影される対象の2D X線画像に相当するように計算される。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、複数の3D解剖学的画像から抽出される複数の点群のそれぞれは、頂点の座標順序および頂点の結合によって表現される3Dポリゴンメッシュを表している。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、複数の点群の各点群は、それぞれの3D解剖学的画像の複数の2Dスライスの各2Dスライスにおいて、描写されている対象の解剖学的構造の2Dセグメンテーションを計算するステップと、複数の2Dスライスにおいて計算された複数の2Dセグメンテーションを積層させるステップと、積層された複数の2Dセグメンテーションから、対象の解剖学的構造の3D 2値配列(binary array)を取得するステップと、この3D 2値配列から点群を計算するステップと、によって、複数の3D解剖学的画像のそれぞれの3D解剖学的画像から抽出される。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、描写されている対象の解剖学的構造の2Dセグメンテーションは、それぞれのピクセルが対象の解剖学的構造を描写している、ピクセルごとの確率、を計算するセグメンテーションニューラルネットワークによって、それぞれの2Dスライスから切り出され、この場合、セグメンテーションニューラルネットワークは、複数のサンプル患者の複数の3D解剖学的画像それぞれの複数の2Dスライスの訓練データセットで訓練されており、各2Dスライスは、対象の解剖学的構造のセグメンテーションの指示情報によってアノテートされている。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、非剛体位置合わせは、コヒーレントポイントドリフト(coherent point drift)および非剛体の反復最近接点(non-rigid iterative closest points)から選択される非剛体位置合わせプロセス、に従って実行される。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造は、股関節、膝関節、および肩関節からなる群から選択される、関節および関連する骨、を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造は、骨を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造は、大腿骨を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造は、骨の内面を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、内面は、皮質骨の内面を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、内面は、長骨の髄腔の内面)である。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造の再構成された3D点群モデルは、対象の解剖学的構造の内側表面を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造は、長骨を含み、再構成された3D点群に描写されている内側表面は、長骨の髄腔の内面を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、2D解剖学的画像は、X線画像を含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、再構成された3Dモデルを2D画像の平面上に投影するための投影を計算するステップであって、2D解剖学的画像が、既知の寸法を有する較正オブジェクトの描写を含む、ステップと、投影のスケールパラメータを計算するステップと、再構成された3Dモデルを、スケールパラメータに従って元の任意の単位からピクセル単位にスケーリングするステップと、ピクセル単位からミリメートルに変換するための変換パラメータを、2D解剖学的画像に描写されている較正オブジェクトに従って計算するステップと、再構成された3D画像のピクセル単位を、計算された変換パラメータに従ってミリメートルに変換するステップと、をさらに含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造は、少なくとも1つの骨を含み、対象の解剖学的構造の再構成された3D点群モデルに従って計画される患者の外科治療は、3D点群モデルによって描写されている少なくとも1つの骨の少なくとも1つの寸法に従って、関節置換人工装具(joint replacement prosthetic)および骨折修復埋め込み器具(fracture repair implantable device)の少なくとも一方を選択するステップを含む。
第1の態様、第2の態様、および第3の態様のさらなる実装形態においては、対象の解剖学的構造の再構成された3D点群モデルに従って計画される患者の外科治療は、3D点群モデルを使用して外科的処置をシミュレートするステップを含む。
特に定義しない限り、本明細書で使用する全ての技術および/または科学用語は、本発明が属する技術分野の当業者により通常理解されるものと同じ意味を有する。本明細書に記載のものと同様のまたは等価な方法および材料を、本発明の実施形態の実践または試験に使用することができるが、例示的な方法および/または材料を下記に記載する。矛盾する場合、定義を含む特許明細書が優先する。加えて、材料、方法、および実施例は単なる例示であり、必ずしも限定を意図するものではない。
本発明のいくつかの実施形態について、その例示のみを目的として添付の図面を参照して本明細書に記載する。以下、特に図面を詳細に参照して示す細部は、例示を目的とし、また本発明の実施形態の詳細な説明を目的とすることを強調する。同様に、図面と共に説明を見ることで、本発明の実施形態をどのように実践し得るかが当業者には明らかとなる。
本発明のいくつかの実施形態の一態様は、対象の解剖学的構造を描写している1枚または複数の2D画像、オプションとしてさまざまな向きにおける2D画像(例えばX線画像、および/または超音波画像)(例えば前後方向(AP)および横方向のX線写真)から、対象の解剖学的構造を描写している3D点群を再構成するようにニューラルネットワークを訓練するシステム、方法、装置、および/またはコード命令(すなわちメモリに格納されており(1つまたは複数の)ハードウェアプロセッサによって実行可能である)、に関する。このニューラルネットワークは、実際には、例えば、CTなどの3D撮影装置を使用する代わりに、2D撮影装置から取得された2D画像を使用して、対象の解剖学的構造の3D再構成を生成することを可能にする。対象の解剖学的構造(オプションとして骨、オプションとして長骨(例えば大腿骨))を描写している3D解剖学的画像から、点群を抽出する。各画像から1つの点群を抽出することができる。各点群は、座標の順序付けられたリストによって表される。点群の1つをテンプレートとして選択する。このテンプレートを他の点群それぞれと非剛体位置合わせして、それぞれの歪んだテンプレートを計算する。歪んだテンプレートは、それぞれの点群の形状を有し、テンプレートの座標の順序を維持する。歪んだテンプレートは、座標の順序に関して一貫性がある。対象の解剖学的構造を描写している複数の2D解剖学的画像を受信する。オプションとして、2D画像は、対応する3D解剖学的画像に描写されている同じ対象の解剖学的構造を描写しており、例えば対応する3D解剖学的画像から2D画像を作成することができる。歪んだテンプレートおよび対応する2D画像の訓練データセットに従って、ニューラルネットワークを訓練する。ニューラルネットワークは、対象の解剖学的構造を描写している1枚または複数の2D解剖学的画像を受け取り、対象の解剖学的構造の3D点群の再構成を出力するように、訓練される。
本発明のいくつかの実施形態の一態様は、(1枚または複数の)2D解剖学的画像(例えばX線写真)に描写されている対象の解剖学的構造の3D再構成に基づく、患者の対象の解剖学的構造の外科治療のためのシステム、方法、装置、および/またはコード命令(すなわちメモリに格納されており(1つまたは複数の)ハードウェアプロセッサによって実行可能である)、に関する。対象患者の対象の解剖学的構造を描写している(1枚または複数の)2D解剖学的画像を取得する。本明細書に記載されているように、歪んだテンプレートおよび対応する2D画像の訓練データセットに従って訓練されたニューラルネットワークに、これら(1枚または複数の)2D解剖学的画像を入力する。訓練されたニューラルネットワークによって、対象の解剖学的構造の再構成された3D点群モデルが出力される。対象の解剖学的構造の再構成された3D点群モデルに従って、患者の対象の解剖学的構造の外科治療を計画する。例えば、外科医は、手術を計画する目的で3D点群を見ることができる。別の例においては、手術を計画することを支援するアプリケーション(および/または他のコードプロセス)(例えば、関節置換術および/または骨折修復のための補綴装置および/またはネイルを選択するために、および/または手術のシミュレーションのために、長骨の髄腔を測定するように設計されているアプリケーション)に、3D点群を供給する。
本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、ニューラルネットワークが2D画像を3D点群にマッピングすることを可能にすることによって、ニューラルネットワークの技術分野の改善に対処する。本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、3D点群(例えば3Dポリゴンメッシュ)のデータセットを使用してニューラルネットワークを訓練するという技術的課題に対処する。2D画像を3D点群にマッピングするためのニューラルネットワークを、標準的な方法を使用して訓練することはできず、なぜなら例えば3Dポリゴンメッシュとして表される3D点群の訓練データセットで標準的な方法を使用してニューラルネットワークを訓練することができないためである。ポリゴンメッシュ化は、表面を記述するための効率的な方法であるが、ニューラルネットワークを訓練するうえで必要である一貫性のある表現という特性が欠如している。この文脈における一貫性とは、3D構造が数のリストとして定義されているとき、そのリスト内の要素の順序は、リストが記述しているオブジェクトに影響を及ぼすことなく入れ替えることができないことを意味する。例えば、画素化されたデジタル解剖学的画像(例:X線写真)は、数の順序付けられたリストである。そのリストが入れ替えられると、入れ替えられたリストによって記述される画像は、元の画像とは異なる。ポリゴンメッシュの課題の技術的な解決策には、この特性がない。ポリゴンメッシュは、頂点の座標および頂点の結合性のリストによって記述される。そのリストが入れ替えられて、それに応じて結合性が変更されても、その入れ替えられたリストが記述するメッシュは、元のメッシュとまったく同じである。ポリゴンメッシュ表現は一貫性が欠如しているため、1つのリストの中の要素の間の空間的な関係は、類似するオブジェクトを記述する別のリストにおいて維持されない。したがって、ポリゴンメッシュ(一貫性が欠如しており要素間の空間的な関係が維持されない)で訓練されたニューラルネットワークは、不正確な結果、および/または無関係な結果を出力する。本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、訓練データセットから1つの3D点群を選択し、選択された3D点群をテンプレートとして使用することによって、この技術的課題に対する技術的解決策を提供する。テンプレートのモデル(例:Tと表す)を、整列するまで、異なる3D点群モデル(例:Mと表す)と位置合わせし(オプションとして非剛体位置合わせし)、それぞれの歪んだテンプレートを計算する。歪んだテンプレート(例:Wと表す)は、Mの形状を有し、Tの同じ頂点の順序も維持する。訓練データセットの中の残りの点群についてこのプロセスを繰り返すことにより、3Dモデルの新しいデータセット(元のデータセットにおけるモデルの形状を捕捉しており、頂点のリストの順序付けに関して一貫性がある)が作成される。歪んだテンプレートのこの新しいデータセット(頂点のリストの順序付けに関して一貫性がある)を使用して、ニューラルネットワークを訓練する。
本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、患者の対象の解剖学的構造を描写している2D画像から、患者の対象の解剖学的構造を描写している3D画像を再構成するという技術的課題に対処する。X線写真(本明細書では放射線写真とも称する)などの2D解剖学的画像は、3D CT画像と比較して、安全で信頼性が高く、安価で普及しており、より柔軟性の高い代替形態である。X線写真は、患者の身体の2次元投影であるため、伝える情報は、CTスキャナーによって生成される3Dボリュームよりもずっと少ない。1枚または複数の2D X線画像から3D解剖学的画像を再構成することは、挑戦的な技術的課題である。
本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、2D解剖学的画像を使用して3D解剖学的画像を再構成することを可能にすることによって、画像処理の技術分野を向上させる。
本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、X線写真などの2D解剖学的画像を使用して、患者の対象の解剖学的構造の再構成された3D画像を見ることを可能にすることによって、患者の薬物治療および/または医学的治療の分野を向上させる。患者の治療(外科治療など)を、再構成された3D画像に基づいて計画する、および/またはシミュレートすることができる。3D画像の代わりに2D画像を使用することは、患者を治療するうえでのいくつかの重要な利点があり、例えば、放射線が比較的少ない、コストが低い、取得時間が早い、また3D撮影装置が利用できない場合に患者の高いクォリティの治療計画が提供される。
本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、2D解剖学的画像から3D解剖学的画像を再構成するための他のプロセスとは異なる、および/または、そのような公知のプロセスに優る利点を提供する。例えば以下のプロセスである。
ポイントベースのプロセス(point-based process)。このプロセスの最も単純な形においては、熟練者が、既知の向きの1対の放射線写真からの事前定義されるキーポイントのペアを手動でアノテートする。画像上のキーポイントのペアの位置と、X線源およびフィルム(またはセンサー)の向きとに基づいて、3D座標を推定する。事前定義されるキーポイントの3D座標のセットが与えられたとき、ジェネリック3Dモデルが、推定されたキーポイントの位置をこのモデルが最良に説明する(best explains)ように変形する。しかしながら、ポイントベースのモデルからは不十分な結果しか得られず、また熟練したアノテーターがアノテートするのに時間がかかる。
ポイントベース法の改良によって、(立体的なペアのみならず)1つのキーポイントを使用することも可能になった。立体的なペアの3D位置は容易に推定されるが、3次元内の1つのキーポイントの位置は直接推定することはできず、画像面上のキーポイントの位置とX線源とを結ぶ線の上に位置するように制約される。いくつかのこのような制約によって、ジェネリック3Dモデルが、入力される制約を最良に説明するように最適に変形する。このような方法では、通常ではアノテーターはより多くのキーポイントをアノテートすることができ、なぜならペア化が必須でないためである。結果として、このようなポイントベース法の出力モデルは、相対的により正確であり、アノテートするのにかかる時間も短い。しかしながら、このようなポイントベース法であっても、(個別のキーポイントの数が少ない理由で)出力の精度が極めて制限され、また特徴のない連続的な構造および/または領域(例:膝関節)に対しては良好に機能せず、オペレータの技能に大きく依存し、キーポイントを手動で検出してペア化する長いプロセスが要求される。
対照的に、本明細書に記載されているシステム、装置、方法、および/またはコード命令の少なくともいくつかの実装形態は、再構成される3D点群における点の数が多い理由できわめて正確であり、特徴のない領域に対しても良好に機能し、かつ比較的迅速である。
以下では、2D入力画像から3Dモデルを計算する別の方法のいくつかの例と、これら引用した方法に優る、本明細書に記載されているシステム、装置、方法、および/またはコード命令の少なくともいくつかの実装形態の改善点とについて説明する。以下の標準的なプロセスは、いずれも、(1枚または複数の)X線画像上で一連のキーポイントまたは曲線を手動または半自動的に識別した後、識別されたキーポイントおよび曲線の位置および形状を最良に説明する3Dオブジェクトを再構成する処理に依存する。これらの特徴は、調査者(researcher)(または別の訓練された使用者)によって選択され、目視検査によって、または従来のコンピュータビジョン技術によって識別される。説明した方法における特徴のほとんどは、手作業のプロセス(例えば、ハフ変換、動的輪郭(active contour)、Watershed法など)に基づく。それ以外のプロセスにおいて使用される特徴は、すべての手作業の特徴と同様に、(本明細書に記載されているシステム、装置、方法、および/またはコード命令の少なくともいくつかの実装形態によって行われるように)何らかの最適化プロセスによって選択またはパラメータ化されることはなく、結果として、標準的な方法の特徴は、最適には及ばない結果につながる。対照的に、本明細書に記載されているシステム、装置、方法、および/またはコード命令の少なくともいくつかの実装形態は、入力された2D画像から特徴のセットを抽出する訓練されたニューラルネットワークに基づき、これらの特徴は、3D点群を出力するタスクに最適である。ニューラルネットワークは、キーポイント検出方式、標準的なセグメンテーション方式、および/または2Dから3Dへの標準的な変換方式などの標準的な方法とは異なる。本明細書に記載されているニューラルネットワークの少なくともいくつかの実装形態は、1段階で2D画像から3D点群モデルを再構成するという課題を解決し、この方法は、ノイズおよび/または低画質に対して堅牢である、完全に自動的である、正確である、計算効率が高い、および/または、比較的短い処理時間で実行される。
輪郭ベースのプロセス。輪郭ベースのプロセスの原理は、放射線写真からの識別可能な2D輪郭を、基準オブジェクトの表面上に定義される3D曲線に関連付けることである。このプロセスは、最初に、オブジェクトの3D構造および向きを、既存のプロセスに基づいて初期推定する。初期モデルが計算されたら、オブジェクトの表面上で3D曲線を選択し、このとき3D曲線の投影がモデルの投影された輪郭と整列するように選択する(例えばこの場合、シミュレートされるX線は3Dモデルの表面に接する)。次に、これらの3D曲線を画像平面に投影する。2D曲線の各ペア(例:放射線写真の骨の輪郭および3D曲線の投影)から差分項を計算し、次にこの差分項を使用して3Dモデルの形状を更新する。収束に達するまでこのプロセスを繰り返す。このプロセスは、前に説明した「非立体対応ポイント」(NSCP:non stereo corresponding points)プロセスとは対照的に、「非立体対応輪郭」(NSCC:non stereo corresponding contour)とも称される。輪郭ベースのプロセスでは、(個別のキーポイントなしで)より滑らかな表面の3Dモデリングが可能であり、より正確なモデルが作成され、手動でのアノテーション時間が大幅に短縮される。
統計形状モデル(SSM)ベースのプロセス。SSMプロセスでは、出力モデルが「自然に見える」ように強制することによって、出力モデルに対して強い制約が課される。この制約により、自然の基準オブジェクトの一般的な形状および可能な変動に関する、人のアノテーターのそれまでの知識を置き換えることによって、より高いレベルの自動化が可能になる。このプロセスでは、基準オブジェクトの集合全体の平均および変動を計算する目的で、基準オブジェクトモデルの大きなデータセットが必要である。すべての自然の基準オブジェクトは類似する構造を有し、高い相関性があるため、次元数の減少を利用して、最終的なモデル推定プロセスを単純化し、「自然さ」を強制することができる。次元数の減少は、通常では、主成分分析(PCA)を使用して統計モデルの最初の数個の主成分を計算することによって達成される。これらのベクトルの線形結合によって、「自然に見える」基準オブジェクトが記述される。例えば、一連の放射線写真が提供されたとき、(輪郭ベース法と同様に)初期3Dモデルを画像平面に投影し、投影されたモデルの外形を、放射線写真上の推定された基準オブジェクトの外形と比較する。次のステップでは反復プロセスを使用し、収束に達するまで主ベクトルの係数を変化させることによって、2本の曲線(投影されたモデルの外形および基準オブジェクトの外形)の差を最小にする。SSMは計算負荷が高く、したがって1回のオブジェクト再構成に最大で数分かかる。
パラメトリックプロセス。パラメータプロセスは、SSMのように高いレベルの自動化および精度を提供するが、これらを異なる方法で提供する。オブジェクトの形状を表すために使用される単純化されたパラメトリックモデルを定義する。このパラメトリックモデルは、点、線、円錐、球、円柱など(記述子と称される)からなる。オブジェクトモデルの大きな集合に、単純化されたパラメトリックモデルを適用することによって、統計モデルを計算し、それを使用して推測する。一連の放射線写真が提供されたとき、識別された解剖学的ランドマークに従って主記述子を計算し、記述子の完全なセットを統計モデルに従って推定する。記述子の完全なセットから、個別化されたパラメトリックモデルを取得する。パラメトリックモデルをより自然に見えるモデルにレンダリングする目的で、3Dジェネリックメッシュをモーフィングして、個別化されたパラメトリックモデルをフィットさせる。
本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、2D画像が入力されるニューラルネットワークによって3D点群を変換するという技術的課題に対処し、この場合、3D点群は、2D画像の座標系とは異なる任意の座標系によって表される。放射線写真の撮影の特性の理由で、位置に依存する拡大が起こり、X線源を中心とする小さい半径の球の上に位置するオブジェクトは、より大きい球の上に位置するオブジェクトより大きく見える。放射線写真は、さまざまな位置におけるオブジェクトのボリューム全体を2D平面上に投影したものであるため、ピクセル単位でのオブジェクトのサイズを実世界のサイズ(例えばミリメートル単位)に変換するために使用できる単一のスケールパラメータは存在しない。このことは、たとえX線源、患者、および検出器の位置および向きが既知である場合にもあてはまる。臨床アプリケーションによっては、対象のオブジェクトの形状のみならず実際のサイズも重要である。標準的な方法の使用時、寸法が既知であるオブジェクト(すなわち較正オブジェクト)を、X線源から対象のオブジェクトまでと同じ距離に配置する。オブジェクトの寸法が既知であるため、ピクセルからミリメートルへの変換パラメータを推定することができる。このパラメータは、X線源までの距離が較正オブジェクトと同じ位置にあるオブジェクトに対応する。画像内に現れているさまざまなオブジェクトを、このパラメータを使用して測定することは簡単である。しかしながら、本明細書に記載されているニューラルネットワークの少なくともいくつかの実装形態では、標準的な方法において行われるようにピクセルをミリメートルに直接マッピングすることない。正しいスケーリングパラメータを見つけるという課題は、別のレベルの複雑さを有し、すなわちニューラルネットワークによって出力される3D点群モデルは、入力される2D画像(例:放射線写真)の座標系とは異なる何らかの任意の座標系を有する。したがって、3Dオブジェクトを何らかの任意の単位からミリメートルに変換する目的に、ピクセルからミリメートルへの変換(標準的な方法において使用される)を使用することはできない。本明細書に記載されているシステム、方法、装置、および/またはコード命令の少なくともいくつかの実装形態は、3Dモデルを2D画像(例:放射線写真)の平面上に投影することによって、説明した課題に対する技術的な解決策を提供する。投影が識別された時点で、その投影に使用されたスケーリングパラメータを使用して、推定された3Dモデルをその元の任意の単位からピクセル単位にスケーリングする。3Dモデルがピクセル単位にスケーリングされると、画像内の較正オブジェクトを使用して、ピクセルからミリメートルへの変換パラメータを計算することができ、次にその変換パラメータを使用して3Dモデルを実世界のサイズに変換する。
本発明の少なくとも1つの実施形態を詳細に説明する前に、本発明は、必ずしもその用途が、以下の記載に示す、および/または図面および/または実施例で例示する、構成の詳細および要素の配置および/または方法に限定されるものではないことを理解するべきである。本発明は、他の実施形態が可能であり、また、さまざまな手段で実施または実行することが可能である。
本発明は、システム、方法、および/またはコンピュータプログラム製品とすることができる。コンピュータプログラム製品は、本発明の態様をプロセッサに実行させるためのコンピュータ可読プログラム命令を有する(1つまたは複数の)コンピュータ読み取り可能な記憶媒体を含むことができる。
コンピュータ読み取り可能な記憶媒体は、命令実行装置によって使用するための命令を保持および記憶することのできる有形装置とすることができる。コンピュータ読み取り可能な記憶媒体は、例えば、以下に限定されないが、電子記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置、またはこれらの任意の適切な組合せ、とすることができる。コンピュータ読み取り可能な記憶媒体のさらなる具体例のリスト(すべては網羅していない)には、以下、すなわち、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読み出し専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、機械的符号化装置(命令が記録されたパンチカードまたは構内の隆起構造など)、およびこれらの任意の適切な組合せ、が含まれる。本明細書において使用されるコンピュータ読み取り可能な記憶媒体は、本質的に一時的な信号(電波または他の自由に伝搬する電磁波、導波路または他の伝送媒体中を伝搬する電磁波(例:光ファイバケーブルを通る光パルス)、またはワイヤを伝わる電気信号など)であるとは解釈されないものとする。
本明細書に記載されているコンピュータ可読プログラム命令は、コンピュータ読み取り可能な記憶媒体からそれぞれの計算装置/処理装置にダウンロードする、またはネットワーク(例えばインターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、および/またはワイヤレスネットワーク)を介して外部のコンピュータまたは外部の記憶装置にダウンロードすることができる。ネットワークは、銅の伝送ケーブル、光伝送ファイバ、無線伝送、ルーター、ファイヤウォール、スイッチ、ゲートウェイコンピュータ、および/またはエッジサーバを備えていることができる。各計算装置/処理装置におけるネットワークアダプタカードまたはネットワークインタフェースが、ネットワークからコンピュータ可読プログラム命令を受信して、それらのコンピュータ可読プログラム命令を、それぞれの計算装置/処理装置内のコンピュータ読み取り可能な記憶媒体に記憶されるように転送する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、または、1種類または複数種類のプログラミング言語(SmalltalkやC++などのオブジェクト指向プログラミング言語、「C」プログラミング言語や類似するプログラミング言語などの従来の手続き型プログラミング言語を含む)の任意の組合せで書かれたソースコードまたはオブジェクトコードのいずれかとすることができる。コンピュータ可読プログラム命令は、独立したソフトウェアパッケージとして、その全体を使用者のコンピュータ上で実行する、またはその一部を使用者のコンピュータ上で実行する、または一部を使用者のコンピュータ上で実行しかつ一部を遠隔のコンピュータ上で実行する、または全体を遠隔のコンピュータまたはサーバ上で実行することができる。後者のシナリオでは、遠隔のコンピュータを、任意のタイプのネットワーク(ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む)を通じて使用者のコンピュータに接続することができる、または、(例えばインターネットサービスプロバイダを使用してインターネットを通じて)外部のコンピュータへの接続を形成することができる。いくつかの実施形態においては、本発明の態様を実行する目的で、電子回路(例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)、またはプログラマブル論理アレイ(PLA)を含む)が、コンピュータ可読プログラム命令の状態情報を利用して電子回路をパーソナライズすることによって、コンピュータ可読プログラム命令を実行することができる。
本発明の態様は、本発明の実施形態に係る方法、装置(システム)、およびコンピュータプログラム製品の流れ図および/またはブロック図を参照しながら、本明細書に説明してある。流れ図および/またはブロック図の各ブロック、および、流れ図および/またはブロック図におけるブロックの組合せを、コンピュータ可読プログラム命令によって実施できることが理解されるであろう。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータ、またはマシンを形成するための他のプログラマブルデータ処理装置のプロセッサに提供することができ、したがってこれらの命令(コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行される)は、流れ図および/またはブロック図の1つまたは複数のブロックに指定されている機能/動作を実施するための手段を形成する。これらのコンピュータ可読プログラム命令は、コンピュータ、プログラマブルデータ処理装置、および/または他の装置が特定の方法で機能するように導くことのできるコンピュータ読み取り可能な記憶媒体に記憶してもよく、したがって、命令を記憶しているコンピュータ読み取り可能な記憶媒体は、流れ図および/またはブロック図の1つまたは複数のブロックに指定されている機能/動作の態様を実施する命令を含む製品を含む。
コンピュータ、他のプログラマブルデータ処理装置、または他の装置上で一連の動作ステップが実行されて、コンピュータによって実施されるプロセスが生成されるように、コンピュータ可読プログラム命令を、コンピュータ、他のプログラマブルデータ処理装置、または他の装置にロードしてもよく、したがって、コンピュータ、他のプログラマブルデータ処理装置、または他の装置で実行される命令が、流れ図および/またはブロック図の1つまたは複数のブロックに指定されている機能/動作を実施する。
図における流れ図およびブロック図は、本発明のさまざまな実施形態に係るシステム、方法、およびコンピュータプログラム製品の可能な実装形態のアーキテクチャ、機能性、および動作を示している。これに関して、流れ図またはブロック図における各ブロックは、指定された(1つまたは複数の)論理機能を実施するための1つまたは複数の実行可能命令を含むモジュール、セグメント、または命令の一部を表しうる。いくつかの代替実装形態においては、ブロックに記載されている機能は、図に記載されている以外の順序で実行してもよい。例えば、連続して示されている2つのブロックを、関与する機能に応じて、実際には、実質的に同時に実行する、あるいは場合によってはブロックを逆の順序で実行することができる。さらに、ブロック図および/または流れ図の各ブロックと、ブロック図および/または流れ図におけるブロックの組合せは、指定された機能または動作を実行する専用ハードウェアベースのシステムによって、または専用ハードウェアおよびコンピュータ命令の組合せを実行する専用ハードウェアベースのシステムによって、実施してもよいことに留意されたい。
次に図1を参照し、図1は、本発明のいくつかの実施形態による、対象の解剖学的構造を描写している1枚または複数の2D画像から、対象の解剖学的構造を描写している3D点群を再構成するようにニューラルネットワークを訓練する方法の流れ図である。さらに図2も参照し、図2は、本発明のいくつかの実施形態による、対象の解剖学的構造を描写している1枚または複数の2D画像から、対象の解剖学的構造を描写している3D点群を再構成するようにニューラルネットワークを訓練する、および/または、ニューラルネットワークによって出力される対象の解剖学的構造の3D点群の再構成に従っての患者の対象の解剖学的構造の外科治療、のためのシステム200、の構成要素のブロック図である。さらに図3も参照し、図3は、本発明のいくつかの実施形態による、ニューラルネットワークによって出力される対象の解剖学的構造の3D点群の再構成に従っての、患者の対象の解剖学的構造の外科治療の方法の流れ図である。システム200は、図1および/または図3を参照しながら説明する方法の動作を、オプションとして、メモリ206に記憶されているコード命令を実行する計算装置204の(1つまたは複数の)ハードウェアプロセッサ202によって、実施することができる。
以下では、システム200の理解を助けるため、患者の対象の解剖学的構造の3D点群を2D解剖学的画像(例:X線写真)に従って再構成する処理の例示的な実装形態について説明する。2D撮影装置212A(X線装置)は、対象の解剖学的構造を描写している、対象の個人の(1枚または複数の)2D解剖学的画像を取得する。(1枚または複数の)2D画像は、画像リポジトリ214(例えば、PACSサーバ、クラウドストレージ、ストレージサーバ、CD−ROM、および電子的な健康記録)に格納しておくことができる。計算装置204は、本明細書に記載されているように、訓練されたニューラルネットワークのコード206Cを利用するコード206Aを実行することによって、2D解剖学的画像から、再構成された3D点群を計算する。訓練されたニューラルネットワーク206Cは、(1基または複数の)3D撮影装置212B(例:CTスキャン)によって出力される3D解剖学的画像から作成される歪んだテンプレートと、オプションとして3D画像から作成される対応する2D画像の訓練データセット222Aから、訓練コード206Bによって生成される。再構成された3D点群は、3D点群データセット222Bに格納することができる。患者の対象の解剖学的構造の外科治療を、手術計画コード222Cを使用し、かつ対象の解剖学的構造の再構成された3D点群モデルを使用して、計画することができる。
計算装置204は、例えば、クライアント端末、サーバ、仮想サーバ、放射線ワークステーション、手術計画ワークステーション、仮想マシン、コンピューティングクラウド、モバイル機器、デスクトップコンピュータ、シンクライアント、スマートフォン、タブレットコンピュータ、ノートブックコンピュータ、ウェアラブルコンピュータ、メガネ型コンピュータ、ウォッチ型コンピュータ、として実施することができる。計算装置204は、高度な映像化ワークステーションを含むことができ、このワークステーションは、場合によっては放射線ワークステーションおよび/または外科ワークステーションおよび/または他の装置の拡張機能であり、使用者が再構成された3D点群を見る、および/または再構成された3D点群を使用して手術(および/または他の治療)を計画することを可能にする。
計算装置204は、図1および/または図3を参照しながら説明する動作の1つまたは複数を実行するローカルに格納されたソフトウェアを含むことができる、および/または、サービス(例:図1および/または図3を参照しながら説明する動作の1つまたは複数)をネットワーク210を通じて1基または複数のクライアント端末208(例:解剖学的画像を見るために使用者によって使用されるクライアント端末、再構成された3D点群を使用して手術を計画するための(1つまたは複数の)手術計画アプリケーションを実行しているクライアント端末、再構成された3D点群を自動的に分析するための(1つまたは複数の)コンピュータ支援診断(CAD)アプリケーションを実行しているクライアント端末、遠隔に位置する放射線ワークステーション、遠隔の医療用画像管理システム(PACS:picture archiving and communication system)サーバ、遠隔の電子カルテ(EMR:electronic medical record)サーバ)に提供する1基または複数のサーバ(例:ネットワークサーバ、Webサーバ、コンピューティングクラウド、仮想サーバ)として機能することができ、例えば、サービスとしてのソフトウェア(SaaS)を(1基または複数の)クライアント端末208に提供する、および/または、Webブラウザおよび/または医療撮像ビューアアプリケーションおよび/または手術計画アプリケーションの拡張機能としてローカルダウンロード用のアプリケーションを(1基または複数の)クライアント端末208に提供する、および/または、リモートアクセスセッションを使用する機能を(例えばWebブラウザ、アプリケーションプログラミングインタフェース(API)、および/またはソフトウェア開発キット(SDK)を通じて)クライアント端末208に提供し、例えば、計算装置204に手術計画アプリケーションを統合して、手術計画アプリケーションが自身の設計対象である(1つまたは複数の)対象の解剖学的構造の再構成された3D点群を取得することを可能にする。
(1基または複数の)クライアント端末208は、例えば、手術計画ワークステーション、放射線ワークステーション、デスクトップコンピュータ(例:PACSビューアアプリケーションおよび/またはCADアプリケーションおよび/または手術計画アプリケーションを実行している)、モバイル機器(例:ノートブックコンピュータ、スマートフォン、メガネ型装置、ウェアラブル装置)、およびナースステーションサーバ、として実施することができる。
なお、ニューラルネットワークの訓練と、訓練されたニューラルネットワークを2D解剖学的画像に適用して再構成された3D点群を計算する処理は、同じ計算装置204によって実施する、および/または、異なる計算装置204によって実施することができ、後者の場合には例えば、1つの計算装置204がニューラルネットワークを訓練して、訓練されたニューラルネットワークを別のサーバ装置204に送信し、そのサーバ装置204が訓練されたニューラルネットワークを使用して、2D解剖学的画像に対して再構成される3D点群を計算する。
計算装置204は、(1基または複数の)2D撮影装置212A(例:X線、超音波)によって撮影された2D解剖学的画像を受信して、再構成された3D点群を計算する。これに代えて、またはこれに加えて、計算装置204は、(1基または複数の)3D撮影装置212B(例:CT、MRI、3次元超音波、核医学検査)によって撮影された3D解剖学的画像を受信し、ニューラルネットワークを訓練して訓練済みニューラルネットワーク206Cを作成するための訓練データセット222Aを作成する。2D画像および/または3D画像は、画像リポジトリ214(例えば、ストレージサーバ(例:PACSサーバ)、コンピューティングクラウド、仮想メモリ、ハードディスク)に格納することができる。
訓練データセット222Aは、撮影された3D解剖学的画像から、本明細書に説明されているように作成される。
(1基または複数の)2D撮影装置212Aによって撮影される2D解剖学的画像は、対象患者の身体内の解剖学的特徴および/または解剖学的構造を描写している。(1基または複数の)3D撮影装置212Bによって撮影される3D解剖学的画像は、(1基または複数の)2D撮影装置212Aによって撮影された2D解剖学的画像から、本明細書に説明されているように3D点群を再構成するようにニューラルネットワークを訓練する目的で、使用される。3D解剖学的画像によって描写される例示的な対象の解剖学的構造(2D解剖学的画像から再構成される3D点群によっても描写される)は、関節および関連する骨(例えば、股関節、膝関節、肩関節、骨(例:大腿骨)、骨(オプションとして皮質骨)の内面、および/または長骨の髄腔)を含む。
計算装置204は、(1基または複数の)撮影装置212Aおよび/または212Bおよび/または画像リポジトリ214から、1つまたは複数の撮影インタフェース220(例えば、有線接続(例:物理ポート)、無線接続(例:アンテナ)、ローカルバス、データストレージ装置を接続するためのポート、ネットワークインタフェースカード、他の物理的なインタフェース実装、および/または、仮想インタフェース(例:ソフトウェアインタフェース、仮想プライベートネットワーク(VPN)接続、アプリケーションプログラミングインタフェース(API)、ソフトウェア開発キット(SDK)))を使用して、2D解剖学的画像および/または3D解剖学的画像を受信する。
(1つまたは複数の)ハードウェアプロセッサ202は、例えば、(1つまたは複数の)中央処理装置(CPU)、(1つまたは複数の)グラフィック処理装置(GPU)、(1つまたは複数の)フィールドプログラマブルゲートアレイ(FPGA)、(1つまたは複数の)デジタル信号プロセッサ(DSP)、(1つまたは複数の)特定用途向け集積回路(ASIC)、として実施することができる。プロセッサ202は、1つまたは複数のプロセッサ(同種または異種)を含むことができ、これらのプロセッサは、クラスタとして、および/または、1つまたは複数のマルチコア処理装置として、並列処理用に配置することができる。
メモリ206(プログラム記憶部および/またはデータ記憶装置とも称される)は、(1つまたは複数の)ハードウェアプロセッサ202によって実行するためのコード命令を記憶し、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、および/またはストレージデバイス(例えば、不揮発性メモリ、磁気媒体、半導体記憶装置、ハードディスクドライブ、リムーバブル記憶装置、および光媒体(例:DVD、CD−ROM))である。メモリ206は、例えば、図1を参照しながら説明する方法の1つまたは複数の動作および/または特徴を実施するコード206A、および/または、図3を参照しながら説明する方法の1つまたは複数の動作を実行する訓練コード206B、および/または、訓練されたニューラルネットワーク206Cのコード命令、および/または手術計画コード222C、を記憶することができる。
なお、手術計画コード222Cは、(1枚または複数の)2D解剖学的画像から計算される再構成された3D点群モデルを使用するシミュレーションおよび/または他の計算を実行するCANアプリケーションおよび/または他のアプリケーションを含む、および/または、このようなアプリケーションに置き換えることができることに留意されたい。
これに代えて、またはこれに加えて、(1基または複数の)クライアント端末208および/またはサーバ218が、手術計画コード222Cおよび/または訓練コード206Bをローカルに格納する、および/または実行することができる。
計算装置204は、データ(例えば、訓練データセット222A(本明細書に説明されているように作成される)、3D点群データセット222B(例:訓練データセットに含めるための再構成された3D点群および/または計算された3D点群を格納する)、および/または(1つまたは複数の)手術計画アプリケーション222C)を格納するためのデータストレージ装置222を含むことができる。データストレージ装置222は、例えば、メモリ、ローカルハードディスクドライブ、リムーバブル記憶装置、光ディスク、ストレージデバイスとして、および/または、リモートサーバおよび/またはコンピューティングクラウド(例:ネットワーク210を使用してアクセスされる)として、実施することができる。なお、コード222A〜222Cをデータストレージ装置222に格納することができ、この場合に実行部分が、(1つまたは複数の)プロセッサ202によって実行されるようにメモリ206にロードされることに留意されたい。
計算装置204は、データ(例えば、訓練データセット222A(本明細書に説明されているように作成される)、3D点群データセット222B(例:訓練データセットに含めるための再構成された3D点群および/または計算された3D点群を格納する)、および/または(1つまたは複数の)手術計画アプリケーション222C)を格納するためのデータストレージ装置222を含むことができる。データストレージ装置222は、例えば、メモリ、ローカルハードディスクドライブ、リムーバブル記憶装置、光ディスク、ストレージデバイスとして、および/または、リモートサーバおよび/またはコンピューティングクラウド(例:ネットワーク210を使用してアクセスされる)として、実施することができる。なお、コード222A〜222Cをデータストレージ装置222に格納することができ、この場合に実行部分が、(1つまたは複数の)プロセッサ202によって実行されるようにメモリ206にロードされることに留意されたい。
計算装置204は、ネットワーク210に接続するためのデータインタフェース224(オプションとしてネットワークインタフェース)(例えば、ネットワークインタフェースカード、無線ネットワークに接続するための無線インタフェース、ネットワーク接続用のケーブルに接続するための物理インタフェース、ソフトウェアにおいて実施される仮想インタフェース、ネットワーク接続の上位層を提供するネットワーク通信ソフトウェア、および/または他の実装形態、のうちの1つまたは複数)を含むことができる。計算装置204は、例えば、更新された訓練データセットをダウンロードする、訓練データセットに含める構成要素(例:3D解剖学的画像)をダウンロードする、および/または、コード206A、訓練コード206B、訓練されたニューラルネットワーク206C、および/または手術計画コード222Cの更新されたバージョンをダウンロードする目的で、ネットワーク210を使用して1基または複数のリモートサーバ218にアクセスすることができる。
なお、撮影インタフェース220およびデータインタフェース224は、単一のインタフェース(例:ネットワークインタフェース、1つのソフトウェアインタフェース)として実施する、および/または、2つの独立したインタフェース(ソフトウェアインタフェース(例:APIとして、ネットワークポートとして)および/またはハードウェアインタフェース(例:2つのネットワークインタフェース)など)として実施する、および/または組合せ(例:1つのネットワークインタフェースと、2つのソフトウェアインタフェース、共通の物理インタフェース上の2つの仮想インタフェース、共通のネットワークポート上の仮想ネットワーク)として実施することができることに留意されたい。用語/構成要素「撮影インタフェース220」は、用語「データインタフェース224と相互に置き換えられていることがある。
計算装置204は、ネットワーク210を使用して、または別の通信路を使用して(直接リンク(例:ケーブル、無線)を通じて、および/または間接リンクを通じて(例:サーバなどの中間計算装置を介して、および/または記憶装置を介して)など)、以下の1つまたは複数と通信することができる。
(1つまたは複数の)クライアント端末208(例えば計算装置204が、提供される2D解剖学的画像から、再構成された3D点群を計算するサーバとして機能するとき)。クライアント端末208は、2D解剖学的画像を提供して、計算装置204によって計算される再構成された3D点群を受信することができる。取得した再構成された3D点群は、例えば、クライアント端末のディスプレイ上で(例えば放射線医師が)見るために表示アプリケーション内で提示する、および/または、クライアント端末208にインストールされている手術計画コード222C(および/またはCADなどの他のアプリケーション)に供給することができる。
サーバ218。一実装形態においては、サーバ218は、画像サーバ214(例えばPACSサーバ)として実施される。サーバ218は、新しい2D解剖学的画像が撮影されたときにこれらを格納する、および/または、訓練データセット222Aを作成するために使用される3D解剖学的画像を格納することができる。別の実装形態においては、サーバ218は、画像サーバ214および計算装置204と通信する。サーバ218は、画像サーバ214と計算装置204の間で調整することができ、例えば、サーバ218214から新たに受信された2D解剖学的画像を、再構成された3D点群を計算できるように計算装置204に送信する。さらに別の実装形態においては、サーバ218は、クライアント端末208に関連して説明した1つまたは複数の特徴を実行することができ、例えば、再構成された3D点群を、(1つまたは複数の)手術計画アプリケーション222C(サーバ218にローカルにインストールすることができる)に供給する。
2D解剖学的画像(および/または訓練データセットに含めるための3D解剖学的画像)を格納する解剖学的画像リポジトリ214、および/または、2D解剖学的画像および/または3D解剖学的画像を出力する撮影装置212。
計算装置204および/または(1基または複数の)クライアント端末208および/または(1基または複数の)サーバ218は、ユーザインタフェース226を含む、またはユーザインタフェース226と通信し、ユーザインタフェース226は、使用者がデータを入力する(例:再構成された3D点群を計算させる(1つまたは複数の)対象の解剖学的構造を選択する、実行する手術計画アプリケーションを選択する)、および/または取得された2D画像を見る、および/または再構成された3D点群を見ることができるように設計されている機構を含む。例示的なユーザインタフェース226は、例えば、タッチスクリーン、ディスプレイ、キーボード、マウス、スピーカーおよびマイクロフォンを使用する音声作動ソフトウェア、の1つまたは複数を含む。
再び図1を参照し、102においては、サンプル患者の複数の3D画像を受信する。これらの3D画像は、対象の解剖学的構造、例えば、関節および関連する骨(例えば、股関節、膝関節、肩関節、骨(例:大腿骨)、骨(オプションとして皮質骨)の内面、および/または長骨の髄腔)、を描写している。
3D画像は、例えば、CT装置、MRI装置、超音波装置、核医学撮像装置、および/またはPET CT装置、によって出力することができる。
オプションとして、3D画像は、2次元の連続する2Dスライス(例えば3D CTスキャンボリュームの2Dアキシャルスライス(axial slice))として表現する、および/または格納する、および/または提示することができる。(例えばPACSからの)2Dスライスが利用可能ではないときには、3D画像から2Dスライスを計算する、および/または作成することができる。
本明細書では、3D画像を3Dボリュームと称することがある。
104においては、3D解剖学的画像から点群を抽出する、および/または計算する。各3D解剖学的画像から1つの点群を抽出することができる。各点群は、それぞれの3D解剖学的画像の対象の解剖学的構造を描写している。
各点群は、座標の順序付けられたリストによって表現される。オプションとして、各点群は、頂点の座標順序および頂点の結合によって表現される3Dポリゴンメッシュを表している。特定の形状を、同じリストの多数の並べ替えによって記述することができる。リストの順序は、リストが記述する形状に対して必ずしも意味を持たないが、データベース全体において1つの表現を有する目的で、複数の異なる点群(例:すべての点群)を表現するための1つの順序(任意でよい)を設定する。この設定は、本明細書にさらに詳しく説明されているように、例えば、同じタイプ(例:特定の大腿骨)の選択されたテンプレートの構造を投影し、このテンプレートを他のすべての大腿骨に非剛体式に(in a non-rigid fashion)マッピングすることによって、行うことができる。このプロセスを使用すると、テンプレートは、データセットの大腿骨(例:すべての大腿骨からの任意の大腿骨)の形状を定義し、一定の順序付けを維持する。
オプションとして、各点群は、3D画像の2Dスライスを以下の例示的なプロセスに従って処理することによって、それぞれの3D解剖学的画像から抽出される。すなわち、描写される対象の解剖学的構造の2Dセグメンテーションを、それぞれの3D画像の各2Dスライスにおいて計算する。描写される対象の解剖学的構造の2Dセグメンテーションは、それぞれの2Dスライスから、セグメンテーション畳み込みニューラルネットワーク(2D画像が入力されて、各ピクセルが対象の解剖学的構造を描写している、ピクセルごとの確率を出力する)によって切り出すことができる。セグメンテーションニューラルネットワークは、サンプル患者の3D解剖学的画像の2Dスライス(オプションとして連続する2Dスライス)(例えばアキシャルスライスおよび/または他のビュー)の訓練データセットで訓練することができる。各2Dスライスを、対象の解剖学的構造のセグメンテーションの指示情報によって(例えばポリゴンおよび/または他のセグメンテーションの指示情報を使用して)アノテートする。訓練データセットの2Dスライスのアノテーションは、訓練プロセスにおけるグランドトゥルースを意味する。セグメンテーションは、使用者によって手動でアノテートする、および/または、2D画像を切り出すように訓練されたコードによって自動的にアノテートすることができる。それぞれの3D画像の2Dスライス(オプションとしてすべての2Dスライス)においてセグメンテーションニューラルネットワークによって計算された2Dセグメンテーションを、積層させる。積層された2Dセグメンテーションから、対象の解剖学的構造(オプションとして構造全体)の3D 2値配列を取得する(例:計算する)。オプションとして、例えば、対象の解剖学的構造の3D配列が滑らかである、正確である、および/または適切にスケーリングされているように、作成された3D 2値配列を後処理する。
3D 2値配列から点群を計算する。オプションとして、3D 2値配列からメッシュを計算する。メッシュは、例えばマーチングキューブプロセス(marching cubes process)を使用して、3D点群を作成するために使用することができる。
次に図4を参照し、図4は、本発明のいくつかの実施形態による、3D CTスキャンボリュームからの大腿骨(すなわち対象の解剖学的構造)の自動的なセグメンテーションの概略図である。本明細書に説明されているように、切り出された部分を積層させて3D配列にすることによって、大腿骨がスライスごとに(すなわち3Dボリュームの連続する2D画像から)切り出されている。画像402Aおよび404Aは、生のCTスライスの例を描写している。画像402Bおよび404Bは、対応するそれぞれのスライス402Aおよび404Aのセグメンテーションの結果を描写している。
次に図5を参照し、図5は、本発明のいくつかの実施形態による、CTスキャンボリュームから生成された、切り出された3D大腿骨502およびメッシュのさまざまなビューの概略図である。本明細書に説明されている、大腿骨の自動的な3Dセグメンテーションプロセスと、手動のセグメンテーションとの間で、本発明者らが行った比較では、0.5ミリメートルのRMSEを示した。3D大腿骨は、図4に関連して説明したように、CTボリュームのスライスの2Dセグメンテーションから作成される。
再び図1を参照し、106においては、点群の1つをテンプレートとして選択する。
108においては、3D画像のそれ以外の点群(すなわちテンプレートとして使用されるように選択されなかった点群)それぞれの歪んだテンプレートを、テンプレートに従って計算する。テンプレートは、例えば、ランダムに選択する、最初のテンプレートを選択する、最後のテンプレートを選択する、特定の位置からテンプレートを選択することができる。なお、いずれのテンプレートも適切でありうることに留意されたい。
各それぞれの歪んだテンプレートは、テンプレートを点群それぞれと位置合わせする(オプションとして非剛体位置合わせする)ことによって計算することができる。それぞれの歪んだテンプレートは、それぞれの点群の形状を有し、テンプレートの座標の順序を維持する。計算された歪んだテンプレートは、座標の順序に関して一貫性がある。
例示的な非剛体位置合わせプロセスは、例えば、コヒーレントポイントドリフト、および/または非剛体の反復最近接点を含む。
110においては、対象の解剖学的構造を描写している2D画像を受信する。2D画像は、同じサンプル患者からの、かつ3D解剖学的画像に描写されている同じ対象の解剖学的構造の画像とすることができる。
オプションとして、サンプルの各個人の各対象の解剖学的構造について、1枚または複数の2D画像を受信する。2D画像は、対象の解剖学的構造に対するさまざまな向き(例えば、前後方向(AP)、横方向、さまざまなセンサー傾斜角、および/または他の向き)を描写していることができる。2D画像は、X線写真(または超音波画像など他の画像)を取得するうえでの放射線医学の標準(例えば、腹部の3つのビュー、関節の複数のビューなど)に基づいていることができる。
オプションとして、2D画像は、受信した3D解剖学的画像から作成される2Dエミュレート画像(疑似画像とも称される)、例えば疑似X線写真(放射線写真とも称される)である。これらの2D画像は、対応する3D解剖学的画像の撮影値(例:ピクセル強度値および/またはボクセル強度値)を集積することによって計算することができる。例示的な集積法としては、積分、合計、加重平均、が挙げられる。例えば、エミュレートされた2D解剖学的画像を仮想的に撮影する仮想2Dセンサーの向きに対応する方向に沿って、ピクセル強度値および/またはボクセル強度値を集積する。概念的には、3Dボリュームを軸に沿って2D領域に「圧縮」して、所望の平面における2D画像を得る。
オプションとして、エミュレートされた2D解剖学的画像は、患者に関連する事前定義される向きにおけるX線源およびX線センサーアレイによって撮影される対象の2D X線画像に相当するように計算する。例えば、3Dボリューム(例:CTスキャン)から計算されるエミュレートされた画像は、X線装置によって撮影される2D X線画像に統計的に類似する。
例えば、疑似X線写真は、CTスキャナーによって生成されたCTボリュームから生成され、CTボリュームのデジタルレベルを、仮想X線源から仮想X線センサーアレイのピクセルに照射される放射線によって定義される方向に沿って積分することによる。
エミュレートされた2D画像(例:疑似放射線写真)を3D画像から生成するプロセスによって、実際の放射線写真のように見えるエミュレートされた2D画像が作成される。例えば、要件の範囲内で統計的に類似している、および/または、どちらの2D画像が実際の元の2D画像で、どちらがエミュレートされた2D画像かを使用者は区別するのが難しい、または区別することができない。さらには、X線源と患者とセンサーのさまざまな配置、および/またはさまざまなセンサー解像度、および/またはさまざまなセンサーピッチにおけるエミュレートされた2D画像を、生成することができる。
これに代えて、またはこれに加えて、対応する3D解剖学的画像に描写されている対象の解剖学的構造を描写している2D解剖学的画像が、2D撮影装置によって撮影される。例えば、3D CTスキャン中に、X線撮影装置によって2D X線画像も撮影する。
オプションとして、2Dエミュレート画像は、実世界の2D撮影装置(例:X線装置、超音波装置)によって撮影されうる撮影平面(例えば前後方向(AP)、横方向、他の標準的な向き(軸方向および/または超音波装置によって得られる他の平面))における2D画像を作成するように、計算する。
112において、歪んだテンプレートおよび対応する2D画像(オプションとしてエミュレートされた2D画像)から訓練データセットを作成する。
複数の訓練データセットを作成することができ、例えば、各訓練データセットがそれぞれのニューラルネットワークの訓練用である。訓練データセットは、例えば、対象の解剖学的構造(例:大腿骨、背骨の脊椎骨、股関節)に従って、および/または2D画像を出力する撮像モダリティ(例えばX線、超音波)に従って、作成することができる。
訓練データセットは、一貫性を維持して表現されている、さまざまなサイズおよび/または形状の3D点群モデルを含むことができる。
114においては、ニューラルネットワークを訓練データセットに従って訓練する。歪んだテンプレートは、グランドトゥルースに相当する。2D画像(オプションとしてエミュレートされた2D画像)は、入力に相当する。ニューラルネットワークに供給された1枚または複数の2D解剖学的画像を、ニューラルネットワークの3D点群出力マッピングするように、ニューラルネットワークを訓練する。
訓練データセットの3D点群は、ニューラルネットワークを訓練するときにターゲットおよび/またはグランドトゥルースの役割を果たす。グランドトゥルースの3D点群モデルと、ニューラルネットワークの予測との間の差異から損失項がもたらされ、これを訓練過程によって最小化する。
複数のニューラルネットワークを、それぞれの訓練データセットに従って訓練することができる。
いくつかの実装形態においては、ニューラルネットワークを、符号器−復号器として表すことができる。入力される(1枚または複数の)2D画像を、3Dオブジェクトの形状予測に必要な情報を保持する一連の特徴に分解し、これらの特徴は、ニューラルネットワークの符号化部分を表す。ニューラルネットワークの第2の部分は、復号器として表すことができる。第2の部分は、2D画像から符号器によって抽出された特徴ベクトルを受け取り、その特徴ベクトルを完全な3Dモデルに変換する。訓練時、ネットワークに2D画像(例:疑似画像、オプションとして(1枚または複数の)放射線写真)を入力し、ネットワークがオブジェクトの3D構造を出力する(例:予測する)。予測された構造とグランドトゥルースの特徴から、誤差(損失とも称される)項を計算する。訓練時、ネットワークは、この損失項が減少するように自身の内部パラメータを徐々に変化させていき、予測されるオブジェクトの3D構造がグランドトゥルースの構造に次第に似ていく。ニューラルネットワークが訓練された時点で、そのニューラルネットワークを使用し、まだ訓練されていない新しい2D画像(例:放射線写真)に基づいて、オブジェクトの3D形状を出力する(例:予測する)。ニューラルネットワークに2D画像(例:(1枚または複数の)放射線写真)を入力し、ニューラルネットワークが、それら(1枚または複数の)2D放射線写真に描写されている3D解剖学的構造の座標を出力する。
次に図6を参照し、図6は、本発明のいくつかの実施形態による、2枚の2D解剖学的画像を3D点群にマッピングするためのニューラルネットワークの例示的なアーキテクチャを描いた図である。2枚の2D画像は、X線画像とすることができる。2枚の2D画像は、対象の解剖学的構造の異なるビュー(例えば前後方向(AP)のビューおよび横方向のビュー)とすることができる。
再び図1を参照し、116においては、訓練されたニューラルネットワークを提供する。訓練されたニューラルネットワークは、例えば、(1枚または複数の)2D画像に応えて3D点群を出力する要求を処理するサーバに格納する、および/または、3D点群をローカルに計算する遠隔のクライアント端末に転送する、および/または、ストレージ装置に格納することができる。
再び図3を参照し、302においては、例えば、対象の解剖学的構造に従って、および/または、ニューラルネットワークに入力される(1枚または複数の)2D画像を出力する撮像モダリティ装置(例:X線、超音波)に従って、1つまたは複数の訓練されたニューラルネットワークを提供する、および/または、(例えば図1を参照しながら説明したように)ニューラルネットワークを訓練する。
ニューラルネットワークは、本明細書に説明されているように、歪んだテンプレートおよび対応する2D画像の訓練データセットに従って訓練する。歪んだテンプレートは、3D解剖学的画像から抽出される点群から作成することができる。各点群は、座標の順序付けられたリストによって表現される。点群の1つをテンプレートとして選択する。このテンプレートを、他の(すなわち選択されていない)点群それぞれと非剛体位置合わせして、それぞれの歪んだテンプレートを計算することができる。各歪んだテンプレートは、それぞれの点群の形状を有し、テンプレートの座標の順序を維持する。歪んだテンプレートは、座標の順序に関して一貫性がある。
304においては、対象患者の対象の解剖学的構造を描写している1枚または複数の2D解剖学的画像を取得する。2D解剖学的画像は、放射線医学の標準および/または臨床標準に基づいて取得することができる。例えば、(1枚または複数の)2D解剖学的画像は、X線装置によって出力された(1枚または複数の)X線画像であり、例えば、(例:胸部、大腿部の)前後方向(AP)および横方向のビュー、腹部の3つのビュー、関節の2つ以上のビューである。別の例においては、2D解剖学的画像は超音波画像であり、例えば、さまざまな器官の軸方向の平面または別のビュー(肝臓の複数の異なる平面など)である。
306においては、(1枚または複数の)2D解剖学的画像をニューラルネットワークに入力する。
308においては、本明細書に説明されているように、訓練されたニューラルネットワークによって、対象の解剖学的構造の再構成された3D点群モデルを出力する。
オプションとして、対象の解剖学的構造の再構成された3D点群モデルは、対象の解剖学的構造の内側表面(例えば、内腔および/または管腔の内面)を描写している。例えば、対象の解剖学的構造が長骨であるとき、再構成された3D点群に描写されている内側表面は、長骨の髄腔の内面とすることができる。別の例においては、対象の解剖学的構造が膀胱であるとき、内側表面は膀胱の内面である。
310においては、再構成された3D画像のピクセル単位および/またはボクセル単位をミリメートル(または実世界の別の測度)に変換するための変換パラメータを計算することができる。
以下は、変換パラメータを計算するための例示的なプロセスである。すなわち、再構成された3Dモデルを、(再構成された3D画像を出力したニューラルネットワークに入力された)2D画像の平面上に投影するための投影を計算する。2D解剖学的画像は、既知の寸法を有する較正オブジェクト(例えば、既知の直径を有する鋼製の球)の描写を含む。較正オブジェクトは、2D画像上に明瞭に見えるように選択することができる(例えば、X線写真に現れるように放射線を透過させない物質からなるオブジェクト)。投影のスケールパラメータを計算する。再構成された3Dモデルを、このスケールパラメータに従って元の任意の単位からピクセル単位および/またはボクセル単位にスケーリングする。ピクセル単位および/またはボクセル単位からミリメートル(または実世界の別の物理的測度(センチメートルなど))に変換するための変換パラメータを、2D解剖学的画像に描写されている較正オブジェクトに従って計算する。再構成された3D画像のピクセル単位および/またはボクセル単位を、計算された変換パラメータに従ってミリメートルに変換することができる。
次に図7を参照し、図7は、本発明のいくつかの実施形態による、大腿骨708(すなわち対象の解剖学的構造)に配置された較正オブジェクト706(鋼製の球として実施されている)の使用を描いた2D X線画像702,704であり、この場合、大腿骨708の再構成された3D点群710のサイズを任意の単位から実世界のサイズに変換するために、較正オブジェクトが自動的に検出および測定される。再構成された3D点群710が、2D X線画像704内の2D大腿骨708上に投影されて示されている。較正オブジェクト706は、2D X線画像702内に外形712によって表されているように、自動的に検出される。
再び図3を参照し、312においては、患者の対象の解剖学的構造の外科治療を、対象の解剖学的構造の再構成された3D点群モデルに従って計画することができる。
対象の解剖学的構造の再構成された3D点群モデルに従って計画される、患者の例示的な外科治療は、関節置換人工装具および/または骨折修復埋め込み器具(例:ねじ、ネイル、髄内釘)を選択するステップを含む。外科治療を計画する別の例は、補綴装置および/または骨折修復埋め込み器具を配置する場所(例えば骨折を軽減する目的でネイルをどのように挿入するか)を、3D点群の分析に基づいて決定することである。
患者の外科治療のための部品は、3D点群モデルによって描写されている骨(および/または他の構造)の(1つまたは複数の)寸法に従って(オプションとして、ミリメートルへの計算された変換に基づいて)、サイズ決定する、および/または選択することができる。例えば、患者を治療するための髄内釘のサイズ、ねじのサイズ、および/または人工関節のサイズである。
オプションとして、例えば手術シミュレーションアプリケーションを用いて、3D点群モデルを使用して外科的処置をシミュレートすることによって、患者の外科治療を、対象の解剖学的構造の再構成された3D点群モデルに従って計画する。
別の例においては、使用者は、表示アプリケーションにおいて3D点群を見ることができる。使用者は、3D点群を手動で操作する(例えば測定を行う、および/または見る向きを変更する)ことができる。
314においては、3D点群モデルに基づいた計画に従って患者を治療する(例えば、計画された手術に従って選択された、および/または挿入された補綴装置もしくは骨折修復埋め込み器具またはその両方を使用する)。
ここまで本発明のさまざまな実施形態を、実例を目的として説明してきたが、上記の説明は、すべてを網羅する、または開示される実施形態に限定されることを意図するものではない。この技術分野における通常の技術を有する者には、説明した実施形態の範囲および趣旨から逸脱することなく、多数の修正形態および変形形態が明らかであろう。本明細書において使用されている専門用語は、実施形態の原理、実際の用途、または市場に存在する技術に優る技術的改善を最良に説明するために、あるいは、この技術分野における通常の技術を有する者が、本明細書に開示されている実施形態を理解することができるように、選択されている。
本出願から発生する特許権の存続期間中、数多くの関連する3D解剖学的画像が開発されることが予測されるが、用語「3D解剖学的画像」の範囲は、このような新規の技術すべてを含むものとする。
本明細書で使用する「約」は、±10%を指す。
用語「含む(comprises)」、「含む(comprising)」、「含む(includes)」、「含む(including)」、「有する(having)」およびその活用形は、「限定されるものではないが、含む(including but not limited to)」を意味する。この語は、語「〜からなる」および「本質的に〜からなる」を包含する。
「本質的に〜からなる」という表現は、組成物または方法が、追加の成分および/または追加のステップを含んでもよく、ただし、それら追加の成分および/または追加のステップが、特許請求の範囲に記載されている組成物または方法の基本的かつ新規の特徴を実質的に変化させない場合に限られることを意味する。
本明細書において、単数形を表す「a」、「an」および「the」は、文脈が明らかに他を示さない限り、複数をも対象とする。例えば、「化合物(a compound)」または「少なくとも1種の化合物」には、複数の化合物が含まれ、それらの混合物をも含み得る。
語「例示的な」は、本明細書においては、「例、一例、または説明としての役割を果たす」を意味する目的で使用されている。「例示的な」として説明されている実施形態は、必ずしも他の実施形態よりも好ましい、または有利であるとは解釈されないものとする、および/または、他の実施形態の特徴を組み込むことが排除されないものとする。
語「オプションとして」は、本明細書においては、「いくつかの実施形態において設けられ、他の実施形態では設けられない」を意味する目的で使用されている。本発明のいずれの実施形態も、互いに矛盾しない限りは複数の「オプションの」特徴を含むことができる。
本願全体を通して、本発明のさまざまな実施形態は、範囲形式にて示され得る。範囲形式での記載は、単に利便性および簡潔さのためであり、本発明の範囲の柔軟性を欠く制限ではないことを理解されたい。したがって、範囲の記載は、可能な下位の範囲の全部、およびその範囲内の個々の数値を特異的に開示していると考えるべきである。例えば、1〜6といった範囲の記載は、1〜3、1〜4、1〜5、2〜4、2〜6、3〜6等の部分範囲のみならず、その範囲内の個々の数値、例えば1、2、3、4、5および6も具体的に開示するものとする。これは、範囲の大きさに関わらず適用される。
本明細書において数値範囲を示す場合、それは常に示す範囲内の任意の引用数(分数または整数)を含むことを意図する。第1の指示数と第2の指示数「との間の範囲」という表現と、第1の指示数「から」第2の指示数「までの範囲」という表現は、本明細書で代替可能に使用され、第1の指示数および第2の指示数と、それらの間の分数および整数の全部を含むことを意図する。
明確さのために別個の実施形態に関連して記載した本発明の所定の特徴はまた、1つの実施形態において、これら特徴を組み合わせて提供され得ることを理解されたい。逆に、簡潔さのために1つの実施形態に関連して記載した本発明の複数の特徴はまた、別々に、または任意の好適な部分的な組合せ、または適当な他の記載された実施形態に対しても提供され得る。さまざまな実施形態に関連して記載される所定の特徴は、その要素なしでは特定の実施形態が動作不能でない限り、その実施形態の必須要件であると捉えてはならない。
本発明をその特定の実施形態との関連で説明したが、多数の代替、修正および変種が当業者には明らかであろう。したがって、そのような代替、修正および変種の全ては、添付の特許請求の範囲の趣旨および広い範囲内に含まれることを意図するものである。
本明細書で言及した全ての刊行物、特許および特許出願は、個々の刊行物、特許および特許出願のそれぞれについて具体的且つ個別の参照により本明細書に組み込む場合と同程度に、それらの全体が参照により本明細書に組み込まれる。加えて、本願におけるいかなる参考文献の引用または特定は、このような参考文献が本発明の先行技術として使用できることの容認として解釈されるべきではない。また、各節の表題が使用される範囲において、必ずしも限定として解釈されるべきではない。さらに、本出願の任意の(1つまたは複数の)優先権書類は、その全体が参照により本明細書に組み込まれている。
Claims (21)
- 少なくとも1枚の2D画像から3D点群を再構成するようにニューラルネットワークを訓練する方法であって、
対象の解剖学的構造を描写している複数の3D解剖学的画像から、それぞれが座標の順序付けられたリストによって表現される複数の点群、を抽出するステップと、
前記複数の点群の1つをテンプレートとして選択するステップと、
前記テンプレートを前記複数の点群のそれぞれと非剛体位置合わせし、それぞれの前記点群の形状を有しかつ前記テンプレートの座標の順序を維持するそれぞれの歪んだテンプレートを計算するステップであって、前記複数の歪んだテンプレートが、座標の順序に関して一貫性がある、ステップと、
対応する3D解剖学的画像に描写されている前記対象の解剖学的構造を描写している複数の2D解剖学的画像を受信するステップと、
少なくとも1枚の2D解剖学的画像を3D点群にマッピングするように、前記歪んだテンプレートおよび対応する2D画像の訓練データセットに従って、ニューラルネットワークを訓練するステップと、
を含む、方法。 - 前記複数の2D解剖学的画像が、前記対応する3D解剖学的画像のそれぞれから計算される複数のエミュレートされた2D解剖学的画像を含み、前記複数のエミュレートされた2D解剖学的画像が、前記エミュレートされた2D解剖学的画像を仮想的に撮影する仮想2Dセンサーの向きに対応する方向に沿って、前記対応する3D解剖学的画像の撮影値を集積することによって計算される、請求項1に記載の方法。
- 前記複数のエミュレートされた2D解剖学的画像が、患者に関連する事前定義される向きにおけるX線源およびX線センサーアレイによって撮影される対象の2D−X線画像に相当するように計算される、請求項2に記載の方法。
- 前記複数の3D解剖学的画像から抽出される前記複数の点群のそれぞれが、頂点の座標順序および頂点の結合によって表現される3Dポリゴンメッシュを表している、請求項1に記載の方法。
- 前記複数の点群の各点群が、
それぞれの前記3D解剖学的画像の複数の2Dスライスの各2Dスライスにおいて、前記描写されている対象の解剖学的構造の2Dセグメンテーションを計算するステップと、
前記複数の2Dスライスにおいて計算された前記複数の2Dセグメンテーションを積層させるステップと、
前記積層された複数の2Dセグメンテーションから、前記対象の解剖学的構造の3D−2値配列を取得するステップと、
前記3D−2値配列から前記点群を計算するステップと、
によって、前記複数の3D解剖学的画像のそれぞれの3D解剖学的画像から抽出される、
請求項1に記載の方法。 - 前記描写されている対象の解剖学的構造の前記2Dセグメンテーションが、それぞれのピクセルが前記対象の解剖学的構造を描写している、ピクセルごとの確率を計算するセグメンテーションニューラルネットワークによって、それぞれの前記2Dスライスから切り出され、前記セグメンテーションニューラルネットワークが、複数のサンプル患者の複数の3D解剖学的画像それぞれの複数の2Dスライスの訓練データセットで訓練されており、各2Dスライスが、前記対象の解剖学的構造のセグメンテーションの指示情報によってアノテートされている、請求項5に記載の方法。
- 前記非剛体位置合わせが、コヒーレントポイントドリフトおよび非剛体の反復最近接点から選択される非剛体位置合わせプロセスに従って、実行される、請求項1に記載の方法。
- 前記対象の解剖学的構造が、股関節、膝関節、および肩関節からなる群から選択される、関節および関連する骨、を含む、請求項1に記載の方法。
- 前記対象の解剖学的構造が、骨を含む、請求項1に記載の方法。
- 前記対象の解剖学的構造が、大腿骨を含む、請求項9に記載の方法。
- 前記対象の解剖学的構造が、骨の内面を含む、請求項1に記載の方法。
- 前記内面が、皮質骨の内面を含む、請求項11に記載の方法。
- 前記内面が、長骨の髄腔の内面である、請求項11に記載の方法。
- 患者の対象の解剖学的構造の外科治療の方法であって、
対象患者の対象の解剖学的構造を描写している2D解剖学的画像を取得するステップと、
複数の歪んだテンプレートおよび対応する2D画像の訓練データセットに従って訓練された訓練済みニューラルネットワークに、前記2D解剖学的画像を入力するステップであって、
前記複数の歪んだテンプレートが、複数の3D解剖学的画像から抽出される複数の点群から作成され、各点群が、座標の順序付けられたリストによって表現され、前記複数の点群の1つがテンプレートとして選択され、前記テンプレートが前記複数の点群のそれぞれと非剛体位置合わせされて、それぞれがそれぞれの前記点群の形状を有しかつ前記テンプレートの座標の順序を維持する前記複数の歪んだテンプレートが計算され、前記複数の歪んだテンプレートが、座標の順序に関して一貫性がある、ステップと、
前記訓練済みニューラルネットワークによって、前記対象の解剖学的構造の再構成された3D点群モデルを出力するステップであって、
前記患者の前記対象の解剖学的構造の外科治療が、前記対象の解剖学的構造の前記再構成された3D点群モデルに従って計画される、ステップと、
を含む、方法。 - 前記対象の解剖学的構造の前記再構成された3D点群モデルが、前記対象の解剖学的構造の内側表面を含む、請求項14に記載の方法。
- 前記対象の解剖学的構造が、長骨を含み、前記再構成された3D点群に描写されている前記内側表面が、前記長骨の髄腔の内面を含む、請求項15に記載の方法。
- 前記2D解剖学的画像が、X線画像を含む、請求項14に記載の方法。
- 前記再構成された3Dモデルを前記2D画像の平面上に投影するための投影を計算するステップであって、前記2D解剖学的画像が、既知の寸法を有する較正オブジェクトの描写を含む、ステップと、
前記投影のスケールパラメータを計算するステップと、
前記再構成された3Dモデルを、前記スケールパラメータに従って元の任意の単位からピクセル単位にスケーリングするステップと、
ピクセル単位からミリメートルに変換するための変換パラメータを、前記2D解剖学的画像に描写されている前記較正オブジェクトに従って計算するステップと、
前記再構成された3D画像の前記ピクセル単位を、前記計算された変換パラメータに従ってミリメートルに変換するステップと、
をさらに含む、請求項14に記載の方法。 - 前記対象の解剖学的領域が、少なくとも1つの骨を含み、前記対象の解剖学的構造の前記再構成された3D点群モデルに従って計画される前記患者の外科治療が、前記3D点群モデルによって描写されている前記少なくとも1つの骨の少なくとも1つの寸法に従って、関節置換人工装具および骨折修復埋め込み器具の少なくとも一方を選択するステップを含む、請求項14に記載の方法。
- 前記対象の解剖学的構造の前記再構成された3D点群モデルに従って計画される前記患者の外科治療が、前記3D点群モデルを使用して外科的処置をシミュレートするステップを含む、請求項14に記載の方法。
- 2D画像から3D点群を再構成するようにニューラルネットワークを訓練するシステムであって、
少なくとも1つのハードウェアプロセッサであって、以下、すなわち、
対象の解剖学的構造を描写している複数の3D解剖学的画像から、それぞれが座標の順序付けられたリストによって表現される複数の点群を抽出するステップと、
前記複数の点群の1つをテンプレートとして選択するステップと、
前記テンプレートを前記複数の点群のそれぞれと非剛体位置合わせして、それぞれの前記点群の形状を有しかつ前記テンプレートの座標の順序を維持するそれぞれの歪んだテンプレートを計算するステップであって、前記複数の歪んだテンプレートが、座標の順序に関して一貫性がある、ステップと、
対応する3D解剖学的画像に描写されている前記対象の解剖学的構造を描写している複数の2D解剖学的画像を受信するステップと、
少なくとも1枚の2D解剖学的画像を3D点群にマッピングするように、前記歪んだテンプレートおよび対応する2D画像の訓練データセットに従って、ニューラルネットワークを訓練するステップ、
のためのコード、を実行する、前記少なくとも1つのハードウェアプロセッサ、
を備えている、
システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/387,599 US10867436B2 (en) | 2019-04-18 | 2019-04-18 | Systems and methods for reconstruction of 3D anatomical images from 2D anatomical images |
US16/387,599 | 2019-04-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020175184A true JP2020175184A (ja) | 2020-10-29 |
Family
ID=69845894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020048121A Pending JP2020175184A (ja) | 2019-04-18 | 2020-03-18 | 2d解剖学的画像から3d解剖学的画像を再構成するシステムおよび方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10867436B2 (ja) |
EP (1) | EP3726467B1 (ja) |
JP (1) | JP2020175184A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3984758A1 (en) | 2020-10-19 | 2022-04-20 | Seiko Epson Corporation | 3d object print apparatus and method |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114376588A (zh) | 2016-03-13 | 2022-04-22 | 乌泽医疗有限公司 | 用于与骨骼手术一起使用的设备及方法 |
EP3503030A1 (en) * | 2017-12-22 | 2019-06-26 | The Provost, Fellows, Foundation Scholars, & the other members of Board, of the College of the Holy & Undiv. Trinity of Queen Elizabeth, | Method and apparatus for generating a three-dimensional model |
US11636650B2 (en) | 2018-09-24 | 2023-04-25 | K2M, Inc. | System and method for isolating anatomical features in computerized tomography data |
US10997466B2 (en) * | 2019-06-21 | 2021-05-04 | Straxciro Pty. Ltd. | Method and system for image segmentation and identification |
KR20210030147A (ko) * | 2019-09-09 | 2021-03-17 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
US20210133990A1 (en) * | 2019-11-05 | 2021-05-06 | Nvidia Corporation | Image aligning neural network |
US11803969B2 (en) | 2020-05-20 | 2023-10-31 | DePuy Synthes Products, Inc. | Intraoperative imaging and virtual modeling methods, systems, and instrumentalities for fracture reduction |
WO2022096105A1 (en) * | 2020-11-05 | 2022-05-12 | Huawei Technologies Co., Ltd. | 3d tongue reconstruction from single images |
CN112529849B (zh) * | 2020-11-27 | 2024-01-19 | 北京深睿博联科技有限责任公司 | 一种ct肋骨自动计数方法及装置 |
CN112802194B (zh) * | 2021-03-31 | 2023-09-19 | 电子科技大学 | 一种基于点云数据的核设施高精度重构方法 |
WO2022229816A1 (en) * | 2021-04-25 | 2022-11-03 | Rsip Vision Ltd. | 3d reconstruction of anatomical images |
CN113191973B (zh) * | 2021-04-29 | 2023-09-01 | 西北大学 | 一种基于无监督网络框架的文物点云数据去噪方法 |
CN113744181B (zh) * | 2021-07-12 | 2023-06-23 | 广东工业大学 | 基于2d3d视觉融合的五金件机器人智能化打磨方法与装置 |
WO2023004489A1 (en) * | 2021-07-30 | 2023-02-02 | Ventripoint Diagnostics Ltd. | System, method and/or computer-readable medium for mapping and displaying anatomical structures in a user-friendly manner |
CN113436211B (zh) * | 2021-08-03 | 2022-07-15 | 天津大学 | 一种基于深度学习的医学图像活动轮廓分割方法 |
CN113706710B (zh) * | 2021-08-11 | 2024-03-08 | 武汉大学 | 基于fpfh特征差异的虚拟点多源点云融合方法及系统 |
US11308627B1 (en) | 2021-09-17 | 2022-04-19 | King Abdulaziz University | Method for 3D ultrasound reconstruction of supraspinatus (SSP) tendon |
CN113975661B (zh) * | 2021-11-16 | 2024-03-01 | 神州医疗科技股份有限公司 | 一种监控治疗设备的质控方法、装置、系统及存储介质 |
US20230190139A1 (en) * | 2021-12-21 | 2023-06-22 | Stryker Corporation | Systems and methods for image-based analysis of anatomical features |
CN114255296B (zh) * | 2021-12-23 | 2024-04-26 | 北京航空航天大学 | 基于单幅x射线影像的ct影像重建方法及装置 |
US20230215059A1 (en) * | 2021-12-31 | 2023-07-06 | Auris Health, Inc. | Three-dimensional model reconstruction |
US20230281869A1 (en) * | 2022-02-03 | 2023-09-07 | Medtronic Navigation, Inc. | Systems, methods, and devices for reconstructing a three-dimensional representation |
EP4239581A1 (en) | 2022-03-04 | 2023-09-06 | Peek Health, S.A. | Generation of 3d models of anatomical structures from 2d radiographs |
EP4276765A1 (en) * | 2022-05-11 | 2023-11-15 | DENTSPLY SIRONA Inc. | Method to correct scale of dental impressions |
WO2023239613A1 (en) * | 2022-06-09 | 2023-12-14 | Howmedica Osteonics Corp. | Automated prediction of surgical guides using point clouds |
WO2023239611A1 (en) * | 2022-06-09 | 2023-12-14 | Howmedica Osteonics Corp. | Prediction of bone based on point cloud |
WO2024069627A1 (en) | 2022-09-28 | 2024-04-04 | Vuze Medical Ltd. | Apparatus for use with image-guided skeletal procedures |
CN117420917B (zh) * | 2023-12-19 | 2024-03-08 | 烟台大学 | 基于手部骨架的虚拟现实控制方法、系统、设备及介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6648640B2 (en) * | 1999-11-30 | 2003-11-18 | Ora Metrix, Inc. | Interactive orthodontic care system based on intra-oral scanning of teeth |
US9135502B2 (en) * | 2009-05-11 | 2015-09-15 | Universitat Zu Lubeck | Method for the real-time-capable, computer-assisted analysis of an image sequence containing a variable pose |
US20130144135A1 (en) * | 2011-08-02 | 2013-06-06 | Mohamed R. Mahfouz | Method and apparatus for three dimensional reconstruction of a joint using ultrasound |
CA2845044C (en) * | 2011-08-12 | 2023-03-28 | Jointvue, Llc | 3-d ultrasound imaging device and methods |
US11510600B2 (en) * | 2012-01-04 | 2022-11-29 | The Trustees Of Dartmouth College | Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance |
US20140336461A1 (en) * | 2012-04-25 | 2014-11-13 | The Trustees Of Columbia University In The City Of New York | Surgical structured light system |
US20140379356A1 (en) * | 2013-06-20 | 2014-12-25 | Rohit Sachdeva | Method and system for integrated orthodontic treatment planning using unified workstation |
US11426281B2 (en) * | 2013-10-15 | 2022-08-30 | Mohamed Rashwan Mahfouz | Bone reconstruction and orthopedic implants |
US10463242B2 (en) * | 2014-07-09 | 2019-11-05 | Acclarent, Inc. | Guidewire navigation for sinuplasty |
WO2016127173A1 (en) * | 2015-02-06 | 2016-08-11 | The University Of Akron | Optical imaging system and methods thereof |
US20180189966A1 (en) * | 2015-05-07 | 2018-07-05 | Siemens Aktiengesellschaft | System and method for guidance of laparoscopic surgical procedures through anatomical model augmentation |
JP2018530045A (ja) * | 2015-08-14 | 2018-10-11 | トムソン ライセンシングThomson Licensing | 一連のイメージからのオブジェクトの3d再構成のための方法、一連のイメージからのオブジェクトの3d再構成を実行するように構成されたコンピュータ読取可能記憶媒体及び装置 |
US10032310B2 (en) * | 2016-08-22 | 2018-07-24 | Pointivo, Inc. | Methods and systems for wireframes of a structure or element of interest and wireframes generated therefrom |
US10888399B2 (en) * | 2016-12-16 | 2021-01-12 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
US20180330496A1 (en) * | 2017-05-11 | 2018-11-15 | Siemens Healthcare Gmbh | Generation Of Personalized Surface Data |
US10507002B2 (en) * | 2017-05-23 | 2019-12-17 | Siemens Healthcare Gmbh | X-ray system and method for standing subject |
US10575907B2 (en) * | 2017-06-21 | 2020-03-03 | Biosense Webster (Israel) Ltd. | Registration with trajectory information with shape sensing |
US10952705B2 (en) * | 2018-01-03 | 2021-03-23 | General Electric Company | Method and system for creating and utilizing a patient-specific organ model from ultrasound image data |
US11197799B2 (en) * | 2018-10-17 | 2021-12-14 | Midea Group Co., Ltd. | System and method for generating pressure point maps based on remote-controlled haptic-interactions |
US20200194117A1 (en) * | 2018-12-13 | 2020-06-18 | University Of Maryland, College Park | Systems, methods, and media for remote trauma assessment |
US10733745B2 (en) * | 2019-01-07 | 2020-08-04 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for deriving a three-dimensional (3D) textured surface from endoscopic video |
US10861165B2 (en) * | 2019-01-11 | 2020-12-08 | Microsoft Technology Licensing, Llc | Subject tracking with aliased time-of-flight data |
CA3131069A1 (en) * | 2019-04-04 | 2020-10-08 | Centerline Biomedical, Inc. | Modeling regions of interest of an anatomic structure |
US11288857B2 (en) * | 2019-04-04 | 2022-03-29 | Google Llc | Neural rerendering from 3D models |
-
2019
- 2019-04-18 US US16/387,599 patent/US10867436B2/en active Active
-
2020
- 2020-03-18 JP JP2020048121A patent/JP2020175184A/ja active Pending
- 2020-03-18 EP EP20163846.7A patent/EP3726467B1/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3984758A1 (en) | 2020-10-19 | 2022-04-20 | Seiko Epson Corporation | 3d object print apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
EP3726467B1 (en) | 2021-10-27 |
US20200334897A1 (en) | 2020-10-22 |
EP3726467A1 (en) | 2020-10-21 |
US10867436B2 (en) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020175184A (ja) | 2d解剖学的画像から3d解剖学的画像を再構成するシステムおよび方法 | |
US10217217B2 (en) | Systems and methods for obtaining 3-D images from X-ray information | |
CN108765417B (zh) | 一种基于深度学习和数字重建放射影像的股骨x线片生成系统及方法 | |
Amorim et al. | InVesalius: an interactive rendering framework for health care support | |
US20210012492A1 (en) | Systems and methods for obtaining 3-d images from x-ray information for deformed elongate bones | |
Maken et al. | 2D-to-3D: a review for computational 3D image reconstruction from X-ray images | |
Karade et al. | 3D femur model reconstruction from biplane X-ray images: a novel method based on Laplacian surface deformation | |
US20210007806A1 (en) | A method for obtaining 3-d deformity correction for bones | |
JP2020025786A (ja) | 画像処理装置、方法及びプログラム | |
CN107752979B (zh) | 人工投影的自动生成方法、介质和投影图像确定装置 | |
US20180064409A1 (en) | Simultaneously displaying medical images | |
US20230260129A1 (en) | Constrained object correction for a segmented image | |
WO2019180746A1 (en) | A method for obtaining 3-d deformity correction for bones | |
Izard et al. | NextMed: How to enhance 3D radiological images with Augmented and Virtual Reality | |
CN108366778B (zh) | 移动解剖体和设备的多视图、多源配准 | |
WO2019180747A1 (en) | Systems and methods for obtaining patient specific instrument designs | |
WO2022229816A1 (en) | 3d reconstruction of anatomical images | |
Balashova et al. | 3D organ shape reconstruction from Topogram images | |
Zeng et al. | Low‐dose three‐dimensional reconstruction of the femur with unit free‐form deformation | |
US10832423B1 (en) | Optimizing an atlas | |
Koutkalaki et al. | Towards a foot bio-model for performing finite element analysis for footwear design optimization using a cloud infrastructure | |
US20240185509A1 (en) | 3d reconstruction of anatomical images | |
EP4216163A1 (en) | Method and device for segmentation and registration of an anatomical structure | |
EP4246451A1 (en) | Method for modelling a joint | |
US20230237711A1 (en) | Augmenting a medical image with an intelligent ruler |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201014 |