TW202145961A - 脊椎壓迫性骨折偵測方法與系統 - Google Patents
脊椎壓迫性骨折偵測方法與系統 Download PDFInfo
- Publication number
- TW202145961A TW202145961A TW109119248A TW109119248A TW202145961A TW 202145961 A TW202145961 A TW 202145961A TW 109119248 A TW109119248 A TW 109119248A TW 109119248 A TW109119248 A TW 109119248A TW 202145961 A TW202145961 A TW 202145961A
- Authority
- TW
- Taiwan
- Prior art keywords
- vertebral
- vertebral body
- image
- compression fracture
- human
- Prior art date
Links
- 206010010214 Compression fracture Diseases 0.000 title claims abstract description 96
- 238000001514 detection method Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000013135 deep learning Methods 0.000 claims description 63
- 238000012549 training Methods 0.000 claims description 50
- 238000012937 correction Methods 0.000 claims description 28
- 238000002591 computed tomography Methods 0.000 claims description 18
- 206010041541 Spinal compression fracture Diseases 0.000 claims description 16
- 238000013145 classification model Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 9
- 208000010392 Bone Fractures Diseases 0.000 claims description 7
- 206010017076 Fracture Diseases 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 5
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 24
- 238000012360 testing method Methods 0.000 description 6
- 206010020100 Hip fracture Diseases 0.000 description 5
- 238000003759 clinical diagnosis Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000007943 implant Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004197 pelvis Anatomy 0.000 description 2
- 206010041569 spinal fracture Diseases 0.000 description 2
- 210000000115 thoracic cavity Anatomy 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 208000001132 Osteoporosis Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 210000000683 abdominal cavity Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
- A61B6/468—Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/505—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- General Physics & Mathematics (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Pulmonology (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本發明揭露一種脊椎壓迫性骨折偵測方法與系統,該方法包括以下步驟:將複數幀人體橫狀切面影像重組為一人體三維影像;利用一多平面重建法將該人體三維影像以矢狀切面切分,取得至少一幀人體矢狀切面影像;利用一分類篩選方法判斷該人體矢狀切面影像是否為脊椎椎體中段影像;利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體;利用一椎體標記方法,將該人體矢狀切面影像中已描繪出的該各節椎體標記出椎體特徵點;評估該人體矢狀切面影像中的該各節椎體之壓迫性骨折程度。
Description
本發明係關於一種脊椎壓迫性骨折偵測方法與系統,特別係關於以人體橫狀切面影像為輸入,將該等影像進行重組、多平面重建、分類篩選、椎體偵測、椎體標記等步驟,然後依據椎體標記之結果評估壓迫性骨折程度之一種脊椎壓迫性骨折偵測方法與系統。
近年隨醫療持續進步、國人平均壽命增加。然而,跌倒卻長年被列為台灣年長者事故傷害之第二大死因。與青壯年族群相比,長者跌倒造成之髖骨骨折與死亡風險大幅提升。據2009年中央健保署紀錄顯示,長者在髖骨骨折後之一年內死亡比率高出正常死亡率11%。長者在髖骨骨折前,多數已於早年發生椎脊壓迫性骨折,據2017年台灣成人骨質疏鬆症防治之共識與指引指出,台灣長者平均脊椎壓迫性骨折好發率為16.2%(約佔48.2萬人口數)。此現象顯示長者之骨質已於早年開始嚴重流失,因而造成其於跌倒後發生髖骨骨折。但由於脊椎之椎體骨折於初期症狀不明顯亦或患者主訴之疼痛部位不明,導致錯失早期發現之良機而延誤治療。雖然病患針對脊椎問題之主動檢查率低,但由於電腦斷層掃描(computerized axial tomography scan, CT scan)的適用範圍廣,且以胸腔、腹部或骨盆為標的之電腦斷層影像中會包含脊椎成像,故臨床醫師能以該等常規電腦斷層影像診斷脊椎壓迫性骨折。
然而,一項針對732位一年內髖部骨折病人之研究顯示,回溯其6年內的醫療影像,在157位具回溯性脊椎影像的病人當中發現有65具壓迫性骨折,然僅有30人被準確紀錄,未被通報率高達54%(35/65)。另一份評估脊椎壓迫性骨折之低通報率之潛在因子之綜合性分析報告推測,臨床常規電腦斷層影像為橫狀切面影像,但實際上診斷脊椎壓迫性骨折之最佳影像為矢狀切面影像,醫師因而難以從次優之常規電腦斷層橫狀切面影像察覺椎體高度變化,進而導致大幅度低估脊椎壓迫性骨折之好發率。綜觀源於病人的低自覺率與現行的低估率,突顯發展透過電腦斷層影像發展新型態廣篩壓迫性骨折系統之迫切性與必要性。
有鑑於上述先前技術之限制,本發明擬提供一種脊椎壓迫性骨折偵測方法與系統,以常規電腦斷層影像為輸入,將該等影像進行重組、多平面重建、分類篩選、椎體偵測與椎體標記等步驟,然後依據椎體標記之結果,評估壓迫性骨折程度。
本發明之實施例揭露一種脊椎壓迫性骨折偵測方法,包括以下步驟:將複數幀人體橫狀切面(axial plane)影像重組為一人體三維影像;利用一多平面重建法將該人體三維影像以矢狀切面(sagittal plane)切分,取得至少一幀人體矢狀切面影像;利用一分類篩選方法判斷該人體矢狀切面影像是否為脊椎椎體中段影像;利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體;利用一椎體標記方法,將該人體矢狀切面影像中已偵測出的該各節椎體標記出椎體特徵點;依據該人體矢狀切面影像之該各節椎體之標記結果,評估該人體矢狀切面影像中的該各節椎體之壓迫性骨折程度。
在本發明之實施例中所運用之分類篩選方法係運用一訓練完成之深度學習分類模型判別該人體矢狀切面影像是否為脊椎椎體中段影像;其中,該深度學習分類模型之訓練過程所需之輸入資料,係已被醫療領域專業人士判別與標註是否為脊椎椎體中段影像之複數幀人體矢狀切面影像。
在本發明之實施例中所運用之椎體偵測方法係運用一訓練完成之深度學習偵測模型偵測出該脊椎椎體中段影像中的各節椎體;其中,該深度學習偵測模型之訓練過程所需之輸入資料,係已被醫療領域專業人士描繪出各節椎體之複數幀人體矢狀切面影像。
在本發明之實施例中所運用之椎體標記方法係運用一深度學習特徵點定位模型標記各節椎體特徵點;其中,該深度學習特徵點定位模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
本發明之實施例揭露一種脊椎壓迫性骨折偵測系統,包括一電子裝置,該電子裝置又包括一處理裝置,以載入程式並執行上述脊椎壓迫性骨折偵測方法。
在某些實施例中,上述脊椎壓迫性骨折偵測系統更包括一儲存裝置,將電腦斷層影像與病患基本資訊儲存為一特定檔案格式之檔案,並且可將該特定檔案格式之檔案傳送給該電子裝置;該電子裝置接收來自該儲存裝置之特定檔案格式之檔案,將該檔案解析為元資料(metadata)與影像資料,再將該影像資料作為輸入,執行如申請專利範圍第1項所述之脊椎壓迫性骨折偵測方法。
在某些實施例中,上述脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一鑲嵌方法,將人體矢狀切面影像之該各節椎體之標記結果與該各節椎體之壓迫性骨折程度評估結果鑲嵌至該人體矢狀切面影像。
在某些實施例中,上述脊椎壓迫性骨折偵測系統,更包括一顯示裝置,該顯示裝置提供一使用者介面以呈現被鑲嵌各節椎體之標記結果與壓迫性骨折程度後之該人體矢狀切面影像,並且供醫療領域專業人士於該使用者介面上校正該各節椎體之標記結果。
在某些實施例中,上述脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一特徵點校正法,該特徵點校正法包括:根據經醫療領域專業人士校正之特徵點,運用一訓練完成之深度學習特徵點校正模型自動校正該節椎體之其他尚未被醫療領域專業人士校正之特徵點之位置;根據該訓練完成之深度學習特徵點校正模型之校正結果,更新該人體矢狀切面影像中被校正之該節椎體之壓迫性骨折程度;其中,該深度學習特徵點校正模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
本發明之實施例所揭露之脊椎壓迫性骨折偵測之方法與系統,可直接接收常規電腦斷層影像作為輸入,輔以人工智慧技術評估受測者之壓迫性骨折程度,突破了目前臨床診斷脊椎壓迫性骨折之限制,進而有助於提升脊椎壓迫性骨折被「早期發現、早期治療」之機會。
本章節所敘述的是實施本發明之較佳方式,目的在於說明本發明之精神而非用以限定本發明之保護範圍,本發明之保護範圍當視後附之申請專利範圍所界定者為準。
根據本發明之實施例,第1圖係一種脊椎壓迫性骨折偵測方法100之流程圖,依序包括S101~S106等步驟。首先,於步驟S101,將受測者的複數幀人體橫狀切面影像重組為一人體三維影像,然後進入步驟S102;於步驟S102,將該人體三維影像以矢狀面切分,取得至少一幀人體矢狀切面影像,然後進入步驟S103;於步驟S103,利用一分類篩選方法判斷該人體矢狀切面影像是否為脊椎椎體中段影像,然後進入步驟S104;於步驟S104,利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體,然後進入步驟S105;於步驟S105,利用一椎體標記方法,將該人體矢狀切面影像中已描繪出的該各節椎體標記出椎體特徵點,然後進入步驟S106;於步驟S106,依據該人體矢狀切面影像之該各節椎體之標記結果,評估該人體矢狀切面影像的該各節椎體之壓迫性骨折程度。
根據本發明之實施例,第2圖係人體橫狀切面影像201與人體矢狀切面影像202之示意圖。如第2圖所示,人體橫狀切面影像201係一個以橫狀面(axial plane,又稱「水平面」)切分人體而取得之人體影像,該橫狀面與地面平行,並將人體切分為上下兩側;人體矢狀切面影像202係一個以矢狀面(sagittal plane,又稱「縱切面」)切分人體而取得之人體影像,該矢狀面與地面垂直,如箭矢往人體正面射來的方向、由前而後地把人體切分為左右兩側。
在本發明之實施例中,第1圖中之步驟S101係將受測者的複數幀人體橫狀切面影像201重組為一人體三維影像。其中,為了重組該人體三維影像所使用之複數幀人體橫狀切面影像201的數目,係根據病患接受電腦斷層照射之部位所決定。該電腦斷層照射之部位可例如為胸腔、腹腔或骨盆,由於該等部位之橫狀切面影像中亦會包含脊椎之橫狀切面影像,故從複數幀該等部位之橫狀切面影像所重組出之三維影像亦會包含脊椎之三維影像。
在本發明之實施例中,第1圖中之步驟S102係將執行步驟S101後所取得之該人體三維影像以矢狀面切分,取得至少一幀人體矢狀切面影像202。
根據本發明之實施例,第3A圖係第1圖中之步驟S103之示意圖。如第3A圖所示,步驟S103係將執行步驟S102後所取得之該人體矢狀切面影像202輸入至一訓練完成之深度學習分類模型301,然後取得該人體矢狀切面影像202是否為脊椎椎體中段影像之判斷結果,並根據此結果篩選出脊椎椎體中段影像302。在某些實施例中,脊椎中段影像係指在所有的人體矢狀切面影像中,較完整地涵蓋脊椎椎體的人體矢狀切面影像。
根據本發明之實施例,第3B圖係該訓練完成之深度學習分類模型301之訓練過程310之流程圖,依序包括S311~S314等步驟。首先,於步驟S311,從一第一資料庫中取得複數幀人體矢狀切面影像作為一第一資料集,然後進入步驟S312;於步驟S312,由醫療領域專業人士(例如醫師、醫事放射師或研究員)對該第一資料集中之人體矢狀切面影像是否為脊椎椎體中段影像加以標註,然後進入步驟S313;於步驟S313,將已被醫療領域專業人士標註之該第一資料集進行分組並輸入一深度學習分類模型,然後進入步驟S314;於步驟S314,透過反覆地參數調校,優化該深度學習分類模型之準確率;執行完上述步驟,取得訓練完成之深度學習分類模型301,該訓練完成之深度學習分類模型301具有判斷一人體矢狀切面影像是否為脊椎椎體中段影像之功能。
在某些實施例中,於步驟S311,該第一資料庫可例如為從某(些)醫院過往之電腦斷層影像與其臨床診斷報告影像之資料庫,該資料庫之內容包含無壓迫性骨折與有壓迫性骨折之脊椎椎體中段與非中段影像。
在某些實施例中,於步驟S313,該第一資料集可被分為獨立之三組,分別為訓練資料集用於構建計算模型、驗證資料集用於調校模型參數、測試資料集用於加試檢驗模型準確率。
在某些實施例中,於步驟S313,該深度學習分類模型可例如為一GoogLeNet、ResNet或InceptionResNet等基於卷積神經網絡(Convolutional Neural Network, CNN)之標準架構再加以變化之圖像分類(image classification)模型。
在某些實施例中,若該人體矢狀切面影像202含植入物或植入物造成之成像假影,則無法繼續進行壓迫性骨折之偵測與分析。因此,第1圖中之步驟S103除了可被用於判斷該人體矢狀切面影像202是否位於脊椎中段外,亦可被如法炮製地用於判斷該人體矢狀切面影像202是否含有植入物或植入物造成之成像假影。
根據本發明之實施例,第4A圖係第1圖中之步驟S104之示意圖。如第4A圖所示,步驟S104係將脊椎椎體中段影像302輸入至一訓練完成之深度學習偵測模型401,然後取得各節椎體之偵測結果402。其中,該各節椎體之偵測結果402包括複數個椎體402a以及複數個方框402b,且該等方框402b係以一矩形包圍住該等椎體402a,且該等方框402b之具體表述方式可例如係包括影像中之一參考點座標(例如為各該等方框402b之左上角頂點),以及各該等方框402b之長度與寬度。換句話說,在各節椎體之偵測結果402中,各該等椎體402a被描繪出來以代表偵測結果之方式,具體而言係以一矩形之方框402b描繪出各該等椎體402a在影像中之位置與範圍。
根據本發明之實施例,第4B圖係訓練完成之深度學習偵測模型401之訓練過程410之流程圖,依序包括S411~S414等步驟。首先,於步驟S411,從一第二資料庫中取得複數幀脊椎椎體中段影像作為一第二資料集,然後進入步驟S412;於步驟S412,由醫療領域專業人士(例如醫師、醫事放射師或研究員)描繪出該第二資料集中的脊椎椎體中段影像之各節椎體,然後進入步驟S413;於步驟S413,將已被醫療領域專業人士描繪出各節椎體(描繪方式如同第4A圖之各節椎體之偵測結果402)之該第二資料集進行分組並輸入一深度學習偵測模型,然後進入步驟S414;於步驟S414,透過反覆地參數調校,優化該深度學習偵測模型之準確率;執行完上述步驟,取得訓練完成之深度學習偵測模型401,該訓練完成之深度學習偵測模型401具有偵測出一脊椎椎體中段影像之各節椎體之功能。
在某些實施例中,於步驟S411,該第二資料庫可例如為從某(些)醫院過往之電腦斷層影像與其臨床診斷報告影像之資料庫,該資料庫之內容包含無壓迫性骨折與有壓迫性骨折之脊椎椎體中段影像。
在某些實施例中,於步驟S413,該第二資料集可被分為獨立之三組,分別為訓練資料集用於構建計算模型、驗證資料集用於調校模型參數、測試資料集用於加試檢驗模型準確率。
在某些實施例中,於步驟S413,該深度學習偵測模型可例如為一SSD(Single Shot MultiBox Detector)、YOLO(You Only Look Once)、Faster-RCNN、Mask-RCNN等基於CNN之標準架構再加以變化之物件偵測(object detection)模型。
第5圖係在醫學或解剖學領域中所習知與使用之脊椎構造圖500。在某些實施例中,各節椎體之偵測結果402可再進一步採用前述之深度學習分類模型,判斷其中各節椎體對應脊椎構造圖500中之所在位置與名稱,例如第十二胸椎(脊椎構造圖500中的T12)、第一腰椎(脊椎構造圖500中的L1)、第五腰椎(脊椎構造圖500中的L5)等。
根據本發明之實施例,第6A圖係第1圖中之步驟S105之示意圖。如第6A圖所示,步驟S105係將各節椎體之偵測結果402輸入至一訓練完成之深度學習特徵點定位模型601,然後取得各節椎體之標記結果602。
根據本發明之實施例,第6B圖係該訓練完成之深度學習特徵點定位模型601之訓練過程610之流程圖,依序包括S611~S614等步驟。首先,於步驟S611,從一第三資料庫中取得複數幀脊椎椎體中段影像作為一第三資料集,然後進入步驟S612;於步驟S612,由醫療領域專業人士(例如醫師、醫事放射師或研究員)對該第三資料集中的脊椎椎體中段影像之各節椎體加以標註特徵點,然後進入步驟S613;於步驟S613,將已被醫療領域專業人士標註各節椎體特徵點之該第三資料集進行分組並輸入一深度學習特徵點定位模型,然後進入步驟S614;於步驟S614,透過反覆地參數調校,優化該深度學習特徵點定位模型之準確率;執行完上述步驟,取得訓練完成之深度學習特徵點定位模型,該訓練完成之深度學習特徵點定位模型具有標記出椎體特徵點之功能。
在某些實施例中,於步驟S611,該第三資料庫可例如為從某(些)醫院過往之電腦斷層影像與其臨床診斷報告影像之資料庫,該資料庫之內容包含無壓迫性骨折與有壓迫性骨折之脊椎椎體中段影像。
在某些實施例中,上述之第一資料庫、第二資料庫與第三資料庫可以係相同的資料庫。
在某些實施例中,於步驟S613,該第三資料集可被分為獨立之三組,分別為訓練資料集用於構建計算模型、驗證資料集用於調校模型參數、測試資料集用於加試檢驗模型準確率。
在某些實施例中,於步驟S613,該深度學習特徵點定位模型可例如係基於一迴歸分析(regression analysis)模型、影像分割模型、Mask-RCNN、Convolutional Pose Machines(CPM)、Keypoint RCNN等模型,其訓練過程係以縮小機器輸出標記結果與醫療領域專業人士標註之間的誤差距離為目標,透過反覆訓練及參數調校之過程,優化該模型之準確率。
根據本發明較佳之實施例,第6C圖係一脊椎椎體六點定位法620之示意圖。在此較佳之實施例中,各節椎體周邊被標記的特徵點之數目為六,即所謂脊椎椎體之六點(前上、前下、中上、中下、後上、後下等周邊六點)定位。如第6C圖所示,標記一椎體630周邊六點之順序(對於醫療領域專業人士標註與深度學習特徵點定位模型標記皆係如此),具體而言係先標記出該椎體630之前上點621、後上點622、前下點623與後下點624等角落四點,然後將前上點621與後上點622連為一線以取得一上線段625,將前下點623與後下點624連為一線以取得一下線段626;將該上線段625與該下線段626之中點連為一線以取得一中線段627;最後,取得該中線段627與該椎體630之邊緣輪廓的兩個相交點,即中上點628與中下點629。
根據本發明之實施例,第7圖係第1圖中之步驟S106所採用之脊椎壓迫性骨折程度評估方式700之示意圖。在該實施例中,分別取得該椎體630之前上點621與前下點623之直線距離hanterior
、中上點628與中下點629之直線距離hmiddle
、後上點622與後下點624之直線距離hposterior
,以及鄰近椎體之後上點與後下點之直線距離hposterior -adjacent
(未在圖式中),然後將hanterior
、hmiddle
、hposterior
與hposterior -adjacent
代入以下公式,以得出該椎體630之壓迫性骨折比率A-D。
在較佳之實施例中,可再進一步將各節椎體之壓迫性骨折比率A對照Genant’s criteria,以取得該各節椎體之壓迫性骨折程度之分級。具體而言,Genant’s criteria現行分為四級,即
grade 0(正常):壓迫性骨折比率小於20%。
grade 1(輕微骨折):壓迫性骨折比率大於或等於20%且小於25%。
grade 2(中度骨折):壓迫性骨折比率大於或等於25%且小於40%。
grade 3(嚴重骨折):壓迫性骨折比率大於或等於40%
在某些實施例中,當該椎體630之壓迫性骨折比率B-D中的至少一者與正常族群的平均水準相比高出15%或3個標準差以上,則判定該椎體630具壓迫性骨折。
根據本發明之實施例,第8A圖係一種脊椎壓迫性骨折偵測系統800A之示意圖。如第8A圖所示,該脊椎壓迫性骨折偵測系統800A包括一電子裝置801,該電子裝置801又包括一處理裝置802,以載入程式並執行脊椎壓迫性骨折偵測方法100。
根據本發明之實施例,第8B圖係另一種脊椎壓迫性骨折偵測系統800B之示意圖。如第8B圖所示,除了具有如第8A圖所示之電子裝置801之外,該脊椎壓迫性骨折偵測系統800B更包括一儲存裝置803;該儲存裝置803將電腦斷層影像與病患基本資訊儲存為一特定檔案格式之檔案804,並且可將該特定檔案格式之檔案804傳送給該電子裝置801;該電子裝置801接收來自儲存裝置803之特定檔案格式之檔案804,然後將該特定檔案格式之檔案804解析為元資料805與影像資料806;將該影像資料806作為輸入資料,執行脊椎壓迫性骨折偵測方法100。
在某些實施例中,該儲存裝置803可以係例如為一以設定安全序號之外接硬碟(Hard drive, HD)、電腦斷層攝影(computed tomography, CT)裝置,或一醫學影像存檔與通訊系統(Picture archiving and communication systems, PACS)。
在某些實施例中,特定檔案格式之檔案804之檔案格式係一遵從醫療數位影像傳輸協定(Digital Imaging and Communications in Medicine, DICOM)之檔案格式。
根據本發明之實施例,第8C圖係再一種脊椎壓迫性骨折偵測系統800C之示意圖。如第8C圖所示,除了具有如第8B圖所示之該電子裝置801與該儲存裝置803之外,該脊椎壓迫性骨折偵測系統800C更包括一第四資料庫807;該第四資料庫807可以係搭載於電子裝置801上,亦可以係搭載於其他電子裝置上。如第8C圖所示,該電子裝置801會將執行脊椎壓迫性骨折偵測方法100後所取得之各節椎體之偵測結果402、各節椎體特徵點之標記結果602,以及各節椎體之壓迫性骨折比率等資訊,寫入或更新至該第四資料庫807。
在某些實施例中,該電子裝置801運用一元資料解析器(metadata parser)解析出元資料805中例如為病患之姓名、性別、年齡、量測日期…等資料欄位,再將該等資料欄位儲存或更新至該第四資料庫807。
在某些實施例中,該第四資料庫807向一醫療資訊系統808(例如為一放射科資訊系統)請求並獲取病患們的病歷,然後利用一內建之字典比對該病歷中所出現之關鍵字,以解析出該等病歷中的必要資訊,並將該等必要資訊寫入或更新至該第四資料庫807。
在某些實施例中,脊椎壓迫性骨折偵測系統800C可根據該第四資料庫807中記載的內容,自動產生圖文具備之脊椎性壓迫性骨折偵測報告809。
在某些實施例中,上述脊椎壓迫性骨折偵測系統800A、脊椎壓迫性骨折偵測系統800B或脊椎壓迫性骨折偵測系統800C中的該處理裝置802更執行一鑲嵌方法,將人體矢狀切面影像之該各節椎體之標記結果與該各節椎體之壓迫性骨折程度評估結果鑲嵌至該人體矢狀切面影像,並將鑲嵌至該人體矢狀切面影像之結果寫入或更新至醫療資訊系統808。
在某些實施例中,上述脊椎壓迫性骨折偵測系統800A、脊椎壓迫性骨折偵測系統800B或脊椎壓迫性骨折偵測系統800C更包括一顯示裝置(未在圖式中),該顯示裝置提供一使用者介面以呈現被鑲嵌標記結果與壓迫性骨折程度後之該人體矢狀切面影像,並且供醫療領域專業人士於該使用者介面上校正該各節椎體之標記結果。
根據本發明之實施例,第9圖係一人體矢狀切面影像之鑲嵌結果900之示意圖。如第9圖所示,該人體矢狀切面影像之鑲嵌結果900包含各節椎體之特徵點901、壓迫性骨折程度902以及椎體名稱903。其中,壓迫性骨折程度902包括該人體矢狀切面影像之各節椎體之壓迫性骨折比率與分級結果(依據前述之Genant’s criteria)。如第9圖之特徵點901、壓迫性骨折程度902以及椎體名稱903所示,在本實施例中,該人體矢狀切面影像中的椎體L2之壓迫性骨折比率為88%,屬於Grade 3(嚴重骨折)的等級。
在某些實施例中,上述脊椎壓迫性骨折偵測系統800A、脊椎壓迫性骨折偵測系統800B或脊椎壓迫性骨折偵測系統800C更執行一特徵點校正法,根據經醫療領域專業人士校正之特徵點,運用一訓練完成之深度學習特徵點校正模型自動校正該節椎體之其他尚未被醫療領域專業人士校正之特徵點之位置,然後再根據該訓練完成之深度學習特徵點校正模型之校正結果,更新該人體矢狀切面影像中被校正之該節椎體之壓迫性骨折程度。
例如,在一實施例中,醫療領域專業人士於該使用者介面上校正了該人體矢狀切面影像中某一椎體之前上點的位置,則該脊椎壓迫性骨折偵測系統會將經醫療領域專業人士校正過之該人體矢狀切面影像輸入至該訓練完成之深度學習特徵點校正模型,該訓練完成之深度學習特徵點校正模型則自動校正除了前上點之外,該節椎體之其他五個尚未被醫療領域專業人士校正之特徵點之位置,即前下、中上、中下、後上、後下等五個特徵點之位置。然後,該脊椎壓迫性骨折偵測系統根據該訓練完成之深度學習特徵點校正模型之校正結果,重新計算被校正之該節椎體之壓迫性骨折程度,並將重新計算後之該節椎體之壓迫性骨折程度更新至第9圖之人體矢狀切面影像之鑲嵌結果900上。
根據本發明之實施例,第10圖係該訓練完成之深度學習特徵點校正模型之訓練過程1000之流程圖,依序包括S1001~S1004等步驟。首先,於步驟S1001,從一第五資料庫中取得複數幀人體矢狀切面影像作為一第五資料集,然後進入步驟S1002;於步驟S1002,由醫療領域專業人士(例如醫師、醫事放射師或研究員)對該第五資料集中的脊椎椎體中段影像之各節椎體加以標註特徵點,然後進入步驟S1003;於步驟S1003,將已被醫療領域專業人士標註各節椎體特徵點之該第五資料集進行分組並輸入一深度學習特徵點校正模型,然後進入步驟S1004;於步驟S1004,透過反覆地參數調校,優化該深度學習特徵點校正模型之準確率;執行完上述步驟,取得訓練完成之深度學習特徵點校正模型,該訓練完成之深度學習特徵點校正模型具有校正出椎體特徵點之功能,並將鑲嵌結果900寫入或更新至醫療資訊系統808。
在某些實施例中,於步驟S1003,該深度學習特徵點校正模型係一基於人工神經網路(Artificial Neural Network,ANN)之模型,其訓練過程係以縮小機器標記結果與醫療領域專業人士標註之間的誤差距離為目標,透過反覆訓練及參數調校之過程,優化該模型之準確率。
本發明之實施例所揭露之脊椎壓迫性骨折偵測之方法與系統,可直接接收常規電腦斷層影像作為輸入,輔以人工智慧技術評估受測者之壓迫性骨折程度,突破了目前臨床診斷脊椎壓迫性骨折之限制,進而有助於提升脊椎壓迫性骨折被「早期發現、早期治療」之機會。
在本說明書中以及申請專利範圍中的序號,例如「第一」、「第二」等等,僅係為了方便說明,彼此之間並沒有順序上的先後關係。
以上段落使用多種層面描述。顯然的,本文的教示可以多種方式實現,而在範例中揭露之任何特定架構或功能僅為一代表性之狀況。根據本文之教示,任何熟知此技藝之人士應理解在本文揭露之各層面可獨立實作或兩種以上之層面可以合併實作。
雖然本揭露已以實施例揭露如上,然其並非用以限定本揭露,任何熟習此技藝者,在不脫離本揭露之精神和範圍內,當可作些許之更動與潤飾,因此發明之保護範圍當視後附之申請專利範圍所界定者為準。
100:脊椎壓迫性骨折偵測方法
S101~S106:步驟
201:人體橫狀切面影像
202:人體矢狀切面影像
301:訓練完成之深度學習分類模型
302:脊椎椎體中段影像
310:訓練完成之深度學習分類模型301之訓練過程
S311~S314:步驟
401:訓練完成之深度學習偵測模型
402:各節椎體之偵測結果
402a:椎體
402b:方框
410:訓練完成之深度學習偵測模型401之訓練過程
S411~S414:步驟
500:脊椎構造圖
601:訓練完成之深度學習特徵點定位模型
602:各節椎體特徵點之標記結果
610:訓練完成之深度學習特徵點定位模型601之訓練過程
S611~S614:步驟
620:脊椎椎體六點定位法
621:前上點
622:後上點
623:前下點
624:後下點
625:上線段
626:下線段
627:中線段
628:中上點
629:中下點
630:椎體
700:脊椎壓迫性骨折程度評估方式
800A~800C:脊椎壓迫性骨折偵測系統
801:電子裝置
802:處理裝置
803:儲存裝置
804:特定檔案格式之檔案
805:元資料
806:影像資料
807:第四資料庫
808:醫療資訊系統
809:脊椎性壓迫性骨折偵測報告
900:人體矢狀切面影像之鑲嵌結果
901:特徵點
902:壓迫性骨折程度
903:椎體名稱
1000:訓練完成之深度學習特徵點校正模型之訓練過程
S1001~S1004:步驟
第1圖係一種脊椎壓迫性骨折偵測方法100之流程圖。
第2圖係人體橫狀切面影像201與人體矢狀切面影像202之示意圖。
第3A圖係第1圖中之步驟S103之示意圖。
第3B圖係該訓練完成之深度學習分類模型301之訓練過程310之流程圖。
第4A圖係第1圖中之步驟S104之示意圖。
第4B圖係該訓練完成之深度學習偵測模型401之訓練過程410之流程圖。
第5圖係在醫學或解剖學領域中所習知與使用之脊椎構造圖500。
第6A圖係第1圖中之步驟S105之示意圖。
第6B圖係該訓練完成之深度學習特徵點定位模型601之訓練過程610之流程圖。
第6C圖係一脊椎椎體六點定位法620之示意圖。
第7圖係第1圖中之步驟S106所採用之脊椎壓迫性骨折程度評估方式700之示意圖。
第8A圖係一種脊椎壓迫性骨折偵測系統800A之示意圖。
第8B圖係另一種脊椎壓迫性骨折偵測系統800B之示意圖。
第8C圖係再一種脊椎壓迫性骨折偵測系統800C之示意圖。
第9圖係一人體矢狀切面影像之鑲嵌結果900之示意圖。
第10圖係該訓練完成之深度學習特徵點校正模型之訓練過程1000之流程圖。
S101~S106:步驟
Claims (9)
- 一種脊椎壓迫性骨折偵測方法,包括下列步驟: 將複數幀人體橫狀切面影像重組為一人體三維影像; 利用一多平面重建法將該人體三維影像以矢狀切面切分,取得至少一幀人體矢狀切面影像; 利用一分類篩選方法判斷該人體矢狀切面面影像是否為脊椎椎體中段影像; 利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體; 利用一椎體標記方法,將該人體矢狀切面影像中已偵測出的該各節椎體標記出椎體特徵點; 依據該人體矢狀切面影像之該各節椎體之標記結果,評估該人體矢狀切面影像中的該各節椎體之壓迫性骨折程度。
- 如請求項1所述之脊椎壓迫性骨折偵測方法,其中該分類篩選方法係運用一訓練完成之深度學習分類模型判別該人體矢狀切面面影像是否為脊椎椎體中段影像; 其中,該深度學習分類模型之訓練過程所需之輸入資料,係已被醫療領域專業人士判別與註記是否為脊椎椎體中段影像之複數幀人體矢狀切面影像。
- 如請求項1所述之脊椎壓迫性骨折偵測方法,其中該椎體描繪方法係運用一訓練完成之深度學習偵測模型偵測出該脊椎椎體中段影像中的各節椎體; 其中,該深度學習分偵測模型之訓練過程所需之輸入資料,係已被醫療領域專業人士描繪出各節椎體之複數幀人體矢狀切面影像。
- 如請求項1所述之脊椎壓迫性骨折偵測方法,其中該椎體標記方法係運用一深度學習特徵點定位模型標記各節椎體特徵點; 其中,該深度學習特徵點定位模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
- 一種脊椎壓迫性骨折偵測系統,包括: 一電子裝置,包括一處理裝置,以載入程式並執行如請求項1所述之脊椎壓迫性骨折偵測方法。
- 如請求項5所述之脊椎壓迫性骨折偵測系統,更包括: 一儲存裝置,將電腦斷層影像與病患基本資訊儲存為一特定檔案格式之檔案,並且可將該特定檔案格式之檔案傳送給該電子裝置; 該電子裝置接收來自該儲存裝置之特定檔案格式之檔案,將該檔案解析為元資料與影像資料,再將該影像資料作為輸入,執行如請求項1所述之脊椎壓迫性骨折偵測方法。
- 如請求項5或6所述之脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一鑲嵌方法,將人體矢狀切面影像之該各節椎體之標記結果與該各節椎體之壓迫性骨折程度評估結果鑲嵌至該人體矢狀切面影像。
- 如請求項7所述之脊椎壓迫性骨折偵測系統更包括一顯示裝置,該顯示裝置提供一使用者介面以呈現被鑲嵌各節椎體之標記結果與壓迫性骨折程度後之該人體矢狀切面影像,並且供醫療領域專業人士於該使用者介面上校正該各節椎體之標記結果。
- 如請求項8所述之脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一特徵點校正法,該特徵點校正法包括: 根據經醫療領域專業人士校正之特徵點,運用一訓練完成之深度學習特徵點校正模型自動校正該節椎體之其他尚未被醫療領域專業人士校正之特徵點之位置; 根據該訓練完成之深度學習特徵點校正模型之校正結果,更新該人體矢狀切面影像中被校正之該節椎體之壓迫性骨折程度; 其中,該深度學習特徵點校正模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109119248A TWI733487B (zh) | 2020-06-09 | 2020-06-09 | 脊椎壓迫性骨折偵測方法與系統 |
CN202010624631.6A CN113781382A (zh) | 2020-06-09 | 2020-07-01 | 脊椎压迫性骨折检测方法与系统 |
US17/223,605 US11779295B2 (en) | 2020-06-09 | 2021-04-06 | Method and system of vertebral compression fracture detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109119248A TWI733487B (zh) | 2020-06-09 | 2020-06-09 | 脊椎壓迫性骨折偵測方法與系統 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI733487B TWI733487B (zh) | 2021-07-11 |
TW202145961A true TW202145961A (zh) | 2021-12-16 |
Family
ID=77911177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109119248A TWI733487B (zh) | 2020-06-09 | 2020-06-09 | 脊椎壓迫性骨折偵測方法與系統 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11779295B2 (zh) |
CN (1) | CN113781382A (zh) |
TW (1) | TWI733487B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI759946B (zh) * | 2020-11-05 | 2022-04-01 | 倍利科技股份有限公司 | 脊柱量測及狀態評估方法 |
CN114581395A (zh) * | 2022-02-28 | 2022-06-03 | 四川大学 | 一种基于深度学习的脊椎医学图像的关键点检测方法 |
CN115439453B (zh) * | 2022-09-13 | 2023-05-26 | 北京医准智能科技有限公司 | 一种脊椎椎体定位方法、装置、电子设备及存储介质 |
CN115984190B (zh) * | 2022-12-12 | 2023-11-21 | 浙江医准智能科技有限公司 | 一种基于ct图像的处理方法、装置、设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI268148B (en) * | 2004-11-25 | 2006-12-11 | Univ Chung Yuan Christian | Image analysis method for vertebral disease which comprises 3D reconstruction method and characteristic identification method of unaligned transversal slices |
US10460508B2 (en) * | 2014-06-12 | 2019-10-29 | Siemens Healthcare Gmbh | Visualization with anatomical intelligence |
EP3662444B1 (en) * | 2017-07-31 | 2022-06-29 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for automatic vertebrae segmentation and identification in medical images |
US10878576B2 (en) * | 2018-02-14 | 2020-12-29 | Elekta, Inc. | Atlas-based segmentation using deep-learning |
-
2020
- 2020-06-09 TW TW109119248A patent/TWI733487B/zh active
- 2020-07-01 CN CN202010624631.6A patent/CN113781382A/zh active Pending
-
2021
- 2021-04-06 US US17/223,605 patent/US11779295B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210378616A1 (en) | 2021-12-09 |
US11779295B2 (en) | 2023-10-10 |
CN113781382A (zh) | 2021-12-10 |
TWI733487B (zh) | 2021-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI733487B (zh) | 脊椎壓迫性骨折偵測方法與系統 | |
US10699410B2 (en) | Automatic change detection in medical images | |
Miki et al. | Classification of teeth in cone-beam CT using deep convolutional neural network | |
de Oliveira et al. | Observer reliability of three-dimensional cephalometric landmark identification on cone-beam computerized tomography | |
Olszewski et al. | Reproducibility of osseous landmarks used for computed tomography based three-dimensional cephalometric analyses | |
JP4800129B2 (ja) | 医用画像表示処理装置、及び、医用画像表示処理プログラム | |
Leonardi et al. | Fully automatic segmentation of sinonasal cavity and pharyngeal airway based on convolutional neural networks | |
CN109767841B (zh) | 一种基于颅颌面三维形态数据库的相似模型检索方法及装置 | |
Lo Giudice et al. | Fully automatic segmentation of the mandible based on convolutional neural networks (CNNs) | |
US11475570B2 (en) | Computational simulations of anatomical structures and body surface electrode positioning | |
Hadagali et al. | Morphing the feature-based multi-blocks of normative/healthy vertebral geometries to scoliosis vertebral geometries: development of personalized finite element models | |
Luboz et al. | Orbital and maxillofacial computer aided surgery: patient-specific finite element models to predict surgical outcomes | |
Natarajan et al. | Semi-automatic tracking of hyolaryngeal coordinates in videofluoroscopic swallowing studies | |
Gomez et al. | Analysis of fiber strain in the human tongue during speech | |
US20080273775A1 (en) | Cartesian human morpho-informatic system | |
Nie et al. | OII-DS: A benchmark Oral Implant Image Dataset for object detection and image classification evaluation | |
CN115602320B (zh) | 一种困难气道评估方法和系统 | |
Chen et al. | Evaluation of condyle-fossa relationships in skeletal class I malocclusion with variable degrees of deep overbite and open bite | |
Antico et al. | Deep Learning-based automatic segmentation for reconstructing vertebral anatomy of Healthy Adolescents and Patients with Adolescent Idiopathic Scoliosis (AIS) Using MRI Data | |
CN111466933A (zh) | 一种脊柱活动度测量方法及系统 | |
San Román Gaitero et al. | Imaging Methods to Quantify the Chest and Trunk Deformation in Adolescent Idiopathic Scoliosis: A Literature Review | |
Fontanella et al. | Challenges of building medical image datasets for development of deep learning software in stroke | |
Contro et al. | Evaluating condylar head morphology as it relates to the skeletal vertical facial dimension: A three-dimensional semi-automated landmark study | |
JP4786184B2 (ja) | コンピュータ支援画像診断システム | |
JP2011036684A (ja) | コンピュータ支援画像診断システム |