TWI733487B - 脊椎壓迫性骨折偵測方法與系統 - Google Patents

脊椎壓迫性骨折偵測方法與系統 Download PDF

Info

Publication number
TWI733487B
TWI733487B TW109119248A TW109119248A TWI733487B TW I733487 B TWI733487 B TW I733487B TW 109119248 A TW109119248 A TW 109119248A TW 109119248 A TW109119248 A TW 109119248A TW I733487 B TWI733487 B TW I733487B
Authority
TW
Taiwan
Prior art keywords
vertebral body
image
spine
human
vertebral
Prior art date
Application number
TW109119248A
Other languages
English (en)
Other versions
TW202145961A (zh
Inventor
陳榮邦
許艾伶
黃冠傑
彭憶亭
高竟中
Original Assignee
廣達電腦股份有限公司
臺北醫學大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 廣達電腦股份有限公司, 臺北醫學大學 filed Critical 廣達電腦股份有限公司
Priority to TW109119248A priority Critical patent/TWI733487B/zh
Priority to CN202010624631.6A priority patent/CN113781382B/zh
Priority to US17/223,605 priority patent/US11779295B2/en
Application granted granted Critical
Publication of TWI733487B publication Critical patent/TWI733487B/zh
Publication of TW202145961A publication Critical patent/TW202145961A/zh

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Physiology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本發明揭露一種脊椎壓迫性骨折偵測方法與系統,該方法包括以下步驟:將複數幀人體橫狀切面影像重組為一人體三維影像;利用一多平面重建法將該人體三維影像以矢狀切面切分,取得至少一幀人體矢狀切面影像;利用一分類篩選方法判斷該人體矢狀切面影像是否為脊椎椎體中段影像;利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體;利用一椎體標記方法,將該人體矢狀切面影像中已描繪出的該各節椎體標記出椎體特徵點;評估該人體矢狀切面影像中的該各節椎體之壓迫性骨折程度。

Description

脊椎壓迫性骨折偵測方法與系統
本發明係關於一種脊椎壓迫性骨折偵測方法與系統,特別係關於以人體橫狀切面影像為輸入,將該等影像進行重組、多平面重建、分類篩選、椎體偵測、椎體標記等步驟,然後依據椎體標記之結果評估壓迫性骨折程度之一種脊椎壓迫性骨折偵測方法與系統。
近年隨醫療持續進步、國人平均壽命增加。然而,跌倒卻長年被列為台灣年長者事故傷害之第二大死因。與青壯年族群相比,長者跌倒造成之髖骨骨折與死亡風險大幅提升。據2009年中央健保署紀錄顯示,長者在髖骨骨折後之一年內死亡比率高出正常死亡率11%。長者在髖骨骨折前,多數已於早年發生椎脊壓迫性骨折,據2017年台灣成人骨質疏鬆症防治之共識與指引指出,台灣長者平均脊椎壓迫性骨折好發率為16.2%(約佔48.2萬人口數)。此現象顯示長者之骨質已於早年開始嚴重流失,因而造成其於跌倒後發生髖骨骨折。但由於脊椎之椎體骨折於初期症狀不明顯亦或患者主訴之疼痛部位不明,導致錯失早期發現之良機而延誤治療。雖然病患針對脊椎問題之主動檢查率低,但由於電腦斷層掃描(computerized axial tomography scan, CT scan)的適用範圍廣,且以胸腔、腹部或骨盆為標的之電腦斷層影像中會包含脊椎成像,故臨床醫師能以該等常規電腦斷層影像診斷脊椎壓迫性骨折。
然而,一項針對732位一年內髖部骨折病人之研究顯示,回溯其6年內的醫療影像,在157位具回溯性脊椎影像的病人當中發現有65具壓迫性骨折,然僅有30人被準確紀錄,未被通報率高達54%(35/65)。另一份評估脊椎壓迫性骨折之低通報率之潛在因子之綜合性分析報告推測,臨床常規電腦斷層影像為橫狀切面影像,但實際上診斷脊椎壓迫性骨折之最佳影像為矢狀切面影像,醫師因而難以從次優之常規電腦斷層橫狀切面影像察覺椎體高度變化,進而導致大幅度低估脊椎壓迫性骨折之好發率。綜觀源於病人的低自覺率與現行的低估率,突顯發展透過電腦斷層影像發展新型態廣篩壓迫性骨折系統之迫切性與必要性。
有鑑於上述先前技術之限制,本發明擬提供一種脊椎壓迫性骨折偵測方法與系統,以常規電腦斷層影像為輸入,將該等影像進行重組、多平面重建、分類篩選、椎體偵測與椎體標記等步驟,然後依據椎體標記之結果,評估壓迫性骨折程度。
本發明之實施例揭露一種脊椎壓迫性骨折偵測方法,包括以下步驟:將複數幀人體橫狀切面(axial plane)影像重組為一人體三維影像;利用一多平面重建法將該人體三維影像以矢狀切面(sagittal plane)切分,取得至少一幀人體矢狀切面影像;利用一分類篩選方法判斷該人體矢狀切面影像是否為脊椎椎體中段影像;利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體;利用一椎體標記方法,將該人體矢狀切面影像中已偵測出的該各節椎體標記出椎體特徵點;依據該人體矢狀切面影像之該各節椎體之標記結果,評估該人體矢狀切面影像中的該各節椎體之壓迫性骨折程度。
在本發明之實施例中所運用之分類篩選方法係運用一訓練完成之深度學習分類模型判別該人體矢狀切面影像是否為脊椎椎體中段影像;其中,該深度學習分類模型之訓練過程所需之輸入資料,係已被醫療領域專業人士判別與標註是否為脊椎椎體中段影像之複數幀人體矢狀切面影像。
在本發明之實施例中所運用之椎體偵測方法係運用一訓練完成之深度學習偵測模型偵測出該脊椎椎體中段影像中的各節椎體;其中,該深度學習偵測模型之訓練過程所需之輸入資料,係已被醫療領域專業人士描繪出各節椎體之複數幀人體矢狀切面影像。
在本發明之實施例中所運用之椎體標記方法係運用一深度學習特徵點定位模型標記各節椎體特徵點;其中,該深度學習特徵點定位模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
本發明之實施例揭露一種脊椎壓迫性骨折偵測系統,包括一電子裝置,該電子裝置又包括一處理裝置,以載入程式並執行上述脊椎壓迫性骨折偵測方法。
在某些實施例中,上述脊椎壓迫性骨折偵測系統更包括一儲存裝置,將電腦斷層影像與病患基本資訊儲存為一特定檔案格式之檔案,並且可將該特定檔案格式之檔案傳送給該電子裝置;該電子裝置接收來自該儲存裝置之特定檔案格式之檔案,將該檔案解析為元資料(metadata)與影像資料,再將該影像資料作為輸入,執行如申請專利範圍第1項所述之脊椎壓迫性骨折偵測方法。
在某些實施例中,上述脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一鑲嵌方法,將人體矢狀切面影像之該各節椎體之標記結果與該各節椎體之壓迫性骨折程度評估結果鑲嵌至該人體矢狀切面影像。
在某些實施例中,上述脊椎壓迫性骨折偵測系統,更包括一顯示裝置,該顯示裝置提供一使用者介面以呈現被鑲嵌各節椎體之標記結果與壓迫性骨折程度後之該人體矢狀切面影像,並且供醫療領域專業人士於該使用者介面上校正該各節椎體之標記結果。
在某些實施例中,上述脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一特徵點校正法,該特徵點校正法包括:根據經醫療領域專業人士校正之特徵點,運用一訓練完成之深度學習特徵點校正模型自動校正該節椎體之其他尚未被醫療領域專業人士校正之特徵點之位置;根據該訓練完成之深度學習特徵點校正模型之校正結果,更新該人體矢狀切面影像中被校正之該節椎體之壓迫性骨折程度;其中,該深度學習特徵點校正模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
本發明之實施例所揭露之脊椎壓迫性骨折偵測之方法與系統,可直接接收常規電腦斷層影像作為輸入,輔以人工智慧技術評估受測者之壓迫性骨折程度,突破了目前臨床診斷脊椎壓迫性骨折之限制,進而有助於提升脊椎壓迫性骨折被「早期發現、早期治療」之機會。
本章節所敘述的是實施本發明之較佳方式,目的在於說明本發明之精神而非用以限定本發明之保護範圍,本發明之保護範圍當視後附之申請專利範圍所界定者為準。
根據本發明之實施例,第1圖係一種脊椎壓迫性骨折偵測方法100之流程圖,依序包括S101~S106等步驟。首先,於步驟S101,將受測者的複數幀人體橫狀切面影像重組為一人體三維影像,然後進入步驟S102;於步驟S102,將該人體三維影像以矢狀面切分,取得至少一幀人體矢狀切面影像,然後進入步驟S103;於步驟S103,利用一分類篩選方法判斷該人體矢狀切面影像是否為脊椎椎體中段影像,然後進入步驟S104;於步驟S104,利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體,然後進入步驟S105;於步驟S105,利用一椎體標記方法,將該人體矢狀切面影像中已描繪出的該各節椎體標記出椎體特徵點,然後進入步驟S106;於步驟S106,依據該人體矢狀切面影像之該各節椎體之標記結果,評估該人體矢狀切面影像的該各節椎體之壓迫性骨折程度。
根據本發明之實施例,第2圖係人體橫狀切面影像201與人體矢狀切面影像202之示意圖。如第2圖所示,人體橫狀切面影像201係一個以橫狀面(axial plane,又稱「水平面」)切分人體而取得之人體影像,該橫狀面與地面平行,並將人體切分為上下兩側;人體矢狀切面影像202係一個以矢狀面(sagittal plane,又稱「縱切面」)切分人體而取得之人體影像,該矢狀面與地面垂直,如箭矢往人體正面射來的方向、由前而後地把人體切分為左右兩側。
在本發明之實施例中,第1圖中之步驟S101係將受測者的複數幀人體橫狀切面影像201重組為一人體三維影像。其中,為了重組該人體三維影像所使用之複數幀人體橫狀切面影像201的數目,係根據病患接受電腦斷層照射之部位所決定。該電腦斷層照射之部位可例如為胸腔、腹腔或骨盆,由於該等部位之橫狀切面影像中亦會包含脊椎之橫狀切面影像,故從複數幀該等部位之橫狀切面影像所重組出之三維影像亦會包含脊椎之三維影像。
在本發明之實施例中,第1圖中之步驟S102係將執行步驟S101後所取得之該人體三維影像以矢狀面切分,取得至少一幀人體矢狀切面影像202。
根據本發明之實施例,第3A圖係第1圖中之步驟S103之示意圖。如第3A圖所示,步驟S103係將執行步驟S102後所取得之該人體矢狀切面影像202輸入至一訓練完成之深度學習分類模型301,然後取得該人體矢狀切面影像202是否為脊椎椎體中段影像之判斷結果,並根據此結果篩選出脊椎椎體中段影像302。在某些實施例中,脊椎中段影像係指在所有的人體矢狀切面影像中,較完整地涵蓋脊椎椎體的人體矢狀切面影像。
根據本發明之實施例,第3B圖係該訓練完成之深度學習分類模型301之訓練過程310之流程圖,依序包括S311~S314等步驟。首先,於步驟S311,從一第一資料庫中取得複數幀人體矢狀切面影像作為一第一資料集,然後進入步驟S312;於步驟S312,由醫療領域專業人士(例如醫師、醫事放射師或研究員)對該第一資料集中之人體矢狀切面影像是否為脊椎椎體中段影像加以標註,然後進入步驟S313;於步驟S313,將已被醫療領域專業人士標註之該第一資料集進行分組並輸入一深度學習分類模型,然後進入步驟S314;於步驟S314,透過反覆地參數調校,優化該深度學習分類模型之準確率;執行完上述步驟,取得訓練完成之深度學習分類模型301,該訓練完成之深度學習分類模型301具有判斷一人體矢狀切面影像是否為脊椎椎體中段影像之功能。
在某些實施例中,於步驟S311,該第一資料庫可例如為從某(些)醫院過往之電腦斷層影像與其臨床診斷報告影像之資料庫,該資料庫之內容包含無壓迫性骨折與有壓迫性骨折之脊椎椎體中段與非中段影像。
在某些實施例中,於步驟S313,該第一資料集可被分為獨立之三組,分別為訓練資料集用於構建計算模型、驗證資料集用於調校模型參數、測試資料集用於加試檢驗模型準確率。
在某些實施例中,於步驟S313,該深度學習分類模型可例如為一GoogLeNet、ResNet或InceptionResNet等基於卷積神經網絡(Convolutional Neural Network, CNN)之標準架構再加以變化之圖像分類(image classification)模型。
在某些實施例中,若該人體矢狀切面影像202含植入物或植入物造成之成像假影,則無法繼續進行壓迫性骨折之偵測與分析。因此,第1圖中之步驟S103除了可被用於判斷該人體矢狀切面影像202是否位於脊椎中段外,亦可被如法炮製地用於判斷該人體矢狀切面影像202是否含有植入物或植入物造成之成像假影。
根據本發明之實施例,第4A圖係第1圖中之步驟S104之示意圖。如第4A圖所示,步驟S104係將脊椎椎體中段影像302輸入至一訓練完成之深度學習偵測模型401,然後取得各節椎體之偵測結果402。其中,該各節椎體之偵測結果402包括複數個椎體402a以及複數個方框402b,且該等方框402b係以一矩形包圍住該等椎體402a,且該等方框402b之具體表述方式可例如係包括影像中之一參考點座標(例如為各該等方框402b之左上角頂點),以及各該等方框402b之長度與寬度。換句話說,在各節椎體之偵測結果402中,各該等椎體402a被描繪出來以代表偵測結果之方式,具體而言係以一矩形之方框402b描繪出各該等椎體402a在影像中之位置與範圍。
根據本發明之實施例,第4B圖係訓練完成之深度學習偵測模型401之訓練過程410之流程圖,依序包括S411~S414等步驟。首先,於步驟S411,從一第二資料庫中取得複數幀脊椎椎體中段影像作為一第二資料集,然後進入步驟S412;於步驟S412,由醫療領域專業人士(例如醫師、醫事放射師或研究員)描繪出該第二資料集中的脊椎椎體中段影像之各節椎體,然後進入步驟S413;於步驟S413,將已被醫療領域專業人士描繪出各節椎體(描繪方式如同第4A圖之各節椎體之偵測結果402)之該第二資料集進行分組並輸入一深度學習偵測模型,然後進入步驟S414;於步驟S414,透過反覆地參數調校,優化該深度學習偵測模型之準確率;執行完上述步驟,取得訓練完成之深度學習偵測模型401,該訓練完成之深度學習偵測模型401具有偵測出一脊椎椎體中段影像之各節椎體之功能。
在某些實施例中,於步驟S411,該第二資料庫可例如為從某(些)醫院過往之電腦斷層影像與其臨床診斷報告影像之資料庫,該資料庫之內容包含無壓迫性骨折與有壓迫性骨折之脊椎椎體中段影像。
在某些實施例中,於步驟S413,該第二資料集可被分為獨立之三組,分別為訓練資料集用於構建計算模型、驗證資料集用於調校模型參數、測試資料集用於加試檢驗模型準確率。
在某些實施例中,於步驟S413,該深度學習偵測模型可例如為一SSD(Single Shot MultiBox Detector)、YOLO(You Only Look Once)、Faster-RCNN、Mask-RCNN等基於CNN之標準架構再加以變化之物件偵測(object detection)模型。
第5圖係在醫學或解剖學領域中所習知與使用之脊椎構造圖500。在某些實施例中,各節椎體之偵測結果402可再進一步採用前述之深度學習分類模型,判斷其中各節椎體對應脊椎構造圖500中之所在位置與名稱,例如第十二胸椎(脊椎構造圖500中的T12)、第一腰椎(脊椎構造圖500中的L1)、第五腰椎(脊椎構造圖500中的L5)等。
根據本發明之實施例,第6A圖係第1圖中之步驟S105之示意圖。如第6A圖所示,步驟S105係將各節椎體之偵測結果402輸入至一訓練完成之深度學習特徵點定位模型601,然後取得各節椎體之標記結果602。
根據本發明之實施例,第6B圖係該訓練完成之深度學習特徵點定位模型601之訓練過程610之流程圖,依序包括S611~S614等步驟。首先,於步驟S611,從一第三資料庫中取得複數幀脊椎椎體中段影像作為一第三資料集,然後進入步驟S612;於步驟S612,由醫療領域專業人士(例如醫師、醫事放射師或研究員)對該第三資料集中的脊椎椎體中段影像之各節椎體加以標註特徵點,然後進入步驟S613;於步驟S613,將已被醫療領域專業人士標註各節椎體特徵點之該第三資料集進行分組並輸入一深度學習特徵點定位模型,然後進入步驟S614;於步驟S614,透過反覆地參數調校,優化該深度學習特徵點定位模型之準確率;執行完上述步驟,取得訓練完成之深度學習特徵點定位模型,該訓練完成之深度學習特徵點定位模型具有標記出椎體特徵點之功能。
在某些實施例中,於步驟S611,該第三資料庫可例如為從某(些)醫院過往之電腦斷層影像與其臨床診斷報告影像之資料庫,該資料庫之內容包含無壓迫性骨折與有壓迫性骨折之脊椎椎體中段影像。
在某些實施例中,上述之第一資料庫、第二資料庫與第三資料庫可以係相同的資料庫。
在某些實施例中,於步驟S613,該第三資料集可被分為獨立之三組,分別為訓練資料集用於構建計算模型、驗證資料集用於調校模型參數、測試資料集用於加試檢驗模型準確率。
在某些實施例中,於步驟S613,該深度學習特徵點定位模型可例如係基於一迴歸分析(regression analysis)模型、影像分割模型、Mask-RCNN、Convolutional Pose Machines(CPM)、Keypoint RCNN等模型,其訓練過程係以縮小機器輸出標記結果與醫療領域專業人士標註之間的誤差距離為目標,透過反覆訓練及參數調校之過程,優化該模型之準確率。
根據本發明較佳之實施例,第6C圖係一脊椎椎體六點定位法620之示意圖。在此較佳之實施例中,各節椎體周邊被標記的特徵點之數目為六,即所謂脊椎椎體之六點(前上、前下、中上、中下、後上、後下等周邊六點)定位。如第6C圖所示,標記一椎體630周邊六點之順序(對於醫療領域專業人士標註與深度學習特徵點定位模型標記皆係如此),具體而言係先標記出該椎體630之前上點621、後上點622、前下點623與後下點624等角落四點,然後將前上點621與後上點622連為一線以取得一上線段625,將前下點623與後下點624連為一線以取得一下線段626;將該上線段625與該下線段626之中點連為一線以取得一中線段627;最後,取得該中線段627與該椎體630之邊緣輪廓的兩個相交點,即中上點628與中下點629。
根據本發明之實施例,第7圖係第1圖中之步驟S106所採用之脊椎壓迫性骨折程度評估方式700之示意圖。在該實施例中,分別取得該椎體630之前上點621與前下點623之直線距離h anterior、中上點628與中下點629之直線距離h middle、後上點622與後下點624之直線距離h posterior,以及鄰近椎體之後上點與後下點之直線距離h posterior -adjacent(未在圖式中),然後將h anterior、h middle、h posterior與h posterior -adjacent代入以下公式,以得出該椎體630之壓迫性骨折比率A-D。
Figure 02_image001
Figure 02_image003
Figure 02_image005
Figure 02_image007
在較佳之實施例中,可再進一步將各節椎體之壓迫性骨折比率A對照Genant’s criteria,以取得該各節椎體之壓迫性骨折程度之分級。具體而言,Genant’s criteria現行分為四級,即 grade 0(正常):壓迫性骨折比率小於20%。 grade 1(輕微骨折):壓迫性骨折比率大於或等於20%且小於25%。 grade 2(中度骨折):壓迫性骨折比率大於或等於25%且小於40%。 grade 3(嚴重骨折):壓迫性骨折比率大於或等於40%
在某些實施例中,當該椎體630之壓迫性骨折比率B-D中的至少一者與正常族群的平均水準相比高出15%或3個標準差以上,則判定該椎體630具壓迫性骨折。
根據本發明之實施例,第8A圖係一種脊椎壓迫性骨折偵測系統800A之示意圖。如第8A圖所示,該脊椎壓迫性骨折偵測系統800A包括一電子裝置801,該電子裝置801又包括一處理裝置802,以載入程式並執行脊椎壓迫性骨折偵測方法100。
根據本發明之實施例,第8B圖係另一種脊椎壓迫性骨折偵測系統800B之示意圖。如第8B圖所示,除了具有如第8A圖所示之電子裝置801之外,該脊椎壓迫性骨折偵測系統800B更包括一儲存裝置803;該儲存裝置803將電腦斷層影像與病患基本資訊儲存為一特定檔案格式之檔案804,並且可將該特定檔案格式之檔案804傳送給該電子裝置801;該電子裝置801接收來自儲存裝置803之特定檔案格式之檔案804,然後將該特定檔案格式之檔案804解析為元資料805與影像資料806;將該影像資料806作為輸入資料,執行脊椎壓迫性骨折偵測方法100。
在某些實施例中,該儲存裝置803可以係例如為一以設定安全序號之外接硬碟(Hard drive, HD)、電腦斷層攝影(computed tomography, CT)裝置,或一醫學影像存檔與通訊系統(Picture archiving and communication systems, PACS)。
在某些實施例中,特定檔案格式之檔案804之檔案格式係一遵從醫療數位影像傳輸協定(Digital Imaging and Communications in Medicine, DICOM)之檔案格式。
根據本發明之實施例,第8C圖係再一種脊椎壓迫性骨折偵測系統800C之示意圖。如第8C圖所示,除了具有如第8B圖所示之該電子裝置801與該儲存裝置803之外,該脊椎壓迫性骨折偵測系統800C更包括一第四資料庫807;該第四資料庫807可以係搭載於電子裝置801上,亦可以係搭載於其他電子裝置上。如第8C圖所示,該電子裝置801會將執行脊椎壓迫性骨折偵測方法100後所取得之各節椎體之偵測結果402、各節椎體特徵點之標記結果602,以及各節椎體之壓迫性骨折比率等資訊,寫入或更新至該第四資料庫807。
在某些實施例中,該電子裝置801運用一元資料解析器(metadata parser)解析出元資料805中例如為病患之姓名、性別、年齡、量測日期…等資料欄位,再將該等資料欄位儲存或更新至該第四資料庫807。
在某些實施例中,該第四資料庫807向一醫療資訊系統808(例如為一放射科資訊系統)請求並獲取病患們的病歷,然後利用一內建之字典比對該病歷中所出現之關鍵字,以解析出該等病歷中的必要資訊,並將該等必要資訊寫入或更新至該第四資料庫807。
在某些實施例中,脊椎壓迫性骨折偵測系統800C可根據該第四資料庫807中記載的內容,自動產生圖文具備之脊椎性壓迫性骨折偵測報告809。
在某些實施例中,上述脊椎壓迫性骨折偵測系統800A、脊椎壓迫性骨折偵測系統800B或脊椎壓迫性骨折偵測系統800C中的該處理裝置802更執行一鑲嵌方法,將人體矢狀切面影像之該各節椎體之標記結果與該各節椎體之壓迫性骨折程度評估結果鑲嵌至該人體矢狀切面影像,並將鑲嵌至該人體矢狀切面影像之結果寫入或更新至醫療資訊系統808。
在某些實施例中,上述脊椎壓迫性骨折偵測系統800A、脊椎壓迫性骨折偵測系統800B或脊椎壓迫性骨折偵測系統800C更包括一顯示裝置(未在圖式中),該顯示裝置提供一使用者介面以呈現被鑲嵌標記結果與壓迫性骨折程度後之該人體矢狀切面影像,並且供醫療領域專業人士於該使用者介面上校正該各節椎體之標記結果。
根據本發明之實施例,第9圖係一人體矢狀切面影像之鑲嵌結果900之示意圖。如第9圖所示,該人體矢狀切面影像之鑲嵌結果900包含各節椎體之特徵點901、壓迫性骨折程度902以及椎體名稱903。其中,壓迫性骨折程度902包括該人體矢狀切面影像之各節椎體之壓迫性骨折比率與分級結果(依據前述之Genant’s criteria)。如第9圖之特徵點901、壓迫性骨折程度902以及椎體名稱903所示,在本實施例中,該人體矢狀切面影像中的椎體L2之壓迫性骨折比率為88%,屬於Grade 3(嚴重骨折)的等級。
在某些實施例中,上述脊椎壓迫性骨折偵測系統800A、脊椎壓迫性骨折偵測系統800B或脊椎壓迫性骨折偵測系統800C更執行一特徵點校正法,根據經醫療領域專業人士校正之特徵點,運用一訓練完成之深度學習特徵點校正模型自動校正該節椎體之其他尚未被醫療領域專業人士校正之特徵點之位置,然後再根據該訓練完成之深度學習特徵點校正模型之校正結果,更新該人體矢狀切面影像中被校正之該節椎體之壓迫性骨折程度。
例如,在一實施例中,醫療領域專業人士於該使用者介面上校正了該人體矢狀切面影像中某一椎體之前上點的位置,則該脊椎壓迫性骨折偵測系統會將經醫療領域專業人士校正過之該人體矢狀切面影像輸入至該訓練完成之深度學習特徵點校正模型,該訓練完成之深度學習特徵點校正模型則自動校正除了前上點之外,該節椎體之其他五個尚未被醫療領域專業人士校正之特徵點之位置,即前下、中上、中下、後上、後下等五個特徵點之位置。然後,該脊椎壓迫性骨折偵測系統根據該訓練完成之深度學習特徵點校正模型之校正結果,重新計算被校正之該節椎體之壓迫性骨折程度,並將重新計算後之該節椎體之壓迫性骨折程度更新至第9圖之人體矢狀切面影像之鑲嵌結果900上。
根據本發明之實施例,第10圖係該訓練完成之深度學習特徵點校正模型之訓練過程1000之流程圖,依序包括S1001~S1004等步驟。首先,於步驟S1001,從一第五資料庫中取得複數幀人體矢狀切面影像作為一第五資料集,然後進入步驟S1002;於步驟S1002,由醫療領域專業人士(例如醫師、醫事放射師或研究員)對該第五資料集中的脊椎椎體中段影像之各節椎體加以標註特徵點,然後進入步驟S1003;於步驟S1003,將已被醫療領域專業人士標註各節椎體特徵點之該第五資料集進行分組並輸入一深度學習特徵點校正模型,然後進入步驟S1004;於步驟S1004,透過反覆地參數調校,優化該深度學習特徵點校正模型之準確率;執行完上述步驟,取得訓練完成之深度學習特徵點校正模型,該訓練完成之深度學習特徵點校正模型具有校正出椎體特徵點之功能,並將鑲嵌結果900寫入或更新至醫療資訊系統808。
在某些實施例中,於步驟S1003,該深度學習特徵點校正模型係一基於人工神經網路(Artificial Neural Network,ANN)之模型,其訓練過程係以縮小機器標記結果與醫療領域專業人士標註之間的誤差距離為目標,透過反覆訓練及參數調校之過程,優化該模型之準確率。
本發明之實施例所揭露之脊椎壓迫性骨折偵測之方法與系統,可直接接收常規電腦斷層影像作為輸入,輔以人工智慧技術評估受測者之壓迫性骨折程度,突破了目前臨床診斷脊椎壓迫性骨折之限制,進而有助於提升脊椎壓迫性骨折被「早期發現、早期治療」之機會。
在本說明書中以及申請專利範圍中的序號,例如「第一」、「第二」等等,僅係為了方便說明,彼此之間並沒有順序上的先後關係。
以上段落使用多種層面描述。顯然的,本文的教示可以多種方式實現,而在範例中揭露之任何特定架構或功能僅為一代表性之狀況。根據本文之教示,任何熟知此技藝之人士應理解在本文揭露之各層面可獨立實作或兩種以上之層面可以合併實作。
雖然本揭露已以實施例揭露如上,然其並非用以限定本揭露,任何熟習此技藝者,在不脫離本揭露之精神和範圍內,當可作些許之更動與潤飾,因此發明之保護範圍當視後附之申請專利範圍所界定者為準。
100:脊椎壓迫性骨折偵測方法
S101~S106:步驟
201:人體橫狀切面影像
202:人體矢狀切面影像
301:訓練完成之深度學習分類模型
302:脊椎椎體中段影像
310:訓練完成之深度學習分類模型301之訓練過程
S311~S314:步驟
401:訓練完成之深度學習偵測模型
402:各節椎體之偵測結果
402a:椎體
402b:方框
410:訓練完成之深度學習偵測模型401之訓練過程
S411~S414:步驟
500:脊椎構造圖
601:訓練完成之深度學習特徵點定位模型
602:各節椎體特徵點之標記結果
610:訓練完成之深度學習特徵點定位模型601之訓練過程
S611~S614:步驟
620:脊椎椎體六點定位法
621:前上點
622:後上點
623:前下點
624:後下點
625:上線段
626:下線段
627:中線段
628:中上點
629:中下點
630:椎體
700:脊椎壓迫性骨折程度評估方式
800A~800C:脊椎壓迫性骨折偵測系統
801:電子裝置
802:處理裝置
803:儲存裝置
804:特定檔案格式之檔案
805:元資料
806:影像資料
807:第四資料庫
808:醫療資訊系統
809:脊椎性壓迫性骨折偵測報告
900:人體矢狀切面影像之鑲嵌結果
901:特徵點
902:壓迫性骨折程度
903:椎體名稱
1000:訓練完成之深度學習特徵點校正模型之訓練過程
S1001~S1004:步驟
第1圖係一種脊椎壓迫性骨折偵測方法100之流程圖。 第2圖係人體橫狀切面影像201與人體矢狀切面影像202之示意圖。 第3A圖係第1圖中之步驟S103之示意圖。 第3B圖係該訓練完成之深度學習分類模型301之訓練過程310之流程圖。 第4A圖係第1圖中之步驟S104之示意圖。 第4B圖係該訓練完成之深度學習偵測模型401之訓練過程410之流程圖。 第5圖係在醫學或解剖學領域中所習知與使用之脊椎構造圖500。 第6A圖係第1圖中之步驟S105之示意圖。 第6B圖係該訓練完成之深度學習特徵點定位模型601之訓練過程610之流程圖。 第6C圖係一脊椎椎體六點定位法620之示意圖。 第7圖係第1圖中之步驟S106所採用之脊椎壓迫性骨折程度評估方式700之示意圖。 第8A圖係一種脊椎壓迫性骨折偵測系統800A之示意圖。 第8B圖係另一種脊椎壓迫性骨折偵測系統800B之示意圖。 第8C圖係再一種脊椎壓迫性骨折偵測系統800C之示意圖。 第9圖係一人體矢狀切面影像之鑲嵌結果900之示意圖。 第10圖係該訓練完成之深度學習特徵點校正模型之訓練過程1000之流程圖。
S101~S106:步驟

Claims (9)

  1. 一種脊椎壓迫性骨折偵測方法,包括下列步驟:將複數幀人體橫狀切面影像重組為一人體三維影像;利用一多平面重建法將該人體三維影像以矢狀切面切分,取得至少一幀人體矢狀切面影像;利用一分類篩選方法判斷該人體矢狀切面影像是否為脊椎椎體中段影像;利用一椎體偵測方法,將被判斷為脊椎椎體中段影像之人體矢狀切面影像偵測出各節椎體;利用一椎體標記方法,將該人體矢狀切面影像中已偵測出的該各節椎體標記出複數個椎體特徵點;依據該等椎體特徵點,取得該各節椎體之複數個特徵點距離;基於該等特徵點距離,評估該人體矢狀切面影像中的該各節椎體之壓迫性骨折程度。
  2. 如請求項1所述之脊椎壓迫性骨折偵測方法,其中該分類篩選方法係運用一訓練完成之深度學習分類模型判別該人體矢狀切面面影像是否為脊椎椎體中段影像;其中,該深度學習分類模型之訓練過程所需之輸入資料,係已被醫療領域專業人士判別與註記是否為脊椎椎體中段影像之複數幀人體矢狀切面影像。
  3. 如請求項1所述之脊椎壓迫性骨折偵測方法,其中該椎體描繪方法係運用一訓練完成之深度學習偵測模型偵測出該脊椎椎體中段影像中的各節椎體; 其中,該深度學習偵測模型之訓練過程所需之輸入資料,係已被醫療領域專業人士描繪出各節椎體之複數幀人體矢狀切面影像。
  4. 如請求項1所述之脊椎壓迫性骨折偵測方法,其中該椎體標記方法係運用一深度學習特徵點定位模型標記各節椎體特徵點;其中,該深度學習特徵點定位模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
  5. 一種脊椎壓迫性骨折偵測系統,包括:一電子裝置,包括一處理裝置,以載入程式並執行如請求項1所述之脊椎壓迫性骨折偵測方法。
  6. 如請求項5所述之脊椎壓迫性骨折偵測系統,更包括:一儲存裝置,將電腦斷層影像與病患基本資訊儲存為一特定檔案格式之檔案,並且可將該特定檔案格式之檔案傳送給該電子裝置;該電子裝置接收來自該儲存裝置之特定檔案格式之檔案,將該檔案解析為元資料與影像資料,再將該影像資料作為輸入,執行如請求項1所述之脊椎壓迫性骨折偵測方法。
  7. 如請求項5或6所述之脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一鑲嵌方法,將人體矢狀切面影像之該各節椎體之標記結果與該各節椎體之壓迫性骨折程度評估結果鑲嵌至該人體矢狀切面影像。
  8. 如請求項7所述之脊椎壓迫性骨折偵測系統,更包括一顯示裝置,該顯示裝置提供一使用者介面以呈現 被鑲嵌各節椎體之標記結果與壓迫性骨折程度後之該人體矢狀切面影像,並且供醫療領域專業人士於該使用者介面上校正該各節椎體之標記結果。
  9. 如請求項8所述之脊椎壓迫性骨折偵測系統,其中該處理裝置更執行一特徵點校正法,該特徵點校正法包括:根據經醫療領域專業人士校正之特徵點,運用一訓練完成之深度學習特徵點校正模型自動校正該節椎體之其他尚未被醫療領域專業人士校正之特徵點之位置;根據該訓練完成之深度學習特徵點校正模型之校正結果,更新該人體矢狀切面影像中被校正之該節椎體之壓迫性骨折程度;其中,該深度學習特徵點校正模型之訓練過程所需之輸入資料,係已被醫療領域專業人士標註各節椎體特徵點之人體矢狀切面影像。
TW109119248A 2020-06-09 2020-06-09 脊椎壓迫性骨折偵測方法與系統 TWI733487B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW109119248A TWI733487B (zh) 2020-06-09 2020-06-09 脊椎壓迫性骨折偵測方法與系統
CN202010624631.6A CN113781382B (zh) 2020-06-09 2020-07-01 脊椎压迫性骨折检测方法与系统
US17/223,605 US11779295B2 (en) 2020-06-09 2021-04-06 Method and system of vertebral compression fracture detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW109119248A TWI733487B (zh) 2020-06-09 2020-06-09 脊椎壓迫性骨折偵測方法與系統

Publications (2)

Publication Number Publication Date
TWI733487B true TWI733487B (zh) 2021-07-11
TW202145961A TW202145961A (zh) 2021-12-16

Family

ID=77911177

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109119248A TWI733487B (zh) 2020-06-09 2020-06-09 脊椎壓迫性骨折偵測方法與系統

Country Status (3)

Country Link
US (1) US11779295B2 (zh)
CN (1) CN113781382B (zh)
TW (1) TWI733487B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI759946B (zh) * 2020-11-05 2022-04-01 倍利科技股份有限公司 脊柱量測及狀態評估方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114581395A (zh) * 2022-02-28 2022-06-03 四川大学 一种基于深度学习的脊椎医学图像的关键点检测方法
CN115439453B (zh) * 2022-09-13 2023-05-26 北京医准智能科技有限公司 一种脊椎椎体定位方法、装置、电子设备及存储介质
CN115984190B (zh) * 2022-12-12 2023-11-21 浙江医准智能科技有限公司 一种基于ct图像的处理方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107844800A (zh) * 2017-07-31 2018-03-27 深圳联影医疗科技有限公司 一种全脊椎最佳矢状位的确定系统、方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI268148B (en) * 2004-11-25 2006-12-11 Univ Chung Yuan Christian Image analysis method for vertebral disease which comprises 3D reconstruction method and characteristic identification method of unaligned transversal slices
US10460508B2 (en) * 2014-06-12 2019-10-29 Siemens Healthcare Gmbh Visualization with anatomical intelligence
US10878576B2 (en) * 2018-02-14 2020-12-29 Elekta, Inc. Atlas-based segmentation using deep-learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107844800A (zh) * 2017-07-31 2018-03-27 深圳联影医疗科技有限公司 一种全脊椎最佳矢状位的确定系统、方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Amir Bar, Lior Wolf, Orna Bergman Amitai, Eyal Toledano, and Eldad Elnekave, "Compression fractures detection on CT", Proc. SPIE 10134, Medical Imaging 2017: Computer-Aided Diagnosis, 1013440 (3 March 2017).
Amir Bar, Lior Wolf, Orna Bergman Amitai, Eyal Toledano, and Eldad Elnekave, "Compression fractures detection on CT", Proc. SPIE 10134, Medical Imaging 2017: Computer-Aided Diagnosis, 1013440 (3 March 2017). Joeri Nicolaes, Steven Raeymaeckers, David Robben, Guido Wilms, Dirk Vandermeulen, Cesar Libanati, Marc Debois, "Detection of Vertebral Fractures in CT Using 3D Convolutional Neural Networks",International Workshop and Challenge on Computational Methods and Clinical Applications for Spine Imaging CSI 2019: Computational Methods and Clinical Applications for Spine Imaging pp 3-14. *
Joeri Nicolaes, Steven Raeymaeckers, David Robben, Guido Wilms, Dirk Vandermeulen, Cesar Libanati, Marc Debois, "Detection of Vertebral Fractures in CT Using 3D Convolutional Neural Networks",International Workshop and Challenge on Computational Methods and Clinical Applications for Spine Imaging CSI 2019: Computational Methods and Clinical Applications for Spine Imaging pp 3-14.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI759946B (zh) * 2020-11-05 2022-04-01 倍利科技股份有限公司 脊柱量測及狀態評估方法

Also Published As

Publication number Publication date
TW202145961A (zh) 2021-12-16
US11779295B2 (en) 2023-10-10
US20210378616A1 (en) 2021-12-09
CN113781382A (zh) 2021-12-10
CN113781382B (zh) 2024-07-05

Similar Documents

Publication Publication Date Title
TWI733487B (zh) 脊椎壓迫性骨折偵測方法與系統
US20210158531A1 (en) Patient Management Based On Anatomic Measurements
de Oliveira et al. Observer reliability of three-dimensional cephalometric landmark identification on cone-beam computerized tomography
US20080058611A1 (en) Medical image processing apparatus
Olszewski et al. Reproducibility of osseous landmarks used for computed tomography based three-dimensional cephalometric analyses
JP4800129B2 (ja) 医用画像表示処理装置、及び、医用画像表示処理プログラム
KR101748019B1 (ko) 의료정보 제공 장치 및 의료정보 제공 방법
Hou et al. Teeth U-Net: A segmentation model of dental panoramic X-ray images for context semantics and contrast enhancement
Warin et al. Assessment of deep convolutional neural network models for mandibular fracture detection in panoramic radiographs
US11875897B2 (en) Medical image processing apparatus, method, and program, and diagnosis support apparatus, method, and program
CN112639998A (zh) 解剖结构与体表电极定位的计算模拟
Hadagali et al. Morphing the feature-based multi-blocks of normative/healthy vertebral geometries to scoliosis vertebral geometries: development of personalized finite element models
Vergari et al. A convolutional neural network to detect scoliosis treatment in radiographs
Nie et al. OII-DS: A benchmark Oral Implant Image Dataset for object detection and image classification evaluation
Diaconu et al. A semi-automatic approach for longitudinal 3D upper airway analysis using voxel-based registration
Miranda et al. Artificial intelligence applications in orthodontics
Kang et al. Accuracy and clinical validity of automated cephalometric analysis using convolutional neural networks
Eulzer et al. Visualization of human spine biomechanics for spinal surgery
Silva et al. Assessment of accuracy and reproducibility of cephalometric identification performed by 2 artificial intelligence-driven tracing applications and human examiners
Antico et al. Deep Learning-based automatic segmentation for reconstructing vertebral anatomy of Healthy Adolescents and Patients with Adolescent Idiopathic Scoliosis (AIS) Using MRI Data
Iriondo et al. Institution‐wide shape analysis of 3D spinal curvature and global alignment parameters
San Román Gaitero et al. Imaging Methods to Quantify the Chest and Trunk Deformation in Adolescent Idiopathic Scoliosis: A Literature Review
Yuan et al. A novel computer-aided surgical simulation (CASS) system to streamline orthognathic surgical planning
TW202219978A (zh) 圈選系統
TW202218627A (zh) 脊柱量測及狀態評估方法