JP7654079B2 - 被検者の身体部分の解剖学的ランドマークを提供するための方法及びシステム - Google Patents
被検者の身体部分の解剖学的ランドマークを提供するための方法及びシステム Download PDFInfo
- Publication number
- JP7654079B2 JP7654079B2 JP2023530740A JP2023530740A JP7654079B2 JP 7654079 B2 JP7654079 B2 JP 7654079B2 JP 2023530740 A JP2023530740 A JP 2023530740A JP 2023530740 A JP2023530740 A JP 2023530740A JP 7654079 B2 JP7654079 B2 JP 7654079B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging sensor
- landmark
- spatial orientation
- ultrasound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0875—Clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
- A61B8/5246—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
- A61B90/96—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rheumatology (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Prostheses (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Description
- 超音波デバイス、少なくとも1つのフィデューシャルマーカ、及びイメージングセンサを含む取得システムによって事前に取得された測定値セットを受信するステップと、
前記測定値セットは、
○ 第1のランドマークを含んでいる少なくとも1つの第1の超音波画像、及びイメージングセンサによって第1の超音波画像と同時に取得された少なくとも1つの第1の画像、
○ 第2のランドマークを含んでいる少なくとも1つの第2の超音波画像、及び第2の超音波画像と同時に取得された少なくとも1つの第2の画像、
○ 第3のランドマークを含んでいる少なくとも1つの第3の超音波画像、及び第3の超音波画像と同時に取得された少なくとも1つの第3の画像、
○ 被検者の身体部分の少なくとも一部を含んでいる少なくとも1つの第4の画像、
を含み、第1、第2、及び第3の画像は、少なくとも1つのフィデューシャルマーカを含んでおり、
- 各超音波画像について、
○ 関連する画像内のフィデューシャルマーカを使用して、イメージングセンサの参照系における超音波画像の位置及び空間的方向を計算するステップと、
○ 超音波画像内の関連するランドマークの位置を識別し、超音波画像の位置及び空間的方向を使用して、イメージングセンサの参照系におけるランドマークの位置を計算するステップと、
- イメージングセンサの参照系における横断面の空間的方向を計算するステップと、
- イメージングセンサの参照系における矢状面の空間的方向を計算するステップと、
- 横断面及び矢状面の位置及び空間的方向を使用して、イメージングセンサの参照系における冠状面の位置及び空間的方向を計算するステップと、
- イメージングセンサの参照系における少なくとも第1、第2、及び第3のランドマークの位置を含む被検者の身体部分の解剖学的ランドマークと横断面、矢状面、及び冠状面の空間的方向を出力するステップと、
を含む方法に関する。
- 少なくとも1つの加速度計測定値を入力として受信するステップと、
- 加速度計測定値の垂直ベクトルを使用して、イメージングセンサの参照系における横断面の空間的方向を計算するステップと、
をさらに含む。
- 身体部分の一部を含んでいる第4の画像の深度成分を使用してイメージングセンサの参照系における矢状面を計算するステップと、
- 第1、第2、及び第3の画像の深度成分を使用してフィデューシャルマーカの位置及び空間的方向を計算することで、超音波デバイスの位置を特定し、イメージングセンサの参照系における超音波画像の位置及び空間的方向を計算するステップと、
を含む。
- 第1、第2、及び第3のランドマークが識別されている被検者の三次元画像から得られた被検者の肩甲骨の骨形態のデジタルモデルを受信するステップと、
- 肩甲骨のデジタルモデルに含まれる各点がイメージングセンサの参照系において既知の位置を有するように、空間変換を適用して肩甲骨のデジタルモデルをイメージングセンサの参照系において位置合わせするステップと、
をさらに含む。
- 超音波デバイス、少なくとも1つのフィデューシャルマーカ、及びイメージングセンサを含む取得システムによって事前に取得された測定値セットを受信するように適合された少なくとも1つの入力部と、
前記測定値セットは、
○ 第1のランドマークを含んでいる少なくとも1つの第1の超音波画像、及びイメージングセンサによって第1の超音波画像と同時に取得された少なくとも1つの第1の画像、
○ 第2のランドマークを含んでいる少なくとも1つの第2の超音波画像、及び第2の超音波画像と同時に取得された少なくとも1つの第2の画像、
○ 第3のランドマークを含んでいる少なくとも1つの第3の超音波画像、及び第3の超音波画像と同時に取得された少なくとも1つの第3の画像、
○ 被検者の身体部分の少なくとも一部を含んでいる少なくとも1つの第4の画像、
を含み、第1、第2、及び第3の画像は、少なくとも1つのフィデューシャルマーカを含んでおり、
- 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサは、
○ 前記各超音波画像について、
・ 関連する画像内のフィデューシャルマーカを使用して、イメージングセンサの参照系における超音波画像の位置及び空間的方向を計算し、
・ 関連するランドマークの位置を識別し、超音波画像の位置及び空間的方向を使用して、イメージングセンサの参照系におけるランドマークの位置を計算し、
○ イメージングセンサの参照系における横断面の空間的方向を計算し、
○ イメージングセンサの参照系における矢状面の空間的方向を計算し、
○ 横断面及び矢状面の空間的方向を使用して、イメージングセンサの参照系における冠状面の空間的方向を計算する、
ように構成され、
- イメージングセンサの参照系における少なくとも第1、第2、及び第3のランドマークの位置を含む前記被検者の身体部分の解剖学的ランドマークと横断面、矢状面、及び冠状面の空間的方向を提供するように適合された少なくとも1つの出力部と、
を含むシステムに関する。
- 第1、第2、及び第3のランドマークが識別されている被検者の三次元画像から得られた被検者の肩甲骨の骨形態のデジタルモデルを受信し、
- 肩甲骨のデジタルモデルに含まれる各点がイメージングセンサの参照系において既知の位置を有するように、空間変換を適用して肩甲骨のデジタルモデルをイメージングセンサの参照系において位置合わせする、
ように構成される。
本発明において、以下の用語は以下の意味を有する:
- 第1のランドマークL1を含んでいる少なくとも1つの第1の超音波画像US1、及びイメージングセンサによって第1の超音波画像US1と同時に取得されたフィデューシャルマーカを含んでいる少なくとも1つの第1の画像D1、
- 第2のランドマークL2を含んでいる少なくとも1つの第2の超音波画像US2、及びイメージングセンサによって第2の超音波画像US2と同時に取得されたフィデューシャルマーカを含んでいる少なくとも1つの第2の画像D2、
- 第3のランドマークL3を含んでいる少なくとも1つの第3の超音波画像US3、及びイメージングセンサによって第3の超音波画像US3と同時に取得されたフィデューシャルマーカを含んでいる少なくとも1つの第3の画像D3、
- 被検者の身体部分の少なくとも一部を含んでいる少なくとも1つの第4の画像D4、
を含む。
- 少なくとも1つのフィデューシャルマーカを備える超音波デバイスとイメージングセンサによって事前に取得された測定値セットを受信するように適合された少なくとも1つの入力部、
を含み、前記測定値セットは、
○ 第1のランドマークL1を含んでいる少なくとも1つの第1の超音波画像US1、及びイメージングセンサによって第1の超音波画像US1と同時に取得された少なくとも1つの第1の画像D1、
○ 第2のランドマークL2を含んでいる少なくとも1つの第2の超音波画像US2、及び第2の超音波画像US2と同時に取得された少なくとも1つの第2の画像D2、
○ 第3のランドマークL3を含んでいる少なくとも1つの第3の超音波画像US3、及び第3の超音波画像US3と同時に取得された少なくとも1つの第3の画像D3、
○ 被検者の身体部分の少なくとも一部を含んでいる少なくとも1つの第4の画像D4、
を含み、第1の画像D1、第2の画像D2、及び第3の画像D3は、少なくとも1つのフィデューシャルマーカを含む。
- 関連する画像Di(すなわち、D1、D2、D3)内のフィデューシャルマーカを使用して、イメージングセンサの参照系における超音波画像USi(すなわち、US1、US2、US3)の位置及び空間的方向を計算するステップ、及び
- 関連するランドマークLiの位置を識別し、超音波画像の位置及び空間的方向を使用して、イメージングセンサの参照系におけるランドマークの位置pLi(すなわち、pL1、pL2、pL3)を計算するステップ、
を実行するように構成される。
- イメージングセンサの参照系における横断面TPの空間的方向を計算するステップ、
- 第4の画像D4に含まれている身体部分の一部について解析することによって、イメージングセンサの参照系における矢状面SPの空間的方向を計算するステップ、及び
- 横断面及び矢状面の空間的方向を使用して、イメージングセンサの参照系における冠状面CPの空間的方向を計算するステップ、
を実行するように構成される。
- 少なくとも1つの加速度計測定値を入力として受信し、
- 加速度計測定値の垂直ベクトルを使用して、イメージングセンサの参照系における横断面TPの空間的方向を計算する、
ように構成されてもよい。
- 第1のランドマークL1、第2のランドマークL2、及び第3のランドマークL3が識別されている被検者の三次元画像から得られた被検者の肩甲骨の骨形態のデジタルモデルを受信し、
- 肩甲骨のデジタルモデルに含まれる各点pDMがイメージングセンサの参照系において既知の位置を有するように、空間変換を適用して肩甲骨のデジタルモデルをイメージングセンサの参照系において位置合わせする、
ように構成される。
Claims (16)
- 被検者の身体部分の解剖学的ランドマークを提供するためのコンピュータで実施される方法であって、
- 超音波デバイス、前記超音波デバイスに厳密に固定された少なくとも1つのフィデューシャルマーカ、及びイメージングセンサを含む取得システムによって事前に取得された測定値セットを受信するステップ(REC)と、
前記測定値セットは、
○ 第1のランドマーク(L1)を含んでいる少なくとも1つの第1の超音波画像(US1)、及び前記イメージングセンサによって前記少なくとも1つの第1の超音波画像(US1)と同時に取得された少なくとも1つの第1の画像(D1)、
○ 第2のランドマーク(L2)を含んでいる少なくとも1つの第2の超音波画像(US2)、及び前記少なくとも1つの第2の超音波画像(US2)と同時に取得された少なくとも1つの第2の画像(D2)、
○ 第3のランドマーク(L3)を含んでいる少なくとも1つの第3の超音波画像(US3)、及び前記少なくとも1つの第3の超音波画像(US3)と同時に取得された少なくとも1つの第3の画像(D3)、
○ 被検者の身体部分の少なくとも一部を含んでいる少なくとも1つの第4の画像(D4)、
を含み、前記第1の画像(D1)、第2の画像(D2)、及び第3の画像(D3)は、少なくとも1つのフィデューシャルマーカを含んでおり、
- 各超音波画像(USi)について、
○ 関連する画像(Di)内のフィデューシャルマーカを使用して、イメージングセンサの参照系における超音波画像(USi)の位置及び空間的方向を計算するステップ(CALC_US)と、
○ 超音波画像(USi)内の関連するランドマーク(Li)の位置を識別し、超音波画像の位置及び空間的方向を使用して、イメージングセンサの参照系におけるランドマークの位置(pLi)を計算するステップ(CALC_L)と、
- イメージングセンサの参照系における横断面(TP)の空間的方向を計算するステップ(CALC_TP)と、
- 第4の画像(D4)に含まれている身体部分の一部を解析することによって、イメージングセンサの参照系における矢状面(SP)の空間的方向を計算するステップ(CALC_SP)と、
- 横断面(TP)及び矢状面(SP)の位置及び空間的方向を使用して、イメージングセンサの参照系における冠状面(CP)の位置及び空間的方向を計算するステップ(CALC_CP)と、
- イメージングセンサの参照系における少なくとも第1のランドマークの位置(pL1)、第2のランドマークの位置(pL2)、及び第3のランドマークの位置(pL3)、及び前記第1のランドマーク(pL1)、前記第2のランドマーク(pL2)、及び前記第3のランドマーク(pL3)を含むアンサンブルの空間的方向を含む被検者の身体部分の解剖学的ランドマークと、イメージングセンサの参照系における横断面(TP)、矢状面(SP)、及び冠状面(CP)の空間的方向を出力するステップと、
を含む方法。 - 前記身体部分は患者の肩である、請求項1に記載の方法。
- 前記第1のランドマーク(L1)は肩峰角であり、前記第2のランドマーク(L2)は肩甲棘三角であり、前記第3のランドマーク(L3)は肩甲骨の下角である、請求項2に記載の方法。
- 前記イメージングセンサの参照系における超音波画像(USi)の位置及び空間的方向を計算するために、超音波デバイスとフィデューシャルマーカとの間の事前定義された空間変換(T)を入力として受信するステップをさらに含む、請求項1~請求項3のいずれか一項に記載の方法。
- 前記イメージングセンサは加速度計をさらに含み、前記方法は、
少なくとも1つの加速度計測定値を入力として受信するステップと、
加速度計測定値の垂直ベクトルを使用して、イメージングセンサの参照系における横断面(TP)の空間的方向を計算するステップと、
を含む、請求項1~請求項4のいずれか一項に記載の方法。 - 前記矢状面(SP)の空間的方向は、第4の画像(D4)を入力として受信する機械学習アルゴリズムを使用して得られる、請求項1~請求項5のいずれか一項に記載の方法。
- 前記フィデューシャルマーカは、内部パターンを有する正方形ベースのフィデューシャルマーカである、請求項1~請求項6のいずれか一項に記載の方法。
- 前記イメージングセンサは、深度成分と視覚成分を有する画像を取得するように構成されたレンジイメージングセンサであり、前記少なくとも1つの第4の画像(D4)は、前記レンジイメージングセンサで取得され、前記イメージングセンサの参照系における矢状面(SP)の空間的方向は、身体部分の一部を含んでいる前記第4の画像(D4)の深度成分を使用して計算される、請求項1~請求項5のいずれか一項に記載の方法。
- 前記イメージングセンサは、深度成分を有する画像を取得するように構成されたレンジイメージングセンサであり、前記レンジイメージングセンサで前記第1の画像(D1)、第2の画像(D2)、第3の画像(D3)、及び第4の画像(D4)が事前に取得され、前記方法は、
- 身体部分の一部を含んでいる第4の画像(D4)の深度成分を使用してイメージングセンサの参照系における矢状面(SP)の空間的方向を計算するステップと、
- 第1の画像(D1)、第2の画像(D2)、第3の画像(D3)の深度成分を使用してフィデューシャルマーカの位置及び空間的方向を計算することで、超音波デバイスの位置を特定し、イメージングセンサの参照系における超音波画像(USi)の位置及び空間的方向を計算するステップと、
を含む、請求項1~請求項5のいずれか一項に記載の方法。 - - 第1のランドマーク(L1)、第2のランドマーク(L2)、及び第3のランドマーク(L3)が識別されている被検者の三次元画像から得られた被検者の肩甲骨の骨形態のデジタルモデルを受信するステップと、
- 肩甲骨のデジタルモデルに含まれる各点(pDM)がイメージングセンサの参照系において既知の位置を有するように、空間変換を適用して肩甲骨のデジタルモデルをイメージングセンサの参照系において位置合わせするステップ(REG)と、
をさらに含む、請求項2~請求項9のいずれか一項に記載の方法。 - 前記位置合わせされたデジタルモデルと前記イメージングセンサの参照系における横断面(TP)、矢状面(SP)、及び冠状面(CP)の空間的方向が、研究される肢位での身体部分の可動域を計算するために使用される、請求項10に記載の方法。
- プログラムがコンピュータによって実行されるときにコンピュータに請求項1~請求項11のいずれか一項に記載の方法を実行させる命令を含むコンピュータプログラム製品。
- 被検者の身体部分の解剖学的ランドマークを提供するためのシステムであって、
- 超音波デバイス、前記超音波デバイスに厳密に固定された少なくとも1つのフィデューシャルマーカ、及びイメージングセンサを含む取得システムによって事前に取得された測定値セットを受信するように適合された少なくとも1つの入力部と、
前記測定値セットは、
○ 第1のランドマーク(L1)を含んでいる少なくとも1つの第1の超音波画像(US1)、及び前記イメージングセンサによって前記少なくとも1つの第1の超音波画像(US1)と同時に取得された少なくとも1つの第1の画像(D1)、
○ 第2のランドマーク(L2)を含んでいる少なくとも1つの第2の超音波画像(US2)、及び前記少なくとも1つの第2の超音波画像(US2)と同時に取得された少なくとも1つの第2の画像(D2)、
○ 第3のランドマーク(L3)を含んでいる少なくとも1つの第3の超音波画像(US3)、及び前記少なくとも1つの第3の超音波画像(US3)と同時に取得された少なくとも1つの第3の画像(D3)、
○ 被検者の身体部分の少なくとも一部を含んでいる少なくとも1つの第4の画像(D4)、
を含み、前記第1の画像(D1)、第2の画像(D2)、及び第3の画像(D3)は、少なくとも1つのフィデューシャルマーカを含んでおり、
- 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサは、
○ 前記各超音波画像(USi)について、
・ 関連する画像(Di)内のフィデューシャルマーカを使用して、イメージングセンサの参照系における超音波画像(USi)の位置及び空間的方向を計算し、
・ 関連するランドマーク(Li)の位置を識別し、超音波画像の位置及び空間的方向を使用して、イメージングセンサの参照系におけるランドマークの位置(pLi)を計算し、
○ イメージングセンサの参照系における横断面(TP)の空間的方向を計算し、
○ 第4の画像(D4)に含まれている身体部分の一部について解析することによって、イメージングセンサの参照系における矢状面(SP)の空間的方向を計算し、
○ 横断面及び矢状面の空間的方向を使用して、イメージングセンサの参照系における冠状面(CP)の空間的方向を計算する、
ように構成され、
- イメージングセンサの参照系における少なくとも第1のランドマークの位置(pL1)、第2のランドマークの位置(pL2)、及び第3のランドマークの位置(pL3)、前記第1のランドマーク(pL1)、前記第2のランドマーク(pL2)、及び前記第3のランドマーク(pL3)を含むアンサンブルの空間的方向を含む被検者の身体部分の解剖学的ランドマーク、並びに横断面(TP)、矢状面(SP)、及び冠状面(CP)の空間的方向を提供するように適合された少なくとも1つの出力部と、
を含むシステム。 - 前記身体部分は患者の肩であり、前記第1のランドマーク(L1)は肩峰角であり、前記第2のランドマーク(L2)は肩甲棘三角であり、前記第3のランドマーク(L3)は肩甲骨の下角であり、前記少なくとも1つのプロセッサはさらに、
- 前記第1のランドマーク(L1)、第2のランドマーク(L2)、及び第3のランドマーク(L3)が識別されている被検者の三次元画像から得られた被検者の肩甲骨の骨形態のデジタルモデルを受信し、
- 肩甲骨のデジタルモデルに含まれる各点(pDM)がイメージングセンサの参照系において既知の位置を有するように、空間変換を適用して肩甲骨のデジタルモデルをイメージングセンサの参照系において位置合わせする(REG)、
ように構成される、請求項13に記載のシステム。 - 前記少なくとも1つのプロセッサはさらに、前記位置合わせされたデジタルモデルと前記イメージングセンサの参照系における横断面(TP)、矢状面(SP)、及び冠状面(CP)の空間的方向を使用して、研究される肢位での身体部分の可動域を計算するように構成される、請求項14に記載のシステム。
- プログラムがコンピュータによって実行されるときにコンピュータに請求項1~請求項11のいずれか一項に記載の方法を実行させる命令を含む非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP20306404 | 2020-11-18 | ||
| EP20306404.3 | 2020-11-18 | ||
| PCT/EP2021/081939 WO2022106446A1 (en) | 2020-11-18 | 2021-11-17 | Method and system for providing anatomical landmarks of a subject's body part |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023552100A JP2023552100A (ja) | 2023-12-14 |
| JP7654079B2 true JP7654079B2 (ja) | 2025-03-31 |
Family
ID=73654735
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023530740A Active JP7654079B2 (ja) | 2020-11-18 | 2021-11-17 | 被検者の身体部分の解剖学的ランドマークを提供するための方法及びシステム |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US20240008951A1 (ja) |
| EP (1) | EP4247286B1 (ja) |
| JP (1) | JP7654079B2 (ja) |
| AU (1) | AU2021382306A1 (ja) |
| CA (1) | CA3202388A1 (ja) |
| WO (1) | WO2022106446A1 (ja) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019534717A (ja) | 2016-08-16 | 2019-12-05 | インサイト メディカル システムズ インコーポレイテッド | 医療処置における感覚増強のためのシステム |
| WO2020102761A1 (en) | 2018-11-17 | 2020-05-22 | Novarad Corporation | Using optical codes with augmented reality displays |
| WO2020206423A1 (en) | 2019-04-04 | 2020-10-08 | Centerline Biomedical, In C. | Registration of spatial tracking system with augmented reality display |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11109835B2 (en) * | 2011-12-18 | 2021-09-07 | Metritrack Llc | Three dimensional mapping display system for diagnostic ultrasound machines |
| WO2016154554A1 (en) * | 2015-03-26 | 2016-09-29 | Biomet Manufacturing, Llc | Method and system for planning and performing arthroplasty procedures using motion-capture data |
| US11173048B2 (en) * | 2017-11-07 | 2021-11-16 | Howmedica Osteonics Corp. | Robotic system for shoulder arthroplasty using stemless implant components |
| EP3773232B1 (en) * | 2018-04-06 | 2025-10-22 | Medtronic, Inc. | Image-based navigation system |
| CN113473936A (zh) * | 2019-02-05 | 2021-10-01 | 史密夫和内修有限公司 | 机器人手术数据用于长期护理期 |
| EP3946062A4 (en) * | 2019-04-04 | 2023-06-14 | Centerline Biomedical, Inc. | SPATIAL REGISTRATION OF A TRACKING SYSTEM WITH AN IMAGE USING TWO-DIMENSIONAL IMAGE PROJECTIONS |
| EP3726460B1 (en) * | 2019-04-06 | 2023-08-23 | Kardiolytics Inc. | Autonomous segmentation of contrast filled coronary artery vessels on computed tomography images |
| WO2021148880A1 (en) * | 2020-01-21 | 2021-07-29 | Xr Health Il Ltd | Systems for dynamic assessment of upper extremity impairments in virtual/augmented reality |
-
2021
- 2021-11-17 JP JP2023530740A patent/JP7654079B2/ja active Active
- 2021-11-17 US US18/253,316 patent/US20240008951A1/en active Pending
- 2021-11-17 EP EP21806294.1A patent/EP4247286B1/en active Active
- 2021-11-17 CA CA3202388A patent/CA3202388A1/en active Pending
- 2021-11-17 AU AU2021382306A patent/AU2021382306A1/en active Pending
- 2021-11-17 WO PCT/EP2021/081939 patent/WO2022106446A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019534717A (ja) | 2016-08-16 | 2019-12-05 | インサイト メディカル システムズ インコーポレイテッド | 医療処置における感覚増強のためのシステム |
| WO2020102761A1 (en) | 2018-11-17 | 2020-05-22 | Novarad Corporation | Using optical codes with augmented reality displays |
| WO2020206423A1 (en) | 2019-04-04 | 2020-10-08 | Centerline Biomedical, In C. | Registration of spatial tracking system with augmented reality display |
Also Published As
| Publication number | Publication date |
|---|---|
| AU2021382306A9 (en) | 2025-01-09 |
| WO2022106446A1 (en) | 2022-05-27 |
| EP4247286B1 (en) | 2025-08-27 |
| EP4247286A1 (en) | 2023-09-27 |
| US20240008951A1 (en) | 2024-01-11 |
| JP2023552100A (ja) | 2023-12-14 |
| AU2021382306A1 (en) | 2023-06-22 |
| CA3202388A1 (en) | 2022-05-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12588953B2 (en) | Devices, systems and methods for natural feature tracking of surgical tools and other objects | |
| CN113950301B (zh) | 用于计算机引导手术的系统 | |
| US11257241B2 (en) | System and method for component positioning by registering a 3D patient model to an intra-operative image | |
| US9320421B2 (en) | Method of determination of access areas from 3D patient images | |
| US20230233257A1 (en) | Augmented reality headset systems and methods for surgical planning and guidance | |
| US20130114873A1 (en) | Method for automatically identifying the contours of a predefined bone, derived methods and corresponding computer program products | |
| US20190090955A1 (en) | Systems and methods for position and orientation tracking of anatomy and surgical instruments | |
| Liu et al. | Automatic markerless registration and tracking of the bone for computer-assisted orthopaedic surgery | |
| EP2981943A1 (en) | Method and device for determining the orientation of a co-ordinate system of an anatomical object in a global co-ordinate system | |
| CN114795470B (zh) | 手术中的定位导航方法、装置及安装机器人 | |
| Richey et al. | Soft tissue monitoring of the surgical field: detection and tracking of breast surface deformations | |
| CN115607286B (zh) | 基于双目标定的膝关节置换手术导航方法、系统及设备 | |
| JP7654079B2 (ja) | 被検者の身体部分の解剖学的ランドマークを提供するための方法及びシステム | |
| CN116549108A (zh) | 基于影像的目标点位置确定方法、装置、设备及存储介质 | |
| Brudfors et al. | ConoSurf: Open‐source 3D scanning system based on a conoscopic holography device for acquiring surgical surfaces | |
| Fu et al. | Slam-based breast reconstruction system for surgical guidance using a low-cost camera | |
| Kang et al. | Towards a clinical stereoscopic augmented reality system for laparoscopic surgery | |
| Gu et al. | Near-infrared beacons: tracking anatomy with biocompatible fluorescent dots for mixed reality surgical navigation | |
| CN121437650B (zh) | 一种x射线与rgb-d成像跨模态标定及标注映射方法 | |
| Alfano et al. | Acquisition and elaboration of superficial three-dimensional images in plastic and reconstructive surgery: Applications | |
| CN116942128A (zh) | 利用标志物匹配的ar可视化体内病灶定位方法及系统 | |
| WO2025195646A1 (en) | Registration of pre-operative and intra-operative data | |
| Arshad | Role of 3d Scanning In Visible Surgical Swellings | |
| Verster | A structured light solution for detecting scapular dyskinesis | |
| Brockmann et al. | Evaluation of applicability and accuracy of different surface scanning systems in medicine |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240819 |
|
| TRDD | Decision of grant or rejection written | ||
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250228 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250306 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250318 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7654079 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |