WO2021162287A1 - 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템 - Google Patents

수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템 Download PDF

Info

Publication number
WO2021162287A1
WO2021162287A1 PCT/KR2021/001087 KR2021001087W WO2021162287A1 WO 2021162287 A1 WO2021162287 A1 WO 2021162287A1 KR 2021001087 W KR2021001087 W KR 2021001087W WO 2021162287 A1 WO2021162287 A1 WO 2021162287A1
Authority
WO
WIPO (PCT)
Prior art keywords
probe
tip
registration
model
surgical
Prior art date
Application number
PCT/KR2021/001087
Other languages
English (en)
French (fr)
Inventor
도대국
김근영
임흥순
Original Assignee
큐렉소 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 큐렉소 주식회사 filed Critical 큐렉소 주식회사
Priority to CN202180014186.4A priority Critical patent/CN115087409A/zh
Priority to EP21754253.9A priority patent/EP4104788A4/en
Priority to JP2022548603A priority patent/JP7460201B2/ja
Priority to US17/798,252 priority patent/US11806091B2/en
Publication of WO2021162287A1 publication Critical patent/WO2021162287A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1675Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the knee
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1703Guides or aligning means for drills, mills, pins or wires using imaging means, e.g. by X-rays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • A61B2090/3916Bone tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Instructional Devices (AREA)

Abstract

본 발명은 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템에 관한 것으로, 본 발명에 따른 수술 대상체의 정합 확인방법은 상기 수술 대상체에 관한 형상정보를 갖는 3D 모델을 마련하는 단계; 추적기를 통해 상기 수술 대상체와 수술 대상체에 부착된 대상체 마커의 위치 및 자세 정보를 획득하는 단계; 상기 수술 대상체와 상기 대상체 마커 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 3D 모델과의 정합을 수행하는 단계; 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세의 변화를 추적하는 단계; 및 상기 프로브의 팁의 위치 및 자세 중 적어도 하나의 변화에 대응하여, 상기 프로브의 팁의 위치와 상기 3D 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하여 영상으로 표시하는 단계를 포함한다. 이에 의해 직관적인 시각적 정합 확인을 수행할 수 있다. 또한, 하나의 포인트가 아닌 연속된 일정 영역의 정합 정도를 직관적으로 확인할 수 있다.

Description

수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
본 발명은 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템에 관한 것으로, 보다 구체적으로는 수술 대상체와 수술 영상의 공간적인 정합 정도를 확인하기 위한 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템에 관한 것이다.
최근 의학 기술의 발달로 로봇과 컴퓨터 시스템을 이용한 내비게이션 수술이 활발히 도입되고 있으며, 인공 관절 수술 분야에서도 이러한 수술이 적용되고 있다.
무릎 관절의 경우, 외상이나 여러 가지 감염, 질환에 의한 통증 및 행동 장애가 오면 정형외과적 수술을 통해 관절 전체나 부분에 치환술을 사용하여 치료를 하며, 이중 약 10~30%의 환자들은 무릎 내측 조인트의 마모가 오게 되어 무릎관절 부분치환수술을 시행한다.
이러한 정형외과 관절 수술에 쓰이는 로봇 중에서는 전 수술 과정을 자동으로 수행하는 로봇이 있으며, 이러한 수술로봇은 미리 계획된 경로를 따라 사람의 개입 없이 자동으로 뼈를 절삭해낸다.
이러한 수술로봇을 이용한 무릎 관절 수술을 위해서는 먼저, 수술 대상체에 광학식 마커를 장착하고, 광학센서로 광학식 마커의 위치와 자세를 트래킹하여, 수술 대상체와 이에 관한 형상모델과의 공간적인 정합 절차를 미리 수행해야 한다. 또한, 수행한 정합결과에 대해 적합 여부를 확인하는 절차가 필요하다.
종래 수술 대상체의 정합 확인 방법은 정합 결과에 대한 정량적인 수치를 확인하거나 미리 등록한 복수의 포인트들의 정합 정도를 확인하는 방법을 주로 사용하고 있다.
하지만, 전자의 경우 단순히 정량적인 수치로 표현되기 때문에 사용자가 정합의 적합 여부에 대해 판단하기 곤란한 경우가 있으며, 후자의 경우 미리 등록된 포인트에 대한 정합만을 확인하기 때문에 그 외의 영역에 대해서는 정합 정도를 확인할 수가 없는 문제가 있다.
(선행특허문헌 1) 대한민국 특허공개공보 제 102015-0102936(2015.09.09)
전술한 바와 같은 문제점을 해결하기 위하여, 본 발명에서는 직관적인 시각적 정합 확인 방법을 제공하는데 목적이 있다. 또한, 하나의 포인트가 아닌 연속된 일정 영역의 정합 정도를 직관적으로 확인할 수 있는 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템을 제공하는데 목적이 있다. 더 나아가, 정합결과가 부적합한 경우 재정합이 필요한 영역에 대해서 재정합을 수행하는 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템을 제공하는데 목적이 있다.
상기 목적은 수술 대상체의 정합 확인방법에 있어서, 상기 수술 대상체에 관한 형상정보를 갖는 3D 모델을 마련하는 단계; 추적기를 통해 상기 수술 대상체와 수술 대상체에 부착된 대상체 마커의 위치 및 자세 정보를 획득하는 단계; 상기 수술 대상체와 상기 대상체 마커 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 3D 모델과의 정합을 수행하는 단계; 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세의 변화를 추적하는 단계; 및 상기 프로브의 팁의 위치 및 자세 중 적어도 하나의 변화에 대응하여, 상기 프로브의 팁의 위치와 상기 3D 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하여 영상으로 표시하는 단계를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인방법에 의해 달성될 수 있다.
한편, 상기 목적은 수술 대상체의 정합 확인방법에 있어서, 추적기를 통해 획득되는 상기 수술 대상체와 수술 대상체에 부착된 대상체 마커의 위치 및 자세 정보를 수신하는 단계; 상기 수술 대상체와 상기 대상체 마커 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 수술 대상체에 관한 3D 모델과의 정합을 수행하는 단계; 상기 추적기를 통해 획득되는, 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세정보에 수신하는 단계; 및 상기 프로브의 팁의 위치 및 자세정보의 변화에 기초하여 상기 프로브의 팁의 위치와 상기 3D 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하여 영상으로 표시하는 단계를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인방법에 의해서도 달성될 수 있다.
또한, 상기 정합확인정보를 생성하여 영상으로 표시하는 단계는, 상기 프로브의 팁의 위치를 원점으로 하는 서로 다른 반지름을 가진 복수의 구를 형상화하여 상기 3D 그래픽 아이콘으로 생성하여 상기 3D 모델 상에 표현한다.
아울러, 상기 정합확인정보를 생성하여 영상으로 표시하는 단계는, 상기 프로브의 팁의 위치와 상기 3D 모델의 표면과의 상대적인 위치관계를 나타내도록 상기 그래픽 아이콘의 형상을 변화시킨다.
그리고, 상기 정합확인정보를 생성하여 영상으로 표시하는 단계는, 상기 프로브의 팁의 위치 또는 자세의 변화에 대응하여 상기 영상의 시점을 변화시켜 표시한다.
또한, 상기 정합확인정보를 표시하는 상기 영상은, 상기 프로브의 팁의 위치 또는 자세의 변화에 대응하여 상기 3D 모델에 대한 시점이 가변되는 제1 영상이 표시되는 제1 영역과, 상기 3D 모델에 대한 적어도 하나의 고정된 시점을 갖는 제1 영상이 표시되는 제1 영역을 포함한다.
상기 복수의 구는 서로 시각적으로 구별되도록 표현된다.
아울러, 상기 정합결과를 정량적으로 산출하여 표시하는 단계를 더 포함하고; 상기 정합결과를 정량적으로 산출하여 표시하는 단계는, 정합을 위해 획득한 상기 수술 대상체 상의 복수의 점과 이에 대응하는 상기 3D 모델 상의 점들 간의 거리의 편차를 산출하여 표시하는 단계; 상기 프로브의 이동에 대응하는 상기 프로브 팁이 위치하는 포인트와 상기 3D 모델 상의 랜드마크 포인트 간의 거리를 산출하여 표시하는 단계; 및 상기 프로브의 이동에 대응하는 상기 프로브 팁이 위치하는 포인트와 이에 대응하는 상기 3D 모델 상의 포인트 간의 거리를 산출하여 표시하는 단계 중 적어도 하나를 포함한다.
한편, 상기 목적은 수술 대상체의 정합 확인 장치에 있어서, 추적기를 통해 획득된 상기 수술 대상체와 수술 대상체에 부착된 대상체 마커의 위치 및 자세 정보를 수신하는 신호 수신부; 상기 수술 대상체와 상기 대상체 마커 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 수술 대상체에 관한 3D 모델과의 정합을 수행하는 대상체 정합부; 및 상기 데이터입력부를 통해 수신되는, 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세정보의 변화에 기초하여, 상기 프로브의 팁의 위치와 상기 영상 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하는 정합 확인부를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인 장치에 의해 달성될 수 있다.
그리고, 상기 정합 확인부는 상기 프로브의 팁의 위치를 원점으로 하는 서로 다른 반지름을 가진 복수의 구를 형상화하여 상기 3D 그래픽 아이콘으로 생성하여 상기 3D 모델 상에 표현하고, 상기 복수의 구는 서로 시각적으로 구별되도록 표현된다.
또한, 상기 정합 확인부는 상기 3D 모델에 대한 적어도 하나의 고정된 시점을 갖는 제1 영상과, 상기 프로브의 팁의 위치 또는 자세의 변화에 대응하여 영상의 시점이 가변되는 제2 영상이 각각 별도의 영역에 표현되도록 상기 정합확인정보를 생성한다.
한편, 상기 목적은 상기 수술 대상체에 부착된 대상체 마커 및 프로브의 위치와 자세를 추적하기 위한 추적기; 수술 전 획득한 수술 대상체에 관한 형상정보를 갖는 3D 모델을 저장하는 메모리부; 상기 수술 대상체에 부착된 상기 대상체 마커와 상기 수술 대상체 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 3D 모델과의 정합을 수행하는 대상체 정합부; 상기 추적기에 의해 획득된, 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세정보에 기초하여, 상기 프로브의 팁의 위치와 상기 영상 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하는 정합 확인부; 및 상기 정합확인정보를 영상으로 표시하는 디스플레이부를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인 시스템에 의해서도 달성될 수 있다.
여기서, 상기 정합 확인부는 상기 프로브의 팁의 위치를 원점으로 하는 서로 다른 반지름을 가진 복수의 구를 형상화하여 상기 3D 그래픽 아이콘으로 생성하여 상기 3D 모델 상에 표현하고, 상기 복수의 구는 서로 시각적으로 구별되도록 표현된다.
상기한 바와 같이, 본 발명에 의한 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템은 시각적으로 직관적인 정합 확인이 가능하다. 또한, 하나의 포인트가 아닌 연속된 일정 영역의 정합 정도를 직관적으로 확인할 수 있다. 또한, 정합결과가 부적합한 경우 재정합이 필요한 영역에 대해서 재정합을 수행할 수 있어 시간을 단축할 수 있다.
도 1은 본 발명의 일 실시예에 따른 수술 대상체의 정합 확인 시스템을 개략적으로 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 수술 대상체의 정합 확인 장치의 제어블록도이다.
도 3은 본 발명의 일 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 정합 확인부에 의해 생성되어 영상으로 표시된 정합확인정보의 일 예를 도시한 것이다.
도 5는 본 발명의 일 실시예에 따른 프로브의 팁의 위치를 형상화한 3D 그래픽 아이콘의 일 예를 도시한 것이다.
도 6은 본 발명의 일 실시예에 따른 프로브 팁을 도 3의 위치에서 위쪽으로 이동하면서 자세를 약간 우측으로 회전한 상태에서의 정합확인정보를 표현한 것이다.
도 7은 본 발명의 일 실시예에 따른 정합 확인부가 정합 적합도를 계산하는 방법을 설명하기 위한 것이다.
도 8은 본 발명의 일 실시예에 따라 프로브 팁을 랜드마크 포인트로 이동한 경우로서, 도 9는 이에 대응하는 정합확인정보를 표현한 것이다.
도 10은 본 발명의 일 실시예에 따른 정합 확인 장치를 이용한 수술 대상체의 정합 확인방법에 관한 흐름도이다.
이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대해 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 수술 대상체의 정합 확인 시스템을 개략적으로 도시한 것이다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 수술 대상체의 영상 정합 확인 시스템은 수술 대상체(10)에 부착된 대상체 마커(20), 추적기(30), 및 정합 확인 장치(40)를 포함한다.
수술 대상체(10)는 수술의 대상을 의미하는 것으로, 본 발명의 실시예에서는 수술 대상체(10)가 대퇴골(Femur)과 경골(Tibia)의 무릎관절로서, 대상체 마커(20)는 대퇴골과 경골에 각각 부착된 것을 일 예로 설명한다. 또한, 본 명세서에서 '수술 대상체'는 대퇴골과 경골 등 수술대상을 포괄하는 광의적인 의미로도 사용되고, 임플란트 원점이나 조인트 중심 등의 수술 대상체의 특정 위치 또는 수술 부위를 나타내는 협의의 의미로도 사용될 수 있다. 한편, 수술 대상체(10)의 정합을 수행할 때 사용자는 프로브(probe, 50)를 사용하여 수술 대상체(10)의 복수의 포인트의 위치를 등록하게 된다.
대상체 마커(20)와 프로브(50)는 광학식 마커가 사용될 수 있으며, 중심점을 기준으로 서로 다른 방향의 가지 형태의 바(bar) 3개 또는 4개가 형성되고, 바의 단부에는 각각 고반사의 볼마커가 형성될 수 있다.
추적기(30)는 수술 대상체(10)에 부착된 대상체 마커(20)와 프로브(50)의 위치와 자세를 추적하기 위한 것으로, 3차원 공간 좌표상의 마커의 위치 및 자세를 감지하여, 후술할 정합 확인 장치(40)로 전달한다. 본 발명의 실시예에서 추적기(30)는 광학 추적 시스템(Optical Tracking System, OTS)으로 구현된 것을 일 예로 설명한다.
수술 대상체(10)의 정합 확인 장치(40)는 수술 대상체(10)의 공간적인 정합 및 정합결과를 확인하기 위한 것으로, 컴퓨터(프로세서)와 디스플레이를 포함하여 구현될 수 있다. 수술 대상체(10)의 정합 확인 장치(40)는 독립된 장치로 마련될 수도 있고, 경우에 따라서는 컴퓨터(프로세서)는 수술 로봇 내에 설치되고, 디스플레이는 추적기(30)에 연결되어 통합된 형태로 각각 별도로 설치될 수도 있다. 후자의 경우, 수술 로봇 내에 설치된 컴퓨터(프로세서)는 추적기(30)와 연결되어 마커들의 위치/자세정보를 수신하고, 정합 및 정합결과를 처리하여 디스플레이로 제공한다.
도 2는 본 발명의 일 실시예에 따른 수술 대상체의 정합 확인 장치(40)의 제어블록도이다. 도 2를 참조하면, 본 발명의 일 실시예에 따른 수술 대상체의 정합 확인 장치(40)는 신호 수신부(41), 사용자 입력부(42), 디스플레이부(43), 메모리부(44) 및 제어부(45)를 포함한다.
신호 수신부(41)는 외부로부터 신호를 수신하기 위한 것으로, 예컨대, 외부 기기와의 연결을 위한 HDMI(High Definition Multimedia Interface) 커넥터, 디-서브(D-sub) 커넥터, 또는 인터넷 망을 비롯한 유/무선 네트워크와 연결하기 위한 통신모듈을 포함할 수 있다. 신호 수신부(41)는 추적기(30)와의 연동을 위한 유무선 통신모듈을 포함할 수 있다.
사용자 입력부(42)는 사용자로부터 명령을 수신하여 후술할 제어부(45)로 전달하기 위한 것으로, 키보드, 마우스, 또는 버튼 등의 다양한 입력수단을 포함할 수 있다.
디스플레이부(43)는 영상을 화면에 표시하기 위한 것으로, 액정 디스플레이(LCD, Liquid Crystal Display) 패널, 발광 다이오드(LED, Light Emitting Diode) 패널, 유기 발광 다이오드(OLED, Organic Light Emitting Diode) 패널 등으로 구현될 수 있다.
여기서, 사용자 입력부(42)와 디스플레이부(43)는 다른 구성들과 물리적으로 분리되어 구성될 수 있다. 예컨대, 신호 수신부(41), 제어부(45) 및 메모리부(44)는 수술 로봇의 본체에 통합되어 구현되고, 사용자 입력부(42) 및 디스플레이부(43)는 추적기(30) 및 수술 로봇과 통신으로 연결된 별도의 장치로 구성될 수 있다.
메모리부(44)는 수술 대상체의 정합 확인 장치(40)의 다양한 OS, 미들웨어, 플랫폼, 및 각종 어플케이션을 저장할 수 있으며, 프로그램 코드 및 신호처리된 영상신호, 음성 신호 및 데이터를 저장할 수 있다. 메모리부(44)는 수술 전 획득한 수술 대상체(10)에 관한 형상정보를 가진 3차원 모델, 즉 3D 모델(10a)을 저장한다. 여기서, 수술 대상체(10)에 관한 3D 모델(10a)은 예컨대, 환자의 컴퓨터 단층촬영(CT) 또는 자기공명 영상진단(MRI) 등의 영상 데이터 세트로부터 생성될 수 있다.
제어부(45)는 사용자 입력부(42)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 수술 대상체의 정합 확인 장치(40)의 전반적인 제어를 담당한다. 제어부(45)는 신호 처리 및 제어를 위한 프로그램 코드 및 프로그램을 실행하는 프로세서를 포함하여 구현될 수 있다. 제어부(45)는 신호 수신부(41)를 통해 추적기(30)로부터 수신되는 대상체 마커(20) 및 프로브(50)의 위치/자세 정보를 이용하여 위치 추적 및 정합을 수행하고, 정합정도를 나타내는 정합결과에 관한 정합확인정보를 생성한다.
도 2를 참조하면, 제어부(45)는 대상체 정합부(45a) 및 정합 확인부(45b)를 포함한다.
대상체 정합부(45a)는 추적기(30)로부터 획득한 대상체 마커(20) 및 프로브(50)의 위치/자세 정보를 이용하여 수술 대상체(10)에 관한 형상정보를 가진 3D 모델(10a)과의 정합을 수행한다. 대상체 정합부(45a)는 대상체 마커(20)와 프로브(50)의 위치/자세 정보를 이용하여 수술 대상체(10)에 부착된 대상체 마커(20)(bone marker)와 수술 대상체(10) 간의 위치/자세에 관한 상관관계를 도출한다.
예컨대, 수술 대상체(10)에 대상체 마커(20)를 부착한 후, 프로브(50)를 사용하여 미리 설정된 수술 대상체(10)의 특정된 복수의 포인트와 대상체 마커(20)의 위치/자세를 동시에 인식시킨다. 대상체 정합부(45a)는 추적기(30)를 통해 획득한 프로브(50)가 지시한 특정 포인트 및 대상체 마커(20)의 위치/자세에 관한 정보를 수신하고, 대상체 마커(20)와 수술 대상체(10) 간의 위치/자세에 관한 상관관계를 도출하여 메모리부(44)에 기 저장된 수술 대상체(10)에 관한 3D 모델(10a)과의 정합을 수행한다. 대상체 정합부(45a)는 위치 산출 및 정합을 수행하는 프로그램 코드 및/또는 소프트웨어를 포함하여 구현될 수 있다.
정합 확인부(45b)는 대상체 정합부(45a)의 정합결과에 관한 정합확인정보를 생성하기 위한 것으로, 수술 대상체(10)의 표면을 따라 움직이는 프로브(50)의 팁의 위치 및 자세정보의 변화에 기초하여, 프로브(50)의 팁의 위치와 영상 모델과의 상대적인 위치관계를 나타내는 3차원(3D) 그래픽 아이콘이 포함된 정합확인정보를 생성한다. 또한, 정합 확인부(45b)는 정합결과를 정량적으로 산출할 수 있다. 한편, 정합 확인부(45b)를 통해 생성된 정합확인정보 및 정합정도에 관한 정량값은 디스플레이부(43)에 제공되어 영상으로 표시된다. 이를 통해 사용자는 정합정도를 직관적으로 시각적 인식을 할 수 있다. 정합 확인부(45b)는 정합결과의 산출과 정합확인정보 및 그래픽 생성을 위한 프로그램 코드 및/또는 소프트웨어를 포함하여 구현 가능하다.
도 3은 본 발명의 일 실시예에 따른 제어부(45)의 동작을 설명하기 위한 도면이다. 도 3을 참조하면, 수술 대상체(10)로는 대퇴골(11)을 일 예로 도시하였고, 대상체 마커(20, 21)는 대퇴골에 부착되어 있는 것을 일 예로 도시하였다.
도 3을 참조하면, 사용자는 프로브(50)를 이용하여 미리 설정된 수술 대상체(10, 11)의 지정 포인트들의 위치를 등록한다. 추적기(30)는 수술 대상체(10, 11)의 표면의 지정 포인트를 지시하는 프로브(50)와 대상체 마커(21)의 위치/자세를 추적하여 정합 확인 장치(40)로 전송한다. 정합 확인 장치(40)는 추적기(30)로부터 수신한 프로브(50) 및 대상체 마커(21)의 위치/자세 정보에 기초하여 기 저장된 수술 대상체(10, 11)의 3D 모델(10a)과의 정합을 수행한다. 일반적으로 수술 대상체(10, 11)의 3D 모델(10a)을 Distal, Posterior, Medial, Anterior 등 4개의 뷰를 순차적으로 전환하면서 해당 뷰에서 미리 설정된 포인트들의 위치에 대응하는 지점을 프로브(50)로 지시하고 프로브(50) 및 대상체 마커(21)의 위치/자세 정보를 수신하여 해당 위치의 등록을 진행하게 되는데, 등록 포인트들은 대략 20~40개 정도 된다. 또한, 도 3에서 LP는 랜드마크 포인트(Landmark Point)로서, 수술 대상체(10, 11)의 자세의 기준이 되는 포인트를 의미한다. 사용자가 하나씩 순차적으로 해당 포인트를 프로브(50)로 지시하고 정합 확인 장치(40)가 이를 등록하는 과정을 통해서 정합을 수행하게 된다.
도 3에서 정합 후의 공간관계에서 프로브(50)와 수술 대상체(10, 11)에 관한 3D 모델(10a) 간의 위치/자세의 상관관계는 아래와 같이 표현할 수 있다.
Figure PCTKR2021001087-appb-M000001
(여기서, PTB는 프로브(50)와 수술 대상체(10, 11) 간의 위치/자세의 상관관계, OTSTP는 추적기(30)에 대한 프로브(50)의 변환행렬, OTSTBM는 추적기(30)에 대한 대상체 마커(21)의 변환행렬, BMTB는 대상체 마커(21)에 대한 수술 대상체(10, 11)의 변환행렬)
정합 확인부(45b)는 미리 설정된 복수의 포인트들에 대한 등록이 완료되면, 정합결과에 관한 정합확인정보를 생성한다. 정합 확인부(45b)는 프로브(50)의 팁의 위치 및 자세정보의 변화에 기초하여, 3D 모델(10a)과의 상대적인 위치관계를 나타내도록, 프로브(50)의 팁의 위치를 형상화한 3D 그래픽 아이콘(A)이 3D 모델(10a) 상에 표현되도록 생성한다.
도 4는 본 발명의 일 실시예에 따른 정합 확인부(45b)에 의해 생성되어 영상으로 표시된 정합확인정보의 일 예를 도시한 것이다. 도 4를 참조하면, 본 발명에 따른 정확확인정보를 나타내는 영상은 프로브(50)의 팁의 위치 또는 자세의 변화에 대응하여 영상의 시점이 가변되는 제1 영상이 표시되는 제1 영역을 갖는다. 정합확인정보를 나타내는 영상에서 R1영역에 표시된 제1 영상은 프로브(50)의 위치/자세 정보에 기초하여 프로브(50)의 팁이 바라보는 시점으로 3D 모델(10a)을 표현한다. 정합 확인부(45b)는 프로브(50)의 팁을 중심으로 하고, 팁과 연결되는 특정 방향의 연장선을 자세의 축으로 해서, 해당 축의 시점에서 바라본 3D 모델(10a)의 일부 영역 상에 프로브(50)의 팁의 위치를 형상화화여 정합확인정보로 생성한다. 따라서, 프로브(50)의 팁의 위치나 자세의 변화에 대응하여 정합확인정보의 영상이 표시되는 시점과 영역을 변화시켜 표현한다. 즉, 프로브(50)의 팁을 수술 대상체(10, 11)의 표면상에서 미끄러지듯 움직이면서 프로브(50)의 팁의 위치와 자세가 변경되면, R1에 표시되는 정합확인정보의 제1 영상은 프로브(50)의 팁의 위치/자세의 변화에 대응하여 3D 모델(10a)의 위치와 자세가 상대적으로 변경되어 표시되므로, 사용자는 프로브(50)의 팁으로 수술 대상체(10, 11)의 표면을 긁으면서 3D 모델(10a)의 상대적인 관계를 직관적으로 실시간으로 확인할 수 있다.
도 4를 다시 참조하면, A는 프로브(50)의 팁의 위치를 형상화한 3D 그래픽 아이콘(A)을 나타내는 것으로, 사용자는 3D 그래픽 아이콘(A)을 통해 현재의 프로브(50)의 팁이 수술 대상체(10, 11)의 3D 모델(10a) 상에서 어디에 위치하고 있는지를 알 수 있다. 여기서, 프로브(50)의 팁의 위치를 형상화한 3D 그래픽 아이콘(A)은 단순히 프로브(50)의 팁의 위치를 표현하는 것이 아니라, 그 자체로 3D 모델(10a)과의 상대적인 위치관계를 나타낸다.
이를 위해, 프로브(50)의 팁의 위치를 형상화한 3D 그래픽 아이콘(A)은 프로브(50)의 팁의 위치를 원점으로 하는 서로 다른 반지름을 가진 복수의 구를 형상화하여 3D 모델(10a)과의 상대적인 위치 관계를 표현할 수 있다.
도 5는 본 발명의 일 실시예에 따른 프로브(50)의 팁의 위치를 형상화한 3D 그래픽 아이콘(A)의 일 예를 도시한 것이다. 도 5를 참조하면, 프로브(50)의 팁을 형상화한 3D 그래픽 아이콘(A)은 중심은 동일하고 서로 다른 반지름을 가진 2개의 구(A1, A2)를 형상화하여 표현될 수 있다. 도 5에서, A1은 반지름이 1mm인 원이고, A2는 반지름이 2mm인 원을 나타낸다. 3D 그래픽 아이콘(A, A1, A2)의 원점은 프로브(50)의 팁 즉, 프로브(50)의 팁의 끝이 위치하는 점에 대응하는 것으로, 프로브(50)의 팁이 수술 대상체(10, 11)의 표면에 닿아 있는 경우 프로브(50)의 팁의 위치를 중심으로 표현하는 구의 일부 영역은 3D 모델(10a)의 내부에 위치하게 되므로 3D 모델(10a)의 내부로 들어간 구의 일부영역은 제1 영상에서 표시되지 않으므로 보는 시점에 따라 구의 모양이 달라질 수 있다. 따라서, 프로브(50)의 팁의 위치를 형상화한 3D 그래픽 아이콘(A)은 수술 대상체(10, 11)와의 위치 및 자세 관계에서 원이 온전히 다 보일 수도 있고, 일부만 보이도록 표시될 수도 있다. 이와 같이, 본 발명에 따른 3D 그래픽 아이콘(A)은 프로브(50)의 팁과 3D 모델(10a)의 표면과의 상대적인 위치관계에 따라서 그 형상이 변화하므로, 사용자는 화면을 보면서 프로브(50)의 위치와 자세를 움직여가면서 현재 프로브(50)의 팁이 위치하는 수술 대상체(10, 11)의 표면상의 포인트와 3D 모델(10a)의 형상 간의 상대적인 위치관계, 예컨대 거리 등을 직관적으로 알 수 있다.
더욱이, 본 발명에서는 3D 그래픽 아이콘(A)을 서로 다른 반지름을 가진 구(A1, A2)를 겹쳐서 표현하고, 각각의 구는 색상을 달리하거나 명암을 달리하여 시각적으로 구별되도록 표현한다. 이를 통해 사용자는 3D 그래픽 아이콘(A)의 형상을 통해 프로브(50)의 팁과 3D 모델(10a) 간의 상대적인 위치관계, 예컨대, 거리나 간격을 직관적으로 알 수 있다. 또한, 사용자는 프로브(50)의 팁으로 수술 대상체(10, 11) 표면상을 긁으면서 수술 대상체(10, 11)의 특정 포인트가 아니라 연속적인 일정 영역들에서 프로브(50)의 팁 즉, 수술 대상체(10, 11)의 표면과 3D 모델(10a) 간의 상대적인 위치관계 즉, 거리가 간격을 직관적으로 인식할 수 있다.
도 5의 (a)는 프로브(50)의 팁이 바라본 시점에서 3D 모델(10a) 간의 상대적인 위치관계에서 3D 그래픽 아이콘(A)이 2개의 구(A1, A2)가 100% 다 보이는 경우로서, 3D 모델(10a)이 프로브(50)의 팁보다 후방에 위치하거나, 옆으로 2mm 밖에 위치하는 경우라고 볼 수 있다. 각각의 경우 모두 프로브(50)의 팁과 3D 모델(10a)이 2mm 간격 이상 떨어져 있음을 의미하는 것이므로, 정합의 차이가 2mm 이상된다는 것을 직관적으로 이해할 수 있다.
도 5의 (b)는 프로브(50)의 팁이 바라본 시점에서 3D 모델(10a) 간의 상대적인 위치관계에서 3D 그래픽 아이콘(A)이 2개의 구(A1, A2)가 50% 보이는 경우로서, 3D 그래픽 아이콘(A)인 2개의 구의 50%가 3D 모델(10a)의 내부에 있다는 것을 말해주고 있다. 즉, 프로브(50)의 팁이 바로 3D 모델(10a)의 표면상에 위치하고 있음을 직관적으로 알 수 있다. 반면, 도 5의 (c)는 이 2개의 구가 20% 정도 보이는 경우로서, 3D 그래픽 아이콘(A)인 2개의 구(A1, A2)의 80% 가량이 3D 모델(10a)의 내부에 있다는 것을 말해주고 있다. 즉, 프로브(50)의 팁이 3D 모델(10a)의 내부, 표면에서 1mm 이내의 거리에 위치하고 있음을 직관적으로 알 수 있다. 도 5에서는 3D 그래픽 아이콘(A)이 서로 반지름이 상이한 2개의 구를 포함하는 것으로 설명하였으나, 3~5개로 표현될 수 있음은 물론이다.
도 4를 참조하면, 본 발명에 따른 정확확인정보를 나타내는 영상은 프로브(50)의 팁의 위치 또는 자세의 변화에 관계없이 3D 모델(10a)에 대한 적어도 하나의 고정된 시점을 가진 제2 영상이 표시되는 제2 영역을 포함한다. 제2 영상은 3D 모델(10a)에 대해 적어도 하나의 고정된 시점에서의 3D 모델(10a)과 프로브(50)의 팁의 위치관계를 나타내는 것으로, 특정 시점을 가진 3D 모델(10a) 상에 3D 그래픽 아이콘(A)이 표시된다. 본 실시예에서는 제2 영상이 3D 모델(10a)의 2개의 측면 뷰를 표시하는 것을 일 예로 한다.
도 4를 참조하면, 제1 영역에 표시되는 제1 영상은 프로브(50)의 위치/자세에 따라 표시되는 3D 모델(10a)이 표시영역과 시점이 변경되지만, 제2 영역에 표시되는 제2 영상은 프로브(50)의 위치/자세에 관계없이 특정 시점을 가진 3D 모델(10a)이 표시된다. 따라서, 사용자는 두 개의 영상에서의 프로브(50)의 팁의 위치를 형상화한 3D 그래픽 아이콘(A)의 형상을 비교해가면서 정합정도를 직관적으로 인식할 수 있다.
도 4는 프로브(50)가 도 3의 위치/자세에 있을 때의 정합확인정보를 표현한 것으로, 프로브(50)의 팁이 수술 대상체(10, 11)를 향해서 거의 직각을 이루고 있어, 도 4의 제1 영상에서는 프로브(50)의 팁이 바라본 시점에서는 3D 모델(10a) 위에 3D 그래픽 아이콘(A)이 100% 노출된 형태로 표현되는데 비해, 제2 영상에서는 3D 모델(10a)의 시점이 측면으로 정해져 있는 상태에서 프로브(50)의 팁이 하측에 있으므로 3D 그래픽 아이콘(A)으로 표현된 구의 형상이 반구 형태로 50% 정도만 보이는 것을 확인할 수 있다. 제1 영상에서는 정합 정도를 정확히 알 수 없으나, 제2 영상에서는 해당 위치에서 수술 대상체(10, 11)와 3D 모델(10a)의 정합이 거의 정확하게 이루어졌다고 보여진다. 다만, 제2 영상은 고정된 시점을 보여주고 있으므로, 현재 프로브(50)의 팁이 위치한 포인트가 수술 대상체(10, 11)에서 굴곡이 가장 낮은 곳이라면 측면에서 구가 거의 보이지 않을 수도 있기 때문에 제2 영상에서는 정확한 정합 정도를 알기는 어렵고, 제1 영상에서 프로브(50)의 자세를 조정하여 3D 그래픽 아이콘(A)이 반구 형태로 보여지는 시점으로 조절하면서 확인하는 것이 더욱 정확하다.
도 6은 프로브(50)의 팁을 도 3의 위치에서 위쪽으로 이동하면서 자세를 약간 우측으로 회전한 상태에서의 정합확인정보를 표현한 것이다. 도 4와 마찬가지로 도 5의 제1 영상에서는 프로브(50)의 팁이 바라본 시점에서는 3D 모델(10a) 위에 3D 그래픽 아이콘(A)인 구가 100% 노출된 형태로 표현된다. 여전히, 프로브(50)의 팁의 자세가 수술 대상체(10, 11)를 향해 바라보고 있기 때문이다. 다만, 제2 영상에서는 3D 모델(10a)의 시점이 측면으로 고정된 상태이고, 프로브(50)의 팁이 하측에 위치해 있으므로 3D 그래픽 아이콘(A)인 구의 형상이 전체가 아닌 일부가 표현되었는데 거의 80% 이상 노출된 것을 확인할 수 있다. 이는 현재 프로브(50)의 팁이 굴곡이 가장 높은 포인트에 있다고 하더라도 최소 1.5 mm 이상 수술 대상체(10, 11)와 3D 모델(10a) 간에 편차가 있음을 직관적으로 알 수 있다.
이와 같이, 본 발명에 따른 정합확인정보는 프로브(50)의 팁의 위치를 반지름이 다른 복수의 구를 형상화하여 표현함으로써, 사용자가 프로브(50)의 팁의 자세를 바꿔가면서 3D 모델(10a) 상에서 표현되는 3D 그래픽 아이콘(A)의 형상과 모양을 통해 프로브(50)의 팁이 가리키는 수술 대상체(10, 11)의 포인트가 3D 모델(10a)과 대략 어느 정도 간격으로 위치하는지를 직관적으로 알 수 있다. 또한, 프로브(50)의 위치/자세의 변화에 따라서 3D 모델(10a)의 시점과 위치에 대응하여 표시함으로써 프로브(50)의 팁을 수술 대상체(10, 11)의 표면을 긁어가면서 확인을 원하는 영역의 정합 정도를 쉽게 확인해볼 수 있다. 이를 통해, 수술 대상체(10, 11)에서 어느 부위가 제대로 정합이 이루어지지 않았는지 정합의 편차 정도를 직관적으로 알 수 있다.
정합 확인부(45b)는 정합결과를 정량적으로 산출하고, 이 값을 정합확인정보에 포함시켜 표시할 수 있다. 일 예로, 정합 확인부(45b)는 정합결과에 관한 적합도 평가값으로 정합을 위해 획득한 수술 대상체(10, 11) 상의 복수의 점과 이에 대응하는 3D 모델(10a) 상의 점들 간의 거리의 편차에 관한 제곱근평균제곱오차(RMSE; Root Mean Square(d) Error)를 산출할 수 있다. 도 4를 참조하면, RMSE 값이 제3 영역에 표시된 것을 알 수 있다. 사용자는 이 값을 통해 정합 적합도를 수치적으로 확인할 수 있다.
도 7은 본 발명의 일 실시예에 따른 정합 확인부(45b)가 정합 적합도를 계산하는 방법을 설명하기 위한 것이다. 도 7에서 옅은 회색 포인트(Pi R)는 정합을 위한 수술 대상체(10, 11)에서 획득한 포인트들을 의미하고, 검정색 포인트(Pi surf.)는 3D 모델(10a) 상에서 각 정합 포인트에 가장 가까운 점들을 표현한 것이다.
정합 확인부(45b)는 정합을 위한 획득한 정합 포인트들과 3D 모델(10a) 상에서 정합 포인트에 가장 가까운 점들 간의 편차를 아래 수식에 의해 계산한다.
Figure PCTKR2021001087-appb-M000002
(여기서, Pi R는 정합을 위한 수술 대상체(10, 11)에서 획득한 포인트, Pi surf. 는 3D 모델(10a) 상에서 각 정합 포인트에 가장 가까운 포인트, N는 포인트의 개수를 의미함)
도 4에서는 RMSE 값으로 0.171이 산출된 것을 확인할 수 있다.
한편, 정합 확인부(45b)는 정합결과로서 현재 프로브(50)의 팁의 위치와 랜드마크 포인트(LP) 간의 거리를 산출하여 이를 정합확인정보로서 생성할 수 있다. 도 4를 참조하면, 제2 영상에서 회색으로 표현된 포인트(LP)가 랜드마크 포인트(LP)이고, 현재 프로브(50)의 팁의 위치와 랜드마크 포인트(LP) 간의 거리 값은 제4 영역에 28.80 mm로 표시되어 있다. 이 값은 프로브(50)의 팁의 위치가 변경됨에 따라 대응하여 변경된다.
도 8은 프로브(50)의 팁을 랜드마크 포인트(LP)로 이동한 경우로서, 도 9는 이에 대응하는 정합확인정보를 표현한 것이다. 제1 영상과 제2 영상에서 3D 그래픽 아이콘(A)은 랜드마크 포인트(LP)와 중첩되어 표현되며, 제4영역에서는 랜드마크 포인트(LP)와 프로브(50)의 팁 간의 거리가 0.51mm로 계산되었음을 보여주고 있다. 제1 영상에서는 프로브(50)의 자세에 대응하여 3D 그래픽 아이콘(A)이 반원 형태를 보이고 있어서 해당 포인트에서 정합 적합도가 높은 것을 직관적으로도 알 수 있다. 다른 예로, 랜드마크 포인트(LP)와의 거리 대신, 프로브(50)의 이동에 대응하는 프로브(50)의 팁이 위치하는 포인트와 이에 대응하는 가장 가까운 3D 모델(10a) 상의 포인트 간의 거리를 산출하여 표시할 수 있다. 이 경우, 해당 값을 통해 해당 포인트에서의 정합적합도를 쉽게 확인할 수 있다.
이와 같이, 본 발명에 따르면, 정합적합도를 정량적인 수치 이외에 시각적으로 표현함으로써, 사용자가 직관적으로 정합정도를 쉽게 알 수 있다.
도 10은 본 발명의 일 실시예에 따른 정합 확인 장치(40)를 이용한 수술 대상체(10, 11)의 정합 확인방법에 관한 흐름도이다. 전술한 실시예와 중복되는 설명은 필요에 따라 생략하기로 한다.
도 10을 참조하면, 먼저 수술 대상체(10, 11)에 관한 촬영 영상 등에 기초하여 수술 대상체(10, 11)에 관한 3D 모델(10a)을 생성한다(S10). 3D 모델(10a)은 메모리부(44)에 저장된다. 정합 확인 장치(40)는 추적기(30)를 통해 획득된 수술 대상체(10, 11)와 수술 대상체(10, 11)에 부착된 대상체 마커(21)의 위치 및 자세 정보를 수신한다(S11). 수술 대상체(10, 11)의 위치/자세 정보는 다양한 방법을 통해 획득될 수 있는데, 본 발명의 일 실시예에서는 프로브(50)를 이용하여 획득하는 것을 일 예로 한다.
대상체 정합부(45a)는 추적기(30)를 통해 수신한 프로브(50)와 수술 대상체(10, 11)에 부착된 대상체 마커(21)의 위치 및 자세 정보에 기초하여 수술 대상체(10, 11)와 대상체 마커(20, 21) 간의 위치 및 자세에 관한 상관관계를 도출함으로써 3D 모델(10a)과의 정합을 수행한다(S12). 이때, 미리 설정된 복수의 지점을 프로브(50)로 지시함으로써 정합 절차를 수행하게 된다.
정합이 완료되면, 정합 확인부(45b)는 정합결과에 관한 정합확인정보를 생성하여 이를 디스플레이부(43)를 통해 표시한다. 한편, 추적기(30)는 수술 대상체(10, 11)의 표면을 따라 움직이는 프로브(50)의 팁의 위치/자세를 추적하여 정합 확인 장치(40)로 전송하고 있다(S13). 정합 확인부(45b)는 추적한 프로브(50)의 팁의 위치와 3D 모델(10a)과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘(A)이 포함된 정합확인정보를 생성한다(S14). 또한, 정합 확인부(45b)는 정합결과를 정량적으로 산출하여 이를 정합확인정보에 포함시켜 생성할 수 있다(S14).
정합 확인부(45b)를 통해 생성된 정합확인정보는 디스플레이부(43)에 표시된다(S15). 사용자는 반지름이 다른 다수의 중첩된 구로 표현된 3D 그래픽 아이콘(A)의 형상과 모양을 통해 프로브(50)의 팁의 위치와 3D 모델(10a)과의 상대적인 위치관계를 직관적으로 인식할 수 있다.
또한, 프로브(50)의 위치와 자세를 바꿔가면서 수술 대상체(10, 11)의 하나의 포인트가 아닌 일련의 영역들을 긁어가면서 3D 그래픽 아이콘(A)의 형상과 모양을 확인하면서 정합 적합 여부를 확인할 수 있다.
만약, 정합확인절차가 완료되면(S16), 재정합이 필요한지 여부를 판단한다. 정량적으로 산출된 값이 일정 기준 값을 만족시키지 못하는 경우에는 영상정합장치가 재정합이 필요한 영역에 대해 다시 정합을 수행하도록 강제할 수도 있고, 프로브(50)를 긁어가면서 확인한 각 포인트들의 정합정도가 낮은 것으로 판단된 경우, 사용자가 재정합을 하도록 요청할 수도 있다(S17). 이 경우, 처음부터 정합을 다시 할 수도 있고, 재정합이 필요한 영역에 대응하는 뷰만 다시 정합을 수행하도록 할 수도 있다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (14)

  1. 수술 대상체의 정합 확인방법에 있어서,
    상기 수술 대상체에 관한 형상정보를 갖는 3D 모델을 마련하는 단계;
    추적기를 통해 상기 수술 대상체와 수술 대상체에 부착된 대상체 마커의 위치 및 자세 정보를 획득하는 단계;
    상기 수술 대상체와 상기 대상체 마커 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 3D 모델과의 정합을 수행하는 단계;
    상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세의 변화를 추적하는 단계; 및
    상기 프로브의 팁의 위치 및 자세 중 적어도 하나의 변화에 대응하여, 상기 프로브의 팁의 위치와 상기 3D 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하여 영상으로 표시하는 단계를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인방법.
  2. 수술 대상체의 정합 확인방법에 있어서,
    추적기를 통해 획득되는 상기 수술 대상체와 수술 대상체에 부착된 대상체 마커의 위치 및 자세 정보를 수신하는 단계;
    상기 수술 대상체와 상기 대상체 마커 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 수술 대상체에 관한 3D 모델과의 정합을 수행하는 단계;
    상기 추적기를 통해 획득되는, 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세정보에 수신하는 단계; 및
    상기 프로브의 팁의 위치 및 자세정보의 변화에 기초하여 상기 프로브의 팁의 위치와 상기 3D 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하여 영상으로 표시하는 단계를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인방법.
  3. 제1항 또는 제2항에 있어서,
    상기 정합확인정보를 생성하여 영상으로 표시하는 단계는,
    상기 프로브의 팁의 위치를 원점으로 하는 서로 다른 반지름을 가진 복수의 구를 형상화하여 상기 3D 그래픽 아이콘으로 생성하여 상기 3D 모델 상에 표현하는 것을 특징으로 하는 것을 특징으로 하는 수술 대상체의 수술 대상체의 정합 확인방법.
  4. 제1항 또는 제2항에 있어서,
    상기 정합확인정보를 생성하여 영상으로 표시하는 단계는,
    상기 프로브의 팁의 위치와 상기 3D 모델의 표면과의 상대적인 위치관계를 나타내도록 상기 그래픽 아이콘의 형상을 변화시키는 것을 특징으로 하는 수술 대상체의 정합 확인방법.
  5. 제1항 또는 제2항에 있어서,
    상기 정합확인정보를 생성하여 영상으로 표시하는 단계는,
    상기 프로브의 팁의 위치 또는 자세의 변화에 대응하여 상기 영상의 시점을 변화시켜 표시하는 것을 특징으로 하는 수술 대상체의 정합 확인방법.
  6. 제3항에 있어서,
    상기 정합확인정보를 표시하는 상기 영상은,
    상기 프로브의 팁의 위치 또는 자세의 변화에 대응하여 상기 3D 모델에 대한 시점이 가변되는 제1 영상이 표시되는 제1 영역과, 상기 3D 모델에 대한 적어도 하나의 고정된 시점을 갖는 제1 영상이 표시되는 제1 영역을 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인방법.
  7. 제3항에 있어서,
    상기 복수의 구는 서로 시각적으로 구별되도록 표현되는 것을 특징으로 하는 수술 대상체의 정합 확인방법.
  8. 제1항 또는 제2항에 있어서,
    상기 정합결과를 정량적으로 산출하여 표시하는 단계를 더 포함하고;
    상기 정합결과를 정량적으로 산출하여 표시하는 단계는,
    정합을 위해 획득한 상기 수술 대상체 상의 복수의 점과 이에 대응하는 상기 3D 모델 상의 점들 간의 거리의 편차를 산출하여 표시하는 단계;
    상기 프로브의 이동에 대응하는 상기 프로브 팁이 위치하는 포인트와 상기 3D 모델 상의 랜드마크 포인트 간의 거리를 산출하여 표시하는 단계; 및
    상기 프로브의 이동에 대응하는 상기 프로브 팁이 위치하는 포인트와 이에 대응하는 상기 3D 모델 상의 포인트 간의 거리를 산출하여 표시하는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인방법.
  9. 수술 대상체의 정합 확인 장치에 있어서,
    추적기를 통해 획득된 상기 수술 대상체와 수술 대상체에 부착된 대상체 마커의 위치 및 자세 정보를 수신하는 신호 수신부;
    상기 수술 대상체와 상기 대상체 마커 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 수술 대상체에 관한 3D 모델과의 정합을 수행하는 대상체 정합부; 및
    상기 데이터입력부를 통해 수신되는, 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세정보의 변화에 기초하여, 상기 프로브의 팁의 위치와 상기 영상 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하는 정합 확인부를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인 장치.
  10. 제9항에 있어서,
    상기 정합 확인부는 상기 프로브의 팁의 위치를 원점으로 하는 서로 다른 반지름을 가진 복수의 구를 형상화하여 상기 3D 그래픽 아이콘으로 생성하여 상기 3D 모델 상에 표현하고, 상기 복수의 구는 서로 시각적으로 구별되도록 표현되는 것을 특징으로 하는 수술 대상체의 정합 확인 장치.
  11. 제10항에 있어서,
    상기 정합 확인부는 상기 3D 모델에 대한 적어도 하나의 고정된 시점을 갖는 제1 영상과, 상기 프로브의 팁의 위치 또는 자세의 변화에 대응하여 영상의 시점이 가변되는 제2 영상이 각각 별도의 영역에 표현되도록 상기 정합확인정보를 생성하는 것을 특징으로 하는 수술 대상체의 정합 확인 장치.
  12. 상기 수술 대상체에 부착된 대상체 마커 및 프로브의 위치와 자세를 추적하기 위한 추적기;
    수술 전 획득한 수술 대상체에 관한 형상정보를 갖는 3D 모델을 저장하는 메모리부;
    상기 수술 대상체에 부착된 상기 대상체 마커와 상기 수술 대상체 간의 위치 및 자세에 관한 상관관계를 도출하여 상기 3D 모델과의 정합을 수행하는 대상체 정합부;
    상기 추적기에 의해 획득된, 상기 수술 대상체의 표면을 따라 움직이는 프로브의 팁의 위치 및 자세정보에 기초하여, 상기 프로브의 팁의 위치와 상기 영상 모델과의 상대적인 위치관계를 나타내는 3D 그래픽 아이콘이 포함된 정합확인정보를 생성하는 정합 확인부; 및
    상기 정합확인정보를 영상으로 표시하는 디스플레이부를 포함하는 것을 특징으로 하는 수술 대상체의 정합 확인 시스템.
  13. 제12항에 있어서,
    상기 정합 확인부는 상기 프로브의 팁의 위치를 원점으로 하는 서로 다른 반지름을 가진 복수의 구를 형상화하여 상기 3D 그래픽 아이콘으로 생성하여 상기 3D 모델 상에 표현하고, 상기 복수의 구는 서로 시각적으로 구별되도록 표현되는 것을 특징으로 하는 수술 대상체의 정합 확인 시스템.
  14. 제12항에 있어서,
    상기 정합 확인부는 상기 3D 모델에 대한 적어도 하나의 고정된 시점을 갖는 제1 영상과, 상기 프로브의 팁의 위치 또는 자세의 변화에 대응하여 영상의 시점이 가변되는 제2 영상이 각각 별도의 영역에 표현되도록 상기 정합확인정보를 생성하는 것을 특징으로 하는 수술 대상체의 정합 확인 시스템.
PCT/KR2021/001087 2020-02-12 2021-01-27 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템 WO2021162287A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180014186.4A CN115087409A (zh) 2020-02-12 2021-01-27 验证手术目标匹配的方法、用于该方法的装置和包括该装置的系统
EP21754253.9A EP4104788A4 (en) 2020-02-12 2021-01-27 METHOD FOR VERIFYING THE MATCHING OF A SURGICAL TARGET, ASSOCIATED APPARATUS, AND SYSTEM COMPRISING SAME
JP2022548603A JP7460201B2 (ja) 2020-02-12 2021-01-27 手術対象物の整合確認方法、その装置及びそれを含むシステム
US17/798,252 US11806091B2 (en) 2020-02-12 2021-01-27 Method for verifying matching of surgery target, apparatus therefor, and system including same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200017019A KR102301863B1 (ko) 2020-02-12 2020-02-12 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
KR10-2020-0017019 2020-02-12

Publications (1)

Publication Number Publication Date
WO2021162287A1 true WO2021162287A1 (ko) 2021-08-19

Family

ID=77291588

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/001087 WO2021162287A1 (ko) 2020-02-12 2021-01-27 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템

Country Status (6)

Country Link
US (1) US11806091B2 (ko)
EP (1) EP4104788A4 (ko)
JP (1) JP7460201B2 (ko)
KR (1) KR102301863B1 (ko)
CN (1) CN115087409A (ko)
WO (1) WO2021162287A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230034038A1 (en) * 2021-07-30 2023-02-02 Remex Medical Corp Method and system for surgical navigation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115229806B (zh) * 2022-09-21 2023-03-03 杭州三坛医疗科技有限公司 一种机械臂控制方法、装置、系统、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140188121A1 (en) * 2000-11-06 2014-07-03 Perception Raisonnement Action En Medecine System for determining the position of a knee prosthesis
US20140206990A1 (en) * 2012-12-21 2014-07-24 Mako Surgical Corp. CT View Window
KR20150102936A (ko) 2012-09-18 2015-09-09 큐렉소 테크놀로지 코포레이션 정형 외과 응용들에서의 정합을 위한 시스템 및 방법
KR20150138902A (ko) * 2014-05-30 2015-12-11 큐렉소 주식회사 조직 위치 정합 방법 및 이를 이용하는 장치
KR101655309B1 (ko) * 2015-03-09 2016-09-08 한국과학기술연구원 전방십자인대 재건술을 위한 컴퓨터 내비게이션 방법
KR20180071328A (ko) * 2015-11-16 2018-06-27 씽크 써지컬, 인크. 추적된 뼈의 정합을 확인하기 위한 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1617779A1 (en) * 2003-04-28 2006-01-25 BRACCO IMAGING S.p.A. Surgical navigation imaging system
CN1957373A (zh) * 2004-03-12 2007-05-02 布拉科成像S.P.A.公司 基于视频的扩增实境增强型外科手术导航系统的精度评估
US8515527B2 (en) 2004-10-13 2013-08-20 General Electric Company Method and apparatus for registering 3D models of anatomical regions of a heart and a tracking system with projection images of an interventional fluoroscopic system
JP6748299B2 (ja) 2016-08-30 2020-08-26 マコー サージカル コーポレイション 術中骨盤見当合わせ用のシステム及び方法
US11839433B2 (en) * 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US11413095B2 (en) * 2017-11-03 2022-08-16 Intellijoint Surgical Inc. System and method for surgical planning
KR102274167B1 (ko) * 2019-09-05 2021-07-12 큐렉소 주식회사 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140188121A1 (en) * 2000-11-06 2014-07-03 Perception Raisonnement Action En Medecine System for determining the position of a knee prosthesis
KR20150102936A (ko) 2012-09-18 2015-09-09 큐렉소 테크놀로지 코포레이션 정형 외과 응용들에서의 정합을 위한 시스템 및 방법
US20140206990A1 (en) * 2012-12-21 2014-07-24 Mako Surgical Corp. CT View Window
KR20150138902A (ko) * 2014-05-30 2015-12-11 큐렉소 주식회사 조직 위치 정합 방법 및 이를 이용하는 장치
KR101655309B1 (ko) * 2015-03-09 2016-09-08 한국과학기술연구원 전방십자인대 재건술을 위한 컴퓨터 내비게이션 방법
KR20180071328A (ko) * 2015-11-16 2018-06-27 씽크 써지컬, 인크. 추적된 뼈의 정합을 확인하기 위한 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4104788A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230034038A1 (en) * 2021-07-30 2023-02-02 Remex Medical Corp Method and system for surgical navigation
US11832897B2 (en) * 2021-07-30 2023-12-05 Remex Medical Corp. Method and system for surgical navigation

Also Published As

Publication number Publication date
JP7460201B2 (ja) 2024-04-02
KR102301863B1 (ko) 2021-09-16
JP2023513566A (ja) 2023-03-31
KR20210103028A (ko) 2021-08-23
EP4104788A1 (en) 2022-12-21
US20230076292A1 (en) 2023-03-09
CN115087409A (zh) 2022-09-20
EP4104788A4 (en) 2024-03-06
US11806091B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
US10687901B2 (en) Methods and systems for registration of virtual space with real space in an augmented reality system
WO2016195401A1 (ko) 증강현실을 이용한 외과 수술용 3d 안경 시스템
EP2153794B1 (en) System for and method of visualizing an interior of a body
Harders et al. Calibration, registration, and synchronization for high precision augmented reality haptics
WO2021162287A1 (ko) 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
WO2014077613A1 (ko) 정복 시술 로봇 및 그의 구동 제어 방법
TWI727725B (zh) 手術導航系統及其成像方法
KR20130132335A (ko) 수술용 내비게이션 시스템의 증강현실을 위한 카메라 레지스트레이션 방법
WO2019132244A1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
CN111265299B (zh) 基于光纤形状传感的手术导航系统
WO2021045546A2 (ko) 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템
WO2021054659A2 (ko) 수술 내비게이션 장치 및 그 방법
US20200077924A1 (en) System and method to register anatomy without a probe
WO2022035110A1 (ko) 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
WO2021153973A1 (ko) 관절치환 로봇수술 정보 제공 장치 및 제공 방법
WO2021206372A1 (ko) 2차원 의료영상 기반 척추 수술 플래닝 장치 및 방법
AU2020404991B2 (en) Surgical guidance for surgical tools
KR20040084243A (ko) 인공고관절 가상 시술 시뮬레이션 시스템
US20230078919A1 (en) Extended reality systems for visualizing and controlling operating room equipment
WO2023177229A1 (ko) 관절 내부 뼈의 이동을 반영하는 관절경 네비게이션 장치 및 방법
CN111597890B (zh) 一种人姿估计坐标纠偏方法
WO2022158697A1 (ko) 표면 영상유도 기반의 환자 위치 정렬 및 모니터링 시스템
CN115624384B (zh) 基于混合现实技术的手术辅助导航系统、方法和存储介质
WO2023040897A1 (zh) 一种手术机器人的空间注册位姿计算方法和系统
WO2022102863A1 (ko) 확장현실 기반의 침술 시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21754253

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022548603

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021754253

Country of ref document: EP

Effective date: 20220912