KR20230135448A - Apparatus and method for arthroscopy based on movement of bones in joint - Google Patents

Apparatus and method for arthroscopy based on movement of bones in joint Download PDF

Info

Publication number
KR20230135448A
KR20230135448A KR1020220032957A KR20220032957A KR20230135448A KR 20230135448 A KR20230135448 A KR 20230135448A KR 1020220032957 A KR1020220032957 A KR 1020220032957A KR 20220032957 A KR20220032957 A KR 20220032957A KR 20230135448 A KR20230135448 A KR 20230135448A
Authority
KR
South Korea
Prior art keywords
joint
bones
model
link
hard tissue
Prior art date
Application number
KR1020220032957A
Other languages
Korean (ko)
Inventor
정덕기
이현주
홍재성
Original Assignee
재단법인대구경북과학기술원
경북대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원, 경북대학교병원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020220032957A priority Critical patent/KR20230135448A/en
Priority to PCT/KR2023/003508 priority patent/WO2023177229A1/en
Publication of KR20230135448A publication Critical patent/KR20230135448A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/317Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for bones or joints, e.g. osteoscopes, arthroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image

Abstract

본 개시의 일 실시 예에 따른 관절 수술 네비게이션 장치는 환자의 3차원 영상에 기반하여 연조직 및 경조직이 구분되고, 연조직 및 경조직에 서로 다른 물성이 부여된 관절 3차원 모델을 저장하는 저장부, 프로세서 및 프로세서와 전기적으로 연결되고, 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 메모리는 프로세서를 통해 실행될 때 프로세서가, 환자에 부여되는 외력을 판단하고, 외력에 기반하여 관절 3차원 모델의 상기 연조직의 변형을 산출하고, 관절 3차원 모델의 연조직의 변형에 기반하여 관절 3차원 모델의 경조직의 위치를 변화시키고, 환자의 관절 부위 영상을 촬영하는 관절경의 위치에 기반하여 관절 3차원 모델의 적어도 일부를 관절경에서 촬영한 영상과 함께 가시적으로 표시하도록 야기하는 코드를 저장할 수 있다.The joint surgery navigation device according to an embodiment of the present disclosure includes a storage unit that stores a joint 3D model in which soft tissue and hard tissue are distinguished based on a 3D image of the patient and different physical properties are given to the soft tissue and hard tissue, a processor, and It is electrically connected to the processor and includes a memory in which at least one code executed by the processor is stored, and when the memory is executed through the processor, the processor determines an external force applied to the patient and determines the joint condition based on the external force. Calculate the deformation of the soft tissue in the 3D model, change the position of the hard tissue in the 3D model of the joint based on the deformation of the soft tissue in the 3D model, and change the position of the arthroscope for taking images of the patient's joint area. Code that causes at least a portion of the three-dimensional model to be displayed visually along with images taken from the arthroscope may be stored.

Description

관절 내부 뼈의 이동을 반영하는 관절경 네비게이션 장치 및 방법{APPARATUS AND METHOD FOR ARTHROSCOPY BASED ON MOVEMENT OF BONES IN JOINT}Arthroscopic navigation device and method reflecting the movement of bones inside a joint {APPARATUS AND METHOD FOR ARTHROSCOPY BASED ON MOVEMENT OF BONES IN JOINT}

본 개시는 관절경 네비게이션 장치 및 방법에 관한 것으로서, 더욱 상세하게는 관절 수술 시 관절 내부의 뼈의 이동 상태를 실시간으로 정확하게 반영하는 네비게이션 장치 및 방법에 관한 것이다.The present disclosure relates to an arthroscopic navigation device and method, and more specifically, to a navigation device and method that accurately reflects the movement state of bones inside a joint in real time during joint surgery.

종래, 무릎 관절, 어깨 관절, 손목 관절, 발목 관절 등을 포함한 관절 수술의 경우 의료진은 1 cm미만의 작은 구멍(포탈)을 통해 관절경(arthroscopy)을 삽입하고 관절 속의 손상된 부위를 모니터를 통해 보면서 진단과 치료를 동시에 시행하는 관절경 수술을 수행할 수 있다.Conventionally, in the case of joint surgery including knee joints, shoulder joints, wrist joints, ankle joints, etc., medical staff insert an arthroscope through a small hole (portal) less than 1 cm and view the damaged area in the joint through a monitor. Arthroscopic surgery can be performed to perform both diagnosis and treatment.

관절의 경우 다수의 뼈들이 서로 복합 유기적으로 연결되어 관절 운동을 발생시키고, 인체 다른 부위와 달리 절개해도 제대로 안을 들여보기 어렵고, 일반적인 수술 매스에 의핸 수술 공간도 충분치 않은 제약으로 인하여 관절경을 이용한 검사와 치료는 자주 수행된다.In the case of joints, multiple bones are connected to each other in a complex organic way to generate joint movement, and unlike other parts of the human body, it is difficult to look inside properly even when incised, and due to limitations in the surgical space using a general surgical mass, examination using an arthroscope is performed. and treatment is performed frequently.

하지만, 관절경을 이용한 수술의 경우에도 수술 공간을 확보하기 위하여 뼈를 일정 범위내로 견인한 후 관절경 수술을 시행하는 경우도 있으며, 관절경 기구를 관절 내로 안전하기 삽입하기 위해서 방사선 투시 장치로 관절 내 구조와 관절경의 이동을 파악하면서 관절경 수술을 시행할 수 있다.However, even in the case of surgery using arthroscopy, there are cases where arthroscopic surgery is performed after the bone is pulled within a certain range to secure the surgical space. In order to safely insert arthroscopic instruments into the joint, the joint is performed using a radioscopic device. Arthroscopic surgery can be performed while understanding the internal structure and movement of the arthroscope.

이 경우, 방사선 투시 장치의 사용은 의료진이나 환자의 피폭 문제를 야기하고, 이를 해결하기 위해서 수술 도구나 관절경의 위치를 광학적 또는 자기적 센서에 기반한 수술 네비게이션 기술이나 선행문헌 1과 같이 전자기적(electromagnetic) 센서 및 증강 현실에 기반한 수술 내비게이션 기술도 존재한다.In this case, the use of radioscopic devices causes radiation exposure problems for medical staff and patients, and to solve this problem, the position of surgical tools or arthroscopes must be determined using surgical navigation technology based on optical or magnetic sensors or electromagnetic (electromagnetic) technology as in prior literature 1. ) Surgical navigation technologies based on sensors and augmented reality also exist.

선행문헌 1을 포함한 종래 관절경 수술 네비게이션 기술들은 관절경 수술 유도(네비게이션)를 위해 수술 전에 촬영한 환자 영상을 3차원으로 재구성한 후 이를 관절경의 위치와 좌표계 정합(registration)하여 디스플레이한다. 이 경우, 견인으로 인한 뼈의 실제 이동을 반영하지 못하므로 수술경에서 보여지는 영상과 수술 유도 장치의 시뮬레이션 영상 사이에 괴리가 발생하는 문제점이 있다. 특히, 다수의 뼈가 복합적으로 움직이는 관절의 경우 이동된 뼈들의 위치를 고려하여 관절경을 삽입할 포탈을 선정해야 하는데, 견인된 뼈들의 위치를 반영하지 못하는 종래의 관절경 수술 네비게이션 기술에 기반하는 경우 의료진이 포탈을 잘못 선정할 우려가 있다. Conventional arthroscopic surgery navigation technologies, including Prior Literature 1, reconstruct patient images taken before surgery in three dimensions to guide arthroscopic surgery (navigation), then display them by registering them with the position of the arthroscope and a coordinate system. In this case, since it does not reflect the actual movement of the bone due to traction, there is a problem in that there is a discrepancy between the image shown on the surgical scope and the simulated image of the surgical guidance device. In particular, in the case of a joint in which multiple bones move in a complex manner, the portal through which the arthroscope is inserted must be selected considering the positions of the moved bones. In this case, there is a risk that medical staff may select the wrong portal.

또한, 종래 기술은 관절경의 원활한 시야 확보를 위해 수술 중 관절을 이동시키는 경우, 실제 수술 환경을 더욱 반영하지 못하고 정확도가 감소하고 이동이 반복될수록 정확도가 감소 폭이 커지는 문제점이 있다. In addition, the prior art has a problem in that when the joint is moved during surgery to ensure a smooth view of the arthroscope, the actual surgical environment cannot be further reflected, the accuracy decreases, and the more the movement is repeated, the greater the decrease in accuracy.

선행기술 1: Zemirline A et al., "Augmented reality-based navigation system for wrist arthroscopy: feasibility", Journal Wrist Surgery, Vol. 2, No. 4, pp294-298, 2013년 11월Prior Art 1: Zemirline A et al., “Augmented reality-based navigation system for wrist arthroscopy: feasibility”, Journal Wrist Surgery, Vol. 2, No. 4, pp294-298, November 2013

본 개시의 실시 예는 관절 수술 시 관절 내부의 뼈의 이동 상태를 실시간으로 반영하는 네비게이션 장치 및 방법을 제공한다. An embodiment of the present disclosure provides a navigation device and method that reflects the movement state of bones inside a joint in real time during joint surgery.

본 개시의 실시 예는 견인에 의한 관절 내부의 뼈의 이동 상태를 정확하게 반영하는 네비게이션 장치 및 방법을 제공한다.Embodiments of the present disclosure provide a navigation device and method that accurately reflects the movement state of bones inside a joint due to traction.

본 개시의 실시 예는 견인에 의한 외력이 근육을 통해 뼈에 작용하는 힘을 고려한 네비게이션 장치 및 방법을 제공한다.Embodiments of the present disclosure provide a navigation device and method that takes into account the force that external force due to traction acts on the bone through muscle.

본 개시의 실시 예는 관절 내부의 손상을 막을 수 있는 적절한 포탈 위치를 선정 가능한 네비게이션 장치 및 방법을 제공한다.Embodiments of the present disclosure provide a navigation device and method capable of selecting an appropriate portal location to prevent damage inside the joint.

본 개시의 일 실시 예에 따른 관절 수술 네비게이션 방법은 각 단계의 적어도 일부가 프로세서에 의해 수행되는 방법으로서, 환자의 3차원 영상에 기반하여 연조직 및 경조직이 구분되고, 연조직 및 경조직에 서로 다른 물성이 부여된 관절 3차원 모델을 로딩하는 단계, 환자에 부여되는 외력을 판단하고, 외력에 기반하여 관절 3차원 모델의 연조직의 변형을 산출하는 단계, 관절 3차원 모델의 연조직의 변형에 기반하여 관절 3차원 모델의 경조직의 위치를 변화시키는 단계 및 관절경의 위치에 기반하여 관절 3차원 모델의 적어도 일부를 가시적으로(visually) 표시하는 단계를 포함할 수 있다.The joint surgery navigation method according to an embodiment of the present disclosure is a method in which at least part of each step is performed by a processor, in which soft tissue and hard tissue are distinguished based on a 3D image of the patient, and soft tissue and hard tissue have different physical properties. Step of loading the given joint 3D model, determining the external force applied to the patient, calculating the deformation of the soft tissue of the joint 3D model based on the external force, joint 3 based on the deformation of the soft tissue of the joint 3D model It may include changing the position of the hard tissue of the dimensional model and visually displaying at least a portion of the 3-dimensional joint model based on the position of the arthroscope.

본 개시의 일 실시 예에 따른 관절 수술 네비게이션 장치는 환자의 3차원 영상에 기반하여 연조직 및 경조직이 구분되고, 연조직 및 경조직에 서로 다른 물성이 부여된 관절 3차원 모델을 저장하는 저장부, 프로세서 및 프로세서와 전기적으로 연결되고, 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 메모리는 프로세서를 통해 실행될 때 프로세서가, 환자에 부여되는 외력을 판단하고, 외력에 기반하여 관절 3차원 모델의 상기 연조직의 변형을 산출하고, 관절 3차원 모델의 연조직의 변형에 기반하여 관절 3차원 모델의 경조직의 위치를 변화시키고, 환자의 관절 부위 영상을 촬영하는 관절경의 위치에 기반하여 관절 3차원 모델의 적어도 일부를 관절경에서 촬영한 영상과 함께 가시적으로 표시하도록 야기하는 코드를 저장할 수 있다.The joint surgery navigation device according to an embodiment of the present disclosure includes a storage unit that stores a joint 3D model in which soft tissue and hard tissue are distinguished based on a 3D image of the patient and different physical properties are given to the soft tissue and hard tissue, a processor, and It is electrically connected to the processor and includes a memory in which at least one code executed by the processor is stored, and when the memory is executed through the processor, the processor determines an external force applied to the patient and determines the joint condition based on the external force. Calculate the deformation of the soft tissue in the 3D model, change the position of the hard tissue in the 3D model of the joint based on the deformation of the soft tissue in the 3D model, and change the position of the arthroscope for taking images of the patient's joint area. Code that causes at least a portion of the three-dimensional model to be displayed visually along with images taken from the arthroscope may be stored.

본 개시의 실시 예에 따른 관절 수술 네비게이션 장치 및 방법은 관절 수술 시 관절 내부의 뼈의 이동 상태를 실시간으로 반영할 수 있다.The joint surgery navigation device and method according to an embodiment of the present disclosure can reflect the movement state of bones inside the joint in real time during joint surgery.

본 개시의 실시 예에 따른 관절 수술 네비게이션 장치 및 방법은 외력으로 인한 뼈의 이동 상태를 정확하게 반영할 수 있다.The joint surgery navigation device and method according to an embodiment of the present disclosure can accurately reflect the state of bone movement due to external force.

본 개시의 실시 예에 따른 관절 수술 네비게이션 장치 및 방법은 관절 수술을 위한 부적합한 포탈 위치 선정의 위험성을 감소시킬 수 있다.The joint surgery navigation device and method according to an embodiment of the present disclosure can reduce the risk of inappropriate portal positioning for joint surgery.

도 1은 손목 관절 수술 중 실제 뼈의 이동 범위를 나타내는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 관절 수술 네비게이션 장치의 이용 환경을 나타내는 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 관절 수술 네비게이션 장치의 구성을 도시하는 블록도이다.
도 4는 본 개시의 손목 관절의 뼈 구성을 설명하는 도면이다.
도 5는 본 개시의 일 실시 예에 따른 관절 수술 네비게이션 방법을 설명하는 흐름도이다.
도 6은 본 개시의 일 실시 예에 따른 관절 3차원 모델을 설명하는 도면이다.
도 7은 본 개시의 일 실시 예에 따른 관절 3차원 모델의 링크를 설명하는 도면이다.
도 8은 본 개시의 일 실시 예에 따른 관절 3차원 모델의 특징점을 설명하는 도면이다.
도 9 내지 도 12는 본 개시의 일 실시 예에 따른 관절 3차원 모델의 링크를 구성하는 방법을 설명하는 도면이다.
도 13은 본 개시의 일 실시 예에 따른 뼈의 이동을 반영하여 증강 현실로 관절 3차원 모델을 표시한 결과를 보여주는 도면이다.
도 14는 본 개시의 일 실시 예에 따른 네비게이션 장치 및 방법에서 견인 외력을 반영한 뼈의 이동 시뮬레이션의 실험 오차를 나타내는 도면이다.
도 15 및 도 16은 본 개시의 일 실시 예에 따른 네비게이션 장치 및 방법의 표시 인터페이스를 설명하는 도면이다.
Figure 1 is a diagram showing the actual range of bone movement during wrist joint surgery.
Figure 2 is a block diagram showing the usage environment of the joint surgery navigation device according to an embodiment of the present disclosure.
Figure 3 is a block diagram showing the configuration of a joint surgery navigation device according to an embodiment of the present disclosure.
Figure 4 is a diagram explaining the bone structure of the wrist joint of the present disclosure.
Figure 5 is a flowchart explaining a joint surgery navigation method according to an embodiment of the present disclosure.
FIG. 6 is a diagram illustrating a three-dimensional joint model according to an embodiment of the present disclosure.
FIG. 7 is a diagram illustrating links of a joint 3D model according to an embodiment of the present disclosure.
FIG. 8 is a diagram illustrating feature points of a joint 3D model according to an embodiment of the present disclosure.
9 to 12 are diagrams illustrating a method of configuring links of a joint 3D model according to an embodiment of the present disclosure.
Figure 13 is a diagram showing the results of displaying a three-dimensional joint model in augmented reality reflecting bone movement according to an embodiment of the present disclosure.
FIG. 14 is a diagram showing experimental errors of bone movement simulation reflecting traction external force in the navigation device and method according to an embodiment of the present disclosure.
15 and 16 are diagrams illustrating a display interface of a navigation device and method according to an embodiment of the present disclosure.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

도 1은 손목 관절 수술 중 손목 관절에 포함된 실제 월상골(도 1 (a)), 주상골(도 1 (b)), 유두골(도 1 (c)), 소능형골(도 1 (d))의 견인으로 인한 이동 결과를 보여준다. 수술 전의 위치(Neutral)에서 견인(Real traction)으로 인한 뼈의 이동된 위치 사이의 차이가 꽤 큰 것을 확인할 수 있고, 이는 수술 도구의 미세한 움직임을 필요로 하는 관절경 수술의 경우 변경된 뼈의 위치가 중요함을 확인할 수 있다.Figure 1 shows the actual lunate bone (Figure 1 (a)), scaphoid bone (Figure 1 (b)), mammillary bone (Figure 1 (c)), and cuneiform bone (Figure 1 (d)) included in the wrist joint during wrist joint surgery. )) shows the result of movement due to traction. It can be seen that the difference between the pre-operative position (Neutral) and the moved position of the bone due to traction (Real traction) is quite large, which means that in the case of arthroscopic surgery that requires fine movement of the surgical tool, the changed position of the bone You can confirm its importance.

도 2를 참조하여 본 개시의 일 실시 예에 따른 관절 수술 네비게이션 장치를 구동하기 위한 환경을 설명한다.An environment for driving a joint surgery navigation device according to an embodiment of the present disclosure will be described with reference to FIG. 2 .

본 개시의 실시 예에 따른 관절 수술 네비게이션 장치(100)는 광학적 또는 자기적 마커(310, 1200)를 부착한 관절경(300)과 관절경(300)의 위치를 추적하는 위치 추적 장치(200), 관절경(300)의 카메라 영상을 표시하는 영상 표시 장치(400)와 연동되어 구동될 수 있다.The joint surgery navigation device 100 according to an embodiment of the present disclosure includes an arthroscope 300 with optical or magnetic markers 310 and 1200 attached thereto, and a position tracking device 200 for tracking the position of the arthroscope 300. , It can be driven in conjunction with the image display device 400 that displays the camera image of the arthroscope 300.

위치 추적 장치(200)는 관절경(300) 또는 환자(1000)의 광학적 마커를 추적하는 경우 광학 카메라 기반의 위치 추적 장치(200)일 수 있고, 대상물의 거리를 감지할 수 있는 센서에 기반할 수 있다. 예를 들어, RGB-D 센서 등의 깊이 센서에 기반한 광학 카메라를 포함할 수 있다. 또는, 스테레오 카메라일 수 있다. 위치 추적 장치(200)는 광학 트랙커(optical tracker)일 수 있고, 이 경우 마커(310, 1200)는 광학 트랙커에서 광학적으로 인식 가능한(retro-reflective)한 마커일 수 있다.The position tracking device 200 may be an optical camera-based position tracking device 200 when tracking the optical marker of the arthroscope 300 or the patient 1000, and may be based on a sensor capable of detecting the distance of an object. You can. For example, it may include an optical camera based on a depth sensor such as an RGB-D sensor. Alternatively, it may be a stereo camera. The location tracking device 200 may be an optical tracker, and in this case, the markers 310 and 1200 may be optically recognizable (retro-reflective) markers in the optical tracker.

광학 트랙커는 적외선 등의 광학 기반의 능동적(active) 광학 트랙커 또는 수동적(passive) 광학 트랙커일 수 있다. 광학 트랙커는 단안 또는 스테레오 기반의 카메라일 수 있다. 수동적 방식의 광학 트랙킹 기술을 사용하는 경우 광학 트랙커는 적외선 조명 LED를 포함할 수 있다.The optical tracker may be an active optical tracker or a passive optical tracker based on optics such as infrared. Optical trackers can be monocular or stereo-based cameras. When using passive optical tracking technology, the optical tracker may include an infrared illumination LED.

관절경(300)은 말단부 또는 일부에 자이로 센서, 관성 센서를 포함할 수 있고, 위치 추적 장치(200) 또는 관절 수술 네비게이션 장치(100)의 통신 모듈(110)은 관절경(300)의 자이로 센서, 관성 센서에서 측정한 데이터를 기반으로 관절경(300)의 자세(pose)를 판단할 수 있다. 관절 수술 네비게이션 장치(100)는 관절경(300)의 자세 변화에 따른 관절경(300) 카메라의 시야각(FOV: Field of View)을 고려하여 관절 3차원 모델의 대응되는 부분을 영상 표시 장치(400)에 표시할 수 있다.The arthroscope 300 may include a gyro sensor or an inertial sensor at the distal end or part of the arthroscope, and the communication module 110 of the position tracking device 200 or the joint surgery navigation device 100 is a gyro sensor of the arthroscope 300. , the posture of the arthroscope 300 can be determined based on the data measured by the inertial sensor. The joint surgery navigation device 100 displays the corresponding part of the joint 3D model in consideration of the field of view (FOV) of the arthroscope 300 camera according to the change in posture of the arthroscope 300. ) can be displayed.

영상 표시 장치(400)는 영상을 표시 가능한 모든 디스플레이 장치를 포함한다. 영상 표시 장치(400)는 일반 컴퓨터 모니터일 수 있고, 의료진이 착용한 증강 현실 글래스이거나, 빔 프로젝션일 수 있다. 빔 프로젝션인 경우, 관절 수술 네비게이션 장치(100)는 관절 3차원 모델을 환자의 위치 및 자세에 기반하여 투영할 수 있다. The image display device 400 includes all display devices capable of displaying images. The image display device 400 may be a general computer monitor, augmented reality glasses worn by medical staff, or beam projection. In the case of beam projection, the joint surgery navigation device 100 may project a three-dimensional joint model based on the patient's position and posture.

의료진은 관절 수술 네비게이션 장치(100)의 시뮬레이션 영상을 고려하여 환자(1000)의 관절 내부에 관절경(300)을 삽입할 포탈을 선정할 수 있다. 이 경우, 관절 수술 네비게이션 장치(100)는 관절경(300)의 위치를 확인하여 환자의 내부에 관절경(300) 삽입 전인 경우 도 15와 같이 수술 부위 외부 영상에 관절 3차원 모델을 증강 현실로 표시할 수 있다. 따라서, 의료진이 견인 등의 외력으로 인한 뼈의 이동을 고려하여 안전하게 포탈을 선정할 수 있다.The medical staff may select a portal for inserting the arthroscope 300 into the joint of the patient 1000 by considering the simulation image of the joint surgery navigation device 100. In this case, the joint surgery navigation device 100 confirms the position of the arthroscope 300 and, before inserting the arthroscope 300 inside the patient, displays a 3D model of the joint in augmented reality on the external image of the surgical site as shown in FIG. 15. It can be displayed. Therefore, the medical staff can safely select the portal by considering bone movement due to external forces such as traction.

일 실시 예에서, 관절 수술 네비게이션 장치(100)는 관절 수술 시 머신 러닝에 기반한 학습 모델에 기반하여 관절경 삽입에 적합한 포탈의 위치를 도 15와 같이 결정하여 영상 표시 장치(400)에 관절 3차원 모델과 함께 표시할 수 있다. 관절 수술 네비게이션 장치(100)는 환자에 대한 외부의 관절경(310)의 위치 및 시야각을 확인하고, 해당 시야각의 관절 3차원 모델의 평면 영상을 생성하고, 관절 3차원 모델의 평면 영상을 학습 모델에 입력하여 포탈의 위치를 결정할 수 있다. 학습 모델은 관절의 평면 영상을 포탈의 위치로 레이블링한 훈련 데이터로 훈련된 딥 러닝 기반의 학습 모델일 수 있다. 평면 영상은 X레이 영상 또는 관절경(310)의 위치에서 관절 3차원 모델을 바라보는 방향으로 레이(ray)의 경로를 설정하고, 각 레이 경로의 복셀(voxel)들을 누적하여 생성한 가상의(virtual) 평면 영상일 수 있다.In one embodiment, the joint surgery navigation device 100 determines the position of a portal suitable for arthroscopic insertion as shown in FIG. 15 based on a learning model based on machine learning during joint surgery and displays a three-dimensional view of the joint on the image display device 400. It can be displayed together with the model. The joint surgery navigation device 100 confirms the position and viewing angle of the external arthroscope 310 with respect to the patient, generates a planar image of the joint 3D model at the corresponding viewing angle, and converts the planar image of the joint 3D model into a learning model. You can determine the location of the portal by entering . The learning model may be a deep learning-based learning model trained with training data labeling a planar image of a joint with the location of the portal. The planar image is a virtual image created by setting a ray path in the direction of looking at the three-dimensional joint model from the position of the X-ray image or arthroscope 310 and accumulating voxels of each ray path. virtual) may be a flat image.

머신 러닝 기반의 학습 모델은 학습 모델은 CNN 또는 R-CNN(Region based CNN), C-RNN(Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, R-FCN(Region based Fully Convolutional Network), YOLO(You Only Look Once) 또는 SSD(Single Shot Multibox Detector)구조의 신경망을 포함할 수 있다.Machine learning-based learning models include CNN or R-CNN (Region based CNN), C-RNN (Convolutional Recursive Neural Network), Fast R-CNN, Faster R-CNN, and R-FCN (Region based Fully Convolutional Network). ), YOLO (You Only Look Once), or SSD (Single Shot Multibox Detector) structures.

학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있으며, 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어는 메모리에 저장될 수 있다.The learning model may be implemented in hardware, software, or a combination of hardware and software. If part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in memory.

관절 수술 네비게이션 장치(100)는 연조직 및 경조직이 구분(segmentation)되어 서로 다른 물성이 부여된 관절 3차원 모델을 로딩(loading)하고, 견인 등에 의해 환자(100)에 가해지는 외력으로 인한 마커(1200)의 변화된 위치를 위치 추적 장치(200)로부터 제공 받고, 마커(1200)의 변화된 위치에 기반하여 연조직의 변형 및 연조직의 변형으로 인한 경조직의 위치 변화를 모델링할 수 있다. 또는, 관절 수술 네비게이션 장치(100)는 견인 장치에서 환자(1000)에 연결된 견인부의 위치 이동 변화, 견인력을 측정하여 연조직의 변형 및 연조직의 변형으로 인한 경조직의 위치 변화를 모델링할 수 있다. 경조직의 위치 변화는 아래에서 설명할 경조직에 포함된 복수의 뼈들 사이의 링크(link)에 기반하여 산출할 수 있다. 관절 수술 네비게이션 장치(100)는 경조직의 위치가 변화된 관절 3차원 모델의 적어도 일부를 영상 표시 장치(400)에 가시적으로(visually) 실시간 표시할 수 있다.The joint surgery navigation device 100 loads a 3D model of the joint in which soft tissue and hard tissue are segmented and given different physical properties, and displays a marker 1200 due to external force applied to the patient 100 by traction, etc. ) can be provided from the position tracking device 200, and based on the changed position of the marker 1200, the deformation of the soft tissue and the change in the position of the hard tissue due to the deformation of the soft tissue can be modeled. Alternatively, the joint surgery navigation device 100 may measure the positional movement change and traction force of the traction unit connected to the patient 1000 in the traction device to model the deformation of the soft tissue and the change in the position of the hard tissue due to the deformation of the soft tissue. Changes in the position of hard tissue can be calculated based on links between a plurality of bones included in the hard tissue, which will be explained below. The joint surgery navigation device 100 may visually display at least a portion of the 3D model of the joint in which the position of the hard tissue has changed on the image display device 400 in real time.

관절 수술 네비게이션 장치(100)는 관절 3차원 모델의 좌표계와 환자의 좌표계, 관절경의 좌표계를 정합(registration)한 후, 관절 3차원 모델의 적어도 일부를 영상 표시 장치(400)에 관절경(300)에서 획득된 영상과 중첩하거나 환자의 영상과 중첩하여 표시할 수 있다. 또는, 관절경(300)에서 획득된 영상 또는 환자의 영상과 중첩하지 않고 별개의 영상으로 관절 3차원 모델의 적어도 일부를 표시할 수 있다.The joint surgery navigation device 100 registers the coordinate system of the joint 3D model, the patient's coordinate system, and the arthroscope's coordinate system, and displays at least a portion of the joint 3D model on the image display device 400 using the arthroscope 300. It can be displayed overlapping with the image acquired from or overlapping with the patient's image. Alternatively, at least part of the three-dimensional joint model may be displayed as a separate image without overlapping with the image acquired by the arthroscope 300 or the patient's image.

일 실시 예에서, 관절 수술 네비게이션 장치(100) 또는 관절경 제어 장치는 관절경(300)의 마커(310)와 관절경(300) 말단부(tooltip) 사이에 핸드-아이 칼리브레이션(hand-eye calibration)을 수행한 후, 말단부에 위치한 카메라의 위치를 특정할 수 있다.In one embodiment, the joint surgery navigation device 100 or the arthroscope control device performs hand-eye calibration between the marker 310 of the arthroscope 300 and the tooltip of the arthroscope 300. After performing, the location of the camera located at the distal end can be specified.

도 3을 참조하여 본 개시의 일 실시 예에 따른 관절 수술 네비게이션 장치(100)의 구성을 설명한다.The configuration of the joint surgery navigation device 100 according to an embodiment of the present disclosure will be described with reference to FIG. 3 .

관절 수술 네비게이션 장치(100)는 위치 추적 장치(200), 관절경(300) 및/또는 영상 표시 장치(400)와 데이터 전송을 위한 통신 모듈(100)을 포함한다. 통신 모듈(100)은 무선 통신부 또는 유선 통신부를 포함할 수 있다.The joint surgery navigation device 100 includes a position tracking device 200, an arthroscope 300, and/or an image display device 400, and a communication module 100 for data transmission. The communication module 100 may include a wireless communication unit or a wired communication unit.

무선 통신부는, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The wireless communication unit may include at least one of a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.

이동통신 모듈은, 이동통신을 위한 통신방식인 LTE(Long Term Evolution) 등에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network built according to LTE (Long Term Evolution), a communication method for mobile communication.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈로서, 관절 수술 네비게이션 장치(100)에 내장되거나 외장될 수 있고, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance) 등이 사용될 수 있다.The wireless Internet module is a module for wireless Internet access and can be built into or external to the joint surgery navigation device 100, and can be connected to WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), and Wi-Fi (Wireless Fidelity) Direct. , DLNA (Digital Living Network Alliance), etc. may be used.

근거리 통신 모듈은 근거리 통신을 통하여 데이터 송수신을 위한 모듈로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등을 사용할 수 수 있다.The short-range communication module is a module for transmitting and receiving data through short-range communication, including Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, and NFC (Near Field). Communication), etc. can be used.

통신 모듈(100)은 모니터를 포함하는 디스플레이부(120)나 영상 표시 장치(400)에 영상 데이터를 전송하거나 관절경(300)에서 촬영된 영상 데이터를 수신하는 케이블(cable) 및 그 연결 인터페이스를 포함할 수 있다.The communication module 100 includes a cable that transmits image data to the display unit 120 or the image display device 400 including a monitor or receives image data captured by the arthroscope 300 and its connection interface. It can be included.

관절 수술 네비게이션 장치(100)가 관절경(300)의 기계적 전자적 어셈블리를 제어하는 관절경 수술 장치로 통합하여 구현되는 경우, 프로세서(130)는 관절경(300)의 각 구성요소를 제어하는 신호를 발생할 수 있고, 관절경(300) 카메라에서 촬영한 영상을 전처리하여 디스플레이부(120)에 표시할 수 있다. 이 경우, 종래의 관절경 수술 장치의 구성 요소를 추가적으로 포함할 수 있으며, 통상의 기술자에게 공지된 기술을 사용 가능하므로 자세한 설명을 생략한다. When the joint surgery navigation device 100 is integrated and implemented as an arthroscopic surgery device that controls the mechanical and electronic assembly of the arthroscope 300, the processor 130 sends a signal to control each component of the arthroscope 300. It may occur, and the image captured by the arthroscope 300 camera may be pre-processed and displayed on the display unit 120. In this case, components of a conventional arthroscopic surgical device may be additionally included, and techniques known to those skilled in the art may be used, so detailed description is omitted.

관절 수술 네비게이션 장치(100)의 프로세서(130)는 컴퓨터단층촬영(CT, Computed Tomography) 영상 도는 자기공명영상(MRI, Magnetic Resonance Imaging) 등의 3차원 진단 영상 장치에서 환자를 촬영하여 재구성한 3차원 영상을 통신 모듈(110)을 통해 제공 받거나, 환자의 3차원 영상에서 연조직 및 경조직을 구분(segmentation, labeling)한 영상을 제공 받아 저장부(150)에 저장할 수 있다. The processor 130 of the joint surgery navigation device 100 is a 3D image reconstructed by imaging the patient in a 3D diagnostic imaging device such as computed tomography (CT) imaging or magnetic resonance imaging (MRI). An image may be provided through the communication module 110, or an image obtained by segmenting and labeling soft tissue and hard tissue from a 3D image of the patient may be provided and stored in the storage unit 150.

관절 수술 네비게이션 장치(100)는 연조직 및 경조직 3차원 영상의 픽셀(또는 복셀) 인텐시티, 영상적 특징점(feature), 컨투어(contour) 등 다양한 종래의 구분 기술에 기반하여 조직 별로 구분된 데이터를 제공 받아, 조직 별로 물성 정보를 설정하거나, 3차원 영상을 제공 받아 구분 기술을 적용하고, 조직 별로 물성 정보를 설정할 수 있다. The joint surgery navigation device 100 receives data classified by tissue based on various conventional classification techniques such as pixel (or voxel) intensity, image feature, and contour of soft tissue and hard tissue 3D images. , property information can be set for each organization, or 3D images can be provided, classification technology can be applied, and property information can be set for each organization.

본 명세서의 관절 3차원 모델은 도 6에서 확인 가능한 것처럼 3차원 영상에서 각 조직(연조직, 경조직)이 구별되어 레이블링된 데이터일 수 있다. 또한, 관절 3차원 모델은 각 조직 별로(적어도 경조직과 연조직이 구별되어) 서로 다른 물성 정보가 지정될 수 있고, 물성 정보는 질량(mass), 관성텐서(inertia tensor), 푸아송 비(Poisson ratio), 영률(Young's modulus), 강성 등 재질(material) 정보일 수 있다. 관절 수술 네비게이션 장치(100)는 조직 별로 물성 정보가 설정된 관절 3차원 모델에 환자에 가해지는 견인력 등의 외력을 적용하여 3차원 유한 요소 해석(FEA, Finite Element Analysis)에 기반한 시뮬레이션을 수행하여 연조직의 변형을 산출하고, 연조직의 변형에 따른 연조직에 연결된 경조직에 전달되는 힘을 유한 요소 해석 시뮬레이션하여 경조직의 위치 변화를 결정할 수 있다. 이 때, 관절 수술 네비게이션 장치(100)는 경조직에 포함된 복수의 뼈 사이의 운동 관계에 기반하여 설정된 도 7과 같은 링크에 기반하여 경조직의 위치 변화를 결정할 수 있다.As can be seen in FIG. 6, the joint 3D model of the present specification may be data in which each tissue (soft tissue, hard tissue) is distinguished and labeled in a 3D image. In addition, the joint 3D model can specify different physical property information for each tissue (at least distinguishing between hard and soft tissues), and the physical property information includes mass, inertia tensor, and Poisson ratio. ), Young's modulus, and stiffness, etc. may be material information. The joint surgery navigation device 100 performs a simulation based on 3D finite element analysis (FEA) by applying external forces such as traction force applied to the patient to a 3D joint model in which physical property information is set for each tissue. The change in position of the hard tissue can be determined by calculating the deformation and conducting finite element analysis simulation of the force transmitted to the hard tissue connected to the soft tissue due to the deformation of the soft tissue. At this time, the joint surgery navigation device 100 may determine a change in the position of the hard tissue based on a link as shown in FIG. 7 established based on the movement relationship between a plurality of bones included in the hard tissue.

경조직은 뼈 등을 포함할 수 있고 연조직은 근육, 인대 등을 포함할 수 있다. 관절의 경우, 경조직은 관절을 구성하는 복수의 뼈를 포함할 수 있고, 손목 관절의 경우 도 4의 소능형골, 유두골, 유구골, 두상골, 삼각골, 월상골, 주상골 및/또는 대능형골의 적어도 일부를 포함할 수 있다.Hard tissues may include bones, etc., and soft tissues may include muscles, ligaments, etc. In the case of a joint, the hard tissue may include a plurality of bones that make up the joint, and in the case of the wrist joint, the cuneiform bone, mammillary bone, hamate bone, capitate bone, deltoid bone, lunate bone, scaphoid bone, and/or major bone in FIG. May include at least part of the rhomboid bone.

일 실시 예에서, 관절 수술 네비게이션 장치(100)는 사용자의 입력을 위한 입력부 또는 출력부를 포함할 수 있다. In one embodiment, the joint surgery navigation device 100 may include an input unit or output unit for user input.

입력부는 마이크로폰, 사용자로부터 정보를 입력 받기 위한 터치 인터페이스를 포함하는 사용자 인터페이스(UI: User Interface)를 포함하고, 사용자 인터페이스는 마우스, 키보드뿐만 아니라 장치에 구현된 기계식, 전자식 인터페이스 등을 포함할 수 있고 사용자의 명령을 입력 가능한 것이라면 특별히 그 방식과 형태를 한정하지 않는다. 전자식 인터페이스는 터치 입력 가능한 디스플레이를 포함한다.The input unit includes a user interface (UI: User Interface) including a microphone and a touch interface for receiving information from the user, and the user interface may include a mouse, a keyboard, as well as mechanical and electronic interfaces implemented in the device. As long as the user's command can be input, the method and form are not particularly limited. The electronic interface includes a display capable of touch input.

출력부는 관절 수술 네비게이션 장치(100)의 출력을 외부에 표출하여 사용자에게 정보를 전달하기 위한 것으로서, 시각적 출력, 청각적 출력 또는 촉각적 출력을 표출하기 위한 디스플레이, LED, 스피커 등을 포함할 수 있다.The output unit is for delivering information to the user by displaying the output of the joint surgery navigation device 100 to the outside, and may include a display, LED, speaker, etc. for expressing visual output, auditory output, or tactile output. .

관절 수술 네비게이션 장치(100)는 다양한 종류의 연결된 외부 기기와의 데이터 전송을 위한 주변 장치 인터페이스부를 포함할 수 있고, 메모리 카드(memory card) 포트, 외부 장치 I/O(Input/Output) 포트(port) 등을 포함할 수 있다. The joint surgery navigation device 100 may include a peripheral device interface unit for data transmission with various types of connected external devices, a memory card port, and an external device I/O (Input/Output) port. ), etc. may be included.

도 5를 참조하여 본 개시의 일 실시 예에 따른 관절 수술 네비게이션 장치의 관절 수술 네비게이션 방법을 설명한다.A joint surgery navigation method of a joint surgery navigation device according to an embodiment of the present disclosure will be described with reference to FIG. 5 .

관절 수술 네비게이션 장치(100)는 관절 3차원 모델을 메모리 등의 일시적 저장장치 또는 SSD(Solid State Drive), HDD(Hard Disk Drive) 등의 비 휘발성 저장장치에서 로딩하거나, 통신 인터페이스를 통해 외부 장치로부터 제공받을 수 있다(S110). 또는 관절 수술 네비게이션 장치(100)는 환자의 3차원 영상을 외부 장치로부터 제공 받아 영상 처리를 통해 도 6과 같이 연조직, 경조직을 구별하여 레이블링할 수 있다. 관절 수술 네비게이션 장치는 연조직, 경조직이 구별된 관절 3차원 모델에서 연조직 및 경조직에 서로 다른 물성 정보를 설정할 수 있다. The joint surgery navigation device 100 loads the joint 3D model from a temporary storage device such as memory or a non-volatile storage device such as a solid state drive (SSD) or hard disk drive (HDD), or downloads the joint 3D model from an external device through a communication interface. It can be provided (S110). Alternatively, the joint surgery navigation device 100 may receive a 3D image of the patient from an external device and label the soft tissue and hard tissue separately as shown in FIG. 6 through image processing. The joint surgery navigation device can set different physical property information for soft and hard tissues in a three-dimensional joint model in which soft and hard tissues are distinguished.

관절 수술 네비게이션 장치(100)는 환자의 피부에 부착된 마커(1200) 또는 관절(1100)을 견인하는 견인장치의 견인부에 부착된 마커의 위치 변화를 위치 추적 장치(200)에서 인식하거나 견인 장치에서 측정된 견인력에 기반하여 외력의 크기와 방향을 결정하고, 외력을 관절 3차원 모델의 연조직에 부여하여 3차원 유한 요소 해석 시뮬레이션을 수행함으로써 연조직의 변형을 산출하고(S120), 연조직의 변형에 따른 경조직 링크 경로의 말단 경조직의 견인에 의한 이동 정도를 산출하고, 동일한 링크 경로에 포함된 링크로 연결된 경조직들의 운동 및/또는 위치를 변화시킬 수 있다(S130). The joint surgery navigation device 100 recognizes, in the position tracking device 200, a change in the position of the marker 1200 attached to the patient's skin or the marker attached to the traction unit of the traction device for towing the joint 1100 or the traction device Based on the traction force measured in, the size and direction of the external force are determined, the external force is applied to the soft tissue of the joint 3D model, and a 3D finite element analysis simulation is performed to calculate the deformation of the soft tissue (S120). The degree of movement due to traction of the distal hard tissue of the hard tissue link path along the hard tissue link path can be calculated, and the movement and/or position of the hard tissues connected to the link included in the same link path can be changed (S130).

예를 들어, 도 7 (a)의 경우, 관절 수술 네비게이션 장치(100)는 견인 장치의 견인부가 유두골 외부에서 환자의 피부를 상측 방향으로 견인하는 경우, 피부 및 피부 하부의 연조직에 가해지는 외력을 유한 요소 해석 시뮬레이션하여 결정하고, 연조직에 연결된 유두골이 상측으로 어느 정도 이동할지 역시 연조직 및 경조직의 물성 정보에 기반한 유한 요소 해석 시뮬레이션으로 결정된다. 이후, 유두골의 제1 링크와 연결된 링크들로 링크 경로가 설정된 월상골은 유두골과 월상골 사이의 제2 링크, 월상골 내부의 제1 링크의 운동 제한 및 특성에 따라 이동 및/또는 운동 크기 및 범위를 결정한다.For example, in the case of Figure 7 (a), when the traction unit of the traction device pulls the patient's skin upward from the outside of the papillary bone, the joint surgery navigation device 100 exerts an external force applied to the skin and soft tissue beneath the skin. is determined through finite element analysis simulation, and the extent to which the papillary bone connected to the soft tissue moves upward is also determined through finite element analysis simulation based on material property information of the soft and hard tissues. Afterwards, the lunate bone, whose link path is set using the links connected to the first link of the mammary bone, moves and/or moves according to the movement restrictions and characteristics of the second link between the papillary bone and the lunate bone and the first link inside the lunate bone. Determine size and scope.

관절 수술 네비게이션 장치는 관절 3차원 모델의 경조직에 포함된 복수의 뼈들 사이에 링크를 설정할 수 있다. 링크는 관절의 운동 시, 관절에 포함된 복수의 뼈들 사이의 이동, 회전 등의 운동 관계를 모델링한 정보이다. A joint surgery navigation device can establish links between a plurality of bones included in the hard tissue of a three-dimensional joint model. A link is information that models the movement relationship, such as movement and rotation, between a plurality of bones included in the joint when the joint is moved.

도 7을 참조하여 링크를 설명한다. 도 7은 도 4와 같은 손목 관절의 경조직에 포함된 복수의 뼈들 사이에 설정된 두 가지의 링크 경로를 도시한다. 도 7 (a)는 유두골, 월상골, 요골 사이에 설정된 링크들이고, 도 7 (b)는 소능형골, 주상골, 요골 사이에 설정된 링크들이다.The link will be explained with reference to Figure 7. FIG. 7 shows two link paths established between a plurality of bones included in the hard tissue of the wrist joint as shown in FIG. 4. Figure 7 (a) shows links established between the mammary bone, lunate, and radius, and Figure 7 (b) shows links established between the minor cuneiform bone, navicular bone, and radius.

관절 수술 네비게이션 장치는 복수의 뼈들에 대해서 뼈 내부에 제1 링크를 설정하고, 뼈들 사이의 제2 링크를 설정할 수 있다.The joint surgery navigation device may establish a first link within the bones for a plurality of bones and establish a second link between the bones.

제2 링크는 실험적으로 복수의 피험자들의 관절 운동에 따른 각 뼈의 이동, 회전 관계 및 변화를 측정하고 운동 관계가 서로 연관 관계에 있는 것으로 판단된 뼈들 사이에 설정될 수 있다. The second link may be experimentally established between bones whose movement relationships are determined to be related to each other by measuring the movement, rotation relationship, and change of each bone according to the joint movements of a plurality of subjects.

도 7을 참조하면, 실험적으로 복수의 피험자들은 요골을 기준(base)으로 유두골, 월상골이 서로 연관되어 운동하는 것으로 판단되었고, 요골을 중심으로 소능형골, 주상골이 서로 연관되어 운동하는 것으로 판단되어, 관절 수술 네비게이션 장치는 손목 관절의 관절 3차원 모델에서 복수의 뼈들 사이에 도 7과 같이 두 가지의 링크 경로를 설정할 수 있다. 손목 관절의 다른 뼈들에 대해서도 추가적으로 링크 경로가 설정될 수 있다.Referring to Figure 7, it was experimentally determined that the papillary and lunate bones of a plurality of subjects moved in relation to each other based on the radius, and that the minor rhomboid and scaphoid bones moved in relation to each other around the radius. As determined, the joint surgery navigation device can set two link paths between a plurality of bones in the joint 3D model of the wrist joint as shown in FIG. 7. Additional link paths may be set for other bones of the wrist joint.

관절 수술 네비게이션 장치는 뼈 내부의 제1 링크는 동일한 뼈의 무게 중심과 표면의 특징점이 연결되도록 설정하고, 뼈 사이의 제2 링크는 복수의 뼈의 특징점끼리 연결되도록 설정하거나, 복수의 상기 뼈 중 어느 한 뼈의 무게 중심과 다른 한 뼈의 특징점이 연결되도록 설정할 수 있다.In the joint surgery navigation device, the first link inside the bone is set to connect the center of gravity of the same bone and the feature point on the surface, and the second link between bones is set to connect the feature point of a plurality of bones, or one of the plurality of bones is set to connect the feature point of the surface. It can be set so that the center of gravity of one bone is connected to the feature point of another bone.

특징점은 뼈의 구조, 형태 및 뼈 사이의 물리적 관계에 의하여 도 8과 같이 뼈의 표면에서 복수의 후보군들을 설정한 후, 복수의 후보군인 특징정 및/또는 무게중심을 링크로 연결한 복수의 링크 경로 셋들에 대한 역기구학 운동 결과와 실제 관절 운동의 결과를 비교하여 가장 오차가 적은 링크 경로를 최종 링크들로 결정할 수 있다. The feature point is a plurality of candidate groups set on the surface of the bone as shown in FIG. 8 according to the structure, shape, and physical relationship between bones, and then a plurality of links connecting the feature points and/or centers of gravity of the plurality of candidate groups with links. By comparing the results of the inverse kinematics motion for the path sets and the results of the actual joint motion, the link path with the least error can be determined as the final links.

일 실시 예에서, 관절 수술 네비게이션 장치(100)는 기준이 되는 경조직은 운동하지 않는 것으로 설정할 수 있다. 예를 들어, 도 6과 같이 손목 관절의 관절 3차원 모델은 연조직과 경조직으로 구분되도록 설정되고, 복수의 경조직 중 도메인 3에 해당하는 경조직(예를 들어, 도 7의 요골)은 기준으로 설정하여 연조직의 변형에 따른 경조직 위치 변화가 발생하지 않도록 설정할 수 있다.In one embodiment, the joint surgery navigation device 100 may set the reference hard tissue not to exercise. For example, as shown in Figure 6, the three-dimensional joint model of the wrist joint is set to be divided into soft tissue and hard tissue, and the hard tissue corresponding to domain 3 (for example, the radius in Figure 7) among the plurality of hard tissues is set as the reference. It can be set so that no change in hard tissue position occurs due to deformation of soft tissue.

일 실시 예에서, 관절 수술 네비게이션 장치(100)는 링크 경로의 각 링크 말단부인 특징점 및/또는 무게중심의 좌표를 통일하고, 링크의 운동 방향, 운동 범위를 결정할 수 있다. 또는 이미 이와 같은 특성들이 정의된 링크가 설정된 관절 3차원 모델을 제공 받을 수 있다.In one embodiment, the joint surgery navigation device 100 may unify the coordinates of the feature point and/or the center of gravity, which are the end portions of each link in the link path, and determine the movement direction and movement range of the link. Alternatively, you can receive a joint 3D model with links that already have these characteristics defined.

도 9 내지 12를 참조하여 링크의 운동 방향, 운동 범위를 결정하는 방법을 설명한다.A method for determining the direction of movement and range of movement of a link will be described with reference to FIGS. 9 to 12.

관절 수술 네비게이션 장치(100)는 링크들의 연결 관계가 설정된 링크 경로를 도 9 (a)와 같이 설정할 수 있다. 관절 수술 네비게이션 장치(100)는 제1 뼈, 제2 뼈는 운동 가능한 경조직으로 설정하고, 특징점 (a0, b0, c0)은 기준인 뼈의 특징점으로서 경조직 위치 변화가 발생하지 않도록 설정할 수 있다.The joint surgery navigation device 100 may set a link path in which the connection relationship between links is established, as shown in FIG. 9 (a). The joint surgery navigation device 100 may set the first bone and the second bone as movable hard tissues, and the feature points (a0, b0, c0) may be set as reference feature points of the bone so that no change in the position of the hard tissue occurs.

관절 수술 네비게이션 장치(100)는 기준인 뼈의 특징점의 좌표계를 기준으로(기준인 뼈의 특징점을 원점으로 하여) 링크 경로의 나머지 특징점 및/또는 무게 중심의 좌표를 도 9 (b)와 같이 재설정할 수 있다. 아래에서는 도 9의 기준이 뼈의 특징점부터 링크 경로를 따라 특징점 및/또는 무게 중심은 차례대로, p0, p1, p2, p3, p4인 것으로 설명한다.The joint surgery navigation device 100 resets the coordinates of the remaining feature points and/or center of gravity of the link path based on the coordinate system of the feature point of the reference bone (with the feature point of the reference bone as the origin) as shown in FIG. 9 (b). can do. Below, the reference in FIG. 9 will be described as p0, p1, p2, p3, and p4, in order, from the feature point of the bone to the feature point and/or center of gravity along the link path.

도 10을 참조하면, 관절 수술 네비게이션 장치(100)는 p1, p2, p3, p4에 각각 링크의 좌표계를 설정하고 각 링크 좌표계의 X축을 링크의 방향으로 결정할 수 있다. 예를 들어, p1의 X축인 X1은 p0과 p1 사이의 링크 방향이 연장선을 따르도록 설정할 수 있다. 이어서, p2, p3, p4의 X축도 동일한 방법으로 결정할 수 있다. Referring to FIG. 10, the joint surgery navigation device 100 may set the coordinate system of the link at p1, p2, p3, and p4, respectively, and determine the X-axis of each link coordinate system as the direction of the link. For example, X1, the X axis of p1, can be set so that the link direction between p0 and p1 follows an extension line. Subsequently, the X-axis of p2, p3, and p4 can be determined in the same way.

관절 수술 네비게이션 장치(100)는 p1, p2, p3, p4의 Z축은 링크의 X 축들의 외적에 기반하여 결정할 수 있다. 예를 들어, p1의 Z축인 Z1은 p1의 X축인 X1과 p1의 링크에 연결된 p2의 X축인 X2의 외적으로 결정할 수 있다. Y축은 X축과 Z축이 동시에 직교하는 축으로 결정된다.The joint surgery navigation device 100 may determine the Z axes of p1, p2, p3, and p4 based on the cross product of the X axes of the link. For example, Z1, the Z axis of p1, can be determined as the external product of X1, the X axis of p1, and X2, the X axis of p2 connected to the link of p1. The Y-axis is determined as the axis where the X-axis and Z-axis are simultaneously orthogonal.

따라서, 최종적으로 관절에 포함된 복수의 뼈들은 단순한 이동이 아닌 복합적인 운동을 서로 연관되어 별개의 방향으로 수행하게 되고, 이를 반영하기 위하여 경조직의 복수의 뼈들 중 적어도 2개 뼈의 무게 중심과 특징점은 좌표계를 이루는 좌표축의 방향이 서로 다르게 설정될 수 있다. 손목 관절인 경우 기준을 제외한 각 뼈들 중, 견인측에 위치하는 링크 말단의 뼈는 견인 방향으로 평행 이동하고 나머지 뼈들은 자신의 좌표계의 Z축을 중심으로 회전 운동을 수행한다. Z축의 방향이 서로 다르므로 회전 방향도 서로 달라지고 복합적인 관절 운동을 반영할 수 있다.Therefore, ultimately, the plurality of bones included in the joint perform complex movements, rather than simple movements, in relation to each other and in separate directions. To reflect this, the center of gravity and characteristic points of at least two bones among the plurality of bones in the hard tissue are adjusted. The directions of the coordinate axes forming the coordinate system may be set differently. In the case of a wrist joint, among each bone except the reference, the bone at the end of the link located on the traction side moves in parallel in the direction of traction, and the remaining bones perform rotational movement around the Z axis of their own coordinate system. Since the direction of the Z axis is different, the direction of rotation is also different and can reflect complex joint movements.

관절 수술 네비게이션 장치(100)는 관절 부위마다 서로 다른 링크 연결 및 설정 관계를 미리 저장할 수 있다.The joint surgery navigation device 100 may store in advance different link connections and setting relationships for each joint part.

예를 들어, 관절 수술 네비게이션 장치(100)는 제공 받은 환자의 3차원 영상의 관절 부위가 손목 관절인 것으로 입력 받으면, 저장부(150)에서 도 7 (a) 및 (b)와 같은 링크 경로를 로딩하고, 각 조직 및 경조직에 포함된 뼈들이 구분되어 레이블링된 데이터에서 각 뼈들의 무게 중심과 특징점을 계산하여 도 7 (a) 및 (b)와 같은 링크 경로를 설정할 수 있다. For example, when the joint surgery navigation device 100 receives input that the joint part of the provided 3D image of the patient is a wrist joint, the storage unit 150 creates a link path as shown in FIGS. 7 (a) and 7 (b). By loading and calculating the center of gravity and feature points of each bone from data in which the bones included in each tissue and hard tissue are classified and labeled, a link path as shown in Figures 7 (a) and (b) can be set.

관절 수술 네비게이션 장치(100)는 각 링크 말단부의 좌표계 축이 결정되면 각 X축과 링크 사이의 각도(θ)를 내적에 기반하여 산출할 수 있고, 역기구학 계산을 위한 알파(α)값은 Z축의 내적에 기반하여 결정할 수 있다. 알파의 부호는 실험적으로 관절에 따라 경조직에 포함된 뼈들의 움직임을 관찰한 후 부여될 수 있다.The joint surgery navigation device 100 can calculate the angle (θ) between each It can be determined based on the dot product of the axis. The alpha sign can be given experimentally after observing the movement of bones included in hard tissue depending on the joint.

관절 수술 네비게이션 장치(100)는 연조직의 변형에 따른 경조직 링크 경로의 말단 경조직의 견인에 의한 이동 정도를 산출하고, 도 9 및 도 10의 의해 결정된 링크의 특성(θ, α, 링크의 길이 r 등) 을 역기구학에 반영하여 동일한 링크 경로에 포함된 링크로 연결된 경조직들의 운동 및/또는 위치를 링크의 운동 방향, 운동 범위를 결정할 수 있다(S130).The joint surgery navigation device 100 calculates the degree of movement due to traction of the distal hard tissue of the hard tissue link path according to the deformation of the soft tissue, and determines the link characteristics (θ, α, link length r, etc.) determined by FIGS. 9 and 10. ) can be reflected in the inverse kinematics to determine the movement direction and range of movement of the link and/or the position of the hard tissues connected to the link included in the same link path (S130).

예를 들어, 도 11을 참조하면 경조직 링크 경로의 말단 경조직의 무게 중심인 p4가 견인 방향을 따라 유한 요소 해석 시뮬레이션에 의한 이동량(dx, dy, dz)에 의해 목표 지점(target point)인 p4'로 평행 이동(translation)하는 것으로 결정되면, p4와 연결된 링크 경로들의 링크를 역기구학으로 계산하여 이동시킬 수 있다. 이 때, p4와 연결된 링크 경로들의 링크는 링크의 어느 한 말단의 Z축을 중심으로 회전하는 운동을 수행하는 것으로 각 링크의 운동 방향을 설정할 수 있다. 특히 다수의 뼈가 복합적으로 연결된 도 4와 같은 경우, 도 4를 기준으로 손가락 방향인 상측으로 견인하였을 때 요골을 기준으로 하여 도 7 (a)와 같은 링크 경로는 유두골은 상측으로 평행 이동하고, 월상골 내부의 제1 링크(월상골 특징점과 월상골 무게 중심 사이의 링크), 월상골 특징점과 유두골 특징점 사이의 제2 링크는 각각 Z축을 중심으로 회전하는 것으로 설정할 수 있다.For example, referring to FIG. 11, p4, the center of gravity of the hard tissue at the end of the hard tissue link path, is p4', which is the target point, according to the movement amounts (dx, dy, dz) by finite element analysis simulation along the traction direction. If it is determined that translation is to be performed, the links of the link paths connected to p4 can be calculated and moved using inverse kinematics. At this time, the direction of movement of each link can be set by performing a rotational movement around the Z-axis of one end of the link in the link paths connected to p4. In particular, in the case shown in Figure 4 where multiple bones are connected in a complex manner, when pulled upward in the direction of the finger based on Figure 4, the link path as shown in Figure 7 (a) based on the radius moves the papillary bone in parallel upward. , the first link inside the lunate bone (link between the lunate bone feature point and the center of gravity of the lunate bone), and the second link between the lunate bone feature point and the papillary bone feature point can each be set to rotate around the Z axis.

관절 수술 네비게이션 장치(100)는 역기구학 및 각 링크의 특성에 기반하여 링크의 회전 정도를 결정할 수 있다. 도 12를 참조하면, p0, p1, p2, p3, p4 사이의 좌표 변환 관계(T)를 링크의 특성(θ, α, r) 및 <수학식 1>에 기반하여 계산할 수 있다.The joint surgery navigation device 100 may determine the degree of rotation of the link based on the inverse kinematics and characteristics of each link. Referring to FIG. 12, the coordinate transformation relationship (T) between p0, p1, p2, p3, and p4 can be calculated based on the link characteristics (θ, α, r) and <Equation 1>.

<수학식 1>에서 R은 회전, d는 이동을 의미한다.In <Equation 1>, R means rotation and d means movement.

관절 수술 네비게이션 장치(100)는 좌표 변환 관계(T)들 및 <수학식 2>에 기반하여 각 링크의 각도(θ) 회전 정도를 결정할 수 있고, p4가 목표 지점에 도달(수렴)할 때까지 이를 반복한다.The joint surgery navigation device 100 can determine the degree of rotation of the angle (θ) of each link based on the coordinate transformation relationships (T) and <Equation 2>, until p4 reaches (converges) the target point. Repeat this.

도 14는 본 명세서의 실시 예에 따른 링크 설정에 기반하여 관절 3차원 모델의 각 뼈들이 이동한 위치를 계산하고 실제 뼈들의 이동한 위치와 비교한 결과를 보여준다. 도 1의 결과와 비교하여 보면 실제 위치와 거의 동일하게 뼈들의 이동 위치가 계산된 것을 확인할 수 있다. Figure 14 shows the results of calculating the moved positions of each bone in the joint 3D model based on link settings according to an embodiment of the present specification and comparing them with the moved positions of the actual bones. Comparing the results with the results in Figure 1, it can be seen that the movement positions of the bones were calculated to be almost identical to the actual positions.

관절 수술 네비게이션 장치(100)는 링크에 기반하여 결정된 경조직의 각 뼈들의 최종 변화된 위치에 따라 관절 3차원 모델의 적어도 일부를 관절경(300) 영상과 중첩하거나 별개로 표시하는 방법으로 가시적으로 표시할 수 있다(S140).The joint surgery navigation device 100 can visually display at least a portion of the joint 3D model by overlapping or displaying it separately from the arthroscope 300 image according to the final changed positions of each bone of the hard tissue determined based on the link. (S140).

도 13을 참조하면, 관절 수술 네비게이션 장치(100)는 관절경(300) 카메라의 위치 및 자세에 따른 시야각을 판단하고, 해당 시야각에 대응되는 관절 3차원 모델의 부분에서 대응되는 영상을 생성하여 관절경(300)의 카메라의 영상에 중첩하여 표시할 수 있다. 관절 수술 네비게이션 장치(100)는 관절경(300)의 카메라의 영상에서 관절경(300)의 위치와 각 조직 및 각 뼈들이 구분된 관절 3차원 모델에 기반하여 각 뼈들을 인식(classification)하고, 관절 3차원 모델의 적어도 일부를 관절경(300)의 카메라 영상과 중첩하여 표시하면서 각 뼈들의 이름(label)을 함께 표시할 수 있다. 따라서, 수술진은 관절경(300) 카메라의 좁은 시야각 및 협소한 수술 공간에도 불구하고 영상의 뼈들이 어느 부위인지 정확히 판단할 수 있다.Referring to FIG. 13, the joint surgery navigation device 100 determines the viewing angle according to the position and posture of the arthroscope 300 camera, and generates a corresponding image from a portion of the joint 3D model corresponding to the viewing angle to determine the joint It can be displayed by overlapping it with the image of the camera of view 300. The joint surgery navigation device 100 recognizes (classifies) each bone in the image of the camera of the arthroscope 300 based on the position of the arthroscope 300 and a three-dimensional joint model in which each tissue and each bone are separated, At least a portion of the 3D model of the joint may be displayed overlapping with the camera image of the arthroscope 300 and the names (labels) of each bone may be displayed together. Therefore, the surgical team can accurately determine where the bones in the image are despite the narrow viewing angle of the arthroscope 300 camera and the narrow surgical space.

다른 실시 예에서, 도 16을 참조하면, 관절 수술 네비게이션 장치(100)는 관절경(300) 카메라 영상이 위치하는 곳을 판단하기 용이하도록, 관절경(300) 카메라 영상의 시야각에 대응되는 관절 3차원 모델의 부분을 포함하는 영역의 영상을 생성하고, 그 일부분에 관절경(300)의 카메라의 영상을 중첩하여 표시할 수 있다. 역시, 관절 수술 네비게이션 장치(100)는 관절경(300)의 카메라의 영상 및 생성된 관절 3차원 모델의 평면 영상에서 각 경조직 및 연조직을 인식하고 이름 및 경계선을 중첩하여 표시할 수 있다.In another embodiment, referring to FIG. 16, the joint surgery navigation device 100 displays joint 3 corresponding to the viewing angle of the arthroscope 300 camera image to facilitate determining where the arthroscope 300 camera image is located. An image of the area including part of the dimensional model can be generated and displayed by overlapping the image of the camera of the arthroscope 300 on that part. Likewise, the joint surgery navigation device 100 can recognize each hard tissue and soft tissue in the image of the camera of the arthroscope 300 and the planar image of the generated three-dimensional joint model, and display the names and boundaries by overlapping them.

전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 각 장치의 프로세서를 포함할 수도 있다.The present disclosure described above can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is. Additionally, the computer may include a processor for each device.

한편, 상기 프로그램은 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the program may be specially designed and configured for the present disclosure, or may be known and usable by those skilled in the art of computer software. Examples of programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 개시의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 개시에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification (particularly in the claims) of the present disclosure, the use of the term “above” and similar referential terms may refer to both the singular and the plural. In addition, when a range is described in the present disclosure, the invention includes the application of individual values within the range (unless there is a statement to the contrary), and each individual value constituting the range is described in the detailed description of the invention. It's the same.

본 개시에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. 본 개시에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다. 또한, 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 인자(factor)에 따라 구성될 수 있음을 알 수 있다.Unless there is an explicit order or description to the contrary regarding the steps constituting the method according to the present disclosure, the steps may be performed in any suitable order. The present disclosure is not necessarily limited by the order of description of the steps above. The use of any examples or illustrative terms (e.g., etc.) in the present disclosure is merely to describe the present disclosure in detail, and unless limited by the claims, the scope of the present disclosure is limited by the examples or illustrative terms. It doesn't work. In addition, those skilled in the art will recognize that various modifications, combinations and changes may be made according to design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 개시의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the claims are within the scope of the spirit of the present disclosure. It will be said to belong to

100: 네비게이션 장치
200: 위치 추적 장치
300: 관절경
310: 마커
400: 영상 표시 장치
1000: 환자
1100: 관절
1200: 마커
100: navigation device
200: location tracking device
300: Arthroscopy
310: marker
400: video display device
1000: patient
1100: Joint
1200: Marker

Claims (18)

각 단계의 적어도 일부가 프로세서에 의해 수행되는 방법으로서,
환자의 3차원 영상에 기반하여 연조직 및 경조직이 구분되고, 상기 연조직 및 상기 경조직에 서로 다른 물성이 부여된 관절 3차원 모델을 로딩하는 단계;
상기 환자에 부여되는 외력을 판단하고, 상기 외력에 기반하여 상기 관절 3차원 모델의 상기 연조직의 변형을 산출하는 단계;
상기 관절 3차원 모델의 상기 연조직의 변형에 기반하여 상기 관절 3차원 모델의 상기 경조직의 위치를 변화시키는 단계; 및
관절경의 위치에 기반하여 상기 관절 3차원 모델의 적어도 일부를 가시적으로(visually) 표시하는 단계를 포함하는,
관절 수술 네비게이션 방법.
A method in which at least a portion of each step is performed by a processor, comprising:
Loading a 3D joint model in which soft tissue and hard tissue are divided based on a 3D image of the patient and different physical properties are assigned to the soft tissue and hard tissue;
determining an external force applied to the patient and calculating a deformation of the soft tissue of the three-dimensional joint model based on the external force;
changing the position of the hard tissue in the joint 3D model based on the deformation of the soft tissue in the joint 3D model; and
Comprising the step of visually displaying at least a portion of the joint three-dimensional model based on the position of the arthroscope,
Joint surgery navigation method.
제1 항에 있어서,
상기 환자의 피부에 부착된 마커를 광학 카메라에서 인식하는 단계; 및
인식된 상기 마커의 이동 정도에 기반하여 상기 외력을 판단하는 단계를 더 포함하는,
관절 수술 네비게이션 방법.
According to claim 1,
Recognizing a marker attached to the patient's skin with an optical camera; and
Further comprising determining the external force based on the recognized movement degree of the marker,
Joint surgery navigation method.
제2 항에 있어서,
상기 관절 3차원 모델의 적어도 일부를 가시적으로 표시하는 단계는,
상기 관절 3차원 모델의 좌표계와 상기 관절경의 좌표계를 정합하는 단계; 및
상기 광학 카메라의 영상에 기반하여 판단한 상기 관절경의 위치에 기반하여, 상기 관절 3차원 모델의 상기 경조직의 적어도 일부를 디스플레이 장치에 표시하거나, 빔 프로젝션으로 투영하거나, 수술자가 착용한 증강 현실 장치에 표시하는 단계를 포함하는,
관절 수술 네비게이션 방법.
According to clause 2,
The step of visually displaying at least a portion of the joint 3D model includes:
Matching the coordinate system of the three-dimensional joint model with the coordinate system of the arthroscope; and
Based on the position of the arthroscope determined based on the image of the optical camera, at least a portion of the hard tissue of the three-dimensional model of the joint is displayed on a display device, projected by beam projection, or displayed on an augmented reality device worn by the operator. Including the steps of:
Joint surgery navigation method.
제1 항에 있어서,
상기 경조직은 관절을 구성하는 복수의 뼈를 포함하고, 상기 관절 3차원 모델은 복수의 상기 뼈 내부 및 복수의 상기 뼈 사이의 운동 관계에 기반한 복수의 링크가 설정되어 있는,
관절 수술 네비게이션 방법.
According to claim 1,
The hard tissue includes a plurality of bones constituting a joint, and the joint 3D model has a plurality of links set based on movement relationships within and between the plurality of bones,
Joint surgery navigation method.
제4 항에 있어서,
복수의 상기 뼈 내부의 상기 링크는 무게 중심과 상기 뼈의 표면의 특징점이 연결되고,
복수의 상기 뼈 사이의 상기 링크는 복수의 상기 뼈의 특징점끼리 연결되거나, 복수의 상기 뼈 중 어느 한 뼈의 무게 중심과 다른 한 뼈의 특징점이 연결되는,
관절 수술 네비게이션 방법.
According to clause 4,
The link inside the plurality of bones connects the center of gravity and a feature point on the surface of the bone,
The link between the plurality of bones connects the characteristic points of the plurality of bones, or connects the center of gravity of one of the plurality of bones and the characteristic point of another bone,
Joint surgery navigation method.
제4 항에 있어서,
상기 관절 3차원 모델의 상기 경조직의 위치를 변화시키는 단계는,
상기 연조직의 변형에 기반하여 복수의 상기 뼈 중 제1 뼈의 무게 중심의 위치를 변화시키는 단계;
상기 제1 뼈의 무게 중심의 위치 변화에 기반하여, 상기 제1 뼈의 무게 중심이 말단인 제1 링크를 평행 이동(translation) 시키는 단계; 및
상기 제1 링크와 직접 또는 간접적으로 연결된 다른 링크들을 각 링크의 어느 한 말단을 기준으로 회전시키는 단계를 포함하는,
관절 수술 네비게이션 방법.
According to clause 4,
The step of changing the position of the hard tissue in the three-dimensional model of the joint is,
changing the position of the center of gravity of a first bone among the plurality of bones based on deformation of the soft tissue;
Translating a first link at which the center of gravity of the first bone is distal, based on a change in position of the center of gravity of the first bone; and
Including rotating other links directly or indirectly connected to the first link with respect to one end of each link,
Joint surgery navigation method.
제6 항에 있어서,
복수의 상기 링크 중 상기 제1 링크에서 가장 먼 링크의 상기 제1 링크의 반대 방향에 위치한 말단은 위치가 고정되어 변화되지 않는,
관절 수술 네비게이션 방법.
According to clause 6,
The end of the link furthest from the first link among the plurality of links located in the opposite direction of the first link is fixed in position and does not change.
Joint surgery navigation method.
제7 항에 있어서,
상기 경조직의 복수의 뼈들 중 적어도 2개 뼈의 무게 중심과 특징점은 좌표계를 이루는 좌표축의 방향이 서로 다르게 설정된,
관절 수술 네비게이션 방법.
According to clause 7,
Among the plurality of bones of the hard tissue, the centers of gravity and feature points of at least two bones have different directions of the coordinate axes forming the coordinate system,
Joint surgery navigation method.
제1 항에 있어서,
상기 환자의 3차원 영상을 제공받는 단계;
상기 환자의 3차원 영상에서 상기 연조직 및 상기 경조직을 각각 구분하고, 상기 경조직을 복수의 뼈로 구분하는 단계;
상기 연조직 및 상기 경조직에 영률 및 강성을 포함하는 서로 다른 물성 특징을 부여하는 단계; 및
상기 환자의 3차원 영상이 획득된 관절 부위의 종류에 기반하여 상기 경조직에 상기 링크의 설정 관계를 적용하여 상기 관절 3차원 모델을 생성하는 단계를 포함하는,
관절 수술 네비게이션 방법.
According to claim 1,
Receiving a 3D image of the patient;
Separating the soft tissue and the hard tissue from the 3D image of the patient, and dividing the hard tissue into a plurality of bones;
imparting different physical properties including Young's modulus and stiffness to the soft tissue and the hard tissue; and
Comprising the step of generating the joint 3D model by applying the setting relationship of the link to the hard tissue based on the type of joint area from which the 3D image of the patient was obtained,
Joint surgery navigation method.
환자의 3차원 영상에 기반하여 연조직 및 경조직이 구분되고, 상기 연조직 및 상기 경조직에 서로 다른 물성이 부여된 관절 3차원 모델을 저장하는 저장부;
프로세서; 및
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가,
상기 환자에 부여되는 외력을 판단하고, 상기 외력에 기반하여 상기 관절 3차원 모델의 상기 연조직의 변형을 산출하고, 상기 관절 3차원 모델의 상기 연조직의 변형에 기반하여 상기 관절 3차원 모델의 상기 경조직의 위치를 변화시키고, 환자의 관절 부위 영상을 촬영하는 관절경의 위치에 기반하여 상기 관절 3차원 모델의 적어도 일부를 상기 관절경에서 촬영한 영상과 함께 가시적으로(visually) 표시하도록 야기하는 코드를 저장하는,
관절 수술 네비게이션 장치.
A storage unit that stores a three-dimensional joint model in which soft tissue and hard tissue are divided based on a three-dimensional image of the patient and different physical properties are given to the soft tissue and hard tissue;
processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor,
When the memory is executed through the processor, the processor
Determine the external force applied to the patient, calculate the deformation of the soft tissue of the joint 3D model based on the external force, and calculate the deformation of the soft tissue of the joint 3D model based on the deformation of the soft tissue of the joint 3D model Changing the position of and storing a code that causes at least a portion of the three-dimensional model of the joint to be visually displayed together with the image taken by the arthroscope based on the position of the arthroscope that takes images of the patient's joint area. doing,
Joint surgery navigation device.
제10 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
광학 카메라의 영상에서 상기 환자의 피부에 부착된 마커를 인식하고, 인식된 상기 마커의 이동 정도에 기반하여 상기 외력을 판단하도록 야기하는 코드를 더 저장하는,
관절 수술 네비게이션 장치.
According to claim 10,
The memory allows the processor to:
Further storing a code that causes the marker attached to the patient's skin to be recognized in the image of the optical camera and the external force to be determined based on the recognized movement degree of the marker,
Joint surgery navigation device.
제11 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 관절 3차원 모델의 좌표계와 상기 관절경의 좌표계를 정합하고,
상기 광학 카메라의 영상에 기반하여 판단한 상기 관절경의 위치에 기반하여, 상기 관절 3차원 모델의 상기 경조직의 적어도 일부를 디스플레이 장치에 표시하거나, 빔 프로젝션으로 투영하거나, 수술자가 착용한 증강 현실 장치에 표시하도록 야기하는 코드를 더 저장하는,
관절 수술 네비게이션 장치.
According to claim 11,
The memory allows the processor to:
Matching the coordinate system of the joint 3D model with the coordinate system of the arthroscope,
Based on the position of the arthroscope determined based on the image of the optical camera, at least a portion of the hard tissue of the three-dimensional model of the joint is displayed on a display device, projected by beam projection, or displayed on an augmented reality device worn by the operator. which saves more code, causing
Joint surgery navigation device.
제10 항에 있어서,
상기 경조직은 관절을 구성하는 복수의 뼈를 포함하고, 상기 관절 3차원 모델은 복수의 상기 뼈 내부 및 복수의 상기 뼈 사이의 운동 관계에 기반한 복수의 링크가 설정되어 있는,
관절 수술 네비게이션 장치.
According to claim 10,
The hard tissue includes a plurality of bones constituting a joint, and the joint 3D model has a plurality of links set based on movement relationships within and between the plurality of bones,
Joint surgery navigation device.
제13 항에 있어서,
복수의 상기 뼈 내부의 상기 링크는 무게 중심과 상기 뼈의 표면의 특징점이 연결되고,
복수의 상기 뼈 사이의 상기 링크는 복수의 상기 뼈의 특징점끼리 연결되거나, 복수의 상기 뼈 중 어느 한 뼈의 무게 중심과 다른 한 뼈의 특징점이 연결되는,
관절 수술 네비게이션 장치.
According to claim 13,
The link inside the plurality of bones connects the center of gravity and a feature point on the surface of the bone,
The link between the plurality of bones connects the characteristic points of the plurality of bones, or connects the center of gravity of one of the plurality of bones and the characteristic point of another bone,
Joint surgery navigation device.
제13 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
상기 연조직의 변형에 기반하여 복수의 상기 뼈 중 제1 뼈의 무게 중심의 위치를 변화시키고, 상기 제1 뼈의 무게 중심의 위치 변화에 기반하여, 상기 제1 뼈의 무게 중심이 말단인 제1 링크를 평행 이동(translation) 시키고, 상기 제1 링크와 직접 또는 간접적으로 연결된 다른 링크들을 각 링크의 어느 한 말단을 기준으로 회전시키도록 야기하는 코드를 더 저장하는,
관절 수술 네비게이션 장치.
According to claim 13,
The memory allows the processor to:
The position of the center of gravity of a first bone among the plurality of bones is changed based on the deformation of the soft tissue, and based on the change in the position of the center of gravity of the first bone, the center of gravity of the first bone is the distal end. Further storing code that translates the link and causes other links directly or indirectly connected to the first link to rotate relative to one end of each link,
Joint surgery navigation device.
제15 항에 있어서,
복수의 상기 링크 중 상기 제1 링크에서 가장 먼 링크의 상기 제1 링크의 반대 방향에 위치한 말단은 위치가 고정되어 변화되지 않는,
관절 수술 네비게이션 장치.
According to claim 15,
The end of the link furthest from the first link among the plurality of links located in the opposite direction of the first link is fixed in position and does not change.
Joint surgery navigation device.
제16 항에 있어서,
상기 경조직의 복수의 뼈들 중 적어도 2개 뼈의 무게 중심과 특징점은 좌표계를 이루는 좌표축의 방향이 서로 다르게 설정된,
관절 수술 네비게이션 장치.
According to claim 16,
Among the plurality of bones of the hard tissue, the centers of gravity and feature points of at least two bones have different directions of the coordinate axes forming the coordinate system,
Joint surgery navigation device.
제10 항에 있어서,
상기 메모리는 상기 프로세서로 하여금,
제공 받은 상기 환자의 3차원 영상에서 상기 연조직 및 상기 경조직을 각각 구분하고, 상기 경조직을 복수의 뼈로 구분하고, 상기 연조직 및 상기 경조직에 영률 및 강성을 포함하는 서로 다른 물성 특징을 부여하고, 상기 환자의 3차원 영상이 획득된 관절 부위의 종류에 기반하여 상기 경조직에 상기 링크의 설정 관계를 적용하여 상기 관절 3차원 모델을 생성하도록 야기하는 코드를 더 저장하는,
관절 수술 네비게이션 장치.

According to claim 10,
The memory allows the processor to:
In the provided 3D image of the patient, the soft tissue and the hard tissue are respectively divided, the hard tissue is divided into a plurality of bones, different physical properties including Young's modulus and stiffness are given to the soft tissue and the hard tissue, and the patient Further storing a code that causes the joint 3D model to be generated by applying the setting relationship of the link to the hard tissue based on the type of joint part from which the 3D image was acquired,
Joint surgery navigation device.

KR1020220032957A 2022-03-16 2022-03-16 Apparatus and method for arthroscopy based on movement of bones in joint KR20230135448A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220032957A KR20230135448A (en) 2022-03-16 2022-03-16 Apparatus and method for arthroscopy based on movement of bones in joint
PCT/KR2023/003508 WO2023177229A1 (en) 2022-03-16 2023-03-16 Arthroscopic navigation device and method for reflecting movement of bone within joint

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220032957A KR20230135448A (en) 2022-03-16 2022-03-16 Apparatus and method for arthroscopy based on movement of bones in joint

Publications (1)

Publication Number Publication Date
KR20230135448A true KR20230135448A (en) 2023-09-25

Family

ID=88024080

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220032957A KR20230135448A (en) 2022-03-16 2022-03-16 Apparatus and method for arthroscopy based on movement of bones in joint

Country Status (2)

Country Link
KR (1) KR20230135448A (en)
WO (1) WO2023177229A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022514683A (en) * 2018-12-20 2022-02-14 オーストラリアン インスティテュート オブ ロボティック オーソピーディクス プロプライエタリー リミテッド Bone and soft tissue intelligent tissue classifier
US11564744B2 (en) * 2018-12-27 2023-01-31 Mako Surgical Corp. Systems and methods for surgical planning using soft tissue attachment points
US11839551B2 (en) * 2019-03-05 2023-12-12 Mako Surgical Corp. Systems and methods for surgical registration
KR102373429B1 (en) * 2020-03-20 2022-03-15 부산대학교 산학협력단 Method and System for Determining Soft-Tissue Reference Point and Method and System for Predicting Corrected Soft-Tissue Reference Point after Sugery
KR20220020634A (en) * 2020-08-12 2022-02-21 재단법인대구경북과학기술원 Augmented reality navigation system for wrist arthroscopic surgery using skin markers and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
선행기술 1: Zemirline A et al., "Augmented reality-based navigation system for wrist arthroscopy: feasibility", Journal Wrist Surgery, Vol. 2, No. 4, pp294-298, 2013년 11월

Also Published As

Publication number Publication date
WO2023177229A1 (en) 2023-09-21

Similar Documents

Publication Publication Date Title
EP2637593B1 (en) Visualization of anatomical data by augmented reality
EP3593227B1 (en) Augmented reality pre-registration
CN103371870B (en) A kind of surgical navigation systems based on multimode images
CN108601628B (en) Navigation, tracking and guidance system for positioning a working instrument in a patient&#39;s body
JP2021510107A (en) Three-dimensional imaging and modeling of ultrasound image data
EP3826534B1 (en) Planning of surgical anchor placement location data
EP3328305B1 (en) Microscope tracking based on video analysis
EP3694438B1 (en) Determining a target position of an x-ray device
Gard et al. Image-based measurement by instrument tip tracking for tympanoplasty using digital surgical microscopy
KR20230135448A (en) Apparatus and method for arthroscopy based on movement of bones in joint
US11869216B2 (en) Registration of an anatomical body part by detecting a finger pose
WO2022008035A1 (en) Determining a configuration of a medical x-ray imaging system for detecting a marker device
Inácio et al. Augmented Reality in Surgery: A New Approach to Enhance the Surgeon's Experience
US20230225794A1 (en) Determining an avoidance region for a reference device
US20230016429A1 (en) Using a current workflow step for control of medical data processing
US20230237711A1 (en) Augmenting a medical image with an intelligent ruler
KR20230149097A (en) Apparatus and method for reconstucting 3d bone model
Manning et al. Surgical navigation
WO2023110134A1 (en) Detection of positional deviations in patient registration
EP4062382A1 (en) Positioning medical views in augmented reality