KR20210057724A - 수술 중 환자 위치를 추적하는 방법 및 시스템 - Google Patents

수술 중 환자 위치를 추적하는 방법 및 시스템 Download PDF

Info

Publication number
KR20210057724A
KR20210057724A KR1020217006130A KR20217006130A KR20210057724A KR 20210057724 A KR20210057724 A KR 20210057724A KR 1020217006130 A KR1020217006130 A KR 1020217006130A KR 20217006130 A KR20217006130 A KR 20217006130A KR 20210057724 A KR20210057724 A KR 20210057724A
Authority
KR
South Korea
Prior art keywords
point
image
point image
patient
arm assembly
Prior art date
Application number
KR1020217006130A
Other languages
English (en)
Other versions
KR102488901B1 (ko
Inventor
치 시아오 첸
쿠안 주 왕
Original Assignee
브레인 나비 바이오테크놀러지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브레인 나비 바이오테크놀러지 씨오., 엘티디. filed Critical 브레인 나비 바이오테크놀러지 씨오., 엘티디.
Publication of KR20210057724A publication Critical patent/KR20210057724A/ko
Application granted granted Critical
Publication of KR102488901B1 publication Critical patent/KR102488901B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시예는 환자의 움직임에 응답하여 로보트 아암 조립체용 수술 경로를 업데이트하는 방법을 기술하고 있다. 이 방법은 환자와 공간적인 관계를 갖는 태그와 연결된 2차원 이미지를 처리하는 단계를 포함한다. 환자의 움직임에 대하여 태그의 대응하는 움직임이 공간적인 관계에 기초하여 결정된다. 태그는 제1 포인트와 제2 포인트를 포함하고, 2차원 이미지는 제1 포인트 이미지와 제2 포인트 이미지를 포함한다. 이 방법은 제1 포인트 이미지를 제1 포인트에 연결하고 제2 포인트 이미지를 제2 포인트에 연결시키는 단계와 상기 제1 포인트와 상기 제2 포인트 및 상기 제1 포인트 이미지와 상기 제2 포인트 이미지의 변환 행렬에 기초하여 상기 수술 경로를 업데이트 하는 단계를 포함한다.

Description

수술 중 환자 위치를 추적하는 방법 및 시스템
본 출원은 2018년8월1일에 출원된 미국 가출원 제62/713,522호 및 2019년3월19일에 출원된 미국 가출원 제62/820,804호에 대하여 우선권을 주장하며, 이는 전체적으로 참조로 포함된다.
본 발명의 실시예들은 일반적으로 수술 중 환자의 위치 또는 방향을 추적하는 방법 및 시스템에 관한 것이다.
별다른 언급이 없으면 본 섹션에서 기술하는 접근방법은 본 출원의 청구항에 대한 선행기술이 아니며, 본 섹션에 포함시킴으로써 선행기술이 되는 것으로 인정될 수 없다.
수술을 수행하기 위해서는, 수술 경로의 계획이 매우 중요하다. 로보트 수술은 수술 경로의 정확한 제어를 제공할 수 있을 것이다. 수술 전에, 환자는 의료 스캔(예를 들어, CT 또는 MRI)을 받게 된다. 필요한 해부 영역에 대한 수술 경로가 의료 스캔에 기초하여 계획된다. 인공지능을 이용하여 손상을 최소로 일으키는 최적의 루트를 의사에게 제안할 수 있다. 수술을 수행하기 위해, 환자의 위치는 계획된 수술 경로를 따라 수술을 정확하게 수행하도록 의료 스캔의 관점(perspective)에 매칭될 수 있다.
그러나, 수술 중, 환자의 위치는 움직일 수 있다.
따라서, 환자가 움직인 위치를 고려하면, 계획된 수술 경로가 적용될 수 없을 것이고, 환자가 움직인 위치에 대응하여 업데이트될 수 있다.
도 1은 환자에 대하여 수술을 하도록 구성된 수술 시스템을 나타내는 예시적은 도면이다.
도 2는 태그를 나타내는 예시적인 도면이다.
도 3a는 광학장치에 의해 캡처된 태그의 예시적인 이미지이다.
도 3b는 광학장치에 의해 캡처된 태그의 처리된 이미지의 예이다.
도 4는 태그와 연동된 2차원 이미지를 처리하는 프로세스의 예를 나타내는 흐름도이다.
도 5는 포인트 이미지를 태그의 포인트에 연결시키는 프로세스의 예를 나타내는 흐름도이다.
도 6은 모두 본 발명의 실시예들에 따라 배열되어 있는 복수의 변환 행렬에 기초하여, 환자의 움직임에 반응하여 수술 경로를 업데이트하는 프로세스의 예를 나타내는 흐름도이다.
아래의 상세한 설명에서, 첨부된 도면을 참고할 것이며, 도면은 설명의 일부가 될 것이다. 도면에서, 별다른 언급이 없으면 비슷한 기호는 보통 비슷한 요소를 나타낸다. 본 명세서, 도면 및 청구항에 기재된 예시적인 실시예는 제한하려는 것이 아니다. 본 명세서에서 제공된 내용의 범위 또는 정신을 벗어나지 않고 다른 실시예를 이용할 수 있고 다르게 변경할 수도 있다. 본 명세서에 일반적으로 기재된 본 발명의 특징을 광범위하게 다양한 다른 구조로 배치하고, 대체하고, 조합하고, 고안할 수 있고, 이들 모두 본 명세서에서 명시적으로 고려한다는 것을 쉽게 이해할 수 있을 것이다.
도 1은 본 발명의 실시예에 따라 설치된, 환자(101)를 수술하는 수술 시스템(100)을 나타내는 예시적인 도면이다. 일부 실시예에서, 수술 시스템(100)은 프레임(120), 수술테이블(130) 및 로보트 아암 조립체(140)를 포함한다.
일부 실시예에서, 프레임(120)은 환자(110)의 수술 대상(예를 들어 환자의 머리(103))을 지지하고 수술 대상에 부착될 수 있다. 또한, 프레임(120)은 수술테이블(130)에 부착되도록 구성될 수도 있다. 일부 실시예에서, 프레임(120)은 태그(121)를 더 포함할 수 있다. 태그(121)는 프레임(120)에 고정되거나 일체로 형성될 수 있다. 따라서, 환자의 머리(103), 수술테이블(130), 프레임(120) 및 태그(121)는 함께, 미리 정해진 공간적인 관계를 형성할 수 있다. 즉, 환자의 머리(103)의 제1 움직임에 대한 반응으로, 태그(121)는 또한 미리 정해진 공간적인 관계에 기초하여 대응하는 제2 움직임을 갖는다. 따라서, 태그(121)의 움직임은 또한 환자의 머리가 움직였는지의 여부를 결정하는데 사용될 수도 있다.
일부 실시예에서, 프레임(121)은 하나 이상의 태그를 포함할 수 있다. 각각의 태그는 서로 구별되는 독특한 식별 패턴을 포함할 수 있다. 따라서, 수술 시스템(100)은 태그에 기초하여 상이한 요구사항을 처리할 수 있다.
일부 실시예에서, 로보트 아암 조립체(140)는 수술기구(141), 광학장치(143), 제1 아암(147), 제2 아암(148) 및 제3 아암(149)을 포함할 수 있다. 일부 실시예에서, 광학장치(143)는 상이한 시간에 태그(121)의 이미지를 캡처할 수 있는 IR 카메라이다. 이러한 캡처된 이미지는 태그(121)의 움직임이 임계값을 초과하는지 여부를 식별하도록 처리된다. 임계값을 초과하는 태그(121)의 움직임이 측정되면, 로보트 아암 조립체(140)와 연결된 프로세서(도시 안됨)는 상술한 미리 정해진 공간적인 관계에 기초하여 환자(110)가 이동했다는 것을 결정하고, 수술을 중단하고 환자(110)에게 해를 끼치지 않을 안전 포인트로 이동하라는 명령을 로보트 아암 조립체(140)에게 발행할 수 있다. 환자(110)가 움직였다고 결정되면, 프로세서는 새로운 수술 경로를 연산하여, 새로운 수술 경로를 따라 안전 지점으로부터 이동하라는 명령을 로보트 아암 조립체(140)에 발행할 수 있다.
도 2는 본 발명의 실시예에 따라 배치된 태그(200)를 나타내는 예시적인 도면이다. 태그(200)는 도 1의 태그(121)에 대응할 수 있다. 일부 실시예에서, 태그(200)는 포인트(201), 포인트(202), 포인트(203), 포인트(204), 포인트(205), 및 식별 패턴(209)을 포함한다. 포인트(201, 202, 203, 204, 205)와 식별 패턴(209)은 광학장치(예를 들어, 광학장치(143))에 의해 캡처될 수 있는 특정 파장을 갖는 빛을 방출할 수 있다. 이와 반대로, 태그(200)의 다른 부분은 이러한 빛을 거의 방출하지 않고, 따라서 광학장치에 의해 거의 캡처되지 않을 것이다. 일부 실시예에서, 포인트(201, 202, 203, 204, 205)와 식별 패턴(209)는 광학장치(예를 들어 광학장치(143))에 의해 캡처될 수 있는 특정 파장을 갖는 광원에 의해 생성된 빛을 반사할 수 있다. 태그(200)의 다른 부분은 이러한 빛을 흡수할 수 있고, 따라서 광학장치에 의해 거의 캡처되지 않을 것이다.
도 3a는 본 발명의 일부 실시예에 따라 배열된 광학장치가 캡처한 태그의 이미지(300)의 예이다. 이미지(300)는 포인트 이미지(301, 302, 303, 304, 305)와, 포인트 이미지(304)와 포인트 이미지(305) 사이의 바 이미지(306), 및 식별 이미지(309)를 포함한다. 포인트 이미지(301, 302, 303, 304, 305)를 포인트(201, 202, 203, 204, 205)에 효과적으로 그리고 정확하게 연결시키는 것이 도전과제였었다.
일부 실시예에서, 포인트 이미지(301)는 포인트(201)의 이미지에 대응할 수 있다. 마찬가지로, 포인트 이미지(302)는 포인트(202)의 이미지에 대응할 수 있고, 포인트 이미지(303)는 포인트(203)의 이미지에 대응할 수 있고, 포인트 이미지(304)는 포인트(204)의 이미지에 대응할 수 있고, 포인트 이미지(305)는 포인트(205)의 이미지에 대응할 수 있다. 바 이미지(306)는 포인트(204)와 포인트(205) 사이에 있는 태그(200)의 부분들에 대응할 수 있다. 식별 이미지(309)는 식별 패턴(209)에 대응할 수 있다.
도 3b는 광학장치가 캡처한 태그의 처리된 이미지(300')의 예이고, 도 4는 태그에 관련된 2차원 이미지를 처리하는 프로세스(400)의 예를 나타내는 흐름도이며, 모두 본 발명의 일부 실시예에 따라 배열되어 있다. 프로세스(400)는 하나 이상의 수술, 기능 또는 작용을 포함할 수 있고, 이는 블록(410), 블록(420) 및/또는 블록(430)에 의해 표시되어 있고, 이는 하드웨어, 소프트웨어 및/또는 펌웨어에 의해 수행될 수 있다. 여러 블록들은 설명하는 실시예를 제한하려는 것이 아니다. 개략적으로 제공되는 단계와 수술들은 단지 예시로서 제공되는 것이며, 일부의 단계와 수술들은 선택적일 수도 있고, 더 적은 개수의 단계와 수술으로 합쳐질 수도 있고, 또는 본 발명의 실시예의 핵심에서 벗어나지 않으면서 추가적인 단계와 수술으로 확장될 수도 있다. 블록들이 시간순서로 설명되고 있지만, 병렬적으로 및/또는 여기서 설명하는 것과 다른 순서로 수행될 수도 있다. 도 3b과 연계하여, 도 4에 대하여 아래에서 구체적으로 더 설명하도록 한다.
프로세스(400)는 블록(410)에서 시작할 수 있고, 이는 "좌표 할당"이다. 도 3a를 참고로, 일부 실시예에서, 이미지(300)는 태그(200)와 연결된 2차원 이미지이다. 도 3b에서, 이미지(300')는 처리된 이미지(300)이다. 일부 실시예에서, 2차원 좌표계는 이미지(300')에 할당된다. 일부 실시예에서, 상부 좌측 코너(307)는 2차원 좌표계의 원점(0,0)으로 할당된다. 2차원 좌표계는 이미지(300)의 픽셀에 기초할 수 있다. 따라서, 이미지(300) 상의 포인트 이미지(301, 302, 303, 304, 305)는 2차원 좌표계로 설명할 수 있다.
블록(410) 다음에 블록(420)이 올 수 있고, 이는 "포인트 이미지와 연결된 좌표의 식별"이다. 일부 실시예에서, 포인트 이미지(301, 302, 303, 304, 305)를 이미지(300')에서 효과적으로 식별하기 위해서, 쓰레스홀딩 기술을 적용할 수 있다. 예를 들어, 다수의 픽셀을 포함하는 블록으로 이미지(300')를 우선 처리한다. 일부 실시예에서, 임계값 보다 강도가 더 큰 픽셀을 포함하지 않는 블록(예를 들어, 영역(310) 또는 바 이미지(306))은 추가 프로세싱으로부터 제거되어, 연산자원을 절약할 수 있다. 임계값 보다 강도가 더 큰 픽셀을 포함하는 블록(예를 들어 영역(320))은 픽셀 기반으로 추가로 처리된다.
일부 실시예에서, 영역(320)은 확대인자로 확대될 수 있다. 따라서, 포인트 이미지(301, 302, 303, 304, 305)도 확대인자로 확대될 수 있다. 일부 실시예에서, 더 큰 강도를 갖는 하나 이상의 픽셀을 식별하도록, 추가적인 쓰레스홀딩 기술이 확대된 포인트 이미지의 픽셀에 적용될 수 있다. 식별된 픽셀과 연결된 이미지는 축소인자(예를 들어 확대인자의 상대값)에 기초하여 다시 2차원 좌표계로 축소될 수 있다. 따라서, 더 센 강도를 갖는 새로운 포인트 이미지(301', 302', 303', 304', 305')를 이미지(300)에서 식별할 수 있고, 2차원 좌표계의 좌표를 포인트 이미지(301', 302', 303', 304', 305')에 할당할 수 있다. 일부 실시예에서, 포인트 이미지(301')는 2차원 좌표계 상의 할당된 좌표(X301', Y301')이다. 마찬가지로, 포인트 이미지(302')는 할당된 좌표(X302', Y302')이고, 포인트 이미지(303')는 할당된 좌표(X303', Y303')이고, 포인트 이미지(304')는 할당된 좌표(X304', Y304')이고, 포인트 이미지(305')는 할당된 좌표(X305', Y305')이다.
블록(420) 다음에 블록(430)이 이어질 수 있고, 이는 "이미지를 태그 포인트에 연결"이다. 일부 실시예에서, 포인트 이미지(301', 302', 303', 304', 305')는 포인트(201, 202, 203, 204, 205)에 연결된다. 일부 실시예에서, 원근-n-포인트(perspective-n-point) 접근법에 기초하여, 2차원 좌표계 상의 포인트 이미지(301', 302', 303', 304', 305')의 좌표와, 광학장치(143), 로보트 아암 조립체(140) 및 수술기구(141) 사이의 공간적인 관계를 기술하는 3차원 좌표계 상의 태그(121)의 포인트(201, 202, 203, 204, 205)의 좌표, 이미지(300') 내 포인트 이미지와 태그(200)에서의 연관 포인트 사이의 관계를 설명하는 변환 행렬이 설립될 수 있다.
도 5는 본 발명의 일부 실시예에 따라 배열된, 포인트 이미지를 태그의 포인트에 연결시키는 프로세스(500)의 예를 나타내는 흐름도이다. 프로세스(500)는 블록(510, 520, 530, 540, 550 및/또는 560)에 의해 설명되는 하나 이상의 작동, 기능 및 작용을 포함할 수 있고, 이는 하드웨어, 소프트웨어 및/또는 펌웨어에 의해 수행될 수 있다. 여러 블록들은 설명하는 실시예를 제한하려는 것이 아니다. 개략적으로 제공되는 단계와 수술들은 단지 예시로서 제공되는 것이며, 일부의 단계와 수술들은 선택적일 수도 있고, 더 적은 개수의 단계와 수술으로 합쳐질 수도 있고, 또는 본 발명의 실시예의 핵심에서 벗어나지 않으면서 추가적인 단계와 수술으로 확장될 수도 있다. 블록들이 시간순서로 설명되고 있지만, 병렬적으로 및/또는 여기서 설명하는 것과 다른 순서로 수행될 수도 있다.
프로세스(500)는 블록(510)에서 시작할 수 있고, 이는 "포인트 이미지의 기하학적 중심의 획득"이다. 일부 실시예의 경우 상술한 것처럼 2차원 좌표계에서, 포인트 이미지(301', 302', 303', 304', 305')가 좌표(X301', Y301'), 좌표(X302', Y302'), 좌표(X303', Y303'), 좌표(X304', Y304') 및 좌표(X305', Y305')를 각각 갖는다. 포인트 이미지(301', 302', 303', 304', 305')의 기하학적 중심은 좌표((X301'+ X302'+ X303'+ X304'+ X305')/5, (Y301'+ Y302'+ Y303'+ Y304'+ Y305')/5)를 가질 수 있다.
블록(510) 다음에 블록(520)이 이어질 수 있고, 이는 "기하학적 중심으로부터의 포인트 이미지의 거리 획득"이다. 일부 실시예에서, 포인트 이미지(301')와 기하학적 중심 사이의 제1 거리는
Figure pct00001
로 획득된다. 마찬가지로, 포인트 이미지(302')와 기하학적 중심 사이의 제2 거리, 포인트 이미지(303')와 기하학적 중심 사이의 제3 거리, 포인트 이미지(304')와 기하학적 중심 사이의 제4 거리, 및 포인트 이미지(305')와 기하학적 중심 사이의 제5 거리를 획득할 수 있다.
블록(520) 다음에 블록(530)이 이어질 수 있고, 이는 "기하학적 중심으로부터 포인트 이미지로의 벡터 획득"이다. 일부 실시예에서, 기하학적 중심으로부터 포인트 이미지(301')로의 제1 벡터
Figure pct00002
를 (X301' - (X301'+ X302'+ X303'+ X304'+ X305')/5, Y301' - (Y301'+ Y302'+ Y303'+ Y304'+ Y305')/5)로 획득한다. 마찬가지로, 기하학적 중심으로부터 포인트 이미지(302')로의 제2 벡터
Figure pct00003
, 기하학적 중심으로부터 포인트 이미지(303')로의 제3 벡터
Figure pct00004
, 기하학적 중심으로부터 포인트 이미지(304')로의 제4 벡터
Figure pct00005
, 기하학적 중심으로부터 포인트 이미지(305')로의 제5 벡터
Figure pct00006
도 획득할 수 있다.
블록(530) 다음에 블록(540)이 이어질 수 있고, 이는 "베이스 포인트 이미지의 선택"이다. 일부 실시예에서, 블록(520)에서 획득한 제1 거리, 제2 거리, 제3 거리, 제4 거리 및 제5 거리를 비교하여, 어느 포인트 이미지가 베이스 포인트 이미지인지를 선택한다. 일부 실시예에서, 2차원 좌표계에서 기하학적 중심으로부터 가장 멀리 떨어진 거리를 갖는 포인트 이미지를 베이스 포인트로 선택할 수 있다. 또는, 2차원 좌표계에서 기하학적 중심으로부터 가장 가까운 거리를 갖는 포인트 이미지를 베이스 포인트로 선택할 수 있다. 일부 실시예에서, 베이스 포인트는 2차원 좌표계에서 식별 이미지(309)와 포인트 이미지(301', 302', 303', 304' 및 305') 사이의 관계에 기초하여 선택할 수 있다. 단지 설명을 위해 일부 실시예에서 포인트 이미지(301')가 베이스 포인트 이미지로 선택된다.
블록(540) 다음에 블록(550)이 이어지며, 이는 "벡터에 기초한 인덱스 포인트 이미지"이다. 일부 실시예에서, 제1 벡터(예를 들어
Figure pct00007
) 및 제2 벡터(예를 들어
Figure pct00008
)의 외적을 사용하여 포인트 이미지(302')가 포인트 이미지(301')로부터 시계방향을 따라가는지 여부를 결정할 수 있다. 일부 실시예에서, 2차원 좌표계에 대하여 양의 z 방향으로 향하는 벡터인 제2 벡터와 제1 벡터의 외적에 대응하여, 포인트 이미지(302')가 포인트 이미지(301')로부터 시계방향을 따라 결정된다. 일부 다른 실시예에서, 제1 벡터(예를 들어
Figure pct00009
)와 제2 벡터(예를 들어
Figure pct00010
)의 내적을 사용하여 제1 벡터와 제2 벡터 사이의 각도를 결정한다. 따라서, 상기 외적과 내적에 기초하여, 포인트 이미지(302')는 포인트 이미지(301')로부터 시계방향을 따라 제1 각도에서 결정된다. 마찬가지로, 포인트 이미지(303', 304', 305')는 포인트 이미지(301')로부터 시계방향을 따라 각각 제2 각도, 제3각도, 제4각도에서 결정될 수 있다. 일부 실시예에서, 제1 각도, 제2 각도, 제3 각도 및 제4 각도의 비교에 기초하여, 일련의 포인트 이미지(301', 302', 303', 304', 305')가 결정될 수 있다. 예를 들어, 제1 각도가 제2 각도보다 작은 것에 대응하여, 포인트 이미지(302')가 포인트(303') 보다 시계방향을 따라 포인트 이미지(301')에 더 가깝게 결정된다. 순서가 결정된 후에, 포인트 이미지(301', 302', 303', 304', 305')가 순서를 따라 인덱싱될 수 있다.
블록(550) 다음에 블록(560)이 이어지며, 이는 "포인트 이미지와 대응하는 태그 포인트의 변환 행렬 획득"이다. 일부 실시예에서, 블록(550)에서 획득된 인덱스와 원근-n-포인트 접근법에 기초하여, 3차원 좌표계 내의 태그(200)의 포인트(예를 들어 201, 202, 203, 204, 205)의 좌표 사이의 수학적 관계와 그 대응하는 포인트 이미지(예를 들어 301', 302', 303', 304', 305')를 설명하는 변환 매트릭스가 설정될 수 있다. 도 1을 다시 참고하여, 일부 실시예의 경우, 3차원 좌표계는 광학장치(143), 로보트 아암 조립체(140) 및 수술기구(141) 사이의 공간적인 관계를 설명할 수 있다.
도 6은 본 발명의 일부 실시예에 따라 배열된, 복수의 변환 행렬에 기초하여 환자의 움직임에 대한 반응으로 수술 경로를 업데이트하기 위한 프로세스(600)의 예를 나타내는 흐름도이다. 프로세스(600)는 하나 이상의 수술, 기능 또는 작용을 포함할 수 있고, 이는 블록(610), 블록(620), 블록(630), 블록(640) 및/또는 블록(650)에 의해 표시되어 있고, 이는 하드웨어, 소프트웨어 및/또는 펌웨어에 의해 수행될 수 있다. 여러 블록들은 설명하는 실시예를 제한하려는 것이 아니다. 개략적으로 제공되는 단계와 수술들은 단지 예시로서 제공되는 것이며, 일부의 단계와 수술들은 선택적일 수도 있고, 더 적은 개수의 단계와 수술으로 합쳐질 수도 있고, 또는 본 발명의 실시예의 핵심에서 벗어나지 않으면서 추가적인 단계와 수술으로 확장될 수도 있다. 블록들이 시간순서로 설명되고 있지만, 병렬적으로 및/또는 여기서 설명하는 것과 다른 순서로 수행될 수도 있다.
프로세스(600)는 블록(610)에서 시작하며, 이는 "변환 행렬에 기초하여 프로젝션 포인트의 획득"이다. 일부 실시예에서, 변환 행렬을 획득한 후에, 변환 행렬에 따른 포인트(201)의 제1 프로젝션 포인트를 획득할 수 있다. 일부 실시예에서, 프로젝션 포인트는 2차원 좌표계에서 좌표(X301'', Y301'')를 갖는다. 마찬가지로, 포인트(202)의 제2 프로젝션 포인트, 포인트(203)의 제3 프로젝션 포인트, 포인트(204)의 제4 프로젝션 포인트, 포인트(205)의 제5 프로젝션 포인트도 2차원 좌표계에서 각각 좌표(X302'', Y302''), 좌표(X303'', Y303''), 좌표(X304'', Y304'') 및 좌표(X305'', Y305'')를 가질 수 있다.
블록(610) 다음에 블록(620)이 이어질 수 있고, 이는 "프로젝션 포인트와 대응하는 포인트 이미지 사이의 거리의 획득"이다. 일부 실시예에서, 좌표(X301'', Y301'')를 갖는 제1 프로젝션 포인트와 좌표(X301', Y301')를 갖는 포인트 이미지(301') 사이의 제1 거리를 연산한다. 마찬가지로, 좌표(X302'', Y302'')를 갖는 제2 프로젝션 포인트와 좌표(X302', Y302')를 갖는 포인트 이미지(302') 사이의 제2 거리, 좌표(X303'', Y303'')를 갖는 제3 프로젝션 포인트와 좌표(X303', Y303')를 갖는 포인트 이미지(303') 사이의 제3 거리, 좌표(X304'', Y304'')를 갖는 제4 프로젝션 포인트와 좌표(X304', Y304')를 갖는 포인트 이미지(304') 사이의 제4 거리, 좌표(X305'', Y305'')를 갖는 제5 프로젝션 포인트와 좌표(X305', Y305')를 갖는 포인트 이미지(305') 사이의 제5 거리를 각각 획득할 수 있다.
블록(620) 다음에 블록(630)이 이어질 수 있고, 이는 "임계값 보다 큰 거리?"이다. 일부 실시예에서, 제1 거리, 제2 거리, 제3 거리, 제4 거리, 및 제5 거리의 합이 임계값 보다 큰 것에 대응하여, 블록(630) 다음에 블록(640)이 이어질 수 있고, 이는 "환자가 이동되었다는 결정"이다.
일부 다른 실시예에서, 제1 거리, 제2 거리, 제3 거리, 제4 거리, 및 제5 거리의 합이 임계값 보다 크지 않은 경우에 대한 응답으로, 블록(630)은 블록(610)으로 이어질 수 있고, 이는 "변환 행렬에 기초하여 프로젝션 포인트의 획득"이다. 제2 시간에서 캡처한 이미지(300/300')와 연결된 다른 변환 행렬을 획득한 후, 포인트(201, 202, 203, 204, 205)의 2차원 좌표계 내의 좌표를 갖는 프로젝션 포인트의 또 다른 세트를 또 다른 변환 행렬에 따라 획득할 수 있다.
블록(640) 이후에 블록(650)이 이어질 수 있고, 이는 "수술 경로의 업데이트"이다. 일부 실시예의 경우, 도 1을 다시 참고하면, 로보트 아암 조립체(140)가 환자(110)에게 해를 끼치지 않을 안전 포인트로 이동할 수 있다. 환자(110)의 움직임에 대한 응답으로 새로운 수술 경로가 업데이트될 수 있고, 이어서 로보트 아암 조립체(140)가 업데이트된 수술 경로를 따라 안전 포인트로부터 이동하도록 구성된다.
일부 다른 실시예에서, 업데이트된 수술 경로가 수술기구(141)와 로보트 아암 조립체(140) 사이의 충돌을 유발하지 않도록, 업데이트된 수술 경로가 확인될 수 있다. 또는, 다시 도 1로 돌아가서, 업데이트된 수술 경로가 로보트 아암 조립체(140)의 제1 아암(147), 제2 아암(148) 및 제3 아암(149) 사이에 충돌이 발생하지 않게 하도록, 업데이트된 수술 경로가 확인될 수 있다.
업데이트된 수술 경로가 로보트 아암 조립체(140)의 충돌을 야기하는 것이라는 것에 대응하여서는, 업데이트된 수술 경로는 버려지고 새롭게 업데이트된 수술 경로가 연산될 것이다.
앞선 상세한 설명은 블록 다이어그램, 흐름도 및/또는 예시를 이용하여 장치 및/또는 프로세스의 여러 실시예들을 설명하였다. 이러한 블록 다이어그램, 흐름도 및/또는 예시들이 하나 이상의 기능 및/또는 수술을 갖고 있는 한, 그러한 블록 다이어그램, 흐름도 또는 예시들 내의 각각의 기능 및/또는 수술이 개별적으로 및/또는 조합되어, 다양한 범위의 하드웨어, 소프트웨어, 펌웨어에 의해, 또는 실질적으로 이들의 조합에 의해 구현될 수 있다는 것을 해당 기술의 당업자는 이해할 수 있을 것이다. 일부 실시예에서, 본 명세서에서 기재된 내용의 여러 부분들은 주문형반도체(ASICs), 필드 프로그래머블 게이트 어레이(FPGAs), 디지털 신호 프로세서(DSPs), 또는 다른 통합 포맷을 통해 구현될 수 있다. 그러나, 당업자는 본 명세서에 기재된 실시예들의 일부 특징들이 전체로서 또는 부분적으로 집적회로에서, 하나 이상의 컴퓨터에서 실행되는 하나 이상의 컴퓨터 프로그램(예를 들어, 하나 이상의 컴퓨터 시스템에서 실행되는 하나 이상의 프로그램)으로서, 하나 이상의 프로세서에서 실행되는 하나 이상의 프로그램(예를 들어, 하나 이상의 마이크로프로세서에서 실행되는 하나 이상의 프로그램)으로서, 펌웨어로서, 또는 실질적으로 이들의 조합으로서, 동등하게 구현될 수 있다는 것, 그리고 회로를 디자인 하는 것 및/또는 소프트웨어 및/또는 펌웨어의 코드를 기록하는 것은 본 발명의 내용에 비추어 기술분야의 기술범위 내에 잘 있다는 것을 인식할 수 있을 것이다. 또한, 당업자는 본 명세서에 기재된 내용의 메커니즘이 여러 형태의 프로그램 제품으로 배포될 수 있고, 본 명세서에 기재된 내용의 예시적인 실시예가 실제로 배포를 수행하도록 사용되는 신호 전달 매체의 특정 유형에 상관없이 적용된다는 것을 이해할 수 있을 것이다. 신호 전달 매체의 예는 다음과 같은 요소를 포함하지만 이에 제한되는 것은 아니다: 플로피 디스크, 하드 디스크 드라이브, 컴팩트 디스크(CD), 디지털 다기능 디스크(DVD), 디지털 테이프, 컴퓨터 메모리 등등과 같은 기록타입 매체; 디지털 및/또는 아날로그 통신 매체(예를 들어 광섬유 케이블, 광도파관, 유선 통신 링크, 무선 통신 링크 등등)와 같은 전송타입 매체.
상술한 내용으로부터, 본 발명의 여러 실시예들은 설명하기 위해 기술되었고, 본 발명의 범위와 정신을 벗어나지 않으면서 여러가지로 변형이 이루어질 수 있다는 것을 이해하여야 한다. 따라서, 본 명세서에 개시된 여러가지 실시예들은 제한하려는 것이 아니다.

Claims (19)

  1. 태그를 포함하는 프레임과 미리 정해진 공간적인 관계를 갖는 환자를 수술하기 위해, 환자의 움직임에 응답하여 로보트 아암 조립체용 수술 경로를 업데이트하는 방법으로서,
    환자와 공간적인 관계를 갖는 태그와 연결된 2차원 이미지를 처리하는 단계로서, 환자의 움직임에 대하여 태그의 대응하는 움직임이 상기 공간적인 관계에 기초하여 결정되고, 상기 태그는 제1 포인트와 제2 포인트를 포함하고, 상기 2차원 이미지는 제1 포인트 이미지와 제2 포인트 이미지를 포함하는, 2차원 이미지를 처리하는 단계;
    상기 제1 포인트 이미지를 상기 제1 포인트에 연결하고 상기 제2 포인트 이미지를 상기 제2 포인트에 연결시키는 단계; 및
    상기 제1 포인트와 상기 제2 포인트 및 상기 제1 포인트 이미지와 상기 제2 포인트 이미지의 변환 행렬에 기초하여 상기 수술 경로를 업데이트 하는 단계를 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  2. 제1항에 있어서,
    상기 2차원 이미지를 처리하는 단계는, 확대인자와 축소인자에 기초하여 상기 제1 임계값보다 큰 강도를 갖는 상기 제1 포인트 이미지와 상기 제2 포인트 이미지를 식별하는 단계를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  3. 제1항에 있어서,
    상기 2차원 이미지를 처리하는 단계는,
    2차원 좌표계를 2차원 이미지에 할당하고, 2차원 좌표계에서 상기 제1 포인트 이미지와 상기 제2 포인트 이미지에 연결된 좌표를 식별하는 단계를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  4. 제1항에 있어서,
    상기 제1 포인트 이미지를 상기 제1 포인트에 연결시키는 단계는,
    2차원 좌표계에서 상기 제1 포인트 이미지와 상기 제2 포인트 이미지에 연결된 기하학적 중심을 획득하는 단계;
    상기 제1 포인트 이미지와 상기 기하학적 중심 사이의 제1 거리와 상기 제2 포인트 이미지와 상기 기하학적 중심 사이의 제2 거리를 획득하는 단계; 및
    상기 제1 거리와 상기 제2 거리에 기초하여 베이스 포인트 이미지로서 상기 제1 포인트 이미지를 선택하는 단계;를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  5. 제1항에 있어서,
    상기 제2 포인트 이미지를 상기 제2 포인트에 연결시키는 단계는,
    2차원 좌표계에서 상기 기하학적 중심으로부터 상기 제1 포인트 이미지까지 제1 벡터를 획득하는 단계;
    2차원 좌표계에서 상기 기하학적 중심으로부터 상기 제2 포인트 이미지까지 제2 벡터를 획득하는 단계; 및
    상기 제1 벡터와 상기 제2 벡터의 외적과 상기 제1 벡터와 상기 제2 벡터의 내적에 기초하여 상기 제2 포인트 이미지를 상기 제2 포인트에 연결시키는 단계;를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  6. 제1항에 있어서,
    상기 수술 경로를 업데이트하는 단계는,
    상기 변환 행렬에 기초하여 2차원 좌표계에서 상기 제1 포인트와 연결된 제1 프로젝션 포인트와 상기 제2 포인트와 연결된 제2 프로젝션 포인트를 획득하는 단계;
    상기 2차원 좌표계에서 상기 제1 프로젝션 포인트와 상기 제1 포인트 이미지 사이의 제3 거리를 획득하는 단계; 및
    상기 2차원 좌표계에서 상기 제2 프로젝션 포인트와 상기 제2 포인트 이미지 사이의 제4 거리를 획득하는 단계;를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  7. 제6항에 있어서,
    상기 제3 거리와 상기 제4 거리의 합이 상기 제2 임계값보다 큰 것에 대한 응답으로, 환자의 움직임을 식별하고 수술 경로를 업데이트하는 단계를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  8. 제7항에 있어서,
    환자의 움직임을 식별하는 것에 대한 응답으로, 로보트 아암 조립체를 안전 포인트로 이동시키는 단계; 및
    업데이트된 수술 경로에 기초하여 상기 로보트 아암 조립체를 안전 포인트로부터 환자의 수술 타겟으로 이동시키는 단계;를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  9. 제1항에 있어서,
    상기 로보트 아암 조립체와 연결된 충돌을 식별하도록 업데이트된 수술 경로를 확인하는 단계를 더 포함하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 방법.
  10. 태그를 포함하는 프레임과 미리 정해진 공간적인 관계를 갖는 환자를 수술하기 위해, 환자의 움직임에 응답하여 로보트 아암 조립체용 수술 경로를 업데이트하는 시스템으로서,
    광학 장치; 및
    프로세서를 포함하고,
    상기 프로세서는,
    환자와 공간적인 관계를 갖는 태그와 연결된 2차원 이미지를 처리하고, 환자의 움직임에 대하여 태그의 대응하는 움직임이 상기 공간적인 관계에 기초하여 결정되고, 상기 태그는 제1 포인트와 제2 포인트를 포함하고, 상기 2차원 이미지는 제1 포인트 이미지와 제2 포인트 이미지를 포함하고;
    상기 제1 포인트 이미지를 상기 제1 포인트에 연결하고 상기 제2 포인트 이미지를 상기 제2 포인트에 연결시키고;
    상기 제1 포인트와 상기 제2 포인트 및 상기 제1 포인트 이미지와 상기 제2 포인트 이미지의 변환 행렬에 기초하여 상기 수술 경로를 업데이트 하는 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  11. 제10항에 있어서,
    상기 프로세서는 확대인자와 축소인자에 기초하여 상기 제1 임계값보다 큰 강도를 갖는 상기 제1 포인트 이미지와 상기 제2 포인트 이미지를 식별하도록 추가로 구성된 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  12. 제10항에 있어서,
    상기 프로세서는 2차원 좌표계를 2차원 이미지에 할당하고, 2차원 좌표계에서 상기 제1 포인트 이미지와 상기 제2 포인트 이미지에 연결된 좌표를 식별하도록 추가로 구성된 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  13. 제10항에 있어서,
    상기 프로세서는:
    2차원 좌표계에서 상기 제1 포인트 이미지와 상기 제2 포인트 이미지에 연결된 기하학적 중심을 획득하고;
    상기 제1 포인트 이미지와 상기 기하학적 중심 사이의 제1 거리와 상기 제2 포인트 이미지와 상기 기하학적 중심 사이의 제2 거리를 획득하고;
    상기 제1 거리와 상기 제2 거리에 기초하여 베이스 포인트 이미지로서 상기 제1 포인트 이미지를 선택하도록; 추가로 구성된 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  14. 제10항에 있어서,
    상기 프로세서는:
    2차원 좌표계에서 상기 기하학적 중심으로부터 상기 제1 포인트 이미지까지 제1 벡터를 획득하고;
    2차원 좌표계에서 상기 기하학적 중심으로부터 상기 제2 포인트 이미지까지 제2 벡터를 획득하고;
    상기 제1 벡터와 상기 제2 벡터의 외적과 상기 제1 벡터와 상기 제2 벡터의 내적에 기초하여 상기 제2 포인트 이미지를 상기 제2 포인트에 연결시키도록; 추가로 구성된 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  15. 제10항에 있어서,
    상기 프로세서는:
    상기 변환 행렬에 기초하여 2차원 좌표계에서 상기 제1 포인트와 연결된 제1 프로젝션 포인트와 상기 제2 포인트와 연결된 제2 프로젝션 포인트를 획득하고;
    상기 2차원 좌표계에서 상기 제1 프로젝션 포인트와 상기 제1 포인트 이미지 사이의 제3 거리를 획득하고;
    상기 2차원 좌표계에서 상기 제2 프로젝션 포인트와 상기 제2 포인트 이미지 사이의 제4 거리를 획득하도록; 추가로 구성된 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  16. 제15항에 있어서,
    상기 프로세서는 상기 제3 거리와 상기 제4 거리의 합이 상기 제2 임계값보다 큰 것에 대한 응답으로 환자의 움직임을 식별하고 수술 경로를 업데이트하도록 추가로 구성된 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  17. 제16항에 있어서,
    상기 프로세서는,
    환자의 움직임을 식별하는 것에 대한 반응으로, 로보트 아암 조립체를 안전 포인트로 이동시키도록 제1 명령과, 업데이트된 수술 경로에 기초하여 상기 로보트 아암 조립체를 안전 포인트로부터 환자의 수술 타겟으로 이동시키는 제2 명령을 발행하도록 추가로 구성된 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  18. 제1항에 있어서,
    상기 프로세서는 상기 로보트 아암 조립체와 연결된 충돌을 식별하기 위해 업데이트된 수술 경로를 확인하도록 추가로 구성된 것을 특징으로 하는 로보트 아암 조립체용 수술 경로를 업데이트 하는 시스템.
  19. 프로세서의 실행에 대한 응답으로, 태그를 포함하는 프레임과 미리 정해진 공간적인 관계를 갖는 환자를 수술하기 위해 환자의 움직임에 응답하여 로보트 아암 조립체용 수술 경로를 업데이트하는 방법을 프로세서가 수행하는 실행가능한 명령어 세트를 포함하는 비일시적 컴퓨터-판독가능 저장매체로서,
    상기 방법은,
    환자와 공간적인 관계를 갖는 태그와 연결된 2차원 이미지를 처리하는 단계로서, 환자의 움직임에 대하여 태그의 대응하는 움직임이 상기 공간적인 관계에 기초하여 결정되고, 상기 태그는 제1 포인트와 제2 포인트를 포함하고, 상기 2차원 이미지는 제1 포인트 이미지와 제2 포인트 이미지를 포함하는, 2차원 이미지를 처리하는 단계;
    상기 제1 포인트 이미지를 상기 제1 포인트에 연결하고 상기 제2 포인트 이미지를 상기 제2 포인트에 연결시키는 단계; 및
    상기 제1 포인트와 상기 제2 포인트 및 상기 제1 포인트 이미지와 상기 제2 포인트 이미지의 변환 행렬에 기초하여 상기 수술 경로를 업데이트 하는 단계를 포함하는 것을 특징으로 하는 비일시적 컴퓨터-판독가능 저장매체.
KR1020217006130A 2018-08-01 2019-07-31 수술 중 환자 위치를 추적하는 방법 및 시스템 KR102488901B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862713522P 2018-08-01 2018-08-01
US62/713,522 2018-08-01
US201962820804P 2019-03-19 2019-03-19
US62/820,804 2019-03-19
PCT/CN2019/098706 WO2020025001A1 (en) 2018-08-01 2019-07-31 Method and system of tracking patient position in operation

Publications (2)

Publication Number Publication Date
KR20210057724A true KR20210057724A (ko) 2021-05-21
KR102488901B1 KR102488901B1 (ko) 2023-01-17

Family

ID=69231442

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217006130A KR102488901B1 (ko) 2018-08-01 2019-07-31 수술 중 환자 위치를 추적하는 방법 및 시스템

Country Status (8)

Country Link
US (1) US20210307832A1 (ko)
EP (1) EP3829476A4 (ko)
JP (1) JP7457692B2 (ko)
KR (1) KR102488901B1 (ko)
CN (1) CN112770686A (ko)
CA (1) CA3107892C (ko)
TW (1) TWI733151B (ko)
WO (1) WO2020025001A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117243699B (zh) * 2023-11-14 2024-03-15 杭州三坛医疗科技有限公司 一种移位检测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140104688A (ko) * 2013-02-21 2014-08-29 주식회사 고영테크놀러지 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR20160117513A (ko) * 2014-02-05 2016-10-10 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 동적 가상 충돌 객체를 위한 시스템 및 방법
KR20180019401A (ko) * 2016-08-16 2018-02-26 주식회사 고영테크놀러지 정위수술용 수술로봇 및 정위수술용 수술로봇의 제어방법

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US9867669B2 (en) * 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
US9782229B2 (en) * 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
CN101467887B (zh) * 2007-12-29 2011-04-27 复旦大学 一种手术导航系统中x射线透视图像标定方法
CN101697869B (zh) * 2009-10-19 2011-06-15 沈国芳 手术导航用固定支架
US20130072784A1 (en) * 2010-11-10 2013-03-21 Gnanasekar Velusamy Systems and methods for planning image-guided interventional procedures
FR2983059B1 (fr) * 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
CN102551892A (zh) * 2012-01-17 2012-07-11 王旭东 一种用于颅颌面外科手术的定位方法
CN107397591B (zh) * 2012-06-01 2020-04-03 直观外科手术操作公司 用于使用零空间避免操纵器臂之间碰撞的系统和方法
US11116576B2 (en) * 2012-06-21 2021-09-14 Globus Medical Inc. Dynamic reference arrays and methods of use
US20190000569A1 (en) * 2012-06-21 2019-01-03 Globus Medical, Inc. Controlling a surgical robot to avoid robotic arm collision
KR101993384B1 (ko) * 2012-10-24 2019-06-26 삼성전자주식회사 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
SG11201507613QA (en) * 2013-03-15 2015-10-29 Synaptive Medical Barbados Inc Intelligent positioning system and methods therefore
US11278353B2 (en) * 2016-03-16 2022-03-22 Synaptive Medical Inc. Trajectory alignment system and methods
CN104083217B (zh) * 2014-07-03 2016-08-17 北京天智航医疗科技股份有限公司 一种手术定位装置以及机器人手术系统
US9950194B2 (en) * 2014-09-09 2018-04-24 Mevion Medical Systems, Inc. Patient positioning system
US9737370B2 (en) * 2014-10-14 2017-08-22 Synaptive Medical (Barbados) Inc. Patient reference tool
US10413377B2 (en) * 2015-03-19 2019-09-17 Medtronic Navigation, Inc. Flexible skin based patient tracker for optical navigation
WO2016154756A1 (en) * 2015-03-31 2016-10-06 7D Surgical Inc. Systems, methods and devices for tracking and calibration of flexible implements
KR102371053B1 (ko) * 2015-06-04 2022-03-10 큐렉소 주식회사 수술로봇 시스템
WO2016192671A1 (en) * 2015-06-05 2016-12-08 Chen Chieh Hsiao Intra operative tracking method
JP6714085B2 (ja) * 2015-12-29 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法
CN107468351A (zh) * 2016-06-08 2017-12-15 北京天智航医疗科技股份有限公司 一种手术定位装置、定位系统及定位方法
CN107468350B (zh) * 2016-06-08 2020-12-08 北京天智航医疗科技股份有限公司 一种三维图像专用标定器、手术定位系统及定位方法
CN106236258B (zh) * 2016-08-17 2019-03-12 北京柏惠维康科技有限公司 腹腔微创手术穿刺路径的规划方法及装置
EP3375399B1 (en) * 2016-10-05 2022-05-25 NuVasive, Inc. Surgical navigation system
FR3057757B1 (fr) * 2016-10-21 2021-04-16 Medtech Dispositif et procede de recalage automatique pour des images intra operatoires 3d
WO2018081136A2 (en) * 2016-10-25 2018-05-03 Eugene Gregerson Methods and systems for robot-assisted surgery
CN106890025B (zh) * 2017-03-03 2020-02-28 浙江大学 一种微创手术导航系统和导航方法
GB2577718B (en) * 2018-10-03 2022-08-24 Cmr Surgical Ltd Feature identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140104688A (ko) * 2013-02-21 2014-08-29 주식회사 고영테크놀러지 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR20160117513A (ko) * 2014-02-05 2016-10-10 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 동적 가상 충돌 객체를 위한 시스템 및 방법
KR20180019401A (ko) * 2016-08-16 2018-02-26 주식회사 고영테크놀러지 정위수술용 수술로봇 및 정위수술용 수술로봇의 제어방법

Also Published As

Publication number Publication date
CA3107892A1 (en) 2020-02-06
JP2021532882A (ja) 2021-12-02
TW202023488A (zh) 2020-07-01
EP3829476A1 (en) 2021-06-09
EP3829476A4 (en) 2022-04-20
CN112770686A (zh) 2021-05-07
WO2020025001A1 (en) 2020-02-06
US20210307832A1 (en) 2021-10-07
JP7457692B2 (ja) 2024-03-28
KR102488901B1 (ko) 2023-01-17
TWI733151B (zh) 2021-07-11
CA3107892C (en) 2023-09-05

Similar Documents

Publication Publication Date Title
US10789739B2 (en) System and method for generating partial surface from volumetric data for registration to surface topology image data
JP6334052B2 (ja) 術中追跡方法
EP2839432B1 (en) Patient monitor and method
AU2018220008B2 (en) Imaging-based sensor calibration
JP2017123147A (ja) ロボットを案内するための特徴位置の特定
US20230260071A1 (en) Multicamera image processing
CN104939924A (zh) 定位单元,成像设备以及用于光学地生成定位辅助的方法
CN105708461B (zh) 用于运行医学机器人设备的方法和医学机器人设备
JP2021007739A (ja) 医用イメージングシステムにおいて対象3dポイントクラウドを生成するための方法及びシステム
US20220083063A1 (en) Systems and methods for managing multiple autonomous vehicles
KR20200016833A (ko) 수술 경로 상의 하나 또는 다수의 포인트를 판정하는 방법 및 시스템
JP2019532728A (ja) 磁気共鳴イメージングのための知的モデルベースの患者ポジショニングシステム
KR20210057724A (ko) 수술 중 환자 위치를 추적하는 방법 및 시스템
JP2021000437A (ja) 3d透視インジケータ、3d透視インジケータの生成方法、およびそれらの応用
CN114445425A (zh) 激光打标方法及系统、装置、电子设备和存储介质
KR102545980B1 (ko) 자동화된 수술 로봇을 위한 비전 시스템에서 깊이의 다중 모달 감지를 위한 시스템 및 방법
KR20120032681A (ko) 3차원 물체 추적 방법 및 장치
KR20240056516A (ko) 카메라 교정을 위한 카메라 모델을 생성하는 방법 및 시스템
KR102577964B1 (ko) 간 수술을 위한 정렬 시스템
JP2017005288A (ja) 画像合成装置及び画像合成方法
JP2023082755A (ja) 計算機システム及び監視オブジェクトのトラッキング方法
KR20220002877A (ko) 이미지 매칭에 기초하여 수술 경로를 결정하는 방법 및 시스템
CN117770964A (zh) 一种机器人
CN112819805A (zh) 一种基于一字激光的物体位置识别方法及装置
JP2021164974A (ja) ビジュアルサーボシステム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant