KR20240021745A - 경피적 개입의 시간 실시간 안내를 위한 초음파 프로브가 장착된 로봇 - Google Patents

경피적 개입의 시간 실시간 안내를 위한 초음파 프로브가 장착된 로봇 Download PDF

Info

Publication number
KR20240021745A
KR20240021745A KR1020237034645A KR20237034645A KR20240021745A KR 20240021745 A KR20240021745 A KR 20240021745A KR 1020237034645 A KR1020237034645 A KR 1020237034645A KR 20237034645 A KR20237034645 A KR 20237034645A KR 20240021745 A KR20240021745 A KR 20240021745A
Authority
KR
South Korea
Prior art keywords
image
robot
patient
medical
ultrasound
Prior art date
Application number
KR1020237034645A
Other languages
English (en)
Inventor
마티유 수드레
뤼시앙 블롱델
베르탱 나훔
페르낭 바다노
Original Assignee
퀀텀 서지컬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀀텀 서지컬 filed Critical 퀀텀 서지컬
Publication of KR20240021745A publication Critical patent/KR20240021745A/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 환자 피부의 진입 지점과 환자의 관심 해부학적 부위에서 치료할 병변의 목표 지점에 의해 정해진 궤적을 따라 의료 기기(15)를 안내하기 위한 도구 가이드(14)가 장착된 로봇 아암(13)을 포함하는 의료용 로봇(10)에 관한 것이다. 로봇 아암은 또한 초음파 프로브(40)를 구비한다. 의료용 로봇은 로봇 마커(18)의 위치와 환자 마커(22)의 위치를 결정할 수 있게 하는 내비게이션 시스템(30)과 협력한다. 준비 단계 동안, 로봇은 환자(20)와 접촉하고 따라가야 할 궤적과 병변을 포함하는 평면에 초음파 프로브(40)를 배치하도록 구성된다. 안내 단계 동안 의료용 로봇은 따라가야 할 궤적을 따라 의료 기기를 안내하기 위해 초음파 프로브에 의해 수득된 초음파 이미지에 기초하여 실시간으로 로봇 아암을 제어하도록 구성된다.

Description

경피적 개입에서의 시간 실시간 안내를 위한 초음파 프로브가 장착된 로봇
본 발명은 환자의 관심 해부학적 부분에 하나 이상의 의료 기기를 삽입하는 것을 포함하여 최소 침습 의료 개입(minimally invasive medical intervention) 동안 시술자를 보조하기 위한 로봇 디바이스 분야에 속한다. 보다 상세하게는, 본 발명은 환자의 관심 해부학적 부분 내 병변의 목표 지점의 움직임을 추적하고, 의료 기기를 목표 지점까지 최적으로 안내하기 위해 로봇의 관절식 아암의 위치를 실시간으로 조정하도록 구성된 의료용 로봇에 관한 것이다. 목표 지점의 움직임은 특히 환자의 호흡이나 의료 기기의 삽입에 의해 생성될 수 있다.
의료 기기를 사용하여 환자의 관심 해부학적 부분의 목표 해부학적 부위에 도달하는 것을 목표로 하는 최소 침습적 개입을 준비하기 위해 시술자는 일반적으로 수술 전 의료 이미지(개입 며칠 전 또는 몇 주 전에 획득됨) 또는 개입 전 의료 이미지(환자가 개입 테이블 상에 있을 때 개입 직전에 획득됨)에 기초하여 개입 계획을 수행한다. 최소 침습적 의료 개입은 특히 기관(organ) 내 종양의 생검 또는 절제를 수행하거나, 척추 성형술 또는 시멘트 성형술을 수행하거나, 심지어 특정 해부학적 부위를 자극하는 것을 목표로 할 수 있다. 관심 해부학적 부분은 예를 들어 폐, 신장, 간, 뇌, 경골, 무릎, 척추골 등일 수 있다. 의료 기기는 바늘, 프로브, 카테터 등일 수 있다.
이 계획 단계 동안 시술자는 치료할 관심 해부학적 부위의 목표 지점을 정한다. 시술자는 또한 환자의 피부에서 의료 기기의 진입 지점을 정한다. 그러면 이 두 지점은 의료 개입을 수행하기 위해 의료 기기가 따라가야 하는 궤적을 정한다. 특히 흉부, 복부 또는 골반 부위에 위치된 연부 기관의 경우, 환자의 호흡과 관련된 움직임 및/또는 의료 기기의 삽입으로 인한 기관의 국부적 변형은 개입 동안 목표 지점을 변위시킨다. 수술 전 또는 개입 전 의료 계획 이미지는 개입 동안 목표 지점의 이러한 움직임을 예측하지 못한다. 따라서 목표 지점의 위치(즉, 관심 해부학적 부분에서 치료할 부위의 위치)는 일반적으로 의료 계획 이미지의 수득 동안 및 개입 동안 달라지게 된다. 따라서, 의료 계획 이미지로부터 의료 기기의 삽입을 계획할 때, 의료 기기가 목표 지점에 정확하게 도달하지 못할 위험이 있다.
또한, 의료 기기가 따라가야 할 계획된 궤적을 적절히 조정하지 않는 경우 삽입 동안 의료 기기가 구부러져 목표 지점에 도달하지 못할 위험이 있다.
환자의 호흡으로 인해 발생하는 목표 지점의 움직임을 제한하기 위해 의료 기기의 삽입 시 의료 계획 이미지가 수득된 것에 대응하는 호흡 사이클 단계에서 환자의 호흡을 차단하는 것을 생각할 수 있다. 호흡은 국소 마취 하에 의료 개입이 이루어지는 경우 환자에 의해 자발적으로 차단될 수 있고, 또는 그렇지 않고 전신 마취(기계적 환기 중단) 하에서 의료 개입이 이루어지는 경우 시술자에 의해 통제된 방식으로 차단될 수 있다. 그러나 이 해결책은 의료 계획 이미지가 수득된 호흡 사이클 단계와, 개입 동안 환자의 호흡이 차단된 호흡 사이클 단계 사이에 정확한 대응 관계를 얻기 어렵기 때문에 항상 매우 정확한 것은 아니다. 더욱이, 이 해결책은 환자의 호흡이 차단된 동안 수행되어야 하기 때문에 의료 기기를 비교적 빨리 삽입할 것을 전제로 한다.
또한 환자의 호흡 사이클 동안 여러 의료 계획 이미지를 촬영하고, 호흡으로 인해 발생되는 관심 해부학적 부분의 변형과 움직임을 가장 적게 받는 궤적을 결정하는 것을 생각할 수 있다. 그러나 의료 기기가 목표 지점에 정확하게 도달하지 못할 위험이 있다.
또한, 개입 시 의료 이미지(의료 기기가 환자의 신체에 삽입될 때 수득된 이미지)를 정기적으로 수득하여 개입 과정 전반에 걸쳐 목표 지점의 위치를 따라가는 것을 생각할 수 있다. 이러한 의료 이미지는 일반적으로 컴퓨터 단층 촬영, X-선 또는 자기 공명에 의해 수득된다. 그러나 컴퓨터 단층 촬영이나 X-선의 경우 이러한 해결책은 개입 동안 환자와 시술자에게 상당한 방사선 조사가 발생한다는 단점이 있다. 자기 공명 영상의 경우 특정 비자성 재료를 사용해야 하며, 특히 마취제의 경우 특히 제한이 있다. 이 해결책을 사용하려면 개입 과정 전반에 걸쳐 부피가 큰 이미징 디바이스를 사용해야 한다.
또한 초음파 이미지의 도움으로 관심 해부학적 부분 내에서 병변의 위치를 따라가는 것이 알려져 있다. 그러나 초음파 이미지에서 병변이 항상 보이는 것은 아니며, 기존 해결책은 일반적으로 정밀도가 부족하다.
따라서 특히 환자의 호흡 및/또는 의료 기기의 삽입으로 인한 관심 해부학적 부분의 국부적 변형과 관련된 움직임이 개입 동안 목표 지점의 변위를 유발하는 경우 환자의 관심 해부학적 부분 내 치료할 부위의 목표 지점에 의료 기기를 정확하게 삽입하기 위한 해결책을 찾는 것이 여전히 필요하다.
본 발명의 목적은 선행 기술의 단점, 특히 위에서 제시한 단점 중 전부 또는 일부를 해결하는 것이다.
이를 위해, 제1 양태에 따르면, 본 발명은 환자의 관심 해부학적 부분의 병변을 치료하기 위해 의료 개입 동안 시술자를 보조하는 의료용 로봇을 제안한다. 의료용 로봇은 의료 기기를 안내하기 위한 도구 가이드와 초음파 프로브가 일 단부에 부착된 로봇 아암을 포함한다. 의료용 로봇은 또한 로봇 아암을 제어하도록 구성된 제어 유닛을 포함한다. 의료용 로봇은 내비게이션 시스템과 협력하도록 구성된다. 제어 유닛은 내비게이션 시스템에 의해 전달된 정보에 기초하여 의료용 로봇에 위치되도록 의도된 로봇 마커의 위치 및 환자의 관심 해부학적 부분 근처에 위치되도록 의도된 환자 마커의 위치를 임의의 시간에 결정할 수 있도록 구성된다. 준비 단계 동안 제어 유닛은,
- 환자 마커의 적어도 하나의 방사선 불투과성 요소와 병변이 보이는 계획 이미지를 수신하고,
- 계획 이미지로부터 병변의 목표 지점과 환자 피부의 진입 지점을 결정하고, 이에 따라 목표 지점과 진입 지점은 의료 기기가 따라가야 할 궤적을 정하고,
- 환자와 접촉하고 따라가야 할 궤적과 병변을 포함하는 평면에 초음파 프로브를 배치하기 위해 로봇 마커의 위치와 환자 마커의 위치에 따라 로봇 아암을 제어하도록 구성된다.
안내 단계 동안 제어 유닛은 초음파 프로브에 의해 수득된 초음파 이미지를 실시간으로 수신하고, 따라가야 할 궤적을 따라 의료 기기를 안내하는 방식으로 도구 가이드를 이러한 위치에 배치하기 위해 이러한 초음파 이미지에 기초하여 실시간으로 로봇 아암을 제어하도록 구성된다.
본 명세서에서, "위치"라는 용어는 3차원 참조 프레임에서 물체의 위치와 배향을 모두 기술하는 넓은 의미로 이해되어야 한다(영어 문헌에서는 때때로 "포즈"라는 용어가 사용됨). 마커 위치(환자 마커 및 로봇 마커)와 또한 목표 지점의 위치 및 진입 지점의 위치는 로봇 참조 프레임 또는 내비게이션 시스템 참조 프레임에서 정해질 수 있다. 로봇 마커의 위치는 내비게이션 시스템의 참조 프레임과 로봇의 참조 프레임 모두에서 알려져 있기 때문에 로봇의 참조 프레임은 내비게이션 시스템의 참조 프레임을 기준으로 정해질 수 있다는 것에 유의해야 한다(로봇 아암의 각 관절은 예를 들어 로봇의 참조 프레임에서 로봇 아암의 각 관절 요소의 위치를 알 수 있게 하는 인코더를 포함하고, 로봇 상의 로봇 마커의 위치는 제어 유닛에 의해 선험적으로 알려져 있다).
예를 들어, 계획 이미지는 환자 마커가 환자의 관심 해부학적 부분 근처에 위치된 시간에 환자가 개입 테이블 위에 있을 때 개입 직전에 수득된 개입 전 의료 이미지이다. 계획 이미지는 또한 개입 며칠 전 또는 몇 주 전에 수득되고 개입 전 이미지와 정합된 수술 전 의료 이미지일 수도 있다. 계획 이미지는, 예를 들어, 컴퓨터 단층 촬영, 양전자 방출 단층 촬영 또는 자기 공명 영상에 의해 획득된 의료 이미지이다. 환자 마커의 위치는 계획 이미지에 보이는 환자 마커의 방사선 불투과성 마커를 사용하여 계획 이미지에서 결정될 수 있다.
분할 인공 지능 알고리즘에 의해 계획 이미지에서 목표 지점과 진입 지점을 결정할 수 있다. 또 다른 예에서, 목표 지점과 진입 지점은 시술자에 의해 계획 이미지에서 결정될 수 있다.
그런 다음 계획 이미지에서 시술자가 초기에 정한 목표 지점과 진입 지점은 초음파 프로브에 의해 (예를 들어, 반점 변형 추적 알고리즘에 의해) 수득된 초음파 이미지에서 안내 단계 동안 추적될 수 있다(반점은 이미지의 순간적 질감에 나타나고 이미지에 거친 외관을 주는 작고 빠르게 변하는 스팟 세트를 나타낸다).
이에 따라, 초음파 이미지로부터 목표 지점의 위치와 진입 지점의 위치를 실시간으로 추적할 수 있다. 그런 다음 로봇 아암은 의료 기기가 목표 지점의 위치와 진입 지점의 위치에 의해 정해진 궤적을 따라 안내되는 방식으로 영구적으로 위치되도록 실시간으로 이동될 수 있다. 로봇 아암의 위치를 실시간으로 조정하면 환자의 호흡으로 인해 발생하는 목표 지점의 움직임을 보상할 수 있다. 이러한 실시간 모니터링은 특히 의료 기기의 삽입 직전 도구 가이드의 안내 단계 동안 발생할 수 있다.
이러한 배열을 통해 의료 기기의 삽입을 진행하기 위해 호흡 사이클의 임의의 순간에 환자의 호흡을 차단하는 것이 가능해진다. 실제로 환자의 호흡이 차단되는 순간과 관계없이 로봇 아암은 원하는 궤적을 따라 의료 기기의 삽입을 허용하기 위해 올바른 위치에 있게 된다.
더욱이, 개입 동안 환자의 호흡을 차단할 필요가 더 이상 없다. 실제로, 로봇 아암은 원하는 궤적을 따라 의료 기기를 안내하기 위해 로봇 아암의 위치가 지속적으로 조정되도록 실시간으로 이동된다.
본 발명은 또한 의료 기기의 삽입 후 궤적의 측방 재조정을 최소화하는 것을 가능하게 한다(이러한 궤적의 측방 재조정은 일반적으로 의료 기기가 횡단하는 기관에 외상을 준다).
따라서 의료 기기는 호흡 사이클 동안 의료 기기가 삽입되는 순간에 관계없이 치료할 부위에 매우 정밀하게 삽입될 수 있다. 의료 기기의 삽입은 일반적으로 시술자에 의해 수행되며, 의료용 로봇의 목적은 시술자에 의한 의료 기기의 삽입을 안내하는 것이다. 그러나 의료 기기의 삽입을 제어 유닛에 의해 자동화하여 제어하는 것을 막을 수 있는 것은 없다.
더욱이, 개입 동안 목표 지점의 위치와 진입 지점의 위치를 실시간으로 결정하는 것은 초음파 이미지에 기초하여 수행되기 때문에 개입 동안 환자와 시술자가 전리 방사선에 노출되는 일이 없다.
의료 기기가 환자의 신체에 삽입되기 시작하자마자 환자 피부의 진입 지점 위치가 고정되어 로봇 아암의 움직임을 위한 회전 중심이 된다. 그러나 의료 기기의 삽입 동안 실시간으로 수득된 새로운 초음파 이미지로부터 목표 지점의 위치와 진입 지점의 위치를 실시간으로 따라가는 것은 여전히 가능하다.
이러한 배열은 의료 기기의 삽입으로 인한 목표 지점의 임의의 움직임을 고려하는 것을 가능하게 한다. 실제로 목표 지점은 삽입 동안 의료 기기가 따라가는 궤적 방향으로 이동할 수 있다(이는 특히 도달할 목표 지점이 연부 기관 내의 병변, 예를 들어, 종양에 있는 경우이다). 초음파 이미지의 도움으로 목표 지점의 위치를 실시간으로 결정하면 이 궤적을 따라 의료 기기를 안내하기 위해 의료 기기가 따라가야 할 궤적과, 또한 로봇 아암의 위치를 실시간으로 업데이트할 수 있다.
특정 실시예에서, 본 발명은 개별적으로 또는 기술적으로 가능한 모든 조합에 따라 취해진 이하의 특징 중 하나 이상을 추가로 포함할 수 있다.
특정 실시예에서, 안내 단계 동안, 제어 유닛은 각각의 수신된 초음파 이미지에 대해,
- 계획 이미지와 초음파 이미지의 정합을 통한 융합 이미지를 생성하고,
- 융합 이미지로부터 목표 지점의 위치와 진입 지점의 위치를 결정하고,
- 목표 지점의 위치와 진입 지점의 위치에 의해 정해진 궤적을 따라 의료 기기가 도구 가이드에 의해 안내되도록 로봇 아암을 이동시키도록 구성된다.
계획 이미지와 초음파 이미지를 정합한 결과, 병변이 보이는 융합 이미지가 생성된다. 그러면 계획 이미지에서 초기에 결정된 목표 지점과 진입 지점은 융합 이미지에서도 식별될 수 있다.
특정 실시예에서, 안내 단계 동안, 의료 기기의 삽입 동안 그리고 수신된 각각의 새로운 초음파 이미지에 대해 제어 유닛은 의료 기기의 위치를 결정하고, 의료 기기의 위치에 기초하여 로봇 아암의 실시간 제어를 조정하도록 구성된다.
이러한 배열은 환자의 호흡 운동 동안 초음파 프로브가 적절한 압력으로 환자의 신체와 접촉하는 것을 유지할 수 있게 한다.
특정 실시예에서, 초음파 프로브는 제어 유닛이 초음파 프로브에 의해 환자의 신체에 가해지는 압력을 결정할 수 있게 하는 힘 센서에 결합된다. 제어 유닛은 초음파 프로브가 환자의 신체에 미리 결정된 압력을 가하도록 로봇 아암을 이동시키도록 추가로 구성된다.
이러한 배열을 사용하면 삽입 동안 의료 기기가 휘어지는 위험을 고려하고, 이에 따라 로봇 아암의 실시간 제어를 조정할 수 있다(그런 경우 의료 기기가 따라가야 할 궤적은 더 이상 진입 지점과 목표 지점 사이의 직선이 아니다).
특정 실시예에서, 계획 이미지는 컴퓨터 단층 촬영 이미지, 양전자 방출 단층 촬영 이미지 또는 자기 공명 영상 이미지이다.
특정 실시예에서, 계획 이미지로부터 목표 지점과 진입 지점을 결정하기 위해, 제어 유닛은 계획 이미지에서 인공 지능 알고리즘을 사용하여 회피할 병변 및/또는 해부학적 영역을 분할하도록 구성된다.
특정 실시예에서, 초음파 프로브로부터 수신된 초음파 이미지는 B-모드 초음파 이미지이다.
특정 실시예에서, 제어 유닛은 초당 적어도 15개의 이미지의 비율로 초음파 프로브에 의해 수득된 초음파 이미지를 수신하고 처리하도록 구성된다.
이러한 배열을 사용하면 목표 지점의 위치를 실시간으로 모니터링하고, 그 결과 의료 기기가 개입 과정 전체에 걸쳐 원하는 궤적을 따라 안내되도록 로봇 아암의 위치를 실시간으로 조정하는 것을 보장할 수 있다.
특정 실시예에서, 의료용 로봇은 시술자가 계획 이미지 및/또는 융합 이미지를 볼 수 있게 하는 디스플레이 스크린을 포함하는 사용자 인터페이스를 추가로 포함한다.
특정 실시예에서, 사용자 인터페이스는 시술자가 준비 단계 동안 디스플레이 스크린에 표시된 계획 이미지에서 목표 지점 및/또는 진입 지점 및/또는 의료 기기가 횡단해서는 안 되는 해부학적 영역을 식별할 수 있게 하는 입력 수단을 포함한다.
특정 실시예에서, 사용자 인터페이스는 디스플레이 스크린 상에서 환자 신체의 실제 이미지와 분석 이미지를 중첩시키기 위한 증강 현실 디바이스를 포함한다.
증강 현실 디바이스를 사용하면 삽입 동안 환자의 신체에서 이동하는 3차원 병변과, 또한 의료 기기의 진행 상황을 중첩시킬 수 있다. 이는 예를 들어 환자 위의 개입 테이블에 위치된 스크린이거나, 또는 그 밖에 마스크, 헬멧 또는 증강 현실 안경일 수 있다. 이러한 유형의 디스플레이는 시술자가 환자의 관심 해부학적 부분을 공간적으로 표현하는 것을 용이하게 한다.
특정 실시예에서, 제어 유닛은 계획 이미지와 초음파 이미지를 비교하고, 초음파 프로브에 의해 수득된 초음파 이미지가 병변이 위치된 해부학적 부위를 포함하도록 초음파 프로브를 이동시킬 방향을 결정하도록 추가로 구성된다.
본 발명은 비제한적인 예로서 주어지고 도 1 내지 도 6을 참조하여 이루어진 이하의 설명을 읽을 때 보다 잘 이해될 수 있을 것이다.
도 1은 본 발명에 따른 의료용 로봇과 내비게이션 시스템을 포함하는 의료 디바이스의 개략도이다.
도 2는 의료용 로봇의 로봇 아암의 개략도이다.
도 3은 의료용 로봇에 부착되도록 의도된 "로봇 마커"의 개략도이다.
도 4는 환자의 관심 해부학적 부분 근처에 위치되도록 의도된 "환자 마커"의 개략도이다.
도 5는 준비 단계 동안 그리고 그런 다음 로봇 아암의 실시간 안내 단계 동안 제어 유닛에 의해 구현되는 단계의 개략도이다.
도 6은 계획 이미지(도면의 a) 부분), 초음파 이미지(도면의 b) 부분) 및 계획 이미지와 초음파 이미지의 정합을 통한 융합 이미지(도면의 c) 부분)의 개략도이다.
이들 도면에서 여러 도면에 걸쳐 동일한 참조 부호는 동일하거나 유사한 요소를 나타낸다. 명료함을 위해 달리 명시되지 않는 한, 표시된 요소가 반드시 동일한 축척으로 그려진 것은 아니다.
도 1은 본 발명에 따른 의료용 로봇(10)을 개략적으로 도시한다. 의료용 로봇(10)은 개입 테이블(21) 상에 위치된 환자(20)의 관심 해부학적 부분에 대한 의료 개입 동안 시술자를 보조하는 데 사용된다.
일례는 환자의 관심 해부학적 부분 내의 병변을 치료하기 위해 최소 침습적으로 또는 경피적으로 수행되는 의료 개입의 경우이다. 이러한 유형의 개입은 일반적으로 시술자가 관심 해부학적 부분(예를 들어, 간, 폐, 신장 등)의 목표 해부학적 부위(병변, 예를 들어, 종양)에 도달하기 위해 환자의 신체에 특정 깊이까지 하나 이상의 의료 기기(예를 들어, 바늘, 프로브, 카테터 등)를 삽입할 것을 요구한다.
의료용 로봇(10)은 베이스(11)를 포함한다. 고려된 예에서, 의료용 로봇(10)의 베이스(11)에는 의료용 로봇(10)이 병진 및/또는 회전 운동에 의해 여러 방향으로 이동할 수 있도록 하는 전동 바퀴가 장착되어 있다.
의료용 로봇(10)은 관절식 로봇 아암(13)을 추가로 포함하고, 로봇 아암의 일 단부는 베이스(11)에 연결된다. 로봇 아암(13)의 타 단부에는 초음파 프로브(40)와 도구 가이드(14)가 부착되어 있고, 도구 가이드는 의료 기기(15), 예를 들어, 바늘, 프로브, 카테터, 전극 등을 안내하도록 의도된다.
고려되고 도 1에 도시된 예에서, 초음파 프로브(40)는 추가 아암(16)을 통해 로봇 아암(13)에 부착된다. 추가 아암(16)은 또한 도구 가이드(14)에 대해 초음파 프로브(40)에 적어도 하나의 추가 자유도를 허용하도록 관절식으로 연결된다.
의료용 로봇(10)은 로봇 아암(13)의 움직임을 제어하도록 구성된 제어 유닛(12)을 포함한다. 본 명세서에서 로봇 아암(13)의 제어는 또한 추가 아암(16)의 제어를 포함하는 것으로 고려된다. 제어 유닛(12)은 하나 이상의 프로세서(122) 및 메모리(121)(자기 하드 디스크, 전자 메모리, 광 디스크 등)를 포함하고, 메모리에는 로봇 아암(13)을 위치시키는 방법의 다양한 단계를 구현하기 위해 실행되는 프로그램 코드 명령어 세트의 형태의 컴퓨터 프로그램 제품이 저장되어 있다. 또한 메모리(121)를 통해 이 방법을 구현하는 데 사용되는 이미지 및 기타 정보(특히 내비게이션 정보)를 기록할 수 있다.
그러면 의료용 로봇(10)은 시술자가 의료 개입 동안 의료 기기(15)를 위치, 유지, 및 안내하는 것을 보조하기 위해 사용될 수 있다. 변형예에서, 의료 기기(15)의 삽입은 의료용 로봇(10)의 제어 유닛(12)에 의해 완전히 자동화되어 제어될 수 있다. 또한, 의료용 로봇(10)은 초음파 프로브(40)를 자동으로 위치시키는 데 사용된다.
의료용 로봇(10)은 또한 시술자가 의료 이미지(예를 들어, 계획 이미지 및/또는 초음파 프로브(40)에 의해 수득되고 계획 이미지와 융합된 초음파 이미지)를 볼 수 있게 하는 디스플레이 스크린을 포함하는 사용자 인터페이스(19)를 포함할 수 있다. 사용자 인터페이스는 또한 시술자가 디스플레이 스크린에 표시된 계획 이미지에서 목표 지점 및/또는 진입 지점 및/또는 의료 기기(15)가 횡단해서는 안 되는 해부학적 영역을 식별할 수 있게 하는 입력 수단(키보드, 마우스, 터치 스크린 등)을 포함할 수 있다.
특정 실시예에서, 사용자 인터페이스는 디스플레이 스크린 상에서 환자 신체의 실제 이미지와 융합된 이미지를 중첩시키기 위한 증강 현실 디바이스를 포함할 수 있다. 이러한 디바이스는 시술자가 관심 해부학적 부분을 공간적으로 표현하는 것을 용이하게 한다.
의료용 로봇(10)은 내비게이션 시스템(30)과 협력하도록 구성된다. 의료용 로봇(10)은 내비게이션 시스템(30)과 데이터를 교환하기 위해 제어 유닛(12)에 연결된 통신 모듈을 포함한다. 내비게이션 시스템(30)은 또한 의료용 로봇(10)의 제어 유닛(12)과 데이터를 교환하기 위해 통신 모듈을 포함한다. 제어 유닛(12)과 내비게이션 시스템(30) 간에 수립된 통신은 유선 통신이거나 무선 통신일 수 있다. 단순화를 위해 통신 모듈은 도 1에 도시되어 있지 않다.
고려된 예에서, 내비게이션 시스템(30)은 광학 내비게이션 시스템이다. 내비게이션 시스템(30)은 적외선 복사선 범위에서 동작하는 입체 카메라의 두 센서에 대응하는 두 개의 광학 센서(31)를 포함한다. 고려된 예에서, 내비게이션 시스템(30)은 가시광 범위에서 동작하는 카메라(32)를 추가로 포함한다.
제어 유닛(12)은 내비게이션 시스템(30)에 의해 전달된 정보로부터 의료용 로봇(10)에 부착될 로봇 마커(18)의 위치, 및 환자(20)의 관심 해부학적 부분 근처에 위치될 환자 마커(22)의 위치를 임의의 시간에 결정할 수 있도록 구성된다.
본 명세서에서, "위치"라는 용어는 일반적으로 3차원 좌표계인 주어진 참조 프레임에서 물체의 위치와 배향의 조합에 대응한다. 영어 문헌에서는 공간에서 물체의 위치와 배향의 조합을 나타내기 위해 "포즈"라는 용어가 사용된다.
제어 유닛(12)은 초음파 프로브(40)에 의해 수득된 초음파 이미지를 수신하도록 구성된다.
초음파 프로브(40)로부터 수신된 초음파 이미지와 내비게이션 시스템(30)으로부터 수신된 정보는 주어진 순간에 환자 마커(22)의 위치와 병변의 위치를 상관시킬 수 있기 위해 제어 유닛(12)에 의해 시간적으로 동기화된다.
종래에, 초음파 프로브(40)는 하나 이상의 음파 송신기-수신기 요소(압전 재료, 용량성 전자 트랜스듀서)를 포함한다. 초음파 프로브는 간접 압전 효과에 의해 초음파를 생성한다. 파동이 해부학적 구조부를 만날 때마다 이 파동의 일부가 반사 또는 산란("반점")에 의해 에코 형태로 되돌아온다. 그러면 이 에코는 직접적인 압전 효과에 의해 전류로 변환된 다음 이미지로 재구성된다. 초음파 이미지의 재구성은 주로 프로브의 송신기-수신기 요소의 수, 크기 및 위치(측방 및 길이 방향 해상도), 방출 펄스의 지속시간 및 에코 시간(축 방향 및/또는 깊이 해상도)에 의존한다. 그런 다음 수신된 에코의 에너지는 회색 레벨로 코딩된다. 에너지가 높을수록 대응하는 이미지 부분(픽셀)이 더 백색이 된다. 이 회색조 인코딩은 "밝기"라고 불리고, 연관된 초음파 모드는 "B-모드"라고 불린다. 초음파 프로브(40)가 생성하는 이미지는 2차원 이미지이거나, 3차원 이미지일 수 있다. 바람직하게는, 초음파 프로브(40)는 초당 적어도 15개의 이미지의 비율로 이미지를 생성할 수 있다.
B-모드는 특히 관심 해부학적 부분이 간(liver)일 때 적합하다. 그러나 본 발명은 예를 들어 탄성 촬영술과 같은 다른 초음파 모드에도 적용될 수 있다는 점에 유의해야 한다.
고려된 예에서 도 2에 도시된 바와 같이, 로봇 아암(13)은 3차원 공간의 임의의 위치에 의료 기기(15)를 배치하는 것을 가능하게 하는 6개의 자유도를 부여하는 6개의 회전형 관절(131 내지 136)을 포함한다. 유리하게는, 로봇 아암(13)의 관절(131 내지 135)은 정렬되지 않고 서로에 대해 오프셋되어 있어서, 로봇 아암(13)의 더 많은 수의 가능한 구성을 허용한다. 회전형 관절(136)은 도구 가이드(14)의 주축에 평행한 축을 중심으로 회전하는 것에 대응한다.
고려된 예에서, 초음파 프로브(40)는 도구 가이드(14)에 대해 초음파 프로브(40)가 움직이는 데 두 개의 추가 자유도를 부여하는 두 개의 회전형 관절(137 및 138)을 포함하는 추가 아암(16)을 통해 로봇 아암(13)에 부착된다. 그러나 그 반대도 가능하고, 즉 초음파 프로브(40)는 로봇 아암(13)의 원위 단부에 직접 부착될 수 있고, 추가 아암이 도구 가이드(14)를 운반할 수 있다는 점에 유의해야 한다. 도구 가이드(14)와 추가 아암(16)은 클램프를 통해 로봇 아암(13)의 단부에 부착된다. 도 2에 도시되고 고려된 예에서, 초음파 프로브(40)는 또한 제어 유닛(12)이 환자의 신체(20)에 의해 초음파 프로브(40)에 가해지는 힘을 결정할 수 있게 하는 힘 센서(17)에 결합된다.
추가 아암(16)과 도구 가이드(14)는 의료 기기(15)가 항상 초음파 프로브(40)에 의해 수득된 초음파 이미지의 평면에 있도록 서로에 대해 배열된다.
각 관절(131 내지 138)은 각도 위치를 실시간으로 알 수 있게 하는 적어도 하나의 인코더를 포함한다. 그러면 로봇 아암(13)의 구성은 관절(131 내지 136)에 의해 취해진 일련의 파라미터 값(예를 들어 각 관절에 대한 회전 각도의 값)에 대응한다.
도 3은 의료용 로봇(10) 상에 위치되도록 의도된 로봇 마커(18)를 개략적으로 도시한다. 고려된 예에서, 로봇 마커(10)는 로봇 마커(18)의 위치가 내비게이션 시스템(30)의 참조 프레임의 3차원 공간에서 결정될 수 있도록 3개의 광학 마커(181)를 포함한다. 서로에 대해 로봇 마커(18)의 광학 마커(181)의 각 위치는 내비게이션 시스템(30) 및/또는 제어 유닛(12)에 의해 선험적으로 알려져 있다. 유리하게는, 각 광학 마커(181)의 기하 형상도 또한 선험적으로 알려질 수 있다. 도 3에 도시된 예에서, 광학 마커(181)는 구형 형상이다. 구형 형상을 사용하면 광학 복사선의 반사를 최적화할 수 있다.
적어도 3개의 광학 마커(181)를 사용하면 평면과 이 평면에 수직인 z 축과, 평면 내에 있는 x 및 y 축을 갖는 직접 직교 3차원 참조 프레임을 정할 수 있어서 참조 프레임은 직접적이다. 따라서 이는 광학 마커(181)로부터 형성된 참조 프레임의 위치와 배향을 결정할 수 있게 한다. 3개의 축(x, y 및 z)을 사용하면 6개의 자유도, 즉 각 축(x, y 또는 z)을 따른 병진 운동과, 각 축을 중심으로 한 회전 운동을 정할 수 있다.
광학 마커(181)는 수동형 또는 능동형일 수 있다. 수동형 광학 마커는 예를 들어 내비게이션 시스템(30)과 같은 다른 요소에 의해 방출되는 광학 복사선을 반사한다. 수동형 광학 마커는 예를 들어 적외선 입체 카메라(예를 들어, Northern Digital Inc.에서 제조한 Polaris® 내비게이션 시스템에 사용된 것)로 검출할 수 있는 반사 구체에 대응하거나 또는 입체 카메라(예를 들어 ClaroNav의 MicronTracker® 내비게이션 시스템에 사용되는 것)에 의해 보이는 흑백 패턴에 대응할 수 있다. 능동형 광학 마커 자체는 내비게이션 시스템(30)이 검출할 수 있는 광학 복사선, 예를 들어, 적외선 복사선을 방출한다.
그러나, 3차원 특징적인 기하 형상을 갖는 단일 광학 마커가 일련의 구형 광학 마커(181) 대신에 사용될 수 있다는 점에 유의해야 한다.
도 4는 환자(20)의 관심 해부학적 부분 근처에 위치되도록 의도된 환자 마커(22)를 개략적으로 도시한다. 환자 마커(22)는 환자 마커(22)의 위치가 내비게이션 시스템(30)의 참조 프레임의 3차원 공간에서 결정될 수 있도록 적어도 3개의 광학 마커(221)를 포함한다(도 4에 도시된 예에서는 4개를 포함한다). 서로에 대해 환자 마커(22)의 광학 마커(221)의 각 위치는 내비게이션 시스템(30) 및/또는 제어 유닛(12)에 의해 선험적으로 알려져 있다. 유리하게는, 각각의 광학 마커(221)의 기하 형상은 또한 선험적으로 알려질 수 있다. 도 4에 도시된 예에서, 광학 마커(221)는 구형 형상이다. 구형 형상을 사용하면 광학 복사선의 반사를 최적화할 수 있다. 도구 가이드(14)의 광학 마커(181)의 능동 또는 수동 유형에 대해 위에서 언급한 내용은 환자 참조(22)의 광학 마커(221)에 대해서도 적용된다. 여기서도 구형 광학 마커(221) 세트 대신에 3차원의 특징적인 기하 형상을 갖는 단일 광학 마커를 사용하는 것을 생각할 수 있다.
환자 마커(22)는 또한 의료 이미징 디바이스에 의해(예를 들어, 컴퓨터 단층 촬영, 자기 공명, 초음파, 단층 촬영, 양전자 방출 등에 의해) 수득된 의료 이미지에서 볼 수 있는 방사선 불투과성 마커(222)를 포함한다. 서로에 대해 방사선 불투과성 마커(222)의 각 위치는 내비게이션 시스템(30) 및/또는 제어 유닛(12)에 의해 선험적으로 알려져 있다. 유리하게는, 방사선 불투과성 마커(222)의 기하 형상도 또한 선험적으로 알려질 수 있다. 바람직하게는, 환자 마커(22)는 적어도 3개의 방사선 불투과성 마커(222)를 포함한다(고려된 예에서, 환자 마커(22)는 4개의 방사선 불투과성 마커(222)를 포함한다). 방사선 불투과성 마커(222)는 예를 들어 세라믹 비드일 수 있다. 그러나, 구형 방사선 불투과성 마커(222) 세트 대신에 특징적인 3차원 기하 형상을 갖는 단일 방사선 불투과성 마커가 사용될 수 있다는 점에 유의해야 한다.
나머지 설명 부분에서는 비제한적인 예로서 내비게이션 시스템(30)의 광학 센서(31)와 다양한 광학 마커(181, 221)가 적외선 유형의 광학 복사선과 함께 동작하도록 설계된 것으로 고려한다. 또한 광학 마커(181, 221)는 수동 마커인 것으로 고려된다. 광학 센서(31)는 적외선 복사선을 방출하도록 구성된다. 이 적외선 복사선은 다양한 광학 마커(181, 221)에 의해 광학 센서(31)를 향해 반사된다. 광학 센서(31)는 이 반사된 적외선 복사선을 수신하도록 구성된다. 그러면 내비게이션 시스템(30)은 적외선이 상기 광학 센서(31)와 상기 광학 마커(181, 221) 사이를 왕복하는 데 걸리는 시간을 측정함으로써 광학 마커(181, 221)와 광학 센서(31) 사이의 거리를 결정할 수 있다. 각 광학 마커(181, 221)와 각 광학 센서(31) 사이의 거리를 알고, 로봇 마커(18) 및 환자 마커(22)에서 서로에 대한 광학 마커(181, 221)의 배열을 선험적으로 알면, 내비게이션 시스템(30)의 참조 프레임에서 로봇 마커(18) 및 환자 마커(22)의 위치를 결정하는 것이 가능하다.
본 발명은 광학 내비게이션 시스템을 사용하여 설명된다는 점에 유의해야 한다. 그러나 변형예에서 광학 내비게이션 시스템 대신에 전자기 내비게이션 시스템을 사용하는 것을 막을 수 있는 것은 없다. 이 경우, 내비게이션 시스템(환자 마커(22), 로봇 마커(18))에 의해 검출 가능한 다양한 "마커"는 생성된 전자기장에서 내비게이션 시스템에 의해 위치를 결정할 수 있는 전자기 센서에 대응할 수 있다.
고려된 예에서, 의료용 로봇(10)의 제어 유닛(12)은 내비게이션 시스템(30)의 참조 프레임에서 로봇 마커(18)의 현재 위치에 대한 정보를 내비게이션 시스템(30)으로부터 수신하도록 구성된다. 이제, 의료용 로봇(10)의 제어 유닛(12)은 (관절(131 내지 138)의 인코더를 통해) 의료용 로봇(10)의 참조 프레임에서 로봇 마커(18)의 현재 위치를 알고 있다. 따라서 제어 유닛(12)은 내비게이션 시스템(30)의 참조 프레임의 위치로부터 의료용 로봇(10)의 참조 프레임의 위치를 정하기 위해 수행될 변환을 결정할 수 있다.
또한 (관절(131 내지 138)의 인코더를 통해) 로봇 마커(18)의 위치로부터 초음파 프로브(40)의 위치와 도구 가이드(14)의 위치를 추론하는 것도 가능하다.
제어 유닛(12)은 또한 내비게이션 시스템(30)의 참조 프레임에서 환자 마커(22)의 위치에 대한 정보를 내비게이션 시스템(30)으로부터 수신하도록 구성된다. 그러면 제어 유닛(10)은 의료용 로봇(10)의 참조 프레임에서 환자 마커(22)의 위치를 정할 수 있다.
환자의 피부에서 의료 기기(15)의 진입 지점의 위치와 치료할 병변의 목표 지점의 위치는 환자 마커(22)의 방사선 불투과성 요소(222)와 병변을 모두 볼 수 있는 의료 계획 이미지에서 환자 마커(22)의 위치에 대해 결정될 수 있다. 환자 마커(22)의 위치가 내비게이션 시스템의 참조 프레임에서 또는 의료용 로봇(10)의 참조 프레임에서 알려지면, 이로부터 내비게이션 시스템의 참조 프레임에서 또는 의료용 로봇(10)의 참조 프레임에서 진입 지점의 위치와 목표 지점의 위치를 추론하는 것이 가능해진다.
주어진 시간에 초음파 프로브(40)의 위치를 알면, 이 시간에 초음파 프로브(40)에 의해 수득된 초음파 이미지에서 시각적 요소의 위치를 결정할 수 있다. 이 시각적 요소는 특히 목표 지점이나 진입 지점에 대응할 수 있다. 목표 지점과 진입 지점은 의료 기기(15)가 따라가야 할 궤적을 정한다. 목표 지점의 위치와 진입 지점의 위치가 알려지면, 즉 의료 기기(15)가 따라가야 할 궤적이 정해지면, 제어 유닛은 도구 가이드(14)가 정해진 궤적을 따라 의료 기기(15)를 안내할 수 있게 하는 구성으로 로봇 아암(13)을 자동으로 이동시킬 수 있다.
환자의 호흡과 관련된 움직임은 의료용 로봇(10)의 참조 프레임에서 목표 지점과 진입 지점을 변위시킨다. 따라서, 환자의 호흡 사이클의 주어진 순간에 의료 기기(15)가 따라가야 할 궤적은 호흡 사이클의 다른 순간에서와 동일하지 않다. 따라서 목표 지점의 위치와 진입 지점의 위치는 임의의 시간에 의료 기기(15)가 따라가야 할 궤적을 결정하고 이 궤적에 따라 의료 기기(15)를 안내하도록 도구 가이드(14)의 위치를 조정할 수 있기 위해 실시간으로 모니터링되어야 한다.
도 5는 이러한 실시간 모니터링을 가능하게 하기 위해 제어 유닛(12)에 의해 구현되는 단계를 예로서 도시한다. 이러한 단계는 특히 의료 기기(15)의 삽입 전에 발생할 수 있다. 제1 단계에서, 준비 단계는 주로 병변의 초음파 이미지를 수득하기 위해 초음파 프로브(40)를 적절한 위치에 배치하는 것이다. 제2 단계에서, 안내 단계는 의료 기기(15)가 따라가야 할 궤적을 따라 지속적으로 위치되는 방식으로 도구 가이드(14)의 위치를 실시간으로 조정하기 위해 초음파 프로브(40)에 의해 수득된 초음파 이미지에 기초하여 로봇 아암(13)을 제어하는 것이다.
준비 단계는 환자 마커(22)의 적어도 하나의 방사선 불투과성 요소(222)와 병변이 보이는 계획 이미지를 수신하는 단계(101)를 포함한다. 계획 이미지는, 예를 들어, 환자 마커(22)가 환자(20)의 관심 해부학적 부분 근처에 위치된 시간에, 환자(20)가 개입 테이블 위에 있을 때 개입 직전에 수득된 개입 전 의료 이미지이다. 계획 이미지는 또한 개입 며칠 전 또는 몇 주 전에 수득되고 개입 전 이미지와 정합된 수술 전 의료 이미지일 수 있다. 계획 이미지는, 예를 들어, 컴퓨터 단층 촬영, 양전자 방출 단층 촬영 또는 자기 공명 영상에 의해 획득된 의료 이미지이다. 환자 마커(22)의 위치는 계획 이미지에서 볼 수 있는 환자 마커(22)의 방사선 불투과성 마커(222)를 사용하여 계획 이미지에서 결정될 수 있다.
그런 다음 준비 단계는 계획 이미지에서 목표 지점과 진입 지점을 결정하는 단계(102)를 포함한다. 제1 예에 따르면, 계획 이미지는 사용자 인터페이스(19)의 스크린에 표시되고, 사용자 인터페이스(19)는 시술자가 계획 이미지에서 치료할 부위의 목표 지점 및/또는 환자 피부의 진입 지점 및/또는 피해야 할 위험 영역(예를 들어, 뼈 또는 혈관) 및 치료 파라미터를 식별할 수 있게 한다. 이 단계는 기계 학습 알고리즘에 의해 특정 해부학적 부위(관심 해부학적 부분, 치료할 병변, 위험 영역 등)를 분할함으로써 용이하게 될 수 있다. 또 다른 예에서, 목표 지점과 진입 지점은 인공 지능 알고리즘에 의해 계획 이미지에서 직접 결정될 수 있다.
그런 다음 준비 단계는 환자 마커(22)의 위치에 대한 목표 지점의 위치와 진입 지점의 위치를 결정하는 단계(103)를 포함한다. 환자 마커(22)의 위치는 실제로 계획 이미지에서 볼 수 있는 방사선 불투과 요소(222)를 사용하여 계획 이미지에서 결정될 수 있다. 또한, 내비게이션 시스템(30)에 의해 환자 마커(22)의 위치는 내비게이션 시스템(30)의 참조 프레임에서 또는 의료용 로봇(10)의 참조 프레임에서 임의의 시간에 결정될 수 있다. 따라서 내비게이션 시스템의 참조 프레임에서 또는 의료용 로봇(10)의 참조 프레임에서 환자 마커의 위치로부터 진입 지점의 위치와 목표 지점의 위치를 추론하는 것이 가능하다.
마지막으로, 준비 단계는 환자(20)와 접촉하도록 초음파 프로브(40)를 위치시키고 이 위치에서 초음파 프로브(40)에 의해 수득된 초음파 이미지가 의료 기기(15)가 따라가야 할 궤적과 병변을 포함하는 평면에 있도록 로봇 아암(13)을 실시간으로 제어하는 단계를 포함한다. 다시 말해, 도구 가이드(14)와 초음파 프로브(40)는 의료 기기(15)가 항상 초음파 프로브(40)에 의해 수득된 초음파 이미지의 평면에 있는 방식으로 서로에 대해 배열된다. 로봇 아암(13)을 실시간으로 제어하는 것은 초음파 프로브(40)가 부착된 추가 아암(16)을 제어하는 것을 포함한다.
고려된 예에서, 힘 센서(17)를 사용하여 제어 유닛(13)은 초음파 프로브(40)에 의해 환자(20)의 신체에 가해지는 압력을 결정할 수 있다. 제어 유닛(12)은 초음파 프로브(40)가 환자(20)의 신체에 미리 결정된 압력을 가하도록 로봇 아암(13)을 이동시키도록 구성된다. 이러한 배열을 사용하면 환자(20)의 호흡 운동 동안 초음파 프로브(40)가 환자(20)의 신체와 접촉하는 것을 유지할 수 있다. 환자(20)의 호흡 운동(흡기)으로 초음파 프로브(40)가 환자(20)의 신체에 너무 큰 압력을 유발하는 경우, 초음파 프로브(40)는 환자(20)의 신체에서 멀어지는 방향으로 이동하게 된다. 이와 달리, 환자(20)의 호흡 운동(호기)으로 초음파 프로브(40)가 환자(20)의 신체에 너무 낮은 압력을 유발하는 경우, 초음파 프로브는 환자(20)의 신체 쪽으로 이동하게 된다.
그러면 계획 이미지에서 시술자에 의해 초기에 정해진 목표 지점과 진입 지점은 초음파 프로브에 의해 실시간으로 수득된 초음파 이미지에서 안내 단계 동안 모니터링될 수 있다.
목표 지점의 모니터링은 특히 여러 연속 이미지의 움직임을 추적하는 방법, 반점 변형 분석 또는 인공 지능 알고리즘에 의해 구현될 수 있다. 초음파 이미지에서 병변이 보이지 않는 경우, 융합 이미지에서 목표 지점을 추적하는 것을 보조하기 위해 초음파 이미지에서 보이는 병변에 가까운 해부학적 구조부(예를 들어, 혈관)의 움직임을 추적하는 것이 유리할 수 있다. 그러나 선택된 해부학적 구조부는 초음파 프로브에 의해 수득된 초음파 이미지의 평면에서 볼 수 있어야 한다.
병변이 초음파 이미지에서 충분히 보이지 않는 경우, 목표 지점의 움직임은 융합 이미지에서 추적되어야 하며, 각 융합 이미지는 계획 이미지와 초음파 이미지를 정합한 것에 대응한다.
안내 단계는 초음파 프로브(40)에 의해 수득된 초음파 이미지를 수신하는 단계(201)를 포함한다.
안내 단계는 초음파 이미지가 초음파 프로브(40)에 의해 수득된 순간에 로봇 마커(18)의 위치와 환자 마커(22)의 위치를 결정하는 단계(202)를 포함한다.
그런 다음 안내 단계는 계획 이미지와 초음파 이미지의 정합을 통한 융합 이미지를 생성하는 단계(203)를 포함한다. 따라서 병변, 목표 지점 및 진입 지점이 획득된 융합 이미지에서 볼 수 있다.
도 6은 초음파 이미지와 계획 이미지의 정합을 통한 융합 이미지(도 6의 c) 부분)를 형성하기 위해 초음파 이미지(도 6의 b) 부분)를 정합하기 위해 계획 이미지(도 6의 a) 부분)를 개략적으로 도시한다. 계획 이미지에는 치료할 병변(50)과 목표 지점(51)을 볼 수 있다. 고려된 예에서 참조 이미지는 컴퓨터 단층 촬영에 의해 수득된다. 한편, 치료할 병변(50)은 초음파 이미지에서는 거의 보이지 않는다. 치료할 병변(50)과 목표 지점(51)은 초음파 이미지와 참조 이미지의 정합을 통한 분석 이미지에서는 보이게 된다. (도 6에는 도시되지 않았지만) 환자 마커(22)의 방사선 불투과성 마커(222)는 계획 이미지와 융합 이미지에서도 볼 수 있다는 점에 유의해야 한다.
정합은 전체 정합(관심 해부학적 부분 전체에 대한 정합) 또는 국부적 정합(관심 해부학적 부분의 특정 부위에 대한 최적화된 정합)일 수 있다. 정합은 강체적으로 (병진 및/또는 회전을 통해) 수행되거나 비-강체적으로 (변형을 통해) 수행될 수 있다. 정합은 특히 병합될 이미지에서 특정 해부학적 구조부를 인식한 것에 기초하여 기계 학습 알고리즘에 의해 구현될 수 있다. 정합은 또한 계획 이미지 상의 환자 마커의 방사선 불투과성 요소를 분할한 다음, 계획 이미지의 참조 프레임(환자 마커(22)의 위치를 통해 알려짐)과 초음파 이미지의 참조 프레임(로봇 마커(18)의 위치를 통해 알려짐) 간을 정합하는 것에 기초할 수 있다.
그런 다음 안내 단계는 융합 이미지로부터 목표 지점의 위치와 진입 지점의 위치, 로봇 마커(18)의 위치 및 환자 마커(22)의 위치를 결정하는 단계(204)를 포함한다. 목표 지점의 위치와 진입 지점의 위치는 융합 이미지의 참조 프레임에서 환자 마커(22)의 위치에 대해 정해질 수 있다. 환자 마커(22)의 위치와 로봇 마커(18)의 위치를 알면 내비게이션 시스템(30)의 참조 프레임에서 및/또는 의료용 로봇(10)의 참조 프레임에서 목표 지점의 위치와 진입 지점의 위치를 결정하는 것이 가능해진다.
그러나, 초음파 프로브(40)에 의해 수득된 각각의 새로운 초음파 이미지에 대해 로봇 마커(18)의 위치와 환자 마커(22)의 위치를 결정하는 것은 필수적인 것은 아니라는 점에 유의해야 한다(이는 단계(202)가 선택 사항임을 의미함). 실제로, 초음파 프로브(40)의 위치는 의료용 로봇(10)의 참조 좌표계에서 알려져 있으므로, 의료용 로봇(10)의 참조 좌표계에 대해 융합 이미지의 참조 좌표계를 정할 수 있으므로, 융합 이미지로부터 직접 의료용 로봇(10)의 참조 좌표계에서 목표 지점의 위치와 진입 지점의 위치를 결정할 수 있다.
그런 다음 안내 단계는 의료 기기(15)가 목표 지점의 위치와 진입 지점의 위치에 의해 정해진 궤적을 따라 도구 가이드(14)에 의해 안내되도록 로봇 아암(13)을 이동시키는 단계(205)를 포함한다.
단계(201) 내지 단계(205)는 초음파 프로브(40)로부터 수신된 각각의 새로운 초음파 이미지마다 반복된다.
따라서 로봇 아암은 의료 기기(15)가 목표 지점의 위치와 진입 지점의 위치에 의해 정해진 궤적을 따라 안내되는 방식으로 영구적으로 위치되도록 실시간으로 이동된다. 로봇 아암(13)의 위치를 이렇게 실시간으로 조정하면 환자의 호흡에 의해 발생되는 목표 지점의 움직임을 보상할 수 있다.
이러한 배열을 통해 의료 기기(15)의 삽입을 진행하기 위해 호흡 사이클의 임의의 순간에 환자의 호흡을 차단하는 것이 가능해진다. 실제로 환자의 호흡이 차단되는 순간에 관계없이, 로봇 아암(13)은 원하는 궤적을 따라 의료 기기(15)의 삽입을 허용하도록 올바른 위치에 있게 된다.
더욱이, 개입 동안 환자의 호흡을 차단할 필요가 더 이상 없다. 실제로, 로봇 아암은 원하는 궤적을 따라 의료 기기를 안내하기 위해 로봇 아암의 위치가 지속적으로 조정되도록 실시간으로 이동된다.
의료 기기(15)가 환자(20)의 신체 내로 삽입되기 시작하자마자, 환자 피부의 진입 지점의 위치가 고정되어 로봇 아암(13)의 움직임을 위한 회전 중심이 된다. 그러나, 의료 기기(15)의 삽입 동안 실시간으로 수득된 새로운 초음파 이미지로부터 목표 지점의 위치와 진입 지점의 위치를 실시간으로 추적할 수 있다. 이것은 특히 의료 기기(15)의 삽입으로 인한 목표 지점의 임의의 움직임을 고려할 수 있게 한다. 실제로 목표 지점은 삽입 동안 의료 기기(15)가 따라가는 궤적 방향으로 이동할 수 있다(이는 특히 병변이 연조직에 위치된 경우이다). 초음파 이미지의 도움으로 목표 지점의 위치를 실시간으로 결정하면 의료 기기(15)가 따라가야 할 궤적과, 또한 이 궤적을 따라 의료 기기(15)를 안내하기 위해 로봇 아암(13)의 위치를 실시간으로 업데이트할 수 있다.
초음파 프로브(40)의 위치는 환자(20)와 접촉을 유지하고 의료 기기(15)가 따라가야 할 궤적과 병변을 포함하는 평면에 유지되도록 환자 마커(22)의 위치에 따라 및/또는 힘 센서(17)에 의해 보고된 측정값에 따라 안내 단계 동안 조정될 수 있다는 점에 유의해야 한다. 추가 아암(16)에 의해 제공되는 추가 자유도는 도구 가이드(14)의 위치에 영향을 주지 않고 초음파 프로브(40)의 위치를 조정할 수 있게 한다.
준비 단계 동안, 병변이 초음파 프로브(40)의 시야 내에 있지 않은 경우, 즉 병변이 초음파 프로브(40)에 의해 (또는 연관된 융합 이미지에 의해) 수득된 초음파 이미지에 보이지 않는 경우, 초음파 프로브(40)는 병변이 초음파 프로브(40)의 시야 내에 있도록 이동되어야 한다. 이를 위해, 제어 유닛(12)은 (병변이 보이는) 계획 이미지와 초음파 이미지를 비교하고, 초음파 프로브(40)에 의해 수득된 초음파 이미지가 병변이 위치된 해부학적 부위를 포함하도록 초음파 프로브(40)를 이동시키는 방향을 결정하도록 구성될 수 있다. 그런 다음 제어 유닛(12)은 로봇 아암(13)을 제어하여 초음파 프로브(40)를 이 방향으로 이동시킬 수 있다. 대안적으로, 제어 유닛(12)은 초음파 프로브에 의해 수득된 초음파 이미지(또는 연관된 융합 이미지)에서 병변이 검출될 때까지 로봇 아암(13)을 제어하여 초음파 프로브(40)로 스캔할 수 있다.

Claims (12)

  1. 환자(20)의 관심 해부학적 부분의 병변을 치료하기 위해 의료 개입 동안 시술자를 보조하는 의료용 로봇(10)으로서,
    상기 의료용 로봇(10)은 일 단부에 의료 기기(15)를 안내하는 도구 가이드(14)와 초음파 프로브(40)가 부착된 로봇 아암(13), 및 상기 로봇 아암(13)을 제어하도록 구성된 제어 유닛(12)을 포함하고, 상기 의료용 로봇(10)은 내비게이션 시스템(30)과 협력하도록 구성되고, 상기 제어 유닛(12)은 상기 내비게이션 시스템(30)에 의해 전달된 정보에 기초하여 상기 의료용 로봇(10)에 위치되도록 의도된 로봇 마커(18)의 위치, 및 상기 환자(20)의 관심 해부학적 부분 근처에 위치되도록 의도된 환자 마커(22)의 위치를 임의의 시간에 결정할 수 있도록 구성되고,
    준비 단계 동안, 상기 제어 유닛(12)은,
    -상기 환자 마커(22)의 적어도 하나의 방사선 불투과성 요소(222)와 상기 병변이 보이는 계획 이미지를 수신하고,
    - 상기 계획 이미지로부터 상기 병변의 목표 지점과 상기 환자(20) 피부의 진입 지점을 결정하고, 이에 따라 상기 목표 지점과 상기 진입 지점은 상기 의료 기기(15)가 따라가야 할 궤적을 정하고,
    - 상기 환자(20)와 접촉하고 상기 따라가야 할 궤적과 상기 병변을 포함하는 평면에 상기 초음파 프로브(40)를 배치하기 위해 상기 로봇 마커(18)의 위치와 상기 환자 마커(22)의 위치에 따라 상기 로봇 아암(13)을 제어하도록 구성되고,
    안내 단계 동안, 상기 제어 유닛(12)은 상기 초음파 프로브(40)에 의해 수득된 초음파 이미지를 실시간으로 수신하고, 상기 따라가야 할 궤적을 따라 상기 의료 기기(15)를 안내하는 방식으로 상기 도구 가이드(14)를 배치하기 위해 상기 초음파 이미지에 기초하여 상기 로봇 아암(13)을 실시간으로 제어하도록 구성된 것을 특징으로 하는 의료용 로봇(10).
  2. 제1항에 있어서, 상기 안내 단계 동안, 상기 제어 유닛(12)은 각각의 수신된 초음파 이미지에 대해,
    - 상기 계획 이미지와 상기 초음파 이미지의 정합을 통한 융합 이미지를 생성하고,
    - 상기 융합 이미지로부터 상기 목표 지점의 위치와 상기 진입 지점의 위치를 결정하고,
    - 상기 의료 기기(15)가 상기 목표 지점의 위치와 상기 진입 지점의 위치에 의해 정해진 궤적을 따라 상기 도구 가이드(14)에 의해 안내되도록 상기 로봇 아암(13)을 이동하도록 구성된, 의료용 로봇(10).
  3. 제1항 또는 제2항에 있어서, 상기 안내 단계 동안, 상기 의료 기기(15)의 삽입 동안, 수신된 각각의 새로운 초음파 이미지에 대해, 상기 제어 유닛(12)은 상기 의료 기기(15)의 위치를 결정하고, 상기 의료 기기(15)의 위치에 기초하여 상기 로봇 아암(13)의 실시간 제어를 조정하도록 구성된, 의료용 로봇(10).
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 초음파 프로브(40)는 상기 제어 유닛(12)이 상기 초음파 프로브(40)에 의해 상기 환자의 신체에 가해지는 압력을 결정할 수 있게 하는 힘 센서(17)에 결합되고, 상기 제어 유닛(12)은 상기 초음파 프로브(40)가 상기 환자(20)의 신체에 미리 결정된 압력을 가하도록 상기 로봇 아암(13)을 이동시키도록 구성된, 의료용 로봇(10).
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 계획 이미지는 컴퓨터 단층 촬영 영상, 양전자 방출 단층 영상 또는 자기 공명 영상 이미지인, 의료용 로봇(10).
  6. 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 계획 이미지로부터 목표 지점과 진입 지점을 결정하기 위해 상기 제어 유닛은 상기 계획 이미지에서 인공 지능 알고리즘을 사용하여 상기 병변 및/또는 피해야 할 해부학적 영역을 분할하도록 구성된, 의료용 로봇(10).
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 초음파 프로브(40)로부터 수신된 초음파 이미지는 B-모드 초음파 이미지인, 의료용 로봇(10).
  8. 제1항 내지 제7항 중 어느 한 항에 있어서, 상기 제어 유닛(12)은 상기 초음파 프로브(40)에 의해 수득된 초음파 이미지를 초당 적어도 15개의 이미지의 비율로 수신하고 처리하도록 구성된, 의료용 로봇(10).
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 시술자가 상기 계획 이미지 및/또는 상기 융합 이미지를 볼 수 있게 하는 디스플레이 스크린을 포함하는 사용자 인터페이스(19)를 추가로 포함하는, 의료용 로봇(10).
  10. 제9항에 있어서, 상기 사용자 인터페이스(19)는 상기 시술자가 상기 준비 단계 동안 상기 디스플레이 스크린에 표시된 계획 이미지에서 목표 지점 및/또는 진입 지점 및/또는 상기 의료 기기(15)가 횡단해서는 안 되는 해부학적 영역을 식별할 수 있게 하는 입력 수단을 포함하는, 의료용 로봇(10).
  11. 제9항 또는 제10항에 있어서, 상기 사용자 인터페이스는 상기 디스플레이 스크린 상에서 상기 환자의 신체의 실제 이미지와 상기 분석 이미지를 중첩시키기 위한 증강 현실 디바이스를 포함하는, 의료용 로봇(10).
  12. 제1항 내지 제11항 중 어느 한 항에 있어서, 상기 제어 유닛(12)은 상기 계획 이미지와 초음파 이미지를 비교하고, 상기 초음파 프로브(40)에 의해 수득된 초음파 이미지가 상기 병변이 위치된 해부학적 부위를 포함하도록 상기 초음파 프로브(40)를 이동시킬 방향을 결정하도록 추가로 구성된, 의료용 로봇(10).
KR1020237034645A 2021-06-16 2022-06-14 경피적 개입의 시간 실시간 안내를 위한 초음파 프로브가 장착된 로봇 KR20240021745A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FRFR2106352 2021-06-16
FR2106352A FR3124072B1 (fr) 2021-06-16 2021-06-16 Robot équipé d’une sonde échographique pour le guidage temps-réel d’interventions percutanées
PCT/FR2022/051137 WO2022263764A1 (fr) 2021-06-16 2022-06-14 Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées

Publications (1)

Publication Number Publication Date
KR20240021745A true KR20240021745A (ko) 2024-02-19

Family

ID=77411830

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237034645A KR20240021745A (ko) 2021-06-16 2022-06-14 경피적 개입의 시간 실시간 안내를 위한 초음파 프로브가 장착된 로봇

Country Status (7)

Country Link
EP (1) EP4355251A1 (ko)
KR (1) KR20240021745A (ko)
CN (1) CN117425448A (ko)
CA (1) CA3212799A1 (ko)
FR (1) FR3124072B1 (ko)
IL (1) IL308861A (ko)
WO (1) WO2022263764A1 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3073135B1 (fr) * 2017-11-09 2019-11-15 Quantum Surgical Dispositif robotise pour une intervention medicale mini-invasive sur des tissus mous
US11504095B2 (en) * 2018-01-08 2022-11-22 Rivanna Medical, Inc. Three-dimensional imaging and modeling of ultrasound image data
DE202018104487U1 (de) * 2018-08-03 2018-08-21 Kuka Deutschland Gmbh Biopsiesystem
US20210113181A1 (en) * 2019-10-22 2021-04-22 Zhejiang Demetics Medical Technology Co., Ltd. Automatic Ultrasonic Scanning System
FR3103097B1 (fr) * 2019-11-19 2021-11-05 Quantum Surgical Méthode de navigation pour positionner un robot médical
US20210161612A1 (en) * 2019-12-03 2021-06-03 Mediview Xr, Inc. Holographic augmented reality ultrasound needle guide for insertion for percutaneous surgical procedures

Also Published As

Publication number Publication date
FR3124072B1 (fr) 2023-10-20
IL308861A (en) 2024-01-01
EP4355251A1 (fr) 2024-04-24
CN117425448A (zh) 2024-01-19
CA3212799A1 (fr) 2022-12-22
WO2022263764A1 (fr) 2022-12-22
FR3124072A1 (fr) 2022-12-23

Similar Documents

Publication Publication Date Title
CN110573105B (zh) 用于对软组织进行微创医疗干预的机器人装置
JP6828047B2 (ja) 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法
CN103997982B (zh) 将手术器械相对患者身体进行定位的机器人辅助装置
US8364242B2 (en) System and method of combining ultrasound image acquisition with fluoroscopic image acquisition
US8548563B2 (en) Method for registering a physical space to image space
US7318805B2 (en) Apparatus and method for compensating for respiratory and patient motion during treatment
CN101474075B (zh) 微创手术导航系统
CN113729977A (zh) 用于在图像引导手术中使用配准荧光透视图像的系统和方法
US20080287805A1 (en) System and method to guide an instrument through an imaged subject
KR20240021747A (ko) 초음파 안내식 바늘 배치를 위한 의료용 로봇
US20220361736A1 (en) Systems and methods for robotic bronchoscopy navigation
WO2023129562A1 (en) Systems and methods for pose estimation of imaging system
US20220409291A1 (en) Planning and real-time updating a 3d trajectory of a medical instrument
KR20240021745A (ko) 경피적 개입의 시간 실시간 안내를 위한 초음파 프로브가 장착된 로봇
WO2023161775A1 (en) Mri based navigation