KR102532351B1 - 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템 - Google Patents

헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템 Download PDF

Info

Publication number
KR102532351B1
KR102532351B1 KR1020210103374A KR20210103374A KR102532351B1 KR 102532351 B1 KR102532351 B1 KR 102532351B1 KR 1020210103374 A KR1020210103374 A KR 1020210103374A KR 20210103374 A KR20210103374 A KR 20210103374A KR 102532351 B1 KR102532351 B1 KR 102532351B1
Authority
KR
South Korea
Prior art keywords
gesture
robot arm
state
hand
surgical
Prior art date
Application number
KR1020210103374A
Other languages
English (en)
Other versions
KR20230021471A (ko
Inventor
김성완
김영균
이원석
김병수
윤단
Original Assignee
서울대학교병원
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원, 서울대학교 산학협력단 filed Critical 서울대학교병원
Priority to KR1020210103374A priority Critical patent/KR102532351B1/ko
Priority to PCT/KR2022/000256 priority patent/WO2023013832A1/ko
Publication of KR20230021471A publication Critical patent/KR20230021471A/ko
Application granted granted Critical
Publication of KR102532351B1 publication Critical patent/KR102532351B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/77Manipulators with motion or force scaling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/303Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels

Abstract

본 발명은 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템에 관한 것으로서, 상세하게는 수술 로봇의 제어부를 머리에 착용 가능한 헤드셋으로 소형화하고, 비접촉 손동작 인식 기술(Contactless Hand-Tracking Technology)을 활용한 수술 로봇 조작 방식을 적용함으로써, 집도의의 수술 환경을 전반적으로 개선할 수 있는 수술 로봇 제어시스템에 관한 것이다.

Description

헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템 {Headset based surgical robot control system using contactless hand-tracking technology}
본 발명은 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템에 관한 것으로서, 상세하게는 수술 로봇의 제어부를 머리에 착용 가능한 헤드셋으로 소형화하고, 비접촉 손동작 인식 기술(Contactless Hand-Tracking Technology)을 활용한 수술 로봇 조작 방식을 적용함으로써, 집도의의 수술 환경을 전반적으로 개선할 수 있는 수술 로봇 제어시스템에 관한 것이다.
최소침습수술은 환자에게 최소한의 절개를 가하여 필요한 의료행위를 할 수 있는 수술 기법으로, 전통적인 수술 방식(개복수술, 개흉수술 등의 Open Surgery)에 비해 다양한 이점(출혈량 최소화, 회복 및 입원 기간 단축, 작거나 보이지 않는 흉터 등)으로 환자의 치료 예후 개선에 크게 이바지하고 있다.
최소침습수술은 초기에 복강경 수술 도구(Laparoscopic Surgical Instrument)의 수동 조작을 통해 이루어졌으나, 이는 집도의가 다양한 한계점(직관에 반하는 조작 방법, 수술 도구의 적은 자유도, 2차원 내시경 영상으로 인해 줄어든 깊이감 등)이 있었으며, 수동 조작의 단점을 개선하기 위해 로봇 공학과 접목한 로봇수술이 개발되었다.
수술 로봇은 크게 집도의가 조작을 가하는 마스터 콘솔(Master Console)과 환자 쪽에 있는 로봇(Patient Side Robot)으로 구성된다.
도 1은 종래 국내외에서 가장 널리 활용되는 외과 수술 로봇인 Intuitive Surgical 사의 da Vinci Surgical System(dVSS)을 나타내는 도면이다.
도 1을 참조하면, 마스터 콘솔(Master Console)은 집도의에게 3차원 영상을 송출하는 Stereo Viewer, 로봇의 위치 조작 입력을 가할 수 있는 Master Tool Manipulators(MTMs), 그리고 다양한 특수 기능을 수행할 수 있는 Foot Pedal Tray로 구성된다.
Stereo Viewer는 집도의의 각 눈에 서로 다른 시점(Viewpoint)에서 촬영된 영상을 송출하여 인위적으로 시차(Parallax)를 느끼도록 함으로써 깊이감과 몰입감을 느낄 수 있도록 한다.
Patient Side Robot은 다양한 수술 도구(포셉, 메스, 가위, 내시경 등)을 부착할 수 있는 여러 Manipulator들로 구성되며, 대표적으로 환자에게 직접적인 조작을 가하는 데에 활용되는 Patient Side Manipulators(PSMs)와 수술 부위의 영상을 촬영하여 집도의에게 시야를 제공하는 내시경 카메라를 장착할 수 있는 Endoscopic Camera Manipulator(ECM)로 나뉜다.
Master Tool Manipulator(MTM)은 Patient Side Robot의 자유롭고 직관적인 위치 제어에 초점을 둔 장치로, 마스터 콘솔의 조작부이다.
집도의는 MTM의 허용 조작 범위 내에서 자유롭게 손과 손목의 움직임을 활용하여 조작을 가할 수 있다. 이러한 움직임은 Patient Side Robot의 현재 제어 중인 Manipulator로 반영되어, Manipulator에 장착된 수술 도구가 MTM의 움직임을 구현할 수 있도록 설계되어 있다.
Foot Pedal Tray는 Patient Side Robot의 각 Manipulator의 위치 제어 이외의 다양한 기능을 수행할 수 있는 페달들로 구성된다.
그러나, 상기 수술 로봇은 부피가 매우 커서 수술공간이 비효율적으로 활용되는 문제가 있다.
또한, da Vinci Surgical System(dVSS)는 초기 구매 및 유지, 보수 비용이 많이 발생하여 병원과 환자 모두에게 큰 경제적 부담으로 작용하며, 로봇수술에 다양한 장점이 있음에도 불구하고 상대적으로 널리 활용되지 못하는 실정이다.
또한, 현재 활용되는 수술 로봇은 장시간 수술하는 집도의의 인체공학적 특성을 잘 반영하지 못하여, 집도의의 육체적 피로가 가중되고 있으며, 이는 만성 관절 통증 및 불편감의 원인으로 작용한다. 예를 들어, 의사는 수술 시간 내내 Stereo Viewer 내부에 시선을 고정해야 하므로 목과 허리에 무리가 갈 수 있고, MTM은 수술하는 도중 계속 잡고 있어야 하므로, 수부 관절 등에 과도한 부하가 걸리는 문제가 있다.
한편, 손동작 인식 기술을 활용하여 수술로봇을 제어하는 선행기술들로서, US20120071891A(공개일: 2012-3-22, 발명의 명칭: METHODANDAPPARATUS FORHAND GESTURE CONTROL IN A MINIMALLY INVASIVE SURGICAL SYSTEM), US2011/0118753A(공개일: 2011-5-19, 발명의 명칭: MASTER FINGER TRACKING DEVICE AND METHOD OF USE IN A MINIMALLY INVASIVE SURGICAL SYSTEM), KR10-1825929B(공고일: 2018-1-31, 발명의 명칭: 수술로봇 조종을 위한 무구속의 3차원 손동작 모션 인식 시스템, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체) 등이 개시된 바 있다.
그러나, 상기 선행기술들은 사람 손의 일부에 장착된 센서 요소의 위치를 추적함으로써 손동작을 인식하기 때문에 완전한 비접촉 방식으로 보기 어려우며, 적외선 센서를 통해 정보를 획득하기 때문에 Landmark의 개수가 제한적이라는 한계가 있으며, 또한 한 손으로 하나의 로봇 팔만 조작이 가능하며 모드 변경은 불가하다는 문제가 있다.
본 발명은 전술한 문제점을 해결하기 위한 것으로서, 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 카메라를 이용하여 비접촉으로 손의 해부학적인 특이지점 (Anatomical Landmark, Key Point)을 정하고, 이들의 3 차원 좌표를 획득하여 답러닝 및 머신러닝 알고리즘을 기반으로 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 추가로 착용하는 구조물이 필요 없이 손의 위치와 제스처에 대한 정보를 획득할 수 있는 완전한 비접촉 방식을 적용함으로써, 집도의의 손이나 손목 관절의 육체적 피로도를 최소화할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 헤드셋 디스플레이에(HMD)에 탑재된 두 카메라의 영상을 통해, 딥러닝 알고리즘을 활용하여 손의 3차원 위치를 가늠하며, Landmark의 개수가 많아서 손가락으로 집는 제스처 이외의 다양한 제스처의 인식이 가능한 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 종래 비전 시스템을 Stereo Viewer에서 HMD로 대체함으로써 수술 집도의의 수술 환경을 개선하여 집도의의 목, 허리 등의 피로도를 감소시킬 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 다양한 제스처를 인식할 수 있어 종래 Foot Pedal이 수행하던 로봇 팔의 제어권 변경, 내시경 카메라 위치 조작 등의 복잡한 기능들을 오직 손동작 인식만으로 할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 3대의 PSM과 1대의 ECM 등 다양한 로봇 팔에 대한 제어권 변경을 손동작 인식이라는 하나의 방법으로 통합하여 종래 Foot Pedal의 기능을 대체함으로써, 집도의에게 더 편리하고 직관적인 수술 환경을 제공할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경; 소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔; 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋; 상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라; 상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔을 제어하기 위한 제스처를 인식하는 손동작 인식부; 및 상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔을 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 손동작 인식부는 상기 카메라에서 촬영된 사용자의 손동작 영상으로부터 손의 3차원 위치와 자세에 대한 정보를 얻은 후 손의 상태를 결정하기 위해 손의 해부학적인 특이지점들을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제스처는, 상기 복수의 로봇팔 중 조작하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 선택 제스처; 상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 클러치 제스처; 상기 선택된 로봇팔을 조작할 수 있는 조작 제스처; 및 상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 에너지 제스처;를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 선택 제스처는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현하는 제스처이고, 상기 클러치 제스처는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처이고, 상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고, 상기 에너지 제스처는 모든 손가락을 한 점으로 모은 제스처일 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제어부는 상기 손동작 인식부에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환하며, 상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환하며, 상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 작동 제스처인 경우 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하며, 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시키며, 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환하며, 상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)인 것을 특징으로 한다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제어부는 상기 로봇팔을 레디 상태에서 조작 상태로 전환하는 경우 상기 로봇팔과 집도의 손의 좌표축 조정을 수행할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 작동 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고, 상기 제어부는 상기 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시킬 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제어부는 상기 조작 상태에서 집도의의 손이 상기 작동 제스처의 기 설정된 범위 이상으로 벗어나는 경우 상기 로봇팔을 레디 상태로 전환할 수 있다.
한편, 다른 측면에서의 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경; 상기 내시경을 이동시키는 구동부; 소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔; 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋; 상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라; 상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔과 상기 구동부를 제어하기 위한 제스처를 인식하는 손동작 인식부; 상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔과 상기 구동부를 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 손동작 인식부는 상기 카메라에서 촬영된 사용자의 손동작 영상으로부터 손의 3차원 위치와 자세에 대한 정보를 얻은 후 손의 상태를 결정하기 위해 손의 해부학적인 특이지점들을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제스처는, 상기 복수의 로봇팔 중 조작하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 선택 제스처; 상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 클러치 제스처; 상기 선택된 로봇팔을 조작할 수 있는 조작 제스처; 상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 에너지 제스처; 및 상기 내시경의 움직임을 조작하기 위한 내시경 제스처;를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 선택 제스처는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현하는 제스처이고, 상기 클러치 제스처는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처이고, 상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고, 상기 에너지 제스처는 모든 손가락을 한 점으로 모은 제스처이고, 상기 내시경 제스처는 양손을 손등이 보이도록 완전히 편 제스처인 것을 특징으로 한다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제어부는 상기 손동작 인식부에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환하며, 상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환하며, 상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 작동 제스처인 경우 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하며, 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시키며, 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환하며, 상기 손동작 인식부에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부를 아이들 상태에서 레디 상태로 전환하며, 상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)인 것을 특징으로 한다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제어부는 상기 로봇팔을 레디 상태에서 조작 상태로 전환하는 경우 상기 로봇팔과 집도의 손의 좌표축 조정을 수행할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 작동 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고, 상기 제어부는 상기 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시킬 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 제어부는 상기 조작 상태에서 집도의의 손이 상기 작동 제스처의 기 설정된 범위 이상으로 벗어나는 경우 상기 로봇팔을 레디 상태로 전환할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 상기 내시경 제스처는 양손을 손등이 보이도록 완전히 편 제스처이고, 상기 제어부는 상기 손동작 인식부에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부를 아이들 상태에서 레디 상태로 전환하며, 상기 구동부가 레디 상태로 전환된 상태에서 집도의가 양손을 손등이 보이도록 완전히 편 상태에서 양손을 움직이면, 상기 구동부를 레디 상태에서 조작 상태로 전환한 후 상기 양손의 움직임에 따라 상기 내시경이 움직이도록 상기 구동부를 제어할 수 있다.
상기와 같은 구성을 가지는 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 카메라를 이용하여 비접촉으로 손의 해부학적인 특이지점 (Anatomical Landmark, Key Point)을 정하고, 이들의 3 차원 좌표를 획득하여 답러닝 및 머신러닝 알고리즘을 기반으로 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 추가로 착용하는 구조물이 필요 없이 손의 위치와 제스처에 대한 정보를 획득할 수 있는 완전한 비접촉 방식을 적용함으로써, 집도의의 손이나 손목 관절의 육체적 피로도를 최소화할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 헤드셋 디스플레이에(HMD)에 탑재된 두 카메라의 영상을 통해, 딥러닝 알고리즘을 활용하여 손의 3차원 위치를 가늠하며, Landmark의 개수가 많아서 손가락으로 집는 제스처 이외의 다양한 제스처의 인식이 가능하다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 종래 비전 시스템을 Stereo Viewer에서 HMD로 대체함으로써 수술 집도의의 수술 환경을 개선하여 집도의의 목, 허리 등의 피로도를 감소시킬 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 다양한 제스처를 인식할 수 있어 종래 Foot Pedal이 수행하던 로봇 팔의 제어권 변경, 내시경 카메라 위치 조작 등의 복잡한 기능들을 오직 손동작 인식만으로 할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 3대의 PSM과 1대의 ECM 등 다양한 로봇 팔에 대한 제어권 변경을 손동작 인식이라는 하나의 방법으로 통합하여 종래 Foot Pedal의 기능을 대체함으로써, 집도의에게 더 편리하고 직관적인 수술 환경을 제공할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 종래 수술 로봇의 Stereo Viewer를 헤드셋 기반의 디스플레이로 대체하여 효율적인 수술공간의 활용이 가능하며, 하드웨어의 구매 및 유지, 보수 비용을 현저히 감소시킬 수 있게 됨에 따라 의료비용을 전반적으로 감소시킬 수 있다. 또한, 집도의는 더 이상 허리와 목을 장시간 고정한 채로 수술에 임하지 않아도 되며, 가벼운 헤드셋만 착용하여도 양질의 3차원 영상을 볼 수 있으므로 육체적 피로도를 감소시킬 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 비접촉 손동작 인식 기술을 통해 필요한 모든 작업을 양손만을 사용하여 실현할 수 있으므로, 집도의의 심적 부담을 줄일 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 비접촉 손동작 인식 기술을 수술 로봇 제어에 활용함으로써 종래의 MTM과 Foot Pedal Tray가 더 이상 필요하지 않게 됨에 따라 수술공간의 효율적 활용이 가능해질 수 있다. 또한, 장시간 MTM에 구속된 동작을 하여 발생하였던 집도의의 수부 관절의 만성 피로를 줄일 수 있다.
본 발명에 따른 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위와 상세한 설명의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진자에게 명확하게 이해될 수 있을 것이다.
도 1은 종래 국내외에서 가장 널리 활용되는 외과 수술 로봇인 Intuitive Surgical 사의 da Vinci Surgical System(dVSS)을 나타내는 도면이고,
도 2는 본 발명의 일 실시예에 따른 수술 로봇 제어 시스템의 구성을 도시한 개략도이고,
도 3은 도 2에 따른 수술 로봇 제어 시스템의 구성도이고,
도 4는 본 발명에 따른 손동작 인식부의 일 예를 개략적으로 나타내는 도면이고,
도 5는 선택 제스처를 나타내는 도면이고,
도 6(a)는 클러치 제스처를 나타내는 도면이고,
도 6(b)는 조작 제스처를 나타내는 도면이고,
도 6(c)는 에너지 제스처를 나타내는 도면이고,
도 7은 로봇팔과 집도의 손의 좌표축 조정 과정과 로봇팔 조작 과정에서의 좌표축 정렬 관계를 나타내는 도면이고,
도 8은 본 발명의 다른 실시 예에 따른 수술 로봇 제어 시스템의 구성도이고,
도 9는 본 발명의 일 형태에 따른 내시경 제스처를 나타내는 도면이고,
도 10은 내시경 조작과 제어의 일 예를 나타내는 도면이다.
이하에서는 첨부된 도면을 참고하여 본 발명의 실시예들에 대하여 상세하게 설명한다.
첨부 도면을 참조하여 설명함에 있어, 동일한 구성요소는 동일한 도면 부호를 부여하고, 이에 대한 중복설명은 생략한다.
도면에서 각 층(막), 영역, 패턴 또는 구조물들의 두께나 크기는 설명의 명확성 및 편의를 위하여 변형 또는 과장될 수 있으며, 본 발명은 첨부도면에 도시된 상대적인 크기나 두께에 의해 제한되지 않는다.
한편, 각 실시예는 독립적으로 실시되거나 함께 실시될 수 있으며, 발명의 목적에 부합하게 일부 구성요소는 제외될 수 있다.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있으나, 상기 구성요소들은 상기 용어들에 한정되지 않고, 하나의 구성요소를 다른 구성요소와 구별하는 목적으로 사용될 수 있다.
도 2는 본 발명의 일 실시예에 따른 수술 로봇 제어 시스템의 구성을 도시한 개략도이고, 도 3은 도 2에 따른 수술 로봇 제어 시스템의 구성도이다.
도 2 및 도 3을 참조하면, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템(100)은 내시경(110), 복수의 로봇팔(120), 헤드셋(headset)(130), 카메라(140), 손동작 인식부(150), 제어부(160)를 포함할 수 있다.
상기 내시경(110)은 소정의 절개부위(21)를 통해 수술공간(12)으로 삽입되어 수술부위를 실시간으로 촬영하는 구성이다.
상기 복수의 로봇팔(120)은 소정의 절개부위(23, 25, 27)를 통해 수술공간(12)으로 삽입되는 구성으로서, 예를 들어 상기 복수의 로봇팔(120)은 종래 PSM(Patient Side Manipulators)일 수 있으며, 제1 로봇팔(121), 제2 로봇팔(123), 제3 로봇팔(125)를 포함할 수 있다.
상기 헤드셋(130)은 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경(110)에서 촬영된 2D 또는 3D 영상을 표시한다.
상기 카메라(140)는 상기 헤드셋(130)에 구비되어 집도의의 손동작을 촬영하는 구성으로서, 상기 헤드셋(130)에 착탈 가능하게 구비될 수 있다.
상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔(120)을 제어하기 위한 제스처(gesture)를 인식한다.
상기 제어부(160)는 상기 손동작 인식부(150)에서 인식된 제스처를 기초로 상기 로봇팔(120)을 제어하며, 상기 내시경(110)으로부터 영상정보를 수신하여 상기 헤드셋(130)으로 전송한다.
도 2에서 보이는 바와 같이, 상기 수술공간(12)은 사람 또는 동물의 몸체 내부에 해당하며, 상기 수술공간(12)에는 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등이 분포할 수 있다.
상기 내시경(110)과 상기 복수의 로봇팔(121,123,125)은 미리 형성된 절개부위(21, 23, 25, 27)를 통해 그 하단부가 상기 수술공간(12)의 내측으로 삽입될 수 있다.
상기 복수의 로봇팔(121,123,125)은 상기 수술공간(12)의 내측에서 상기 수술부위에 대해 필요한 조치를 취할 수 있는 수술도구 예를 들어, 상기 로봇팔(120) 말단에 열이나 전류를 인가하여 절개를 가하거나 지혈 등을 할 수 있는 수술도구 등을 그 말단부에 구비할 수 있으며, 특정한 형태로 한정하지는 않는다.
상기 절개부위(21, 23, 25, 27)는 상기 내시경(110) 또는 로봇팔(120)의 하단부가 삽입될 수 있는 크기 또는 직경을 가지는 복강공과 같은 구멍으로 이루어질 수 있다.
상기 절개부위(21, 23, 25, 27)의 개수는 수술에 필요한 상기 로봇팔(120)과 내시경(110)의 개수에 대응하도록 결정될 수 있다. 예를 들어, 도면에 도시된 바와 같이 3개의 로봇팔(121,123,125)과 1개의 내시경(110)을 이용하여 수술을 진행하는 경우에 상기 절개부위(21, 23, 25, 27)는 상기 내시경(110)의 삽입을 위한 1개의 내시경 절개부위(21)와, 상기 로봇팔(120)의 삽입을 위한 3개의 로봇팔 절개부위(23, 25, 27)로 이루어질 수 있다.
다만, 본 발명에서 설명하는 상기 절개부위(21, 23, 25, 27)의 개수는 일예를 들어 설명한 것에 불과하며, 적절하게 변형될 수 있다.
한편, 사용자의 머리에 착용될 수 있는 헤드셋(130)은 최근 들어 활발히 개발되고 있는 VR 헤드셋(virtual reality headset) 등의 형태로 구현될 수 있다. 예를 들어, 상기 헤드셋(130)은 HMD(Head Mounted Display)로 구현될 수 있다.
HMD는 여러 대의 고정된 Base Station에서 송출되는 적외선 신호를 기반으로 HMD의 상대적인 위치를 실시간으로 추적할 수 있고, 사용자는 다양한 입력(컨트롤러, 헤드셋 위치 및 자세의 변화, 음성 등) 및 출력(소리, 진동, 화면 등) 채널을 통해 혼합 현실 인터페이스와 상호작용할 수 있다. 물론, 상기 헤드셋(130)은 VR 기기의 일 형태인 HMD에 한정되지 않으며 다양한 예로 구현이 가능하다.
또한, 상기 카메라(140)는 상기 헤드셋(130) 일측에 착탈가능하게 구비되거나 상기 헤드셋(130)에 일체로 구비된 형태로 구현될 수 있으며, 본 발명은 이에 한정하지 않는다.
도 4는 본 발명에 따른 손동작 인식부의 일 예를 개략적으로 나타내는 도면이다.
도 4에서 보이는 바와 같이, 상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 딥러닝 알고리즘 또는 머신러닝 알고리즘을 이용하여 손동작 인식을 구현할 수 있다.
상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 손동작 영상으로부터 손의 3차원 위치(Position)와 자세(Orientation)에 대한 정보를 얻은 후 손의 상태(State)를 결정하기 위한 손의 해부학적인 특이지점들(Anatomical Landmarks, Key Points)을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있다.
집도의의 손동작을 인식하는 방법으로는 종래 기술에서와 같이, 전위차계(Potentiometer), 관성 측정 장비(Inertial Measurement Unit, IMU), 웨어러블 장갑(Wearable Gloves) 등을 신체에 직접 부착하거나 착용하여 손의 위치와 자세를 실시간으로 입력받음으로써 구현할 수도 있지만, 이 경우 집도의가 여러 장비를 착용해야 하는 번거로움이 있다.
반면, 본 발명에 따른 손동작 인식부(150)는 별도의 장비를 착용하지 않고도 디지털카메라를 통해 획득한 손의 흑백 혹은 컬러 영상을 분석함으로써 손동작을 인식할 수 있다. 특히, 상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 머신러닝, 딥러닝 등으로 손동작 인식을 구현할 수 있다.
인공 지능이란 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 일 분야에 해당한다. 이러한 인공지능의 연구 분야 중 하나인 머신 러닝은 경험적 데이터를 기반으로 예측을 수행하고, 학습을 통해 스스로의 성능을 향상시키는 시스템을 의미할 수 있다.
머신 러닝의 일종인 딥러닝 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다.
딥러닝은 단계를 높여 갈수록 복수의 데이터로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낼 수 있다.
딥러닝 구조는 인공신경망(artificial neural network(ANN))을 포함할 수 있고, 예를 들어 딥러닝 구조는 CNN(convolutional neural network), RNN(recurrent neural network), DBN(deep belief network) 등 심층신경망(deep neural network)으로 구성될 수 있다.
한편, 상기 제스처는 선택 제스처, 클러치(Clutch) 제스처, 조작(Manipulation) 제스처 및 에너지(Energy) 제스처를 포함할 수 있다.
도 5 및 도 6은 본 발명의 일실시 예에 따른 제스처들을 설명하기 위한 도면들로서, 도 5는 선택 제스처를 나타내는 도면이고, 도 6(a)는 클러치 제스처를 나타내는 도면이고, 도 6(b)는 조작 제스처를 나타내는 도면이고, 도 6(c)는 에너지 제스처를 나타내는 도면이다.
상기 선택 제스처는 상기 복수의 로봇팔(120) 중 조작(manipulation)하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 제스처이다.
예를 들어, 집도의는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현함으로써, 상기 선택 제스처를 취할 수 있다.
도 5(a)에서 보이는 바와 같이, 집도의는 상기 복수의 로봇팔(120) 중 제1 로봇팔(121)의 제어권은 왼손으로, 제2 로봇팔(123)의 제어권은 오른손으로 확보하고자 하는 경우, 왼손은 손가락 하나를 펴고, 오른손은 손가락 2개를 편 제스처를 취할 수 있다.
그러면, 상기 손동작 인식부(150)는 상기 도 5(a)에 따른 선택 제스처를 인식하게 되고, 상기 제어부(160)는 상기 도 5(a)에 따른 선택 제스처를 기초로 상기 제1 로봇팔(121)은 집도의의 왼손으로, 상기 제2 로봇팔(123)은 집도의의 오른손으로 제어권을 확보하도록 할 수 있다.
마찬가지로, 도 5(b)에서 보이는 바와 같이, 집도의가 제1 로봇팔(121)의 제어권은 집도의의 왼손으로, 제3 로봇팔(125)의 제어권은 집도의의 오른손으로 확보하고자 하는 경우, 집도의는 왼손은 손가락 하나를 펴고, 오른손은 손가락 3개를 편 제스처를 취할 수 있다.
상기 클러치 제스처는 상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 제스처로서, 상기 선택된 로봇팔을 레디(ready) 상태에서 조작(manipulation) 상태로 활성화하기 위한 제스처이다.
예를 들어, 도 6(a)에서 보이는 바와 같이, 집도의는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처를 취함으로써, 상기 클러치 제스처를 취할 수 있다.
상기 조작 제스처는 상기 선택된 로봇팔을 자유롭게 조작하기 위한 제스처이다.
예를 들어, 도 6(b)에서 보이는 바와 같이, 집도의는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처를 취함으로써, 상기 조작 제스처를 취할 수 있다.
상기 에너지 제스처는 상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 제스처이다.
예를 들어, 도 6(c)에서 보이는 바와 같이, 집도의는 모든 손가락을 한 점으로 모은 제스처를 취함으로써, 상기 에너지 제스처를 취할 수 있다.
한편, 상기 제어부(160)는 상기 손동작 인식부(150)에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환할 수 있다.
또한, 상기 제어부(160)는 상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환할 수 있다.
또한, 상기 제어부(160)는 상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 작동 제스처인 경우 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어할 수 있다.
또한, 상기 제어부(160)는 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시킬 수 있다.
여기서, 상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)이다.
또한, 상기 제어부(160)는 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환할 수 있다.
이때, 집도의는 상기 로봇팔의 움직임 없이 본의 자세만을 재조정할 수 있으며, 재조정된 자세에서 다시 상기 작동 제스처를 취함으로써 상기 로봇팔을 다시 제어할 수 있다.
즉, 집도의가 상기 조작 제스처를 취해 상기 로봇팔을 조작하다가 상기 클러치 제스처를 취하면, 집도의의 손 움직임은 더이상 상기 로봇팔에 반영되지 않으며(Deactivation), 집도의가 조작하기 편한 자세로 팔의 위치를 조정한 뒤 다시 작동 제스처를 취하면, 그때 다시 상기 로봇팔을 조작할 수 있다.
도 7은 로봇팔과 집도의 손의 좌표축 조정 과정과 로봇팔 조작 과정에서의 좌표축 정렬 관계를 나타내는 도면이다.
상기 로봇팔(120)은 환자의 체내에 직접적인 물리적 조작을 가할 수 있는 수술도구이므로 조작에 있어 환자의 안전이 우선시되어야 한다. 따라서, 안전한 로봇팔(120) 제어를 위해 로봇팔(120)과 집도의 손의 좌표축 조정(Frame Calibration)이 필요하다.
상기 좌표축 조정은 상기 로봇팔을 레디 상태에서 조작상태로 전환하는 경우 즉, 상기 손동작 인식부(150)에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 제어부(160)에 의해 수행될 수 있다.
도 7(a)에서 보이는 바와 같이, 집도의가 상기 클러치 제스처를 취한 경우 집도의 손의 좌표계는 Third Metacarpophalangeal(3rd MCP) Joint가 원점이며, 엄지 끝과 중지 끝의 중점에 이르는 방향이 손의 x축(xh축)이고, 엄지와 중지로 구성되는 평면의 검지 방향 법선 벡터가 손의 z축(zh축)이 되며, 오른나사의 법칙에 의해 y축이 결정될 수 있다.
마찬가지로, 도 7(b)에서 보이는 바와 같이, 상기 로봇팔(120)의 End-Effector의 좌표축 xe, ye, ze도 정의할 수 있으며, 상기 제어부(160)는 xh, yh, zh가 xe, ye, ze에 충분히 정렬되었다고 판단될 때, 상기 로봇팔을 레디 상태에서 조작 상태로 활성화시킨다.
예를 들어, 상기 좌표축의 정렬 여부는 Global Frame에 대한 손과 End-Effector의 회전행렬(Rotation Matrix)로부터 단위 사원수(Unit Quaternion)을 추산하여 두 수 간의 거리를 측정함으로써 판단할 수 있는데, 상기 제어부(160)는 상기 거리 차이가 특정 범위 안으로 들어올 때 상기 로봇팔을 레디 상태에서 조작 상태로 활성화시킬 수 있다.
상기 좌표축 조정은 집도의가 상기 클러치 제스처를 소정시간 동안 유지하는 경우 행해질 수 있다.
또한, 도 7(c)에서 보이는 바와 같이, 상기 제어부(160)는 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하는 경우, 집도의의 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시킬 수 있다.
이때, 상기 제어부(160)는 상기 조작 상태에서 집도의의 손이 상기 작동 제스처에서 기 설정된 범위 이상으로 벗어나는 경우 집도의의가 상기 로봇팔을 조작하고자 하는 의지가 없는 것으로 간주하여 레디 상태로 비활성화할 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 수술 로봇 제어 시스템을 나타내는 구성도이다.
도 8을 참조하면, 본 실시 예에 따른 수술 로봇 제어 시스템(100)은 집도의의 손동작으로 내시경(110)의 움직임까지 제어할 수 있도록 구성될 수 있으며, 이를 위해 상기 수술 로봇 제어 시스템(100)은 내시경(110)을 이동시키는 구동부(115)를 더 포함할 수 있다.
즉, 본 실시 예에 따른 수술 로봇 제어 시스템(100)은 소정의 절개부위(21)를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경(110), 상기 내시경(110)을 이동시키는 구동부(115), 소정의 절개부위(23,25,27)를 통해 수술공간으로 삽입되는 복수의 로봇팔(120), 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경(110)에서 촬영된 영상을 표시하는 헤드셋(130), 상기 헤드셋(130)에 구비되어 집도의의 손동작을 촬영하는 카메라(140), 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔(120)과 상기 구동부(115)를 제어하기 위한 제스처를 인식하는 손동작 인식부(150), 상기 손동작 인식부(150)에서 인식된 제스처를 기초로 상기 로봇팔(120)과 상기 구동부(115)를 제어하며, 상기 내시경(110)으로부터 영상정보를 수신하여 상기 헤드셋(130)으로 전송하는 제어부(160)를 포함할 수 있다.
상기 제스처는 상기 내시경(110)의 움직임을 조작하기 위한 내시경 제스처를 더 포함할 수 있다.
즉, 상기 제스처는 선택 제스처, 클러치(Clutch) 제스처, 조작(Manipulation) 제스처, 에너지(Energy) 제스처 및 내시경 제스처를 포함할 수 있다.
상기 선택 제스처, 상기 클러치 제스처, 상기 조작 제스처 및 상기 에너지 제스처에 대한 상세한 설명은 상기 실시 예에 따른 상세한 설명을 원용하며, 이하에서는 상기 내시경 제스처에 대해 상세히 설명한다.
도 9는 본 발명의 일 형태에 따른 내시경 제스처를 나타내는 도면이고, 도 10은 내시경 조작과 제어의 일 예를 나타내는 도면이다.
도 9를 참조하면, 집도의는 양손을 손등이 보이도록 완전히 편 제스처를 취함으로써, 상기 내시경 제스처를 취할 수 있다.
상기 제어부(150)는 상기 손동작 인식부(150)에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부(115)를 아이들 상태에서 레디 상태로 전환한다.
이때, 도 10(a)에서 보이는 바와 같이, 상기 구동부(115)가 레디 상태로 전환된 상태에서 집도의가 양손을 손등이 보이도록 완전히 편 상태에서 양손을 움직이면, 도 10(b)에서 보이는 바와 같이, 상기 제어부(150)는 상기 구동부(115)를 레디 상태에서 조작 상태로 전환한 후 상기 양손의 움직임에 따라 상기 내시경(110)이 움직이도록 상기 구동부(115)를 제어할 수 있다.
예를 들어, 도 10(a)에서 보이는 바와 같이, 집도의가 상기 내시경 제스처를 취한 후 양손을 움직임으로써 상기 구동부(115)가 레디 상태에서 조작 상태로 전환되어 활성화되는 순간 양손 사이 거리를 d1이라 하고, 손을 자유자재로 움직이며 도 10(a)에 표시된 각도와 양손 사이 중점의 변위 벡터, 그리고 양손 사이 나중 거리 d2를 구할 수 있다.
또한, 상기 내시경(110) 시야의 확대 및 축소는 환자의 체강 내 상기 내시경(110)의 투입 깊이와 관련이 있으며, d1, d2 사이의 차이를 통해 상기 내시경(110)의 투입 깊이의 증감을 계산할 수 있다.
이때, 상기 내시경(110) 시야의 평행이동은 양손의 중점의 변위 벡터와 평행한 방향으로 상기 내시경(110)이 움직이도록 상기 제어부(150)가 상기 구동부(115)를 제어함으로써 가능해질 수 있다.
또한, 상기 내시경(110)의 광축(Optical Axis)에 대한 회전은 왼손에서 오른손으로 향하는 벡터의 회전과 관련이 있으며, 상기 벡터의 회전 각도에 비례하여 Rolling Motion을 구현할 수 있다.
한편, 집도의가 상기 내시경 제스처를 다른 제스처로 바꾸는 경우 상기 제어부(160)는 상기 구동부(115)를 조작 상태에서 비활성화하여 아이들 상태로 전환한다.
이상에서 살펴본 바와 같이, 본 발명은 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템에 관한 것으로서, 그 실시 형태는 다양한 형태로 변경가능하다 할 것이다. 따라서 본 발명은 본 명세서에서 개시된 실시 예에 의해 한정되지 않으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 변경 가능한 모든 형태도 본 발명의 권리범위에 속한다 할 것이다.
100 : 수술 로봇 제어 시스템
110 : 내시경
120 : 로봇팔 121 : 제1 로봇팔
123 : 제2 로봇팔 125 : 제3 로봇팔
130 : 헤드셋 140 : 카메라
150 : 손동작 인식부 160 : 제어부

Claims (17)

  1. 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경;
    소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔;
    집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋;
    상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라;
    상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔을 제어하기 위한 제스처를 인식하는 손동작 인식부; 및
    상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔을 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함하고,
    상기 제스처는,
    상기 복수의 로봇팔 중 조작하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 선택 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 클러치 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 조작 제스처; 및
    상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 에너지 제스처;를 포함하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  2. 제 1 항에 있어서,
    상기 손동작 인식부는 상기 카메라에서 촬영된 사용자의 손동작 영상으로부터 손의 3차원 위치와 자세에 대한 정보를 얻은 후 손의 상태를 결정하기 위해 손의 해부학적인 특이지점들을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 선택 제스처는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현하는 제스처이고,
    상기 클러치 제스처는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처이고,
    상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 에너지 제스처는 모든 손가락을 한 점으로 모은 제스처인 것을 특징으로 하는 수술 로봇 제어 시스템.
  5. 제 1 항에 있어서,
    상기 제어부는
    상기 손동작 인식부에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환하며,
    상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환하며,
    상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 조작 제스처인 경우 상기 조작 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시키며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환하며,
    상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)인 것을 특징으로 하는 수술 로봇 제어 시스템.
  6. 제 5 항에 있어서,
    상기 제어부는 상기 로봇팔을 레디 상태에서 조작 상태로 전환하는 경우 상기 로봇팔과 집도의 손의 좌표축 조정을 수행하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  7. 제 5 항에 있어서,
    상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 제어부는 상기 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시키는 것을 특징으로 하는 수술 로봇 제어 시스템.
  8. 제 5 항에 있어서,
    상기 제어부는 상기 조작 상태에서 집도의의 손이 상기 조작 제스처의 기 설정된 범위 이상으로 벗어나는 경우 상기 로봇팔을 레디 상태로 전환하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  9. 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경;
    상기 내시경을 이동시키는 구동부;
    소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔;
    집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋;
    상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라;
    상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔과 상기 구동부를 제어하기 위한 제스처를 인식하는 손동작 인식부;
    상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔과 상기 구동부를 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함하고,
    상기 제스처는,
    상기 복수의 로봇팔 중 조작하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 선택 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 클러치 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 조작 제스처;
    상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 에너지 제스처; 및
    상기 내시경의 움직임을 조작하기 위한 내시경 제스처;를 포함하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  10. 제 9 항에 있어서,
    상기 손동작 인식부는 상기 카메라에서 촬영된 사용자의 손동작 영상으로부터 손의 3차원 위치와 자세에 대한 정보를 얻은 후 손의 상태를 결정하기 위해 손의 해부학적인 특이지점들을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  11. 삭제
  12. 제 9 항에 있어서,
    상기 선택 제스처는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현하는 제스처이고,
    상기 클러치 제스처는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처이고,
    상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 에너지 제스처는 모든 손가락을 한 점으로 모은 제스처이고,
    상기 내시경 제스처는 양손을 손등이 보이도록 완전히 편 제스처인 것을 특징으로 하는 수술 로봇 제어 시스템.
  13. 제 9 항에 있어서,
    상기 제어부는
    상기 손동작 인식부에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환하며,
    상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환하며,
    상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 조작 제스처인 경우 상기 조작 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시키며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환하며,
    상기 손동작 인식부에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부를 아이들 상태에서 레디 상태로 전환하며,
    상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)인 것을 특징으로 하는 수술 로봇 제어 시스템.
  14. 제 13 항에 있어서,
    상기 제어부는 상기 로봇팔을 레디 상태에서 조작 상태로 전환하는 경우 상기 로봇팔과 집도의 손의 좌표축 조정을 수행하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  15. 제 13 항에 있어서,
    상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 제어부는 상기 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시키는 것을 특징으로 하는 수술 로봇 제어 시스템.
  16. 제 13 항에 있어서,
    상기 제어부는 상기 조작 상태에서 집도의의 손이 상기 조작 제스처의 기 설정된 범위 이상으로 벗어나는 경우 상기 로봇팔을 레디 상태로 전환하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  17. 제 13 항에 있어서,
    상기 내시경 제스처는 양손을 손등이 보이도록 완전히 편 제스처이고,
    상기 제어부는
    상기 손동작 인식부에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부를 아이들 상태에서 레디 상태로 전환하며,
    상기 구동부가 레디 상태로 전환된 상태에서 집도의가 양손을 손등이 보이도록 완전히 편 상태에서 양손을 움직이면, 상기 구동부를 레디 상태에서 조작 상태로 전환한 후 상기 양손의 움직임에 따라 상기 내시경이 움직이도록 상기 구동부를 제어하는 것을 특징으로 하는 수술 로봇 제어 시스템.
KR1020210103374A 2021-08-05 2021-08-05 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템 KR102532351B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210103374A KR102532351B1 (ko) 2021-08-05 2021-08-05 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
PCT/KR2022/000256 WO2023013832A1 (ko) 2021-08-05 2022-01-06 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210103374A KR102532351B1 (ko) 2021-08-05 2021-08-05 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템

Publications (2)

Publication Number Publication Date
KR20230021471A KR20230021471A (ko) 2023-02-14
KR102532351B1 true KR102532351B1 (ko) 2023-05-15

Family

ID=85156060

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210103374A KR102532351B1 (ko) 2021-08-05 2021-08-05 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템

Country Status (2)

Country Link
KR (1) KR102532351B1 (ko)
WO (1) WO2023013832A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017033366A1 (ja) 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
KR101797169B1 (ko) * 2013-10-01 2017-11-13 에이비비 곰텍 게엠베하 제스처 컨트롤을 이용한 로봇 시스템 제어를 위한 방법과 제어 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
KR20150124009A (ko) * 2014-04-25 2015-11-05 한성대학교 산학협력단 손동작을 이용한 로봇 코칭 시스템
KR20190011137A (ko) * 2017-07-24 2019-02-01 아주대학교산학협력단 움직임 감지를 이용한 수술 영상화 시스템 제어 장치 및 방법
KR101825929B1 (ko) * 2017-11-24 2018-02-06 재단법인 구미전자정보기술원 수술로봇 조종을 위한 무구속의 3차원 손동작 모션 인식 시스템, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
WO2020221311A1 (zh) * 2019-04-30 2020-11-05 齐鲁工业大学 基于可穿戴设备的移动机器人控制系统及控制方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101797169B1 (ko) * 2013-10-01 2017-11-13 에이비비 곰텍 게엠베하 제스처 컨트롤을 이용한 로봇 시스템 제어를 위한 방법과 제어 장치
WO2017033366A1 (ja) 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム

Also Published As

Publication number Publication date
WO2023013832A1 (ko) 2023-02-09
KR20230021471A (ko) 2023-02-14

Similar Documents

Publication Publication Date Title
KR101772958B1 (ko) 최소 침습 원격조종 수술 기구를 위한 환자측 의사 인터페이스
US20220336078A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
Simorov et al. Review of surgical robotics user interface: what is the best way to control robotic surgery?
US10292780B2 (en) Haptic gloves and surgical robot systems
EP3651677B1 (en) Systems and methods for switching control between multiple instrument arms
US20220387128A1 (en) Surgical virtual reality user interface
JP7445377B2 (ja) 外科手術用ロボットを制御するための仮想コンソール
US20230225816A1 (en) Graphical user guidance for a robotic surgical system
CN114760903A (zh) 用于在外科手术期间控制图像捕获设备的方法、装置、以及系统
Cavusoglu Telesurgery and surgical simulation: Design, modeling, and evaluation of haptic interfaces to real and virtual surgical environments
US20220096164A1 (en) Systems and methods for facilitating optimization of an imaging device viewpoint during an operating session of a computer-assisted operation system
KR20110049703A (ko) 수술 로봇 시스템 및 그 복강경 조작 방법
KR102532351B1 (ko) 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
KR101114234B1 (ko) 수술 로봇 시스템 및 그 복강경 조작 방법
CN113272910A (zh) 使用索引到运动图片来训练用户
US20220378528A1 (en) Systems and methods for controlling a surgical robotic assembly in an internal body cavity
US20240074827A1 (en) Headset-based vision device for transmitting multiple medical images and providing surgical assist function
Mattos et al. Microsurgery systems
WO2023192465A1 (en) User interface interaction elements with associated degrees of freedom of motion
EP4143844A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
Breedveld et al. Observation and Manipulation in Laparoskopic Surgery
Dawson Design and Evaluation of A Contact-free Interface for Minimally Invasive Robotics Assisted Surgery
Polet et al. ERGONOMICS IN SURGERY
KR20160124057A (ko) 수술 로봇 시스템 및 그 복강경 조작 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant