KR101057702B1 - 수술용 로봇의 제어 방법 및 그 시스템 - Google Patents

수술용 로봇의 제어 방법 및 그 시스템 Download PDF

Info

Publication number
KR101057702B1
KR101057702B1 KR1020090030760A KR20090030760A KR101057702B1 KR 101057702 B1 KR101057702 B1 KR 101057702B1 KR 1020090030760 A KR1020090030760 A KR 1020090030760A KR 20090030760 A KR20090030760 A KR 20090030760A KR 101057702 B1 KR101057702 B1 KR 101057702B1
Authority
KR
South Korea
Prior art keywords
robot arm
end effector
surgical
information
robot
Prior art date
Application number
KR1020090030760A
Other languages
English (en)
Other versions
KR20100112310A (ko
Inventor
정지훈
전진홍
송동률
Original Assignee
의료법인 우리들의료재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 의료법인 우리들의료재단 filed Critical 의료법인 우리들의료재단
Priority to KR1020090030760A priority Critical patent/KR101057702B1/ko
Publication of KR20100112310A publication Critical patent/KR20100112310A/ko
Application granted granted Critical
Publication of KR101057702B1 publication Critical patent/KR101057702B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions

Abstract

본 발명은 최소한의 로봇팔을 이용하여 간단한 기구학적 위치 계산에 따라 로봇 수술도구를 환자의 수술 환부에 효율적이고 정확하게 접근할 수 있도록 하는 수술용 로봇의 제어 방법 및 그 시스템을 제공한다.
이를 위해 본 발명은 로봇팔의 초기 위치 상태에서 해당 로봇팔을 수술 환부의 중심을 향하여 하강 이동시키고, 상기 로봇팔의 기구적인 하강 이동 위치를 읽어서 앤드 이펙터의 기구학적인 상대 위치를 계산하는 단계와, 현미경 카메라로부터 촬영되는 수술 환부의 2차원 영상 정보를 분석하여 상기 앤드 이펙터의 현재 위치를 산출하고, 상기 기구학적인 상대 위치를 상기 현미경 카메라의 2차원 촬영 영상정보로부터 얻어지는 앤드 이펙터의 현재 위치를 기준으로 보정하는 단계, 상기 수술 환부 중심으로의 하강 경로 상에 배치된 변위 센서 모듈을 통해 상기 로봇팔이 통과되도록 하고, 상기 변위 센서 모듈로부터 검출되는 로봇팔의 이동변위 검출 정보를 분석하여 상기 앤드 이펙터의 현재 위치를 산출하는 단계, 상기 현미경 카메라의 2차원 촬영 영상 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보와, 상기 변위 센서 모듈로부터 검출되는 이동변위 검출 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보를 근거로, 상기 앤드 이펙터의 기구학적인 상대 위치를 보정하는 단계를 포함하여 이루어진 것을 특징으로 한다.

Description

수술용 로봇의 제어 방법 및 그 시스템{Method and System for Controlling Microsurgery Robot}
본 발명은 수술용 로봇의 로봇팔에 대한 수술 환부로의 이동 위치 제어를 간편하고 효율적인 제어 방식에 따라 구현할 수 있도록 하는 수술용 로봇의 제어 방법 및 그 시스템에 관한 것이다.
일반적으로, 전통적인 외과 수술 방식은 외과 의사의 의료 기술에 전적으로 의존하여 외과 수술 도구를 다루는 외과 의사의 수작업에 의해 수술이 이루어지도록 되어 있는 바, 이는 외과 의사의 의료 기술 수준 및 경험에 크게 의존하여 진행되는 것이기에 각 의사 별로 수술 결과에 차이가 발생할 수 밖에 없고, 일정 수준의 의료 기술을 익히기 위해서는 다년간의 수술 트레이닝을 거쳐야 하는 불리함이 있었다.
이를 해소하기 위해, 최근에는 서보 기구에 의해 작동되는 로봇 기술을 외과적 수술 분야에 도입하여 서보기구적으로 작동되는 로봇팔에 수술도구를 부착하여 사용함으로써, 외과 의사의 개별적인 의료 기술에만 의존하지 않고 보다 향상된 수술 능력으로 수술을 집도할 수 있도록 보조하는 역할을 수행하도록 하고 있다.
이러한 로봇 기술을 적용한 수술 방식에서는 다수개의 로봇 수술도구를 사용하는 멀티포트(Multiport) 기반의 수술용 로봇이 사용되고 있는 바, 멀티포트 기반의 수술용 로봇의 경우에는 3차원의 가상 이미지 형태로 구현되어 화면 표시되는 모니터를 외과 의사가 주시하면서 서보 기구를 조작하여 각각의 로봇 수술도구에 대한 움직임을 제어할 수 있도록 되어 있다.
그러나, 이러한 멀티포트 기반의 수술용 로봇을 적용한 외가 수술 방식의 경우에는, 모니터 상에 구현되는 3차원의 가상 이미지를 외과 의사가 지속적으로 쳐다보면서 수술을 진행해야 하기 때문에 장시간 수술시 의사의 피로도가 가중되고 더 심하게는 멀미(Motion Sickness) 증상까지 보일 수 있다는 문제점이 있다.
더구나, 이러한 멀티포트 기반의 수술용 로봇의 경우에는 물리적인 직관과 평소의 수술 감각만을 가지고는 사용하기가 매우 어렵도록 되어 있끼 때문에, 여러개의 로봇 수술도구를 능숙하게 다루기 위해서는 장시간의 교육 시간이 소요될 뿐만 아니라, 수술용 로봇의 제어 시스템 측에서는 다수개의 로봇 수술도구의 위치 제어 및 조작 제어를 위해 복잡한 수학적 연산이 요구되고, 이를 위한 고성능의 컴퓨팅 기술이 접목되어야 하기 때문에 시스템의 개발 및 구매/유지비가 상승할 수 밖에 없다는 문제점이 있다.
또한, 멀티포트 기반 수술용 로봇은 여러개의 로봇 수술도구를 환자의 환부에 대해 사용하기 위해서 여러개의 구멍을 환자의 몸에 천공해야 하기 때문에, 효율적이고 신속함이 요구되는 외과 수술 분야에서 역효과로 작용한다는 문제점이 있다.
따라서, 본 발명은 상기한 종래의 문제점을 해결하기 위해 이루어진 것으로서, 그 목적은 최소한의 로봇팔을 이용하여 간단한 기구학적 위치 계산에 따라 로봇 수술도구를 환자의 수술 환부에 효율적이고 정확하게 접근할 수 있도록 하는 수술용 로봇의 제어 방법 및 그 시스템을 제공하는 것이다.
상기한 목적을 달성하기 위해 본 발명의 방법에 따르면, 앤드 이펙터(End Effector)가 부착된 로봇팔을 수술 환부에 접근시켜서 외과 수술을 진행하고, 현미경 카메라를 통해 수술 환부를 촬영하는 수술용 로봇의 제어 방법에 있어서, 상기 로봇팔의 초기 위치 상태에서 해당 로봇팔을 수술 환부의 중심을 향하여 하강 이동시키고, 상기 로봇팔의 기구적인 하강 이동 위치를 읽어서 앤드 이펙터의 기구학적인 상대 위치를 계산하는 단계와, 상기 현미경 카메라로부터 촬영되는 수술 환부의 2차원 영상 정보를 분석하여 상기 앤드 이펙터의 현재 위치를 산출하고, 상기 기구학적인 상대 위치를 상기 현미경 카메라의 2차원 촬영 영상정보로부터 얻어지는 앤드 이펙터의 현재 위치를 기준으로 보정하는 단계, 상기 수술 환부 중심으로의 하강 경로 상에 배치된 변위 센서 모듈을 통해 상기 로봇팔이 통과되도록 하고, 상기 변위 센서 모듈로부터 검출되는 로봇팔의 이동변위 검출 정보를 분석하여 상기 앤드 이펙터의 현재 위치를 산출하는 단계, 상기 현미경 카메라의 2차원 촬영 영상 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보와, 상기 변위 센서 모듈로부터 검출되는 이동변위 검출 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보를 근거로, 상기 앤드 이펙터의 기구학적인 상대 위치를 보정하는 단계 및, 상기 앤드 이펙터의 상대 위치가 수술 환부에 접촉하는 위치로 도달하면, 상기 상대 위치를 해당 앤드 이펙터에 의해 수술이 가능한 위치로서 최종 결정하는 단계를 포함하여 이루어진 것을 특징으로 하는 수술용 로봇의 제어 방법을 제공한다.
상기한 목적을 달성하기 위해 본 발명의 시스템에 따르면, 앤드 이펙터가 부착된 로봇팔을 수술 환부에 접근시켜서 외과 수술을 진행하는 수술용 로봇의 제어 시스템에 있어서, 상기 앤드 이펙터가 부착된 로봇팔을 상기 수술 환부를 향하여 접근시키기 위해 해당 로봇팔을 회전 구동 및 상하 구동하는 로봇팔 구동 수단과, 상기 수술 환부에 상기 로봇팔이 접근하는 상태를 촬영하여 2차원 촬영 영상 정보를 제공하는 현미경 카메라, 상기 로봇팔이 상기 수술 환부 중심으로 하강하는 경로 상에 배치되어, 상기 앤드 이펙터 및 로봇팔의 배치 경로 통과 상태를 검출하여 이동변위 검출 정보를 제공하는 변위 센서 모듈 및, 상기 로봇팔의 초기 위치 상태에서 상기 로봇팔 구동 수단을 통해 해당 로봇팔을 수술 환부의 중심을 향하여 하강 이동시키고, 상기 로봇팔의 기구적인 하강 이동 위치를 읽어서 앤드 이펙터의 기구학적인 상대 위치를 계산하고, 상기 현미경 카메라의 2차원 촬영 영상 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보와, 상기 변위 센서 모듈로부터 검출되는 이동변위 검출 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보를 근거로, 상기 앤드 이펙터의 기구학적인 상대 위치를 보정하는 제어 수단을 포함하여 구성된 것을 특징으로 하는 수술용 로봇의 제어 시스템을 제공한다.
이상과 같이 본 발명에 따르면, 수술 도구가 부착된 로봇팔을 환자의 수술 환부를 향하여 접근시키는 경우에, 현미경 카메라로부터 촬영된 영상 이미지와 로봇팔의 위치를 검출하는 레이저 센서 모듈을 이용한 로봇팔의 이동 위치 계산에 따라 로봇팔의 수술 도구가 목표 환부에 정확하게 이동될 수 있도록 함에 따라, 복잡한 수학적 연산을 수행하지 않고서도 간단한 기구학적인 이동위치 결정 연산을 통해 로봇 수술 도구의 수술 환부 접근이 용이하게 이루어질 수 있고, 외과 의사가 모니터를 지속적으로 주시하면서 다수개의 로봇팔을 조작해야 할 필요가 없기 때문에 의사의 피로도를 경감시키는 것이 가능함과 더불어 장시간의 교육 기간이 요구되지 않기 때문에 교육 시간 및 교육 비용의 절감이 가능하다는 효과를 갖게 된다.
이하, 상기한 바와 같이 구성된 본 발명에 대해 첨부도면을 참조하여 상세히 설명한다.
즉, 도 1은 본 발명에 따른 수술용 로봇의 제어 시스템에 대한 전체 구성을 나타낸 도면이다.
도 1에 도시된 바와 같이, 본 발명에 따른 수술용 로봇의 제어 시스템은, 2개의 로봇팔(10,12)과, 앤드 이펙터(End Effector)(14,16), 현미경 카메라(18), 현미경 마운트(20), 로봇팔 마운트(22), 로봇팔 제어장치(24), 레이저 센서 모듈(26), 원격기능 입력부(28), 비디오 모니터(30), 호스트 컴퓨터(32)로 구성된다.
상기 2개의 로봇팔(10,12)은 각각의 종단에 앤드 이펙터(14,16)가 부착되어 있고서, 상기 현미경 마운트(20)를 통해 상기 로봇팔 마운트(22)에 회전 이동 및 상하 이동 가능하게 결합되어 있다.
상기 2개의 앤드 이펙터(14,16)는 상기 각 로봇팔(10,12)의 종단에 부착되고서 환자의 수술 환부와 직접 접촉하여 수술을 진행하는 수술 도구로서, 이는 상기 원격기능 입력부(28)를 통한 외과 의사의 입력 조작에 따라 유압/공압에 의해 동작하여 관절 구동(즉, 수술 도구의 손목 구동) 및 그립(Grip) 구동(즉, 수술 도구의 오므렸다 폈다 하는 동작)으로 수술 동작을 수행한다.
상기 현미경 카메라(18)는 상기 로봇팔(10,12)의 앤ㄱ드 이펙터(14,16)가 수술 환부에 접근하는 상태 및 환자의 환부 부위를 촬영하기 위한 것으로서, 통상적인 현미경의 틸팅 및 포커싱 구동을 통해 환부를 촬영할 수 있도록 되어 있다.
상기 현미경 마운트(20)는 상기 현미경 카메라(18)를 하부에 부착함과 더불어, 상기 로봇팔(10,12)을 부착하고서, 상기 로봇팔 마운트(22)의 동작에 따라 상기 로봇팔(10,12)을 회전 이동 및 상하 이동시키기 위한 것이다.
상기 로봇팔 마운트(22)는 상기 로봇팔 제어장치(24)의 구동 제어에 따라 모터 구동을 수행하여 상기 로봇팔(10,12)이 부착된 현미경 마운트(20)를 회전 이동 및 상하 이동시키도록 되어 있다.
상기 로봇팔 제어장치(24)는 상기 현미경 카메라(18)로부터 촬영된 2차원 영상 이미지의 분석 정보와 상기 레이저 센서 모듈(26)에 의해 검출되는 앤드 이펙터(14,16)의 위치검출 정보를 근거로 상기 로봇팔(10,12)에 대해 기구학적으로 계산된 상대위치를 비교하여 실질적인 환부 접근 위치에 근사하도록 현미경 카메라의 촹영 영상 및 레이저 센서 모듈의 검출 정보를 기준으로 위치정보를 매핑(Mapping) 및 리스케일링(Rescaling) 처리하고, 그 결과에 따라 상기 로봇팔 마운트(22)의 모터 구동 상태 및 상기 로봇팔(10,12)의 모터 구동 상태를 제어한다.
또한, 상기 로봇팔 제어장치(24)는 상기 로봇팔(10,12)의 회전 구동 및 상하 구동을 통해 앤드 이펙터(141,6)를 수술 환부로 접근시키는 때에, 해당 앤드 이펙터(14,16)의 수술 환부로의 접근 변위 상태가 가시적으로 확인될 수 있도록 하는 변위 표시 정보를 생성하여 상기 비디오 모니터(30)에 제공한다.
상기 레이저 센서 모듈(26)은 다수개의 레이저 센서가 일정 간격을 따라 행열 방향으로 규칙적으로 배열되어 레이저광을 서로 교차되게 발사하도록 되어 있는 것으로서, 상기 앤드 이펙터(14,16) 및 로봇팔(10,12)이 해당 레이저 센서의 행렬 배열 사이의 레이저광 교차 발생 부위를 접촉하여 통과하는 상태를 검출하여 그 검출 정보를 상기 로봇팔 제어장치(24)에 제공한다.
상기 원격기능 입력부(28)는 로봇팔(10,12)의 앤드 이펙터(14,16)를 환자의 수술 환부로 접근하기 위한 기능 입력 조작 및 수술 환부에서의 수술 집도를 위한 앤드 이펙터(14,16)의 관절 구동 및 그립 구동을 조종하기 위한 기능 입력을 유선 또는 무선 방식으로 원격 조작에 의해 수행하기 위한 것이다.
상기 비디오 모니터(30)는 상기 로봇팔 제어장치(24)로부터 상기 현미경 카메라(18)로부터 촬영된 2차원의 탑 뷰(Top View) 영상 이미지 정보를 제공받아 화면 표시함과 더불어, 상기 앤드 이펙터(14,16)가 수술 환부에 접근하는 정도를 나타내는 변위 표시 정보를 제공받아 화면 표시한다.
상기 호스트 컴퓨터(32)는 상기 로봇팔 제어장치(24)로부터의 로봇팔(10,12)의 수술 환부 접근을 위한 이동 변위 정보와 수술 환부에서의 수술 집도에 따른 앤드 이펙터(14,16)의 구동 정보를 제공받아 데이터베이스에 저장하여 관리한다.
한편, 상기 로봇팔(10,12)과, 앤드 이펙터(14,16), 현미경 카메라(18), 레이저 센서 모듈(26)은 상기 로봇팔 제어장치(24)와 I/O 버스, USB, RS 232c 등과 같은 유선 통신 수단 또는, IR 적외선 통신, 블루투스(Bluetooth), 지그비(ZigBee), RFID(Radio Frequency Identification) 등의 무선 통신 수단에 의해 연결되어 유선 통신 또는 무선 통신으로 정보를 송수신할 수 있도록 되어 있다.
그 다음에, 도 2는 본 발명에 따른 수술용 로봇 제어 시스템에 적용되는 제어 장치의 구성을 나타낸 도면이다.
도 2에 도시된 바와 같이, 상기 로봇팔 제어장치(24)는 원격신호 수신부(40)와, 비디오신호 처리부(42), 입출력 포트(44), 프로그램 메모리(46), 데이터 메모리(48), 센서신호 처리부(50), 마이크로 프로세서(52), 모터 구동부(54)를 포함하여 구성된다.
상기 원격신호 수신부(40)는 상기 원격기능 입력부(28)로부터의 로봇팔(10,12) 및 앤드 이펙터(14,16) 조작을 위한 원격 기능 입력 신호를 수신받아 상기 마이크로 프로세서(52)에 제공하는 것으로서, 상기 원격 기능 입력부(28)와 유선 연결되어 원격 기능 입력 신호를 유선으로 입력받거나, 적외선 방식 또는 초음파 방식 등과 같은 무선 신호 전송 방식으로 원격 기능 입력 신호를 무선으로 입력받게 된다.
상기 비디오신호 처리부(42)는 상기 현미경 카메라(18)로부터 촬영된 2차원의 탑 뷰(Top View) 영상 정보를 비디오신호 처리하여 상기 비디오 모니터(30)에 제공하고, 상기 마이크로 프로세서(52)의 제어에 따라 상기 앤드 이펙터(14,16)의 수술 환부 접근을 위한 이동 변위의 표시 정보를 생성하여 상기 비디오 모니터(30)에 제공한다.
상기 입출력 포트(44)는 상기 로봇팔(10,12)의 수술 환부 접근을 위한 이동 변위 정보와 수술 환부에서의 수술 집도에 따른 앤드 이펙터(14,16)의 구동 정보를 상기 호스트 컴퓨터(32)에 제공한다.
상기 프로그램 메모리(46)는 상기 원격기능 입력부(28)의 기능 입력에 따른 외과 의사의 수동 조작을 근거로 상기 로봇팔(10,12)이 수술 환부로 정확한 접근이 이루어지도록 이동 위치 결정을 수행하기 위한 기구학적인 상대위치의 계산과, 2차원 촬영 영상 정보의 영상 이미지 분석에 따른 선형위치 산출, 레이저 센서의 검출 정보에 따른 이동 변위의 계산을 위한 제어연산 프로그램이 저장되어 있다.
상기 데이터 메모리(48)는 로봇팔(10,12)의 수술 환부로의 접근에 대해 기구학적으로 계산되어 결정되는 상대 위치 정보와, 현미경 카메라(18)로부터 촬영되는 2차원 영상 정보와 레이저 센서 모듈(26)로부터의 로봇팔(10,12)의 이동 변위 검출 정보에 근거한 이동 변위의 보정 정보를 저장한다.
상기 센서신호 처리부(50)는 상기 레이저 센서 모듈(26)로부터의 앤드 이펙터(141,6) 및 로봇팔(10,12)에 대한 이동 상태 검출에 따른 검출 신호를 입력받아 센서 신호의 디지털 신호 처리를 거쳐서 수술 환부로의 이동 변위를 검출한 검출 정보로서 상기 마이크로 프로세서(52)에 제공한다.
상기 마이크로 프로세서(52)는 상기 원격신호 수신부(40)를 통해 상기 원격기능 입력부(28)로부터의 원격기능 입력신호를 입력받아 외과 의사의 수동 조작에 의한 로봇팔(10,12) 및 앤드 이펙터(14,16) 조종 동작에 따라 해당 로봇팔(10,12) 및 앤드 이펙터(14,16)를 환자의 수술 환부에 접근시켜서 외과적인 수술이 가능하도록 하는 것으로서, 상기 프로그램 메모리(46)로부터의 제어연산 프로그램을 구동하여 상기 로봇팔(10,12)의 위치 이동에 따라 기구학적인 계산을 거쳐서 앤드 이펙터(14,16)의 상대 위치를 결정하도록 하고, 상기 앤드 이펙터(14,16)의 상대 위치에 대해 상기 현미경 카메라(18)로부터 촬영된 2차원 영상 정보와 상기 레이저 센서 모듈(26)로부터 검출되는 로봇팔(10,12) 및 앤드 이펙터(14,16)의 이동 변위 검출 정보를 근거로 이동 위치 데이터의 매핑 처리 및 리스케일링 처리와 같은 보정 처리를 수행한다.
여기서, 상기 앤드 이펙터(14,16)의 위치 이동에 대한 기구학적인 상대 위치의 계산은, 상기 모터 구동부(54)에 의한 모터 구동에 따라 피드백되는 모터 구동 정보를 근거로 환산되는 이동 시간축(Time Series) 정보와, 이동 속도 정보, 가속도 정보, 이동 거리 정보를 종합적으로 연산하여 산출되는 것으로서, 상기 앤드 이펙터(14,16)가 초기 출발 위치로부터 상기 레이저 센서 모듈(26)을 통과하여 환자의 수술 환부에 접촉하기까지 지속적으로 계산되어 산출된다.
한편, 상기 마이크로 프로세서(52)는 상기 현미경 카메라(18)로부터 촬영되는 2차원 환부 영상 정보를 상기 비디오신호 처리부(42)를 통한 비디오신호 처리를 통해 영상 이미지 분석하여 상기 앤드 이펙터(14,16)의 이동 위치를 추정할 수 있도록 되어 있다.
즉, 도 3a에 도시된 바와 같이 상기 현미경 카메라(18)로부터 초기에 촬영되는 2차원 영상 정보에서 촬영된 환부에 대해 초기 환부 영상(B1)을 결정하고, 그 초기 환부 영상(B1)의 임의의 점을 초기 검출점(P1)으로 결정한 상태에서, 로봇팔의 위치 이동에 따라 해당 로봇팔의 이동과 연동되는 상기 현미경 카메라(18)로부터 촬영되는 2차원 영상 정보를 획득하여 영상 이미지 분석을 지속적으로 수행한다.
그 상태에서, 도 3b에 도시된 바와 같이 상기 마이크로 프로세서(52)는 상기 현미경 카메라(18)의 이동 위치가 환부와 가까워짐에 따라 상기 초기 환부 영상(B1)으로부터 확대되어 나타나는 확대된 환부 영상(B2)이 획득되면, 상기 초기 검출점(P1)으로부터 환부 영상(B2)의 확대에 따라 이동되어 나타나는 이동 검출점(P2)까지의 이동 거리(d)를 검출하고, 상기 이동 거리(d)를 환산하여 상기 로봇팔에 부착되어 있는 앤드 이펙터(14,16)의 이동 위치를 추정할 수 있도록 하게 되는 바, 초기 위치로부터 환부와의 절대 거리를 알고 있고, 상기 로봇팔의 이동 속도를 미리 알고 있기 때문에 상기 이동 거리(d)를 이용한 앤드 이펙터(14,16)의 이동 위치에 대한 파악이 가능하다. 상기 환부 영상에 대해 임의로 지정되는 검출점은 예시를 위해 단일개가 지정되도록 하고 있지만, 본 발명은 이에 한정되지 않고 적어도 2개 이상을 지정하여 사용할 수 있도록 한다.
또한, 상기 마이크로 프로세서(52)는 상기 앤드 이펙터(14,16)의 위치 이동 에 따른 상대 위치의 변위 표시 정보를 생성하여 상기 비디오신호 처리부(42)를 통한 비디오 신호 처리를 거쳐서 상기 비디오 모니터(30) 상에 구현되도록 한다.
상기 모터 구동부(54)는 상기 마이크로 프로세서(52)로부터의 모터 구동 제어에 따라 구동 동작하여 상기 현미경 카메라(18)의 틸팅 및 포커싱을 위한 모터 구동과, 로봇팔 마운트(22)에 의한 로봇팔(10,12)의 회전, 상하 이동을 위한 모터 구동, 상기 로봇팔(10,12) 자체의 회전, 상하 이동을 위한 모터 구동, 상기 앤드 이펙터(14,16)의 관절 이동 동작, 그립 동작을 위한 모터 구동이 이루어지도록 하고, 상기 로봇팔(10,12)의 수술 환부로의 접근을 위한 회전 구동 및 상하 구동에 따른 모터 구동 정보를 피드백 데이터로서 상기 마이크로 프로세서(52)에 제공한다.
한편, 상기 로봇팔 마운트(22)에는, 상기 로봇팔(10,12)이 결합되어 있는 현미경 마운트(20)를 상/하 방향으로 이동시켜서 앤드 이펙터(14,16)를 부착한 로봇팔(10,12)을 수술 환부 측으로 이동시키기 위한 로봇팔 마운트 상하 구동모터(58)와, 상기 로봇팔(10,12)이 결합되어 있는 현미경 마운트(20)를 360° 회전 구동하기 위한 로봇팔 마운트 회전 구동모터(60)가 마련되어 있다.
상기 현미경 마운트(20)에는 상기 현미경 카메라(18)를 틸팅 및 포커싱 구동하기 위한 현미경 구동모터(56)가 마련되어 있다.
상기 각 로봇팔(10,12)에는 해당 로봇팔(10,12)을 유압/공압 조작에 의해 상/하 방향으로 구동시켜서 해당 로봇팔(10,12)이 수술 환부 측으로 접근되도록 하는 로봇팔 상하 구동모터(62)와, 상기 앤드 이펙터(14,16)가 부착된 로봇팔(10,12)을 유압/공압 조작에 의해 360° 회전 구동시키기 위한 로봇팔 회전 구동모터(64)가 마련되어 있다.
상기 앤드 이펙터(14,16)에는 링키지 와이어(Linkage Wire)의 조작으로 해당 앤드 이펙터(14,16)의 관절 부위를 움직이기 위한 앤드이펙터 관절 구동모터(66)와, 링키지 와이어의 조작으로 해당 앤드 이펙터(14,16)의 수술 도구 부위를 움직이기 위한 앤드이펙터 그립 구동모터(68)가 마련되어 있다.
그 다음에, 도 4는 본 발명에 따른 수술용 로봇팔의 구동 구조를 개략적으로 나타낸 도면이다.
도 4에 도시된 바와 같이, 상기 로봇팔 마운트(22)의 내부에는 상기 로봇팔 마운트 상하 구동모터(58)의 회전축과 연결되고서 피니언 기어가 형성되어 있는 회전 롤러(72)와, 상기 회전 롤러(72)의 피니언 기어와 맞물려서 동작되는 래크 기어가 형성되고서, 회전 롤러(72)의 상/하 방향 이동 경로를 제공하는 안내 레일(70), 상기 로봇팔 마운트 상하 구동모터(58)와 상기 로봇팔 마운트 회전 구동모터(60)가 고정적으로 부착되고서, 상기 로봇팔 마운트 상하 구동모터(58)의 구동에 따라 회전 롤러(72)가 상/하 동작되면서 연동되어 상기 로봇팔 마운트 회전 구동모터(60)를 상/하 이동시키는 이동 프레임(74)이 구성되어 있다.
또한, 상기 로봇팔 마운트 회전 구동모터(60)의 회전축에는 상기 현미경 마운트(20)가 연결되어 있어서, 상기 이동 프레임(74)의 상/하 이동에 따라 연동되어 해당 현미경 마운트(20) 및 로봇팔(10,12)이 상/하 방향으로 이동되도록 되어 있고, 해당 로봇팔 마운트 회전 구동모터(60)의 회전 구동에 따라 상기 현미경 마운 트(20) 및 로봇팔(10,12)이 회전될 수 있도록 한다.
한편, 상기 로봇팔(10,12)을 상하 구동시키기 위한 로봇팔 상하 구동모터(62)와, 회전 구동시키기 위한 로봇팔 회전 구동모터(64)는 해당 로봇팔(10,12)의 내부에 장착되어 있고, 각 모터에 의해 구동력을 받아 동작되는 유압/공압 기구도 함께 내장되어 있는 것으로서, 모터 및 유압/공압 기구의 내장 구조 및 작용 관계는 통상적인 구성으로서 그에 대한 상세한 설명은 생략하기로 한다.
또한, 상기 앤드 이펙터(14,16)의 관절 부분을 구동시키기 위한 앤드이펙터 관절 구동모터(66)와, 그립 부분을 구동시키기 위한 앤드이펙터 그립 구동모터(68)는, 해당 앤드 이펙터(14,16)와 연결된 로봇팔(10,12) 내부에 내장되어 있고, 각 모터와 연결된 링키지 와이어도 내부에 내장되어 있는 것으로서, 모터 및 링키지 와이어의 구조 및 작용 관계는 통상적인 구성으로서 그에 대한 상세한 설명은 생략하기로 한다.
한편, 도 5a 내지 도 5c는 본 발명에 따른 레이저 센서 모듈의 구성을 나타낸 도면으로서, 상기 레이저 센서 모듈(26)은 상/하 부위가 연통되어 있는 사각 형상의 프레임 박스 내측에 행방향으로 레이저 광을 발생하는 다수의 행방향 레이저 발생부(80)와, 각 행방향 레이저 발생부(80)에 대향하는 행방향 위치에서 행방향 레이저 발생부(80)로부터 발생되는 레이저광을 수광하는 다수의 행방향 레이저 수신부(82), 사각 형상의 프레임 박스 내측에 열방향으로 레이저 광을 발생하는 다수의 열방향 레이저 발생부(84), 각 열방향 레이저 발생부(84)에 대향하는 열방향 위치에서 열방향 레이저 발생부(84)로부터 발생되는 레이저광을 수광하는 다수의 열 방향 레이저 수신부(86)를 포함하고 있다.
상기 각 행방향 레이저 발생부(80)와, 행방향 레이저 수신부(82), 열방향 레이저 발생부(84), 열방향 레이저 수신부(86)는, 해당 레이저 센서 모듈(26)의 프레임 박스의 길이 방향을 따라 일정 간격이 되도록 규칙적으로 배열되어 있고, 해당 프레임 박스의 폭방향을 따라 적어도 2층 이상의 다층으로 배열되어 있다.
또한, 상기 행방향 레이저 발생부(80)로부터 발생되는 레이저광과, 상기 열방향 레이저 발생부(84)로부터 발생되는 레이저광은 서로 교차되도록 발생되고, 다층의 배열 형상에 따라 각각의 배열층 별로 서로 교차되는 레이저광의 배열층이 형성된다.
상기 레이저 센서 모듈(26)은 도 6a에 도시된 바와 같이, 상기 앤드 이펙터(14,16)가 서로 교차되도록 발생되는 레이저광의 배열층에 아직 도달되지 않은 상태에서는 해당 앤드 이펙터(14,16)에 대한 이동 변위의 검출 신호를 발생하지 않게 되고, 상기 마이크로 프로세서(52)에서는 상기 현미경 카메라(18)로부터 촬영되는 수술 환부(100)의 2차원 촬영 영상 정보만을 가지고 상기 로봇팔(10,12)에 대한 기구학적인 상대위치의 보정을 수행하게 된다.
또한, 도 6b에 도시된 바와 같이, 상기 앤드 이펙터(14,16)가 수술 환부(100) 측으로 이동하여 상기 레이저 센서 모듈(26)의 서로 교차 발생되는 레이저광의 배열층에 접촉하게 되면, 상기 레이저 센서 모듈(26)은 해당 앤드 이펙터(14,16)의 접촉으로 인한 레이저광의 미수광 영역을 검출한 검출신호를 발생하게 되고, 상기 마이크로 프로세서(52)는 상기 현미경 카메라(18)에 의해 촬영된 수술 환부(100)의 2차원 촬영 영상 정보와, 상기 레이저 센서 모듈(26)로부터의 센서 검출 정보를 근거로 하여 상기 로봇팔(10,12)에 대해 기구학적으로 계산된 상대 위치의 보정을 수행하게 된다.
또, 도 6c에 도시된 바와 같이, 상기 앤드 이펙터(14,16)가 상기 레이저 센서 모듈(26)을 통과하여 상기 수술 환부(100)를 향하여 계속적으로 접근하는 상태에서는, 상기 레이저 센서 모듈(26)은 해당 앤드 이펙터(14,16)가 다층으로 이루어진 복수의 레이저광 배열층을 순차적으로 통과함에 따른 검출 정보를 발생하게 되고, 상기 마이크로 프로세서(52)에서는 상기 앤드 이펙터(14,16)가 다층의 레이저광 배열층을 순차적으로 통과함을 검출한 센서 검출 정보를 근거로 하여 앤드 이펙터의 이동 시간축 정보, 이동 거리 정보, 이동 속도 정보, 가속도 정보를 산출하고, 해당 정보와 상기 현미경 카메라(18)에 의해 촬영된 수술 환부(100)의 2차원 촬영 영상 정보를 감안하여 상기 로봇팔(10,12)의 기구학적인 상대 위치의 보정을 운동학적 관성항법(Dead Reckoning)에 입각하여 진행한다.
한편, 상기 앤드 이펙터(14,16)가 수술 환부에 접근하는 상대 위치를 비디오 모니터(30) 상에 나타내기 위한 변위 표시 정보는 도 7에 도시된 바와 같이, 이등변 삼각형 형상의 그래픽 캐릭터가 수술 환부에 근접할수록 각 단계 별로 줄어들도록 표시함에 의해 외과 의사가 앤드 이펙터(14,16)의 수술 환부 접근 상태를 가시적으로 파악할 수 있도록 하고 있는 바, 환자의 수술 환부에 대응하는 베이스 그래픽 캐릭터(92) 상에 이동 변위 그래픽 캐릭터(90a∼90h)가 앤드 이펙터(14,16)의 수술 환부 접근 거리에 대응하여 점차적으로 줄어드는 형상으로 표시되도록 한다.
상기 비디오 모니터(30)의 표시 화면 상에서는, 도 8에 도시된 바와 같이 상기 현미경 카메라(18)로부터 촬영된 2차원 화면 영상(94)이 화면 표시되는 상태에서, 이동 변위 그래픽 캐릭터(90a∼90h)가 일측 화면 상에 표시되도록 하고, 앤드 이펙터(14,16)로부터 수술 환부까지의 절대 거리(96)가 mm 단위로 화면 상에 표시되도록 한다.
이어, 상기한 바와 같이 이루어진 본 발명의 동작에 대해 도 9a 및 도 9b의 플로우차트를 참조하여 상세히 설명한다.
먼저, 로봇팔 제어장치(24)의 마이크로 프로세서(52)는 프로그램 메모리(46)의 제어연산 프로그램을 구동하여 로봇팔(10,12)과 현미경 카메라(18)의 초기 상대위치를 결정하게 되고(단계 S10), 그 상태에서 상기 현미경 카메라(18)로부터 촬영된 수술 환부의 영상 이미지에 대한 영상 조정을 통해 현미경 카메라(18)의 촬영 위치가 환부의 중심에 일치되도록 하는 작업을 수행한다(단계 S11).
그 다음에, 상기 마이크로 프로세서(52)는 모터 구동부(54)를 구동 제어하여 로봇팔 마운트 상하 구동모터(58)와, 로봇팔 마운트 회전 구동모터(60), 로봇팔 상하 구동모터(62), 로봇팔 회전 구동모터(64)가 구동되도록 함으로써, 상기 현미경 카메라(18)가 부착된 현미경 마운트(20)와, 그 현미경 마운트(20)에 각각 부착된 로봇팔(10,12)이 환부의 중심을 향하여 하강 이동되도록 한다(단계 S12).
상기 모터 구동부(54)는 각 모터의 구동을 수행하면서 상기 로봇팔(10,12)의 수술 환부로의 접근을 위한 회전 구동 및 상하 구동에 따른 모터 구동 정보를 피드백 데이터로서 상기 마이크로 프로세서(52)에 제공하게 되고, 상기 마이크로 프로 세서(52)는 상기 프로그램 메모리(46)의 제어연산 프로그램을 통해서 상기 모터 구동 정보를 환산한 시간축 정보와, 변위 정보, 속도 정보, 가속도 정보에 의해 상기 로봇팔(10,12)의 하강 이동시마다 앤드 이펙터(14,16)에 대해 기구학적으로 계산된 상대 위치를 산출하게 된다.
그 상태에서, 상기 마이크로 프로세서(52)는 상기 현미경 카메라(18)로부터 촬영된 2차원 영상 정보를 분석하여 선형위치 산출하고서, 상기 2차원 영상 정보의 분석에 의해 얻어지는 앤드 이펙터(14,16)의 위치가 기구학적으로 계산된 상대 위치와 일치하는 지의 여부를 판단한다(단계 S13).
상기 판단 결과, 상기 마이크로 프로세서(52)는 상기 현미경 카메라(18)에 의해 촬여된 2차원 영상 정보의 분석에 의해 얻어지는 앤드 이펙터(14,16)의 현재 위치가 기구학적으로 계산된 상대 위치와 일치하지 않는다고 판단되면, 상기 상대 위치 정보를 현미경 카메라(18)의 2차원 촬영 영상 정보로부터 얻어지는 위치 정보를 기준으로 매핑 및 리스케일링 처리하여 상대 위치를 보정하는 작업을 수행한다(단계 S14).
하지만, 상기 현미경 카메라(18)로부터 촬영된 2차원 영상 정보로부터 얻어지는 앤드 이펙터(14,16)의 현재 위치가 기구학적으로 계산된 상대 위치와 일치한다고 판단되면, 센서신호 처리부(50)를 통해서 상기 레이저 센서 모듈(26)이 상기 앤드 이펙터(14,16)의 레이저 센서 도달을 검출하고 있는 지를 판단한다(단계 S15).
상기 레이저 센서 모듈(26)에서 상기 앤드 이펙터(14,16)의 레이저 센서 도 달 상태를 검출하고 있다고 판단되면, 상기 마이크로 프로세서(52)는 상기 모터 구동부(54)를 구동 제어하여 로봇팔 마운트 상하 구동모터(58)와, 로봇팔 마운트 회전 구동모터(60), 로봇팔 상하 구동모터(62), 로봇팔 회전 구동모터(64)의 구동에 의해 상기 로봇팔(10,12)이 상기 레이저 센서 모듈(26)을 통과하여 환부 중심을 햐향해 지속적으로 하강 이동되도록 하고, 상기 모터 구동부(54)로부터의 모터 구동 정보를 피드백 정보로서 제공받아서 앤드 이펙터(14,16)의 기구학적인 상대 위치를 운동학적 관성항법(Dead Reckoning)에 따라 계산하게 된다(단계 S16).
그 상태에서, 상기 마이크로 프로세서(52)는 상기 센서신호 처리부(50)의 센서신호 처리 결과를 통해 제공되는 레이저 센서 모듈(26)로부터의 이동 변위 검출 신호와, 상기 현미경 카메라(18)를 통해 촬영되는 수술 환부 측의 2차원 영상 정보를 근거로 앤드 이펙터(14,16)의 현재 위치를 산출하게 되는 바, 상기 레이저 센서 모듈(26)로부터 검출된 이동 변위 검출 정보와 상기 현미경 카메라(18)로부터 촬영된 2차원 영상 정보에 의해 얻어지는 앤드 이펙터(14,16)의 현재 위치가 기구학적으로 계산된 상대 위치와 일치하는 지의 여부를 판단한다(단계 S17).
상기 판단 결과, 상기 앤드 이펙터(14,16)의 위치가 기구학적으로 계산된 상대 위치와 일치하지 않는다고 판단되면, 상기 상대 위치 정보를 상기 레이저 센서 모듈(26)로부터 검출되는 앤드 이펙터(14,16) 및 로봇팔(10,12)의 이동 변위 검출 정보와, 상기 현미경 카메라(18)로부터 촬영되는 2차원 영상 정보에 의해 얻어지는 위치 정보를 기준으로 매핑하여 이동 위치를 보정하게 된다(단계 S18).
한편, 상기 판단 결과 상기 앤드 이펙터(14,16)의 현재 위치가 기구학적으로 계산된 상대 위치와 일치한다고 판단되면, 상기 앤드 이펙터(14,16)가 수술 환부에 접촉할때까지 상기 로봇팔(10,12)을 계속적으로 하강 이동시키게 되고(단계 S19), 해당 앤드 이펙터(14,16)의 현재 위치가 기구학적으로 계산된 상대 위치와 일치하는 지의 여부를 계속적으로 판단한 다음에(단계 S20), 일치하지 않게 되면 상기 레이저 센서 모듈(26)로부터 검출된 이동 변위 검출 정보 및, 현미경 카메라(18)의 2차원 촬영 영상 정보를 근거로 하여 상대 위치 정보를 매핑하여 이동 위치를 보정하게 된다(단계 S21).
그에 따라, 상기 마이크로 프로세서(52)는 상기 앤드 이펙터(14,16)가 수술 환부에 도달하게 되면 해당 앤드 이펙터(14,16)의 수술 환부에 대한 상대 위치를 최종적으로 결정함으로써, 해당 앤드 이펙터(14,16)를 사용하여 외과 수술이 가능한 상태를 최종적으로 결정하게 된다(단계 S22).
상기에서 본 발명의 특정한 실시예가 설명 및 도시되었지만, 본 발명이 당업자에 의해 다양하게 변형되어 실시될 가능성이 있는 것은 자명한 일이다. 이와 같은 변형된 실시예들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안되며, 본 발명에 첨부된 청구범위 안에 속한다고 해야 할 것이다.
도 1은 본 발명에 따른 수술용 로봇의 제어 시스템에 대한 전체 구성을 나타낸 도면,
도 2는 본 발명에 따른 수술용 로봇 제어 시스템에 적용되는 제어 장치의 구성을 나타낸 도면,
도 3a 및 도 3b는 본 발명에 따른 현미경 카메라의 촬영 영상에 대한 영상 이미지 분석에 의해 로봇팔의 이동 위치를 검출하는 상태를 예시적으로 나타낸 도면,
도 4는 본 발명에 따른 수술용 로봇팔의 구동 구조를 개략적으로 나타낸 도면,
도 5a 내지 도 5c는 본 발명에 따른 레이저 센서 모듈의 구성을 나타낸 도면,
도 6a 내지 도 6c는 본 발명의 바람직한 실시예에 따라 레이저 센서 모듈을 이용하여 앤드 이펙터(End Effector)를 갖춘 로봇팔의 이동 위치가 검출되는 상태를 예시적으로 보여주는 도면,
도 7은 본 발명의 바람직한 실시예에 따라 앤드 이펙터를 갖춘 로봇팔이 이동하여 환자의 수술 환부에 접근하는 상태를 가시적으로 보여주는 그래픽 캐릭터의 형태를 예시적으로 나타낸 도면,
도 8은 본 발명의 바람직한 실시예에 따라 비디오 모니터 상에 환자의 수술 환부에 대한 비디오 영상과 함께 앤드 이펙터를 갖춘 로봇팔의 수술 환부 접근 상 태가 가시적으로 화면 표시되는 일예를 나타낸 도면,
도 9a 및 도 9b는 본 발명에 따른 수술용 로봇의 제어 방법에 대한 동작을 설명하는 플로우차트이다.
<도면의 주요 부분에 대한 부호의 설명>
10,12:로봇팔, 14,16:앤드 이펙터(End Effector),
18:현미경 카메라, 20:카메라 마운트,
22:로봇팔 마운트, 24:로봇팔 제어 장치,
26:레이저 센서 모듈, 28:원격기능 입력부,
30:비디오 모니터, 32:호스트 컴퓨터,
40:원격신호 수신부, 42:비디오신호 처리부,
44:입출력 포트, 46:프로그램 메모리,
48:데이터 메모리, 50:센서신호 처리부,
52:마이크로 프로세서, 54:모터 구동부.

Claims (11)

  1. 앤드 이펙터(End Effector)가 부착된 로봇팔을 수술 환부에 접근시켜서 외과 수술을 진행하고, 현미경 카메라를 통해 수술 환부를 촬영하는 수술용 로봇의 제어 방법에 있어서,
    상기 로봇팔의 초기 위치 상태에서 해당 로봇팔을 수술 환부의 중심을 향하여 하강 이동시키고, 상기 로봇팔의 기구적인 하강 이동 위치를 읽어서 앤드 이펙터의 기구학적인 상대 위치를 계산하는 제1단계와;
    상기 현미경 카메라로부터 촬영되는 수술 환부의 2차원 영상 정보를 분석하여 상기 앤드 이펙터의 현재 위치를 산출하고, 상기 기구학적인 상대 위치를 상기 현미경 카메라의 2차원 촬영 영상정보로부터 얻어지는 앤드 이펙터의 현재 위치를 기준으로 보정하는 제2단계;
    상기 수술 환부 중심으로의 하강 경로 상에 배치된 변위 센서 모듈을 통해 상기 로봇팔이 통과되도록 하고, 상기 변위 센서 모듈로부터 검출되는 로봇팔의 이동변위 검출 정보를 분석하여 상기 앤드 이펙터의 현재 위치를 산출하는 제3단계;
    상기 현미경 카메라의 2차원 촬영 영상 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보와, 상기 변위 센서 모듈로부터 검출되는 이동변위 검출 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보를 근거로, 상기 앤드 이펙터의 기구학적인 상대 위치를 보정하는 제4단계; 및
    상기 앤드 이펙터의 상대 위치가 수술 환부에 접촉하는 위치로 도달하면, 상 기 상대 위치를 해당 앤드 이펙터에 의해 수술이 가능한 위치로서 최종 결정하는 제5단계를 포함하여 이루어진 것을 특징으로 하는 수술용 로봇의 제어 방법.
  2. 제 1 항에 있어서,
    상기 제1단계에서, 상기 앤드 이펙터의 기구학적인 상대 위치는, 상기 로봇팔을 하강 구동시키는 모터의 구동 정보를 피드백 정보로서 제공받아, 해당 모터 구동 정보를 근거로 환산되는 이동 시간축 정보와, 이동 속도 정보, 가속도 정보, 이동 거리 정보를 연산하여 산출되도록 이루어진 것을 특징으로 하는 수술용 로봇의 제어 방법.
  3. 제 1 항에 있어서,
    상기 제3단계에서, 상기 변위 센서 모듈에서 행방향 및 열방향으로 레이저광을 서로 교차하도록 발생하여 적어도 2층 이상의 레이저광의 배열층이 형성되도록 하는 단계와;
    상기 로봇팔의 하강 이동에 의한 상기 변위 센서 모듈의 레이저광 배열층으로의 앤드 이펙터 접촉 및 적어도 2층 이상의 레이저광 배열층 통과에 따라 , 상기 변위 센서 모듈에서 앤드 이펙터 및 로봇팔의 접촉으로 인한 레이저광의 미수광 영역을 검출한 검출신호를 발생하는 단계를 포함하여 이루어진 것을 특징으로 하는 수술용 로봇의 제어 방법.
  4. 제 1 항에 있어서,
    상기 제1단계 내지 제5단계는, 상기 앤드 이펙터의 상대 위치를 근거로 수술 환부까지의 접근 거리를 이동 변위 표시 정보로서 생성하여 비디오 모니터 상에 표시하도록 이루어진 것을 특징으로 하는 수술용 로봇의 제어 방법.
  5. 앤드 이펙터가 부착된 로봇팔을 수술 환부에 접근시켜서 외과 수술을 진행하는 수술용 로봇의 제어 시스템에 있어서,
    상기 앤드 이펙터가 부착된 로봇팔을 상기 수술 환부를 향하여 접근시키기 위해 해당 로봇팔을 회전 구동 및 상하 구동하는 로봇팔 구동 수단과;
    상기 수술 환부에 상기 로봇팔이 접근하는 상태를 촬영하여 2차원 촬영 영상 정보를 제공하는 현미경 카메라;
    상기 로봇팔이 상기 수술 환부 중심으로 하강하는 경로 상에 배치되어, 상기 앤드 이펙터 및 로봇팔의 배치 경로 통과 상태를 검출하여 이동변위 검출 정보를 제공하는 변위 센서 모듈; 및
    상기 로봇팔의 초기 위치 상태에서 상기 로봇팔 구동 수단을 통해 해당 로봇팔을 수술 환부의 중심을 향하여 하강 이동시키고, 상기 로봇팔의 기구적인 하강 이동 위치를 읽어서 앤드 이펙터의 기구학적인 상대 위치를 계산하고, 상기 현미경 카메라의 2차원 촬영 영상 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보와, 상기 변위 센서 모듈로부터 검출되는 이동변위 검출 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보를 근거로, 상기 앤드 이펙터의 기구학적인 상대 위치를 보 정하는 제어 수단을 포함하여 구성된 것을 특징으로 하는 수술용 로봇의 제어 시스템.
  6. 제 5 항에 있어서,
    상기 앤드 이펙터의 상대 위치를 근거로 수술 환부까지의 접근 거리를 이동 변위 표시 정보로서 화면 표시하는 비디오 모니터를 더 포함하여 구성되고,
    상기 제어 수단은 상기 앤드 이펙터에 대한 기구학적 상대 위치를 수술 환부까지의 접근 거리를 나타내는 변위 표시 정보로서 생성하여 상기 비디오 모니터에 제공하는 것을 특징으로 하는 수술용 로봇의 제어 시스템.
  7. 제 5 항에 있어서,
    상기 로봇팔 구동 수단은, 상기 로봇팔이 결합되어 있는 로봇팔 마운트를 상하 방향으로 구동하는 로봇팔 마운트 상하 구동모터와, 상기 로봇팔 마운트를 회전 구동하는 로봇팔 마운트 회전 구동모터, 상기 로봇팔에 내장되어 해당 로봇팔을 상하 방향으로 이동시키는 로봇팔 상하 구동 모터, 상기 로봇팔에 내장되어 해당 로봇팔을 회전 이동시키는 로봇팔 회전 구동모터, 상기 제어수단의 구동 제어에 따라 상기 각 구동모터를 구동시키는 모터 구동부를 포함하여 구성된 것을 특징으로 하는 수술용 로봇의 제어 시스템.
  8. 제 7 항에 있어서,
    상기 제어 수단은, 상기 모터 구동부로부터 상기 로봇팔을 수술 환부를 향하여 하강 구동시키는 모터의 구동 정보를 피드백 정보로서 제공받아, 해당 모터 구동 정보를 근거로 환산되는 이동 시간축 정보와, 이동 속도 정보, 가속도 정보, 이동 거리 정보를 연산함에 의해 앤드 이펙터의 기구학적인 상대 위치를 산출되도록 된 것을 특징으로 하는 수술용 로봇의 제어 시스템.
  9. 제 5 항에 있어서,
    상기 변위 센서 모듈은, 상/하 부위가 연통되어 있는 프레임 박스 내측에 행방향으로 레이저 광을 발생하도록 일정 간격으로 배열된 다수의 행방향 레이저 발생부와, 각 행방향 레이저 발생부에 대향하는 행방향 위치에서 행방향 레이저 발생부로부터 발생되는 레이저광을 수광하는 다수의 행방향 레이저 수신부, 프레임 박스 내측에 열방향으로 레이저 광을 발생하도록 일정 간격으로 배열된 다수의 열방향 레이저 발생부, 각 열방향 레이저 발생부에 대향하는 열방향 위치에서 열방향 레이저 발생부로부터 발생되는 레이저광을 수광하는 다수의 열방향 레이저 수신부를 포함하여 구성된 것을 특징으로 하는 수술용 로봇의 제어 시스템.
  10. 제 9 항에 있어서,
    상기 변위 센서 모듈의 각 행방향 레이저 발생부 및 수신부와, 열방향 레이저 발생부 및 수신부는 각각 행방향 및 열방향으로 레이저광이 서로 교차되도록 하는 위치에 각각 배열되고, 상기 레이저광의 교차 배열층이 적어도 2층 이상으로 형 성되도록 다층으로 배열된 것을 특징으로 하는 수술용 로봇의 제어 시스템.
  11. 제 5 항에 있어서,
    상기 제어 수단은, 상기 앤드 이펙터가 상기 변위 센서 모듈에 의해 검출되기 이전에 상기 현미경 카메라의 2차원 촬영 영상 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보를 근거로 앤드 이펙터의 상대 위치를 보정하고,
    상기 변위 센서 모듈에 의해 상기 앤드 이펙터 및 로봇팔이 검출된 이후부터 상기 현미경 카메라의 2차원 촬영 영상 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보와, 상기 변위 센서 모듈로부터 검출되는 이동변위 검출 정보로부터 얻어지는 앤드 이펙터의 현재 위치 정보를 모두 적용하여 앤드 이펙터의 상대 위치를 보정하도록 된 것을 특징으로 하는 수술용 로봇의 제어 시스템.
KR1020090030760A 2009-04-09 2009-04-09 수술용 로봇의 제어 방법 및 그 시스템 KR101057702B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090030760A KR101057702B1 (ko) 2009-04-09 2009-04-09 수술용 로봇의 제어 방법 및 그 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090030760A KR101057702B1 (ko) 2009-04-09 2009-04-09 수술용 로봇의 제어 방법 및 그 시스템

Publications (2)

Publication Number Publication Date
KR20100112310A KR20100112310A (ko) 2010-10-19
KR101057702B1 true KR101057702B1 (ko) 2011-08-18

Family

ID=43132260

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090030760A KR101057702B1 (ko) 2009-04-09 2009-04-09 수술용 로봇의 제어 방법 및 그 시스템

Country Status (1)

Country Link
KR (1) KR101057702B1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598773B1 (ko) * 2010-10-21 2016-03-15 (주)미래컴퍼니 수술용 로봇의 움직임 제어/보상 방법 및 장치
KR101181613B1 (ko) 2011-02-21 2012-09-10 윤상진 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법
KR101334007B1 (ko) * 2012-01-12 2013-11-27 의료법인 우리들의료재단 수술용 로봇제어 시스템 및 그 제어방법
KR101806195B1 (ko) 2012-07-10 2018-01-11 큐렉소 주식회사 수술로봇 시스템 및 수술로봇 제어방법
WO2014010941A1 (ko) * 2012-07-10 2014-01-16 현대중공업 주식회사 수술로봇 시스템 및 수술로봇 제어방법
KR101412513B1 (ko) * 2013-07-19 2014-06-26 (주)나임기술 프레임 그래버 보드를 이용한 로봇팔 제어시스템 및 그 방법
KR101635515B1 (ko) * 2014-10-08 2016-07-04 울산대학교 산학협력단 의료용 항법 장치
KR101709494B1 (ko) * 2015-07-08 2017-02-23 주식회사 삼육오엠씨네트웍스 시술 추적장치
JP6625421B2 (ja) 2015-12-11 2019-12-25 シスメックス株式会社 医療用ロボットシステム、データ解析装置、および、医療用ロボットの監視方法
CN114019990A (zh) * 2016-02-24 2022-02-08 深圳市大疆创新科技有限公司 用于控制可移动物体的系统和方法
JP7043570B2 (ja) * 2020-11-24 2022-03-29 シスメックス株式会社 医療用ロボットシステム、データ解析装置、および、医療用ロボットの監視方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204739A (ja) 2000-01-27 2001-07-31 Olympus Optical Co Ltd 顕微鏡下手術支援システム
JP2004500958A (ja) 2000-06-28 2004-01-15 デピュイ インターナショナル リミテッド 外科手術用器具を位置決めするための装置
JP2007260298A (ja) 2006-03-29 2007-10-11 Univ Waseda 手術支援ロボットの動作制御システム及び位置検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204739A (ja) 2000-01-27 2001-07-31 Olympus Optical Co Ltd 顕微鏡下手術支援システム
JP2004500958A (ja) 2000-06-28 2004-01-15 デピュイ インターナショナル リミテッド 外科手術用器具を位置決めするための装置
JP2007260298A (ja) 2006-03-29 2007-10-11 Univ Waseda 手術支援ロボットの動作制御システム及び位置検出装置

Also Published As

Publication number Publication date
KR20100112310A (ko) 2010-10-19

Similar Documents

Publication Publication Date Title
KR101057702B1 (ko) 수술용 로봇의 제어 방법 및 그 시스템
US11806101B2 (en) Hand controller for robotic surgery system
JP7295153B2 (ja) 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法
JP6938369B2 (ja) 定量的な3次元イメージングに基づく触覚フィードバックを用いる手術システム
JP6738481B2 (ja) ロボットシステムの動作の実行
EP2845556B1 (en) Surgical robot
JP5249343B2 (ja) ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法
CN103237633B (zh) 主操作输入装置以及主-从机械手
US11534246B2 (en) User input device for use in robotic surgery
US20120101508A1 (en) Method and device for controlling/compensating movement of surgical robot
JP2012171088A (ja) マスタ操作入力装置及びマスタスレーブマニピュレータ
US20230031641A1 (en) Touchscreen user interface for interacting with a virtual model
CN111603205A (zh) 用于穿刺手术机器人ct舱内三维影像重建和定位分析系统
JP7082090B2 (ja) 仮想インプラントを調整する方法および関連する手術用ナビゲーションシステム
US20230126611A1 (en) Information processing apparatus, information processing system, and information processing method
EP3973540A1 (en) Systems and methods for generating workspace volumes and identifying reachable workspaces of surgical instruments
US20230410499A1 (en) Visibility metrics in multi-view medical activity recognition systems and methods
US20230139425A1 (en) Systems and methods for optimizing configurations of a computer-assisted surgical system for reachability of target objects
US20230092980A1 (en) Surgical robotic system setup
US20230414307A1 (en) Systems and methods for remote mentoring
WO2023040897A1 (zh) 一种手术机器人的空间注册位姿计算方法和系统
US20240033005A1 (en) Systems and methods for generating virtual reality guidance
US20210259779A1 (en) Multi-camera user interface device calibration and tracking
TW202222270A (zh) 手術輔助系統及相關手術輔助方法
WO2023150449A1 (en) Systems and methods for remote mentoring in a robot assisted medical system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140625

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150810

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160810

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170810

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190610

Year of fee payment: 9