KR20100106308A - 로봇, 의료 작업장, 및 대상물의 표면에 영상을 투영하기 위한 방법 - Google Patents
로봇, 의료 작업장, 및 대상물의 표면에 영상을 투영하기 위한 방법 Download PDFInfo
- Publication number
- KR20100106308A KR20100106308A KR1020107010627A KR20107010627A KR20100106308A KR 20100106308 A KR20100106308 A KR 20100106308A KR 1020107010627 A KR1020107010627 A KR 1020107010627A KR 20107010627 A KR20107010627 A KR 20107010627A KR 20100106308 A KR20100106308 A KR 20100106308A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- robot
- organism
- projected
- distortion
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000001514 detection method Methods 0.000 claims description 5
- 238000002059 diagnostic imaging Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T74/00—Machine element or mechanism
- Y10T74/20—Control lever and linkage systems
- Y10T74/20207—Multiple controlling elements for single controlled element
- Y10T74/20305—Robotic arm
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Manipulator (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 로봇 (R), 의료 작업장, 및 대상물 (P) 의 표면에 영상 (20) 을 투영하기 위한 방법에 관한 것이다. 로봇 (R) 은 로봇암 (A) 과, 대상물 (P) 의 표면에 영상 (20) 을 투영하기 위한 장치 (18) 를 구비하며, 상기 장치는 로봇암 (A) 에 고정되어 있거나 또는 그 안에 통합되어 있다.
Description
본 발명은 로봇, 의료 작업장, 및 대상물의 표면에 영상을 투영하기 위한 방법에 관한 것이다.
예컨대 외과 의술에서는 컴퓨터에 기초를 둔 정보 시스템이 이용되며, 상기 정보 시스템은 생물체를 수술하는 외과 의사에게 정보를 제공한다. 상기 정보는 예컨대 생물체의 바이털 파라미터 (vital parameter), 위험 구조, 또는 수술을 위한 목표 위치일 수 있다. 상기 정보는 예컨대 정보 시스템의 디스플레이 장치를 통해 보여지고, 상기 정보 시스템은 상기 정보 시스템을 조작하기 위한 입력수단 (input means) 을 포함한다. 상기 디스플레이 장치를 통해 보여진 상기 정보로 인해 수술대와 상기 디스플레이 장치 간에, 경우에 따라서는 상기 입력수단 간에 외과 의사의 시선 교환이 필요하다.
따라서, 본 발명의 목적은 시각적인 정보의 용이한 검출을 위한 전제조건을 허용하는 장치를 제공하는 것이다.
본 발명의 목적은 로봇암과, 상기 로봇암에 고정되어 있거나 또는 그 안에 통합되어 있고 대상물의 표면에 영상을 투영하기 위한 장치를 구비한 로봇을 통해 달성된다.
또한, 본 발명의 목적은 하기의 방법단계를 구비한 대상물의 표면에 영상을 투영하기 위한 방법을 통해 달성된다:
로봇의 로봇암 안에 통합되어 있거나 또는 로봇암에 고정되어 있는 영상투영장치를 이용해 특히 생물체인 대상물의 표면에 영상을 투영하는 단계.
본 발명에 따른 방법 또는 본 발명에 따른 로봇은 특히 의료 분야를 위한 것일지라도, 의료 분야에서의 적용뿐만 아니라 예컨대 기계의 정비, 검사 또는 수리에서의 적용도 가능하다.
일반적으로, 로봇은 대상물을 자동으로 핸들링하기 위해 목적에 부합하는 공구를 갖추고 있고 다수의 운동축과 관련하여 특히 방향, 위치 및 작업 진행과 관련하여 프로그래밍 가능한 핸들링 기계이다. 로봇은 일반적으로 머니퓰레이터라고도 불리우는 로봇암과, 제어장치와, 경우에 따라서는 이펙터 (effector) 를 포함하며, 상기 이펙터는 예컨대 공구를 그립핑하기 위한, 또는 의료기술에서 적용되는 경우에는 의료기기를 부착시키기 위한 그립퍼로서 형성될 수 있다. 머니퓰레이터 또는 로봇암은 본질적으로 로봇의 이동식 부품이다. 로봇암은 특히 다수의 축을 구비하며, 상기 축들은 예컨대 전기 드라이브들을 이용해 예컨대 컴퓨터로서 실행되는 제어장치에 의해 작동된다.
특히 생물체인 대상물의 표면에 영상을 투영하기 위해, 본 발명에 따르면 영상투영장치가 로봇의 로봇암 안에 통합되어 있거나 또는 이에 고정되어 있다. 그러므로, 로봇암의 적절한 작동을 토대로 대상물의 표면에 영상을 투영하는 것이 비교적 간단한 방식으로 가능하다. 상기 영상투영장치는 특히 로봇의 이른바 공구 중심점 (Tool-Center-Point (TCP)) 의 근처에 통합될 수 있거나 또는 고정될 수 있다. 투영 위치는 예컨대 소프트웨어를 통해 선택될 수 있다.
본 발명에 따른 로봇의 실시형태에 따르면, 상기 로봇은 특히 로봇암에 고정되어 있거나 또는 로봇암 안에 통합되어 있는, 상기 대상물의 표면에 투영된 영상으로부터의 영상을 촬영하기 위한 장치를 구비하며, 이때 특히 상기 로봇의 데이터처리장치 (data processing device) 는 상기 영상촬영장치로 촬영된 상기 대상물의 표면에 투영된 영상으로부터의 영상에 할당되어 있는 영상 데이터 레코드 (image data record) 를 분석하도록 셋업되어 있다. 상기 대상물의 표면에 투영된 영상으로부터의 영상을 촬영하기 위한 상기 장치는 예컨대 카메라 또는 센서이며, 상기 센서는 특히 자발적으로 주변의 2.5 D 영상을 제공한다. 상기 영상촬영장치는 삼각대에, 벽에 또는 천장에 고정될 수도 있다.
예컨대 상기 투영된 영상이 특히 로봇의 상기 데이터처리장치의 가상 (virtual) 입력수단 (input means) 이거나 또는 그 밖의 데이터처리장치의 가상 입력수단이면, 본 발명에 따른 로봇의 변형에 따르면 특히 로봇의 상기 데이터처리장치는 상기 가상 입력수단의 작동을 인식하기 위해 사람의 몸짓에 관해 상기 영상 데이터 레코드를 분석하도록 셋업되어 있다. 상기 가상 입력수단은 예컨대 상기 투영된 영상을 이용해 상기 대상물의 표면에 묘사된 가상 조작요소들을 구비하며, 이때 상기 데이터처리장치는 사람이 상기 가상으로 묘사된 상기 조작요소들을 터치 (touch) 하는지의 여부를 알아내기 위해 예컨대 패턴 인식 알고리즘 (pattern recognition algorithm) 을 이용해 상기 영상 데이터 레코드를 분석한다. 이에 따라, 상기 영상 또는 상기 영상 데이터 레코드의 분석을 토대로 사람의 몸짓을 인식하는 것이 가능하고, 상기 몸짓을 상기 가상 입력수단의 조작으로 해석하는 것이 가능하다. 상기 대상물이 생물체이면, 특히 치료되어야 하는 환자이면, 예컨대 외과 의사 또는 일반의사는 무균 환경에서 상기 가상 입력수단을 작동시킬 수 있다.
본 발명에 따른 로봇의 그 밖의 실시형태에 따르면, 상기 로봇은 상기 대상물의 상기 표면의 표면 기하학에 의한 상기 투영된 영상의 왜곡 (distortion) 을 인식하기 위한 수단들을 구비하며, 상기 수단들은, 상기 투영된 영상의 왜곡을 적어도 부분적으로 보상 (compensate) 하도록 상기 영상투영장치를 작동시킨다. 왜곡이란 영상 높이, 즉 투영된 영상의 영상 중앙으로부터의 영상점 (image point) 의 간격이 상응하는 대상물점의 높이에 비선형 방식으로 좌우되는 것을 말한다. 묘사 척도가 상응하는 대상물점에 좌우된다고도 말할 수 있다. 예컨대, 왜곡은, 그의 영상이 상기 투영된 영상의 영상 중앙을 통과해 가지 않는 직선들이 만곡되어 묘사되도록 한다.
왜곡을 인식하기 위한 상기 수단들은 본 발명에 따른 로봇의 변형에 따르면 특히 로봇암 안에 통합되어 있거나 또는 로봇암에 고정되어 있는 상기 영상촬영장치와 상기 데이터처리장치를 포함하며, 상기 데이터처리장치는 이 실시형태에 따르면 상기 분석된 영상 데이터 레코드를 토대로 왜곡을 인식하도록 셋업되어 있다. 이는 예컨대 다음과 같이 실현될 수 있다: 투영된 영상으로부터의 영상에 할당된 영상 데이터 레코드는, 투영된 영상에 할당된 영상 데이터 레코드와 비교될 수 있다. 이를 통해, 왜곡을 검출하기 위해 스테레오 시스템이 생성된다. 그 후, 상기 투영된 영상의 역투영도는 상기 투영된 영상의 투영시 고려될 수 있고, 따라서 왜곡은 적어도 부분적으로 보상될 수 있다.
왜곡의 결정은 예컨대 영상을 투영하는 동안 수행될 수 있다. 하지만 왜곡의 결정은 기준영상 (reference image) 을 이용한 상기 영상투영장치의 캘리브레이션 (calibration) 과정 동안 실행될 수도 있다.
본 발명에 따른 로봇의 그 밖의 실시형태에 따르면, 상기 데이터처리장치는, 미리 생성된 그 밖의 영상 데이터 레코드, 특히 대상물로부터의 3차원 영상 데이터 레코드를 토대로 상기 투영된 영상의 왜곡을 적어도 부분적으로 보상하도록 상기 영상투영장치를 작동시키도록 셋업되어 있다. 상기 대상물이 생물체이면, 상기 대상물로부터의 상기 그 밖의 영상 데이터 레코드는 특히 의료용 영상장치, 특히 자기 공명 장치, 컴퓨터 단층촬영 장치, X-ray 장치 또는 초음파 장치를 이용해 생성될 수 있다.
본 발명에 따른 로봇은 특히 의료 작업장의 맥락에서 사용되기 위해 제공되어 있다. 본 발명에 따른 의료 작업장의 실시형태에 따르면, 상기 의료 작업장은 본 발명에 따른 로봇 이외에 생물체의 위치와 로봇의 위치를 검출하기 위한 네비게이션 시스템을 구비하며, 이때 로봇의 상기 데이터처리시스템은, 투영된 영상의 왜곡의 적어도 부분적인 보상시 로봇의 위치와 생물체의 위치가 고려되도록 상기 영상투영장치를 작동시키도록 셋업되어 있다. 이에 따라, 본 발명에 따른 의료 작업장의 이 변형은, 본 발명에 따른 방법을 위해 추가적으로 하기의 방법단계들이 실행될 수 있도록 실행된다:
- 특히 네비게이션 시스템을 이용해 로봇의 위치와 생물체의 위치를 검출하는 단계,
- 생물체의 상기 위치와 로봇의 상기 위치를 토대로, 또한 미리 생물체로부터 촬영된 영상 데이터 레코드를 토대로, 생물체의 표면에 투영된 영상의 예상될 수 있는 왜곡을 검출하는 단계,
- 로봇의 상기 위치와 생물체의 상기 위치를 토대로, 또한 생물체로부터의 상기 영상 데이터 레코드를 토대로, 상기 표면에 투영된 영상의 예상된 왜곡을 적어도 부분적으로 보상하는 단계.
의료기술, 특히 최소 침습 의료기술에서의 네비게이션 시스템은 특히 DE 199 51 503 B4 에 공지되어 있다. 네비게이션 시스템은 예컨대 로봇에 배치된 마커 (marker) 들과, 생물체에 배치되거나 또는 생물체가 누워 있는 환자용 침상에 배치된 마커들과, 상기 마커들을 검출하기 위한 장치를 포함한다. 상기 마커 검출장치는 예컨대 광학 장치, 예컨대 스테레오 카메라이다. 상기 마커 검출장치로 촬영된 마커들을 토대로, 네비게이션 시스템은 본질적으로 일반적으로 알려져 있는 방식으로 로봇의 위치와 생물체의 위치를 결정할 수 있다. 로봇의 상기 위치와 생물체의 상기 위치를 토대로, 또한 생물체로부터 촬영된 특히 상기 3차원 영상 데이터 레코드를 토대로, 상기 데이터처리장치는 투영된 영상의 예상된 왜곡을 계산할 수 있고, 상응하여 상기 영상투영장치를 설정할 수 있으며, 따라서 상기 예상된 왜곡은 적어도 부분적으로 보상된다.
상기 네비게이션 시스템의 상기 마커 검출장치는 투영된 영상으로부터의 영상을 촬영하기 위해 사용될 수도 있다. 그러면, 상기 영상에 할당된 영상 데이터 레코드는 왜곡을 인식하기 위한 수단을 위해서도 사용될 수 있다.
상기 네비게이션 시스템이 생물체의 위치를 결정하기 위해 치료 동안에도 사용되면, 예상될 수 있는 왜곡의 부분적인 보상은 환자의 움직임과 더불어 업데이트 (update) 될 수 있다. 이 보상은 예컨대 투영 장치 자체에 의해 실행될 수 있다.
하지만 본 발명에 따른 방법의 실시형태에 따르면, 상기 적어도 부분적인 보상은 로봇암이 생물체의 움직임에 상응하여 함께 안내됨으로써 업데이트된다.
이에 따라, 본 발명에 따른 로봇과 함께 또는 본 발명에 따른 방법과 함께 이른바 증강현실 (영어: Augmented Reality) 이 적용될 수 있다. 증강현실이란 일반적으로 컴퓨터에 기반을 둔 현실지각의 증강을 의미한다.
본 발명의 실시예들은 첨부된 개략적인 도면들에 도시되어 있다.
도 1 은 로봇을 나타내는 도이다.
도 2 는 도 1 의 로봇을 구비한 의료 작업장을 나타내는 도이다.
도 3 은 가상 입력수단을 나타내는 도이다.
도 4 는 의료용 영상장치를 나타내는 도이다.
도 2 는 도 1 의 로봇을 구비한 의료 작업장을 나타내는 도이다.
도 3 은 가상 입력수단을 나타내는 도이다.
도 4 는 의료용 영상장치를 나타내는 도이다.
도 1 은 로봇암 (A) 을 가진 로봇 (R) 을 나타내며, 상기 로봇암은 본 실시예의 경우 받침대 (S) 상에 고정되어 있다. 로봇암 (A) 은 본질적으로 로봇 (R) 의 이동식 부품이며, 다수의 축 (1 - 6) 과 다수의 레버 (7 - 10) 와 플랜지 (F) 를 포함하고, 상기 플랜지에는 예컨대 공구 또는 의료기기가 고정될 수 있다.
각각의 축 (1 - 6) 은 본 실시예의 경우 전기 드라이브를 이용해 움직여지며, 상기 전기 드라이브들은 도시되어 있지 않은 방식으로 로봇 (R) 의 제어용 컴퓨터 (17) 와 전기식으로 연결되어 있고, 따라서 제어용 컴퓨터 (17) 또는 상기 제어용 컴퓨터 (17) 에서 진행되는 컴퓨터 프로그램은 로봇 (R) 의 플랜지 (F) 의 위치 및 방향이 본질적으로 공간에서 자유로이 정렬될 수 있도록 상기 전기 드라이브들을 작동시킬 수 있다. 로봇 (R) 의 상기 전기 드라이브들은 예컨대 각각 하나의 전동기 (11 - 16), 및 경우에 따라서는 상기 전동기 (11 - 16) 들을 작동시키는 파워일렉트로닉스 (power electronics) 를 포함한다.
본 실시예의 경우, 로봇암 (A) 안에는, 특히 플랜지 (F) 안에는 프로젝터 (projector, 18) 가 통합되어 있으며, 상기 프로젝터는 대상물의 표면에 영상을 투영할 수 있다. 대안적으로, 프로젝터 (18) 는 로봇암 (A) 의 구조에, 특히 플랜지 (F) 에 예컨대 탈착 가능하게 고정될 수도 있다.
프로젝터 (18) 는 컴퓨터, 예컨대 제어용 컴퓨터 (17) 와 도시되어 있지 않은 방식으로 전기식으로 연결되어 있다.
본 실시예의 경우, 로봇 (R) 은 도 2 에 도시되어 있는 의료 작업장의 일부로서 제공되어 있다.
본 실시예의 경우 도시되어 있는 의료 작업장은 로봇 (R) 이외에 환자용 침상 (L) 과 네비게이션 시스템을 포함하며, 상기 환자용 침상은 경우에 따라서는 높이 조절이 가능하다. 환자용 침상 (L) 은 그 위에 도 2 에 도시되어 있는 환자 (P) 가 누울 수 있도록 제공되어 있다. 상기 환자는 예컨대 도 2 에 도시되어 있지 않은 외과 의사에 의해 수술을 받을 수 있다.
본 실시예의 경우, 로봇 (R) 은 그의 프로젝터 (18) 를 이용해 환자 (P) 의 표면에 영상 (20) 을 투영하도록 예정되어 있다. 도 3 에 보다 상세히 도시되어 있는 투영된 영상 (20) 은 본 실시예의 경우 제어용 컴퓨터 (17) 를 위한, 또는 도면들에 상세히 도시되어 있지 않은 그 밖의 데이터처리장치를 위한 입력수단을 묘사하며, 예컨대 키보드 (keyboard) 의 형태를 가진다. 이 이외에, 상기 투영된 영상 (20) 형태의 상기 가상 입력수단은 가상 조작요소 (21) 들을 포함하며, 상기 조작요소들은 예컨대 실제 키보드의 키와 일치한다.
또한, 본 실시예의 경우 로봇 (R) 은 제어용 컴퓨터 (17) 와 전기식으로 연결된 카메라 (19) 를 포함하며, 상기 카메라는 로봇암 (A) 안에 통합되어 있거나 또는 이에 고정되어 있다. 카메라 (19) 는 환자 (P) 에 투영된 영상 (20) 으로부터의 영상을 촬영할 수 있도록 정렬되어 있다. 상기 투영된 영상 (20) 으로부터의 영상에 할당된 영상 데이터 레코드는 제어용 컴퓨터 (17) 에 의해 또는 상기 제어용 컴퓨터 (17) 에서 진행되는 컴퓨터 프로그램에 의해 패턴 인식 알고리즘을 이용해 도면들에 도시되어 있지 않은 사람, 예컨대 환자 (P) 를 수술하는 외과 의사가 투영된 영상 (20) 의 형태로 묘사된 가상 입력수단의 가상 조작요소 (21) 들을 작동시키는 지의 여부를 알아내기 위해 분석된다. 제어용 컴퓨터 (17) 에서 진행되는 컴퓨터 프로그램이 상기 언급된 영상 데이터 레코드의 분석을 토대로 외과 의사가 예컨대 가상 조작요소 (21) 들 중 하나의 영역을 터치하는 것을 인식하면, 제어용 컴퓨터 (17) 에서 진행되는 컴퓨터 프로그램은 이 가상 조작요소 (21) 들의 작동에 할당된 반응을 야기한다.
환자 (P) 의 만곡된 (curved) 표면으로 인해, 투영된 영상 (20) 은 왜곡을 갖는다. 본 실시예의 경우, 이 왜곡은 환자 (P) 에게 영상 (20) 을 투영하기 전에 기준영상 (reference image, 도면들에 도시되어 있지 않음) 이 프로젝터 (18) 를 이용해 환자 (P) 에 투영됨으로써 적어도 부분적으로 보상된다. 상기 기준영상은 본질적으로 영상 (20) 이 투영되는 환자 (P) 의 표면에서의 동일한 부위에 투영된다.
후속하여, 상기 투영된 기준영상으로부터의 영상이 카메라 (19) 로 촬영되며, 이 영상에 속한 영상 데이터 레코드는 제어용 컴퓨터 (17) 에서 진행되는 그 밖의 컴퓨터 프로그램을 이용해 분석된다. 상기 투영된 기준영상으로부터의 영상에 할당된 상기 영상 데이터 레코드 및 상기 투영된 기준영상의 목표 묘사를 토대로, 제어용 컴퓨터 (17) 는 추후에 묘사되어야 하는 투영된 영상 (20) 의 왜곡을 적어도 부분적으로 보상할 수 있도록 프로젝터 (18) 를 작동시킬 수 있다.
그 밖의 실시형태에서는, 환자 (P) 를 수술하기 전에, 상기 환자로부터 도 4 에 도시되어 있는 의료용 영상장치 (22) 를 이용하여 특히 3차원 영상 데이터 레코드가 생성되었다. 상기 의료장치 (22) 는 예컨대 자기 공명 장치, 컴퓨터 단층 촬영 장치, X-ray 장치, 예컨대 C 암 X-ray 장치 또는 초음파 장치이다.
환자 (P) 로부터 생성된 상기 3차원 영상 데이터 레코드는 예컨대 환자 (P) 진단용으로 쓰일 수 있고, 로봇 (R) 의 제어용 컴퓨터 (17) 안에 저장된다. 로봇 (R) 의 위치와 환자 (P) 의 위치를 토대로, 또한 환자 (P) 의 상기 3차원 영상 데이터 레코드를 토대로, 제어용 컴퓨터 (17) 에서 진행되는 그 밖의 컴퓨터 프로그램은 투영된 영상 (20) 의 예상될 수 있는 왜곡을 결정할 수 있고, 이를 통해, 투영된 영상 (20) 의 예상될 수 있는 왜곡이 적어도 부분적으로 보상되도록 프로젝터 (18) 의 투영을 변경할 수 있다.
로봇 (R) 의 위치와 환자 (P) 의 위치를 검출하기 위해서는 상기 언급된 네비게이션 시스템이 사용된다. 네비게이션 시스템은 당업자에게 일반적으로 알려져 있으며, 예컨대 스테레오 카메라 (23) 와, 환자 (P) 에 배치된 기준 마커 (reference marker, M1) 들과, 로봇 (R) 에 배치된 기준 마커 (M2) 들을 포함한다. 로봇 (R) 의 위치와 환자 (P) 의 위치를 결정하기 위해 스테레오 카메라 (28) 는 기준 마커 (M1, M2) 들의 영상들을 촬영하고, 상기 영상들의 할당된 영상 데이터 레코드들은 네비게이션 시스템의 컴퓨터 (24) 를 이용해 일반적으로 알려져 있는 방식으로 평가된다. 이 이외에, 네비게이션 시스템의 컴퓨터 (24) 는 도시되어 있지 않은 방식으로 로봇 (R) 의 제어용 컴퓨터 (17) 와 연결되어 있고, 따라서 제어용 컴퓨터 (17) 는 로봇 (R), 특히 그의 프로젝터 (18) 의 위치와 환자 (P) 의 위치에 관한 정보를 이용할 수 있다.
이 이외에, 본 실시예의 경우, 환자 (P) 의 움직임으로 인한 상기 투영된 영상 (20) 의 변화하는 왜곡은, 예컨대 프로젝터 (18) 가 인식된 움직임을 토대로 상기 움직임으로 인해 변경된 환자 (P) 의 위치를 재조정하거나, 또는 변화하는 왜곡이 적어도 부분적으로 보상되도록 로봇암 (A) 을 환자 (P) 의 움직임과 더불어 함께 안내함으로써 보정된다.
Claims (18)
- 로봇으로서, 상기 로봇은 로봇암 (A) 과, 대상물 (P) 의 표면에 영상 (20) 을 투영하기 위한 장치 (18) 를 구비하며, 상기 장치는 로봇암 (A) 에 고정되어 있거나 또는 로봇암 (A) 안에 통합되어 있는 로봇.
- 제 1 항에 있어서, 데이터처리장치 (17) 를 구비한 로봇.
- 제 2 항에 있어서, 상기 로봇은 특히 로봇암 (A) 에 고정되어 있거나 또는 로봇암 (A) 안에 통합되어 있는, 대상물 (P) 의 표면에 투영된 영상 (20) 으로부터의 영상을 촬영하기 위한 장치 (19) 를 구비하며, 이때 상기 데이터처리장치 (17) 는 상기 영상촬영장치 (19) 로 촬영된, 상기 대상물 (P) 의 표면에 투영된 영상 (20) 으로부터의 영상에 할당되어 있는 영상 데이터 레코드를 분석하도록 셋업되어 있는 로봇.
- 제 3 항에 있어서, 상기 투영된 영상 (20) 은 상기 데이터처리장치 (17) 의 가상 입력수단 또는 그 밖의 데이터처리장치의 가상 입력수단을 묘사하며, 상기 데이터처리장치 (17) 는 상기 가상 입력수단의 작동을 인식하기 위해 사람의 몸짓에 관해 상기 영상 데이터 레코드를 분석하도록 셋업되어 있는 로봇.
- 제 1 항 내지 제 4 항 중 어느 한 항에 있어서, 상기 로봇은 대상물 (P) 의 상기 표면의 표면 기하학에 의한 상기 투영된 영상 (20) 의 왜곡을 인식하기 위한 수단 (19, 17) 들을 구비하며, 상기 수단들은 상기 투영된 영상 (20) 의 왜곡을 적어도 부분적으로 보상하도록 상기 영상투영장치 (18) 를 작동시키는 로봇.
- 제 5 항에 있어서, 왜곡을 인식하기 위한 상기 수단들은 특히 로봇암 (A) 안에 통합되어 있거나 또는 로봇암 (A) 에 고정되어 있는 상기 영상촬영장치 (19), 및 상기 데이터처리장치 (17) 를 포함하며, 이때 상기 데이터처리장치 (17) 는 상기 분석된 영상 데이터 레코드를 토대로 왜곡을 인식하도록 셋업되어 있는 로봇.
- 제 2 항 내지 제 6 항 중 어느 한 항에 있어서, 로봇의 상기 데이터처리장치 (17) 는, 미리 생성된 그 밖의 영상 데이터 레코드, 특히 대상물 (P) 로부터의 3차원 영상 데이터 레코드를 토대로 상기 투영된 영상 (20) 의 왜곡을 적어도 부분적으로 보상하도록 상기 영상투영장치를 작동시키도록 셋업되어 있는 로봇.
- 제 7 항에 있어서, 상기 대상물은 생물체 (P) 이며, 상기 대상물로부터의 상기 그 밖의 영상 데이터 레코드는 의료용 영상장치 (22) 를 이용해 생성되었던 로봇.
- 제 1 항 내지 제 8 항 중 어느 한 항에 따른 로봇 (R) 을 구비한 의료 작업장.
- 의료 작업장으로서, 상기 의료 작업장은 제 8 항에 따른 로봇 (R) 과, 생물체 (P) 의 위치와 로봇 (R) 의 위치를 검출하기 위한 네비게이션 시스템 (23, 24, M1, M2) 을 구비하며, 이때 상기 데이터처리장치 (17) 는, 상기 투영된 영상 (20) 의 왜곡의 적어도 부분적인 보상시 로봇 (R) 의 위치와 생물체 (P) 의 위치가 고려되도록 영상투영장치 (18) 를 작동시키도록 셋업되어 있는 의료 작업장.
- 제 10 항에 있어서, 상기 네비게이션 시스템 (23, 24, M1, M2) 은 로봇 (R) 에 배치된 마커 (M2) 들과, 생물체 (P) 에 배치되거나 또는 상기 생물체 (P) 가 누워 있는 환자용 침상 (L) 에 배치된 마커 (M2) 들과, 상기 마커 (M1, M2) 들을 검출하기 위한 장치 (23) 를 구비한 의료 작업장.
- 제 11 항에 있어서, 상기 마커 (M1, M2) 검출장치 (23) 는 대상물 (P) 의 표면에 투영된 영상 (20) 으로부터의 영상을 촬영하기 위해서도 사용되며, 이때 로봇 (R) 의 데이터처리장치 (17) 는 상기 마커 (M1, M2) 검출장치 (23) 로 촬영된, 상기 대상물 (P) 의 표면에 투영된 영상 (20) 으로부터의 영상에 할당되어 있는 영상 데이터 레코드를 분석하도록 셋업되어 있는 의료 작업장.
- 대상물의 표면에 영상을 투영하기 위한 방법으로서:
- 특히 로봇 (R) 의 로봇암 (A) 안에 통합되어 있거나 또는 로봇암 (A) 에 고정되어 있는 영상투영장치 (18) 로 특히 생물체 (P) 인 대상물의 표면에 영상 (20) 을 투영하는 단계를 포함하는 대상물의 표면에 영상을 토영하기 위한 방법. - 제 13 항에 있어서,
- 특히 네비게이션 시스템 (23, 24, M1, M2) 을 이용해 로봇 (R) 의 위치와 생물체 (P) 의 위치를 검출하는 단계,
- 생물체 (P) 의 상기 위치와 로봇 (R) 의 상기 위치를 토대로, 또한 미리 생물체 (P) 로부터 촬영된 영상 데이터 레코드를 토대로, 생물체 (P) 의 표면에 투영된 영상 (20) 의 예상될 수 있는 왜곡을 검출하는 단계,
- 로봇 (R) 의 상기 위치와 생물체 (P) 의 상기 위치를 토대로, 또한 생물체 (P) 로부터의 상기 영상 데이터 레코드를 토대로, 상기 표면에 투영된 영상 (20) 의 예상된 왜곡을 적어도 부분적으로 보상하는 단계를 추가적으로 포함하는 대상물의 표면에 영상을 투영하기 위한 방법. - 제 14 항에 있어서, 생물체 (P) 의 움직임으로 인한 상기 표면에 투영된 영상 (20) 의 예상될 수 있는 왜곡의 적어도 부분적인 보상을 업데이트하는, 대상물의 표면에 영상을 투영하기 위한 방법.
- 제 15 항에 있어서, 생물체 (P) 의 움직임으로 인한 상기 표면에 투영된 영상 (20) 의 예상될 수 있는 왜곡의 적어도 부분적인 보상을 상기 움직임에 상응하여 로봇암 (A) 을 함께 안내함으로써 업데이트하는, 대상물의 표면에 영상을 투영하기 위한 방법.
- 제 13 항 내지 제 16 항 중 어느 한 항에 있어서, 생물체 (P) 로부터의 상기 영상 데이터 레코드는 의료용 영상장치 (22) 를 이용해 촬영되었던, 대상물의 표면에 영상을 투영하기 위한 방법.
- 제 13 항 내지 제 17 항 중 어느 한 항에 있어서,
- 로봇암 (A) 에 고정되어 있거나 또는 로봇암 (A) 안에 통합되어 있는 카메라 (19) 를 이용해 생물체 (P) 의 표면에 투영된 영상 (20) 으로부터의 영상을 촬영하는 단계, 이때 상기 투영된 영상 (20) 은 가상 입력수단을 묘사하며,
- 상기 가상 입력수단의 작동을 인식하기 위해, 사람의 몸짓에 관해 상기 카메라 (19) 로 촬영된 영상에 할당된 그 밖의 영상 데이터 레코드를 분석하는 단계를 추가적으로 포함하는 대상물의 표면에 영상을 투영하기 위한 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007055204A DE102007055204B4 (de) | 2007-11-19 | 2007-11-19 | Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts |
DE102007055204.3 | 2007-11-19 | ||
PCT/EP2008/065758 WO2009065831A2 (de) | 2007-11-19 | 2008-11-18 | Roboter, medizinischer arbeitsplatz und verfahren zum projizieren eines bildes auf die oberfläche eines objekts |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100106308A true KR20100106308A (ko) | 2010-10-01 |
KR101280665B1 KR101280665B1 (ko) | 2013-07-01 |
Family
ID=40532562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020107010627A KR101280665B1 (ko) | 2007-11-19 | 2008-11-18 | 로봇, 의료 작업장, 및 대상물의 표면에 영상을 투영하기 위한 방법 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8965583B2 (ko) |
EP (1) | EP2214872B1 (ko) |
JP (1) | JP5249343B2 (ko) |
KR (1) | KR101280665B1 (ko) |
CN (1) | CN101903140B (ko) |
DE (1) | DE102007055204B4 (ko) |
WO (1) | WO2009065831A2 (ko) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2404713A4 (en) * | 2009-03-06 | 2014-08-20 | Yaskawa Denki Seisakusho Kk | JOINT UNIT FOR ROBOT AND ROBOT |
US8751049B2 (en) * | 2010-05-24 | 2014-06-10 | Massachusetts Institute Of Technology | Kinetic input/output |
DE102011111949B4 (de) * | 2011-08-29 | 2013-05-29 | Thermo Electron Led Gmbh | Laborabzug und insbesondere Sicherheitswerkbank mit Projektionsvorrichtung |
US9832352B2 (en) | 2011-11-16 | 2017-11-28 | Autofuss | System and method for 3D projection mapping with robotically controlled objects |
CN104054023B (zh) * | 2011-11-16 | 2017-11-17 | 欧特法斯公司 | 用于与机器人控制的物体映射的3d投影的系统和方法 |
CN104105455B (zh) | 2011-12-03 | 2017-04-19 | 皇家飞利浦有限公司 | 内窥镜手术中的超声探头的机器人引导 |
US10380921B2 (en) * | 2013-03-15 | 2019-08-13 | University Of Central Florida Research Foundation, Inc. | Physical-virtual patient bed system |
US9679500B2 (en) * | 2013-03-15 | 2017-06-13 | University Of Central Florida Research Foundation, Inc. | Physical-virtual patient bed system |
EP3007636B1 (en) | 2013-06-11 | 2017-09-27 | Minmaxmedical | System for positioning a surgical device |
KR102382248B1 (ko) * | 2014-03-17 | 2022-04-05 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 기준 마커를 이용하여 수술대 자세를 트래킹하는 방법 및 장치 |
CN103974048B (zh) | 2014-04-28 | 2016-05-04 | 京东方科技集团股份有限公司 | 控制可穿戴设备投影的方法及装置、可穿戴设备 |
DE102014211115A1 (de) * | 2014-06-11 | 2015-12-17 | Siemens Aktiengesellschaft | Vorrichtung und Verfahren zur gestengesteuerten Einstellung von Einstellgrößen an einer Röntgenquelle |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
DE102016203701A1 (de) | 2016-03-07 | 2017-09-07 | Kuka Roboter Gmbh | Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen |
WO2019032582A1 (en) * | 2017-08-10 | 2019-02-14 | Intuitive Surgical Operations, Inc. | SYSTEMS AND METHODS FOR DISPLAYING INTERACTION POINTS IN A TELEOPERATIONAL SYSTEM |
EP3787543A4 (en) | 2018-05-02 | 2022-01-19 | Augmedics Ltd. | REGISTRATION OF A REFERENCE MARK FOR AN AUGMENTED REALITY SYSTEM |
DE102019206779A1 (de) | 2018-06-13 | 2019-12-19 | Heidelberger Druckmaschinen Ag | Bildinspektionsroboter |
JP7172305B2 (ja) * | 2018-09-03 | 2022-11-16 | セイコーエプソン株式会社 | 三次元計測装置およびロボットシステム |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
US11772276B2 (en) | 2020-01-02 | 2023-10-03 | Universal City Studios Llc | Systems and methods for optical performance captured animated figure with real-time reactive projected media |
DE102020201070A1 (de) * | 2020-01-29 | 2021-07-29 | Siemens Healthcare Gmbh | Darstellungsvorrichtung |
US12008917B2 (en) | 2020-02-10 | 2024-06-11 | University Of Central Florida Research Foundation, Inc. | Physical-virtual patient system |
DE102020213038A1 (de) | 2020-10-15 | 2022-04-21 | Kuka Deutschland Gmbh | Verfahren zur Durchführung von Gesundheitstests und mobile Gesundheitstestanlage |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
CN114508680A (zh) * | 2021-12-22 | 2022-05-17 | 江苏艾克斯医疗设备有限公司 | 一种医疗影像投影设备 |
WO2024057210A1 (en) | 2022-09-13 | 2024-03-21 | Augmedics Ltd. | Augmented reality eyewear for image-guided medical intervention |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4373804A (en) * | 1979-04-30 | 1983-02-15 | Diffracto Ltd. | Method and apparatus for electro-optically determining the dimension, location and attitude of objects |
TW464800B (en) * | 1998-10-07 | 2001-11-21 | Intel Corp | A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system |
US6973202B2 (en) * | 1998-10-23 | 2005-12-06 | Varian Medical Systems Technologies, Inc. | Single-camera tracking of an object |
US9572519B2 (en) * | 1999-05-18 | 2017-02-21 | Mediguide Ltd. | Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors |
DE19951503B4 (de) | 1999-06-28 | 2004-01-29 | Siemens Ag | Medizinisches System mit einem Bildgebungs- und einem Navigationssystem |
US6317616B1 (en) * | 1999-09-15 | 2001-11-13 | Neil David Glossop | Method and system to facilitate image guided surgery |
DE10033723C1 (de) * | 2000-07-12 | 2002-02-21 | Siemens Ag | Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs |
DE10108547B4 (de) * | 2001-02-22 | 2006-04-20 | Siemens Ag | Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern |
CN1479191A (zh) * | 2002-08-28 | 2004-03-03 | 由田新技股份有限公司 | 投影式虚拟键盘装置 |
KR20040056489A (ko) * | 2002-12-23 | 2004-07-01 | 한국전자통신연구원 | 임의의 영사면에 대한 화면 왜곡현상 보정 시스템 및 그방법 |
JP2005165804A (ja) * | 2003-12-04 | 2005-06-23 | Matsushita Electric Ind Co Ltd | データ入力装置 |
WO2005065371A2 (en) * | 2003-12-30 | 2005-07-21 | Liposonix, Inc. | Systems and methods for the destruction of adipose tissue |
JP3930482B2 (ja) * | 2004-01-19 | 2007-06-13 | ファナック株式会社 | 3次元視覚センサ |
US7567833B2 (en) * | 2004-03-08 | 2009-07-28 | Stryker Leibinger Gmbh & Co. Kg | Enhanced illumination device and method |
JP2005304596A (ja) * | 2004-04-19 | 2005-11-04 | Olympus Corp | 医療用遠隔操作装置 |
JP2006102360A (ja) * | 2004-10-08 | 2006-04-20 | Matsushita Electric Ind Co Ltd | 生体情報提示装置 |
JP4449081B2 (ja) * | 2005-10-11 | 2010-04-14 | 国立大学法人 千葉大学 | 撮像装置及び撮像システム |
JP4836122B2 (ja) * | 2006-02-09 | 2011-12-14 | 国立大学法人浜松医科大学 | 手術支援装置、方法及びプログラム |
JP2008006551A (ja) * | 2006-06-29 | 2008-01-17 | National Univ Corp Shizuoka Univ | 作動装置 |
US20080136775A1 (en) * | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
-
2007
- 2007-11-19 DE DE102007055204A patent/DE102007055204B4/de active Active
-
2008
- 2008-11-18 KR KR1020107010627A patent/KR101280665B1/ko active IP Right Grant
- 2008-11-18 CN CN2008801168765A patent/CN101903140B/zh active Active
- 2008-11-18 US US12/743,688 patent/US8965583B2/en active Active
- 2008-11-18 JP JP2010533617A patent/JP5249343B2/ja active Active
- 2008-11-18 WO PCT/EP2008/065758 patent/WO2009065831A2/de active Application Filing
- 2008-11-18 EP EP08851939.2A patent/EP2214872B1/de active Active
Also Published As
Publication number | Publication date |
---|---|
WO2009065831A2 (de) | 2009-05-28 |
KR101280665B1 (ko) | 2013-07-01 |
US8965583B2 (en) | 2015-02-24 |
DE102007055204B4 (de) | 2010-04-08 |
EP2214872A2 (de) | 2010-08-11 |
DE102007055204A1 (de) | 2009-05-20 |
JP2011502673A (ja) | 2011-01-27 |
WO2009065831A3 (de) | 2009-10-15 |
JP5249343B2 (ja) | 2013-07-31 |
EP2214872B1 (de) | 2019-02-13 |
CN101903140B (zh) | 2013-03-06 |
CN101903140A (zh) | 2010-12-01 |
US20100275719A1 (en) | 2010-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101280665B1 (ko) | 로봇, 의료 작업장, 및 대상물의 표면에 영상을 투영하기 위한 방법 | |
KR101413920B1 (ko) | 네비게이션 시스템의 검출장치의 배치위치를 결정하기 위한 방법, 및 네비게이션 시스템의 검출장치를 배치하기 위한 방법 | |
US8392022B2 (en) | Device comprising a robot, medical work station, and method for registering an object | |
US7076286B2 (en) | Surgical microscope | |
US11399897B2 (en) | Systems and methods for spinal surgical procedures | |
US20110190790A1 (en) | Method For Operating A Medical Robot, Medical Robot, And Medical Work Place | |
US11229493B2 (en) | Motion programming of a robotic device | |
EP4090254A1 (en) | Systems and methods for autonomous suturing | |
KR20120041455A (ko) | 수술용 로봇의 움직임 제어/보상 방법 및 장치 | |
US20230126611A1 (en) | Information processing apparatus, information processing system, and information processing method | |
US20220351385A1 (en) | Systems and methods for anatomical segmentation | |
CN102768541A (zh) | 手术机器人的控制方法和系统 | |
US20220361952A1 (en) | Physical medical element placement systems | |
US20220330986A1 (en) | Robot assisted rod bending | |
US20240033005A1 (en) | Systems and methods for generating virtual reality guidance | |
CN113945589A (zh) | 一种带防脱落检测的口腔种植手术机器人及控制方法 | |
CN116549109A (zh) | 医疗导航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170601 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180529 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190530 Year of fee payment: 7 |