KR102430468B1 - Surgical robot system based on Headset using voice recognition Microphone - Google Patents
Surgical robot system based on Headset using voice recognition Microphone Download PDFInfo
- Publication number
- KR102430468B1 KR102430468B1 KR1020200131637A KR20200131637A KR102430468B1 KR 102430468 B1 KR102430468 B1 KR 102430468B1 KR 1020200131637 A KR1020200131637 A KR 1020200131637A KR 20200131637 A KR20200131637 A KR 20200131637A KR 102430468 B1 KR102430468 B1 KR 102430468B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- endoscope camera
- voice recognition
- headset
- user
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1058—Manufacture or assembly
- H04R1/1075—Mountings of transducers in earphones or headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1091—Details not provided for in groups H04R1/1008 - H04R1/1083
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0487—Special user inputs or interfaces
- A61B2560/0493—Special user inputs or interfaces controlled by voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Abstract
본 발명은 헤드셋 기반의 음성인식 마이크로폰을 이용한 수술 로봇 시스템에 관한 것으로서, 상세하게는 사용자가 내시경 영상을 VR(Virtual Reality) 헤드셋(Headset)을 통해 확인하면서 음성인식 마이크로폰을 이용하여 손을 사용할 필요없이 음성으로 내시경 카메라의 동작을 제어할 수 있는 수술로봇 시스템에 관한 것이다. 본 발명의 일실시 예에 따른 수술로봇 시스템은, 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간 촬영하는 내시경 카메라; 상기 내시경 카메라를 이동시키는 구동부; 사용자의 머리에 착탈 가능하게 착용되어 상기 내시경 카메라에서 촬영된 영상을 표시하는 헤드셋; 사용자의 음성을 인식하는 음성인식부; 및 상기 음성인식부에서 인식된 음성데이터로부터 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악한 후 이를 기초로 상기 구동부를 제어하기 위한 구동제어신호를 상기 구동부로 송신하며, 상기 내시경 카메라로부터 수신된 영상정보를 상기 헤드셋으로 전송하는 제어부;를 포함할 수 있다. The present invention relates to a surgical robot system using a headset-based voice recognition microphone, and more particularly, without the need to use a hand using a voice recognition microphone while a user checks an endoscopic image through a VR (Virtual Reality) headset. It relates to a surgical robot system that can control the operation of an endoscope camera with voice. A surgical robot system according to an embodiment of the present invention includes: an endoscope camera inserted into an operating space through a predetermined incision to photograph the surgical site in real time; a driving unit for moving the endoscope camera; a headset that is detachably worn on the user's head and displays the image captured by the endoscope camera; A voice recognition unit for recognizing the user's voice; And after recognizing the user's intention for the movement of the endoscope camera from the voice data recognized by the voice recognition unit, based on this, a driving control signal for controlling the driving unit is transmitted to the driving unit, and the image received from the endoscope camera It may include; a control unit for transmitting information to the headset.
Description
본 발명은 헤드셋 기반의 음성인식 마이크로폰을 이용한 수술 로봇 시스템에 관한 것으로서, 상세하게는 사용자가 내시경 영상을 VR(Virtual Reality) 헤드셋(Headset)을 통해 확인하면서 음성인식 마이크로폰을 이용하여 손을 사용할 필요없이 음성으로 내시경 카메라의 동작을 제어할 수 있는 수술로봇 시스템에 관한 것이다.The present invention relates to a surgical robot system using a headset-based voice recognition microphone, and more particularly, without the need to use a hand using a voice recognition microphone while a user checks an endoscopic image through a VR (Virtual Reality) headset. It relates to a surgical robot system that can control the operation of an endoscope camera with voice.
일반적으로 복강경은 복벽의 작은 구멍을 통해 삽입되어 담낭, 복막, 간장, 소화관 외측 등을 검사하기 위한 내시경을 말하며, 내시경 수술이란 기존의 피부 절개를 통해 시행하는 수술이 아닌 하나 또는 여러 개의 구멍을 통해 진행하는 수술을 말한다.In general, laparoscopy refers to an endoscope that is inserted through a small hole in the abdominal wall to examine the gallbladder, peritoneum, liver, and the outside of the digestive tract. refers to the operation being performed.
이 경우, 복강경 내시경을 이용한 수술은 복부에 대략 지름 5mm 내지 1cm 가량의 작은 구멍을 두 군에 이상 형성하고, 상기 구멍으로 복강경이나 집게 또는 메스를 삽입하여, 복강경이 촬영하는 체내의 모양을 비디오 모니터 등을 통해서 화면을 화면서 행하는 수술에 해당한다.In this case, surgery using a laparoscopic endoscope forms a small hole with a diameter of about 5 mm to 1 cm in the abdomen in two groups or more, and inserts a laparoscope, forceps, or a scalpel into the hole to monitor the shape of the body captured by the laparoscope. It corresponds to surgery performed on the screen through the back.
또한, 로봇을 이용한 수술은 수술 도구를 움직일 수 있는 로봇의 동작을 의사 등이 제어하는 수술을 말한다. 특히, 복강경 로봇 수술은 복부에 여러 개의 구멍을 뚫은 후 상기 구멍으로 복강경 내시경과 함께 로봇수술을 위한 수술용 도구(end-effector)가 부착된 수술로봇의 로봇팔을 삽입하여 수술하는 것을 말한다.In addition, surgery using a robot refers to an operation in which a doctor or the like controls the operation of a robot capable of moving a surgical tool. In particular, laparoscopic robotic surgery refers to an operation by inserting a robotic arm of a surgical robot attached with an end-effector for robotic surgery together with a laparoscopic endoscope into the hole after drilling several holes in the abdomen.
이러한 복강경 로봇수술의 경우, 기존의 개복수술보다 절개부위가 적어 환자의 회복시간이 빠르고, 고통 및 흉터도 적다는 장점뿐만 아니라 로봇팔을 이용하여 수술을 진행하기 때문에 더 정밀한 수술이 가능하게 된다. 또한, 로봇수술에서는 수술공간에 대한 깊이정보를 전달하기 위해 3D 영상을 제공할 수 있는 복강경 내시경과 디스플레이를 사용하여 수술을 진행하기에 2D 영상을 이용하는 복강경 수술보다 더 정확한 수술이 가능해진다.In the case of laparoscopic robotic surgery, more precise surgery is possible because it uses a robotic arm, as well as the advantages of faster recovery time and less pain and scars than conventional open surgery because there are fewer incisions. In addition, since robotic surgery uses a laparoscopic endoscope and a display that can provide a 3D image to deliver depth information about the operating space, surgery is performed more accurately than laparoscopic surgery using a 2D image.
종래기술에 따르면 복강경 수술과 같은 최소 침습 수술을 위해 대략 3개의 로봇팔과 내시경을 이용하여 수술을 진행하게 되며, 상기 로봇팔 및 내시경의 조작을 위하여 사용자의 양손으로 컨트롤러를 조작하게 된다. 이 경우, 복강경 내시경의 위치를 이동시키기 위해서는 발로 페달 등을 밟아서 조작 대상을 로봇팔에서 내시경으로 전환하여 내시경을 조작하게 된다. According to the prior art, surgery is performed using approximately three robot arms and an endoscope for minimally invasive surgery such as laparoscopic surgery, and a controller is operated with both hands of a user to operate the robot arm and the endoscope. In this case, in order to move the position of the laparoscopic endoscope, the endoscope is manipulated by stepping on a pedal or the like with the foot to switch the manipulation target from the robot arm to the endoscope.
따라서, 사용자가 로봇팔에서 내시경으로 조작 대상을 전환하는 경우에 수술의 흐름이 끊기게 되고, 수술 도구의 충돌, 수술 부위의 손상, 수술 시간의 증가를 초래할 수 있다. Therefore, when the user switches the operation target from the robot arm to the endoscope, the flow of surgery is interrupted, which may cause collision of surgical tools, damage to the surgical site, and increase in operation time.
한편, 위와 같은 문제를 해결하기 위한 방안으로, 한국 공개특허공보 제10-2020-0108124호(공개일자 : 2020.09.17)에는 헤드셋의 움직임으로 내시경의 움직임을 제어할 수 있는 "최소 침습 수술을 위한 수술로봇 시스템 및 상기 수술로봇 시스템의 구동방법"이 개시된 바 있다.On the other hand, as a method to solve the above problem, Korean Patent Application Laid-Open No. 10-2020-0108124 (published on September 17, 2020) discloses a “minimally invasive surgery for controlling the movement of the endoscope with the movement of the headset. A surgical robot system and a method of driving the surgical robot system" have been disclosed.
그러나, 상기 선행기술에 따르면, 사용자가 헤드셋을 머리에 쓴 상태에서 머리의 움직임으로 내시경의 움직임을 제어해야 하는데, 머리의 움직임으로 내시경을 정밀하게 제어하기는 어려우며, 특히 수술중에는 내시경의 움직임을 위한 의도적인 머리 움직임 외에도 의도하지 않은 다양한 형태의 머리 움직임이 발생할 수 있다는 문제가 있다.However, according to the prior art, it is necessary to control the movement of the endoscope by the movement of the head while the user wears the headset on the head, but it is difficult to precisely control the endoscope by the movement of the head. In addition to intentional head movements, there is a problem that various types of unintentional head movements may occur.
본 발명은 전술한 문제점을 해결하기 위한 것으로서, 사용자가 손으로 조작하지 않고 음성으로 내시경 카메라의 동작을 제어할 수 있는 수술로봇 시스템을 제공하는데 목적이 있다.An object of the present invention is to solve the above problems, and it is an object of the present invention to provide a surgical robot system in which a user can control the operation of an endoscope camera by voice without manipulating it by hand.
또한, 본 발명은 음성인식 마이크로폰을 통해 획득된 음성데이터로부터 내시경 카메라의 움직임에 대한 사용자의 의도를 인공지능 기반으로 파악하여 이를 기초로 내시경 카메라의 동작을 제어할 수 있는 수술로봇 시스템을 제공하는데 목적이 있다.In addition, the present invention is to provide a surgical robot system that can control the operation of the endoscopic camera based on the AI-based understanding of the user's intention for the movement of the endoscopic camera from voice data acquired through the voice recognition microphone. There is this.
또한, 본 발명은 내시경 카메라의 동작 제어에 대한 정보가 헤드셋에 디스플레이되는 내시경 영상에 자막 형식으로 표시되도록 할 수 있는 수술로봇 시스템을 제공하는데 목적이 있다.Another object of the present invention is to provide a surgical robot system capable of displaying information on operation control of an endoscopic camera in a caption format on an endoscopic image displayed on a headset.
또한, 본 발명은 내시경 카메라와 수술 도구 간의 충돌 확률을 계산하여 상기 계산된 충돌 확률이 헤드셋에 디스플레이되는 내시경 영상에 자막 형식으로 표시되도록 할 수 있는 수술로봇 시스템을 제공하는데 목적이 있다.Another object of the present invention is to provide a surgical robot system capable of calculating a collision probability between an endoscopic camera and a surgical tool so that the calculated collision probability is displayed in a caption format on an endoscopic image displayed on a headset.
또한, 본 발명은 헤드셋에 디스플레이되는 내시경 영상에 자막 형식으로 표시되는 충돌확률의 기준을 사용자가 선택할 수 있도록 하는 수술로봇 시스템을 제공하는데 목적이 있다. Another object of the present invention is to provide a surgical robot system that allows a user to select a criterion for a collision probability displayed in a caption format on an endoscopic image displayed on a headset.
본 발명의 일실시 예에 따른 수술로봇 시스템은, 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간 촬영하는 내시경 카메라; 상기 내시경 카메라를 이동시키는 구동부; 사용자의 머리에 착탈 가능하게 착용되어 상기 내시경 카메라에서 촬영된 영상을 표시하는 헤드셋; 사용자의 음성을 인식하는 음성인식부; 및 상기 음성인식부에서 인식된 음성데이터로부터 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악한 후 이를 기초로 상기 구동부를 제어하기 위한 구동제어신호를 상기 구동부로 송신하며, 상기 내시경 카메라로부터 수신된 영상정보를 상기 헤드셋으로 전송하는 제어부;를 포함할 수 있다. A surgical robot system according to an embodiment of the present invention includes: an endoscope camera inserted into an operating space through a predetermined incision to photograph the surgical site in real time; a driving unit for moving the endoscope camera; a headset that is detachably worn on the user's head and displays the image captured by the endoscope camera; A voice recognition unit for recognizing the user's voice; And after recognizing the user's intention for the movement of the endoscope camera from the voice data recognized by the voice recognition unit, based on this, a driving control signal for controlling the driving unit is transmitted to the driving unit, and the image received from the endoscope camera It may include; a control unit for transmitting information to the headset.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 제어부는, 상기 음성인식부를 통해 확보된 음성데이터로부터 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악하는 음성인식 판단부; 상기 음성인식 판단부에서 파악된 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 기초로 상기 내시경 카메라의 동작 제어에 필요한 발화지침을 생성하는 발화지침 생성부; 상기 발화지침에 기초하여 상기 구동부를 제어하기 위한 구동제어신호를 생성하는 구동제어신호 생성부; 및 상기 내시경 카메라로부터 수신된 영상정보와 상기 발화지침을 상기 헤드셋으로 전송하며, 상기 구동제어신호를 상기 구동부로 전송하는 송신부;를 포함하고, 상기 헤드셋은, 상기 송신부에서 전송되는 영상정보를 표시하는 영상표시부; 및 상기 송신부에서 전송되는 발화지침을 상기 영상표시부에 자막으로 표시하는 자막표시부;를 포함할 수 있다. In addition, the surgical robot system according to an embodiment of the present invention, the control unit, the voice recognition determination unit for identifying the user's intention for the movement of the endoscope camera from the voice data secured through the voice recognition unit; a speech guide generation unit for generating speech guidelines necessary for controlling the operation of the endoscope camera based on the user's intention for the movement of the endoscope camera detected by the speech recognition determination unit; a driving control signal generating unit that generates a driving control signal for controlling the driving unit based on the ignition guide; and a transmitter that transmits the image information received from the endoscope camera and the utterance instruction to the headset, and transmits the driving control signal to the driver, wherein the headset displays image information transmitted from the transmitter video display unit; and a caption display unit for displaying the utterance instructions transmitted from the transmitter as captions on the image display unit.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성인식 판단부는 머신 러닝 기반의 음성 인식 모델을 이용하여 상기 음성인식부를 통해 확보된 음성데이터 중에서 상기 내시경 카메라의 동작 제어에 필요한 단어들을 구분하고 패턴화하여 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악할 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition determination unit uses a machine learning-based voice recognition model to select words necessary for operation control of the endoscope camera from among the voice data secured through the voice recognition unit. By dividing and patterning, it is possible to grasp the user's intention for the movement of the endoscope camera.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성 인식 모델은 딥 러닝(deep learning) 기반의 학습에 기초하여 구축된 심층신경망(Deep neural network)를 포함할 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition model may include a deep neural network constructed based on deep learning-based learning.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 발화 지침은 ‘캠 라이트(Cam right)’, ‘캠 레프트(Cam left)’, ‘캠 업(Cam up)’, ‘캠 다운(Cam down)’, ‘캠 줌 인(Cam zoon in)’및 ‘캠 줌 아웃(Camera zoom out)’을 포함할 수 있다.In addition, in the surgical robot system according to an embodiment of the present invention, the firing instructions are 'Cam right', 'Cam left', 'Cam up', 'Cam down (Cam right)', 'Cam left', 'Cam up' 'Cam down)', 'Cam zoom in', and 'Camera zoom out'.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성인식부는 상기 헤드셋 일측에 착탈가능하게 구비되거나 상기 헤드셋에 일체로 구비된 마이크로폰일 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition unit may be detachably provided on one side of the headset or a microphone provided integrally with the headset.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간 촬영하는 내시경 카메라; 상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 로봇팔; 상기 내시경 카메라를 이동시키는 구동부; 사용자의 머리에 착탈 가능하게 착용되어 상기 내시경 카메라에서 촬영된 영상을 표시하는 헤드셋; 사용자의 음성을 인식하는 음성인식부; 및 상기음성인식부에서 인식된 음성데이터로부터 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악한 후 이를 기초로 상기 구동부를 제어하기 위한 구동제어신호를 상기 구동부로 송신하고, 상기 내시경 카메라와 상기 로봇팔의 충돌확률을 계산하여 상기 계산된 충돌확률을 상기 헤드셋으로 전송하며, 상기 내시경 카메라로부터 수신된 영상정보를 상기 헤드셋으로 전송하는 제어부;를 포함할 수 있다. In addition, the surgical robot system according to an embodiment of the present invention, an endoscope camera inserted into an operating space through a predetermined incision site to photograph the surgical site in real time; a robot arm inserted into the operating space to operate the surgical site; a driving unit for moving the endoscope camera; a headset that is detachably worn on the user's head and displays the image captured by the endoscope camera; A voice recognition unit for recognizing the user's voice; And after recognizing the user's intention for the movement of the endoscope camera from the voice data recognized by the voice recognition unit, transmit a driving control signal for controlling the driving unit based on this to the driving unit, and the endoscope camera and the robot arm and a control unit for calculating the collision probability of , transmitting the calculated collision probability to the headset, and transmitting image information received from the endoscope camera to the headset.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 제어부는, 상기 음성인식부를 통해 확보된 음성데이터로부터 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악하는 음성인식 판단부; 상기 음성인식 판단부에서 파악된 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 기초로 상기 내시경 카메라의 동작 제어에 필요한 발화지침을 생성하는 발화지침 생성부; 상기 발화지침에 기초하여 상기 구동부를 제어하기 위한 구동제어신호를 생성하는 구동제어신호 생성부; 상기 내시경 카메라와 상기 로봇팔의 충돌가능성을 확률로 계산하는 충돌확률 계산부; 및 상기 내시경 카메라로부터 수신된 영상정보와, 상기 발화지침과, 상기 충돌확률 계산부에서 계산된 충돌확률을 상기 헤드셋으로 전송하며, 상기 구동제어신호를 상기 구동부로 전송하는 송신부;를 포함하고, 상기 헤드셋은, 상기 송신부에서 전송되는 영상정보를 표시하는 영상표시부; 및 상기 송신부에서 전송되는 발화지침과 충돌확률을 상기 영상표시부에 표시하는 자막표시부;를 포함할 수 있다. In addition, the surgical robot system according to an embodiment of the present invention, the control unit, the voice recognition determination unit for identifying the user's intention for the movement of the endoscope camera from the voice data secured through the voice recognition unit; a speech guide generation unit for generating speech guidelines necessary for controlling the operation of the endoscope camera based on the user's intention for the movement of the endoscope camera detected by the speech recognition determination unit; a driving control signal generating unit that generates a driving control signal for controlling the driving unit based on the ignition guide; a collision probability calculator for calculating the probability of collision between the endoscope camera and the robot arm as a probability; and a transmitter for transmitting the image information received from the endoscope camera, the utterance instructions, and the collision probability calculated by the collision probability calculation unit to the headset, and transmitting the driving control signal to the driving unit; The headset includes: an image display unit for displaying image information transmitted from the transmitter; and a caption display unit for displaying the utterance instructions transmitted from the transmitter and the collision probability on the image display unit.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성인식 판단부는 머신 러닝 기반의 음성 인식 모델을 이용하여 상기 음성인식부를 통해 확보된 음성데이터 중에서 상기 내시경 카메라의 동작 제어에 필요한 단어들을 구분하고 패턴화하여 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악할 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition determination unit uses a machine learning-based voice recognition model to select words necessary for operation control of the endoscope camera from among the voice data secured through the voice recognition unit. By dividing and patterning, it is possible to grasp the user's intention for the movement of the endoscope camera.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성 인식 모델은 딥 러닝(deep learning) 기반의 학습에 기초하여 구축된 심층신경망(Deep neural network)를 포함할 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition model may include a deep neural network constructed based on deep learning-based learning.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 발화 지침은 ‘캠 라이트(Cam right)’, ‘캠 레프트(Cam left)’, ‘캠 업(Cam up)’, ‘캠 다운(Cam down)’, ‘캠 줌 인(Cam zoon in)’및 ‘캠 줌 아웃(Camera zoom out)’을 포함할 수 있다.In addition, in the surgical robot system according to an embodiment of the present invention, the firing instructions are 'Cam right', 'Cam left', 'Cam up', 'Cam down (Cam right)', 'Cam left', 'Cam up' 'Cam down)', 'Cam zoom in', and 'Camera zoom out'.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성인식 판단부는 상기 내시경 카메라와 로봇팔의 충돌확률을 표시하는 기준에 대한 사용자 의도를 파악하도록 구비되고, 상기 제어부는 상기 충돌확률 계산부에서 계산된 충돌확률이 상기 음성인식 판단부에서 파악된 상기 내시경 카메라와 로봇팔의 충돌확률을 표시하는 기준에 대한 사용자 의도에 따른 충돌확률보다 높은 경우에 상기 송신부가 상기 충돌확률 계산부에서 계산된 충돌확률을 상기 헤드셋으로 전송하도록 하는 충돌확률 표시여부 판단부를 더 포함할 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition determination unit is provided to determine the user's intention with respect to a criterion for displaying the collision probability between the endoscopic camera and the robot arm, and the control unit calculates the collision probability When the collision probability calculated in the unit is higher than the collision probability according to the user's intention with respect to the criterion for displaying the collision probability between the endoscopic camera and the robot arm determined by the voice recognition determination unit, the transmitter calculates the collision probability calculation unit It may further include a collision probability display determination unit for transmitting the determined collision probability to the headset.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성인식 판단부는 머신 러닝 기반의 음성 인식 모델을 통해 상기 음성인식부를 통해 확보된 음성데이터 중에서 상기 내시경 카메라 동작 제어에 필요한 단어들과 상기 내시경 카메라와 로봇팔의 충돌확률을 표시하는 기준에 대한 단어들을 구분하고 패턴화하여 상기 내시경 카메라의 움직임에 대한 사용자 의도와 상기 내시경 카메라와 상기 로봇팔의 충돌확률을 표시하는 기준에 대한 사용자 의도를 파악할 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition determining unit includes words and the By dividing and patterning the words for the criterion for displaying the collision probability between the endoscope camera and the robot arm, the user intention for the movement of the endoscope camera and the user intention for the criterion for displaying the collision probability between the endoscope camera and the robot arm can figure out
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성 인식 모델은 딥 러닝(deep learning) 기반의 학습에 기초하여 구축된 심층신경망(Deep neural network)를 포함할 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition model may include a deep neural network constructed based on deep learning-based learning.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 발화 지침은 ‘캠 라이트(Cam right)’, ‘캠 레프트(Cam left)’, ‘캠 업(Cam up)’, ‘캠 다운(Cam down)’, ‘캠 줌 인(Cam zoon in)’및 ‘캠 줌 아웃(Camera zoom out)’을 포함할 수 있다.In addition, in the surgical robot system according to an embodiment of the present invention, the firing instructions are 'Cam right', 'Cam left', 'Cam up', 'Cam down (Cam right)', 'Cam left', 'Cam up' 'Cam down)', 'Cam zoom in', and 'Camera zoom out'.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템은, 상기 음성인식부는 상기 헤드셋 일측에 착탈가능하게 구비되거나 상기 헤드셋에 일체로 구비되는 마이크로폰일 수 있다. In addition, in the surgical robot system according to an embodiment of the present invention, the voice recognition unit may be a microphone detachably provided on one side of the headset or integrally provided with the headset.
상기와 같은 구성을 가지는 본 발명의 일실시 예에 따른 수술로봇 시스템에 의하면, 사용자가 헤드셋을 통해 디스플레이되는 내시경 영상을 보면서 음성으로 내시경 카메라의 동작을 제어할 수 있게 됨에 따라, 손으로 로봇팔의 동작을 제어하면서 동시에 내시경 카메라의 동작 제어가 가능하며, 따라서 로봇수술의 흐름이 끊기지 않고 원활하게 진행될 수 있다. According to the surgical robot system according to an embodiment of the present invention having the above configuration, the user can control the operation of the endoscopic camera by voice while viewing the endoscopic image displayed through the headset. It is possible to control the motion of the endoscope camera while simultaneously controlling the motion, so that the flow of robotic surgery can proceed smoothly without interruption.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템에 의하면, 음성인식 마이크로폰을 통해 획득된 음성데이터로부터 내시경 카메라의 움직임에 대한 사용자 의도를 인공지능 기반으로 파악하여 이를 기초로 내시경 카메라의 동작을 제어할 수 있어서, 사용자의 의도에 따른 정확한 내시경 카메라의 동작 제어가 가능하다.In addition, according to the surgical robot system according to an embodiment of the present invention, the user's intention for the movement of the endoscope camera is identified based on artificial intelligence from the voice data obtained through the voice recognition microphone, and the operation of the endoscope camera is controlled based on this. Thus, it is possible to accurately control the operation of the endoscope camera according to the user's intention.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템에 의하면, 내시경 카메라의 동작 제어에 대한 정보가 헤드셋에 디스플레이되는 내시경 영상에 자막 형식으로 표시됨에 따라, 사용자는 내시경 영상과 함께 내시경 카메라의 동작 제어 정보를 동시에 확인하면서 상기 내시경 카메라의 움직임을 제어할 수 있다.In addition, according to the surgical robot system according to an embodiment of the present invention, as information on the operation control of the endoscopic camera is displayed in the form of captions on the endoscopic image displayed on the headset, the user controls the operation of the endoscopic camera together with the endoscopic image. It is possible to control the movement of the endoscope camera while simultaneously checking information.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템에 의하면, 내시경 카메라와 수술도구 간의 충돌 확률이 헤드셋에 디스플레이되는 내시경 영상에 자막 형식으로 표시됨에 따라, 사용자는 내시경 영상과 함께 내시경 카메라와 수술도구 간의 충돌 확률을 동시에 확인하면서 상기 내시경 카메라의 움직임을 제어할 수 있다.In addition, according to the surgical robot system according to an embodiment of the present invention, as the collision probability between the endoscopic camera and the surgical tool is displayed in the caption format on the endoscopic image displayed on the headset, the user can use the endoscopic camera and the surgical tool together with the endoscopic image. It is possible to control the movement of the endoscope camera while simultaneously checking the collision probability.
또한, 본 발명의 일실시 예에 따른 수술로봇 시스템에 의하면, 내시경 영상에 자막 형식으로 표시되는 충돌확률의 기준을 사용자가 선택할 수 있어서, 불필요한 과도한 정보에 대한 사용자의 노출을 방지할 수 있으며, 그에 따라 로봇수술의 안전성을 도모함과 동시에 사용자의 편의성을 증대시킬 수 있다.In addition, according to the surgical robot system according to an embodiment of the present invention, the user can select the criterion of the collision probability displayed in the caption format on the endoscopic image, thereby preventing the user's exposure to unnecessary and excessive information. Therefore, it is possible to promote the safety of robotic surgery and increase the convenience of the user at the same time.
본 발명에 따른 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위와 상세한 설명의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진자에게 명확하게 이해될 수 있을 것이다.The effects according to the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description of the claims and detailed description. will be able
도 1은 본 발명의 일 실시예에 따른 수술로봇 시스템의 구성을 도시한 개략도이고,
도 2는 도 1에 따른 수술로봇 시스템의 헤드셋과 제어부의 구성을 도시한 블록도이고,
도 3은 헤드셋의 영상표시부에 발화지침이 자막으로 표시된 일례를 도시하고,
도 4는 음성인식 판단부에 멀티 레이어 신경망을 이용한 음성인식 모델이 적용된 일예로서, 음성인식 판단부에서 발화지침을 형성하기 위한 단어들을 구분한 결과 출력을 수행하는 일례를 도시하고,
도 5는 다른 실시 예에 따른 수술로봇 시스템의 제어부의 구성을 도시한 블록도이고,
도 6은 헤드셋의 영상표시부에 충돌확률이 자막으로 표시된 일례를 도시한다.1 is a schematic diagram showing the configuration of a surgical robot system according to an embodiment of the present invention,
2 is a block diagram showing the configuration of a headset and a control unit of the surgical robot system according to FIG. 1;
3 shows an example in which speech instructions are displayed in captions on the video display unit of the headset;
4 is an example in which a speech recognition model using a multi-layer neural network is applied to the speech recognition determination unit, and shows an example of outputting the result of dividing words for forming the utterance guide in the speech recognition determination unit;
5 is a block diagram illustrating a configuration of a control unit of a surgical robot system according to another embodiment;
6 shows an example in which the probability of collision is displayed as a caption on the image display unit of the headset.
이하에서는 첨부된 도면을 참고하여 본 발명의 실시예들에 대하여 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
이하에 기술될 장치의 구성이나 제어방법은 본 발명의 실시예를 설명하기 위한 것일 뿐 본 발명의 권리범위를 한정하기 위함은 아니다.The configuration or control method of the device to be described below is only for explaining the embodiment of the present invention, not for limiting the scope of the present invention.
첨부 도면을 참조하여 설명함에 있어, 동일한 구성요소는 동일한 도면 부호를 부여하고, 이에 대한 중복설명은 생략한다.In the description with reference to the accompanying drawings, the same components are given the same reference numerals, and redundant description thereof will be omitted.
어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.When a part "includes" a certain component, it means that other components may be further included without excluding other components unless otherwise stated.
각 실시예는 독립적으로 실시되거나 함께 실시될 수 있으며, 발명의 목적에 부합하게 일부 구성요소는 제외될 수 있다. Each embodiment may be implemented independently or together, and some components may be excluded in accordance with the purpose of the invention.
도 1은 본 발명의 일 실시예에 따른 수술로봇 시스템의 구성을 도시한 개략도이다.1 is a schematic diagram showing the configuration of a surgical robot system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시 예에 따른 수술로봇 시스템(100)은 소정의 절개부위(21, 23, 25, 27)를 통해 수술공간(12)으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경 카메라(110), 상기 수술공간(12) 내부에서 상기 내시경 카메라(110)을 이동시키는 구동부(120), 사용자의 머리에 착탈 가능하게 착용되어 상기 내시경 카메라(110)에서 촬영된 영상을 표시하는 헤드셋(headset)(130), 사용자의 음성을 인식하는 음성인식부(140), 상기 내시경 카메라(110)로부터 수신된 영상정보를 상기 헤드셋(130)으로 전송하는 제어부(150)를 포함할 수 있다.Referring to FIG. 1 , the
또한, 상기 제어부(150)는 상기 음성인식부(140)에서 인식된 음성데이터로부터 상기 내시경 카메라(110)의 움직임에 대한 사용자의 의도를 파악한 후 이를 기초로 상기 구동부(120)를 제어하기 위한 구동제어신호를 상기 구동부(120)로 송신할 수 있다. In addition, the
또한, 상기 수술로봇 시스템(100)은 상기 수술공간(12)으로 삽입되어 상기 수술부위를 수술하기 위한 복수의 로봇팔(115)을 더 구비할 수 있다.In addition, the
종래기술에 따르면 최소 침습 수술을 위해 대략 3개의 로봇팔과 내시경 카메라를 이용하여 수술을 진행하게 되며, 상기 로봇팔의 조작을 위하여 사용자의 양손으로 별도의 컨트롤러를 조작하게 된다. 이 경우, 상기 내시경 카메라의 위치를 이동시키기 위해서는 상기 로봇팔의 컨트롤러 이외의 별도의 내시경 카메라 컨트롤러를 사용하게 된다. 따라서, 사용자가 로봇팔 컨트롤러에서 내시경 카메라 컨트롤러를 조작하기 위해 손을 이동시키는 경우 수술의 흐름이 끊기게 되고, 수술 도구의 충돌, 수술 부위의 손상, 수술 시간의 증가를 초래할 수 있다. According to the prior art, surgery is performed using approximately three robot arms and an endoscope camera for minimally invasive surgery, and a separate controller is operated with both hands of a user for manipulation of the robot arm. In this case, in order to move the position of the endoscope camera, a separate endoscope camera controller other than the controller of the robot arm is used. Therefore, when the user moves the hand from the robot arm controller to the endoscopic camera controller, the flow of surgery is interrupted, which may result in collision of surgical tools, damage to the surgical site, and increase in operation time.
종래기술의 다른 타입에 따르면 상기 내시경 카메라를 이동시키기 위하여 발로 조작하는 조작부를 구비한 장치도 있으나, 발로 조작하는 경우에 손으로 조작하는 경우에 비해 섬세한 조작이 상대적으로 곤란하여, 전술한 문제점을 완전히 해결하지는 못하게 된다.According to another type of the prior art, there is also a device having a manipulation unit for operating the endoscope camera with a foot to move the endoscope camera. can't solve it
또한, 종래기술의 다른 타입에 따르면 사용자가 헤드셋을 머리에 쓴 상태에서 머리의 움직임으로 내시경 카메라의 움직임을 제어하는 장치도 있으나, 머리의 움직임으로 내시경을 정밀하게 제어하기는 어려우며, 특히 수술중에는 내시경의 움직임을 위한 의도적인 머리 움직임 외에도 의도하지 않은 다양한 형태의 머리 움직임이 발생할 수 있는 문제가 있다.In addition, according to another type of the prior art, there is a device for controlling the movement of the endoscope camera by the movement of the head while the user wears the headset on the head, but it is difficult to precisely control the endoscope by the movement of the head. In addition to intentional head movements for movement, there is a problem that various types of unintentional head movements may occur.
본 발명의 경우 전술한 문제점을 해결하기 위하여 사용자가 헤드셋을 통해 디스플레이되는 내시경 영상을 보면서 음성으로 내시경 카메라의 동작을 제어할 수 있다. 따라서, 사용자는 손으로 로봇팔의 컨트롤러를 조작하고, 음성으로 상기 내시경 카메라의 이동을 조작하여 수술의 흐름이 끊기지 않고 수술 시간을 단축시킬 수 있다.In the case of the present invention, in order to solve the above-described problem, the user can control the operation of the endoscope camera by voice while viewing the endoscope image displayed through the headset. Accordingly, the user can reduce the operation time without interrupting the flow of surgery by manipulating the controller of the robot arm by hand and manipulating the movement of the endoscope camera by voice.
도 1을 참조하면, 상기 수술공간(12)은 사람 또는 동물의 몸체 내부에 해당하며, 상기 수술공간(12)에는 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등이 분포할 수 있다.Referring to FIG. 1 , the operating
상기 로봇팔(115)과 내시경 카메라(110)는 미리 형성된 절개부위(21, 23, 25, 27)를 통해 그 하단부가 상기 수술공간(12)의 내측으로 삽입될 수 있다. The lower end of the
상기 로봇팔(115)은 상기 수술공간(12)의 내측에서 상기 수술부위에 대해 필요한 조치를 취할 수 있는 수술도구 등을 그 하단부에 구비할 수 있으며, 특정한 형태로 한정하지는 않는다.The
한편, 상기 절개부위(21, 23, 25, 27)는 상기 내시경 카메라(110) 또는 로봇팔(115)의 하단부가 삽입될 수 있는 크기 또는 직경을 가지는 복강공과 같은 구멍으로 이루어질 수 있다.Meanwhile, the
상기 절개부위(21, 23, 25, 27)의 개수는 수술에 필요한 상기 로봇팔(115)과 내시경 카메라(110)의 개수에 대응하도록 결정될 수 있다. 예를 들어, 도면에 도시된 바와 같이 3개의 로봇팔(115)과 1개의 내시경 카메라(110)을 이용하여 수술을 진행하는 경우에 상기 절개부위(21, 23, 25, 27)는 상기 내시경 카메라(110)의 삽입을 위한 1개의 내시경 절개부위(21)와, 상기 로봇팔(115)의 삽입을 위한 3개의 로봇팔 절개부위(23, 25, 27)로 이루어질 수 있다. The number of the
다만, 본 발명에서 설명하는 상기 절개부위(21, 23, 25, 27)의 개수는 일예를 들어 설명한 것에 불과하며, 적절하게 변형될 수 있다.However, the number of the
한편, 사용자의 머리에 착용될 수 있는 헤드셋(130)은 최근 들어 활발히 개발되고 있는 VR 헤드셋(virtual reality headset) 등의 형태로 구현될 수 있다. 하지만, 상기 헤드셋(130)은 단순히 VR 기기의 형태에 한정되지 않으며 다양한 예로 구현이 가능하다.Meanwhile, the
또한, 상기 음성인식부(140)는 상기 헤드셋(130) 일측에 착탈가능하게 구비되거나 상기 헤드셋(130)에 일체로 구비된 마이크로폰(microphone)의 형태로 구현될 수 있다.Also, the
도 2는 도 1에 따른 수술로봇 시스템의 헤드셋과 제어부의 구성을 도시한 블록도이다. FIG. 2 is a block diagram illustrating the configuration of a headset and a control unit of the surgical robot system according to FIG. 1 .
도 2를 참조하면, 상기 제어부(150)는 음성인식 판단부(151), 발화지침 생성부(153), 구동제어신호 생성부(155), 송신부(157)를 포함할 수 있다.Referring to FIG. 2 , the
상기 음성인식 판단부(151)는 상기 음성인식부(140)를 통해 확보된 음성데이터로부터 상기 내시경 카메라(110)의 움직임에 대한 사용자의 의도를 파악할 수 있다.The voice
상기 발화지침 생성부(153)은 상기 음성인식 판단부(151)에서 파악된 상기 내시경 카메라(110)의 움직임에 대한 사용자의 의도를 기초로 상기 내시경 카메라(110)의 동작 제어에 필요한 발화지침을 생성할 수 있다. The speech
상기 발화 지침은 ‘캠 라이트(Cam right)’, ‘캠 레프트(Cam left)’, ‘캠 업(Cam up)’, ‘캠 다운(Cam down)’, ‘캠 줌 인(Cam zoon in)’및 ‘캠 줌 아웃(Camera zoom out)’을 포함할 수 있다.The utterance instructions are 'Cam right', 'Cam left', 'Cam up', 'Cam down', and 'Cam zoom in'. and 'Camera zoom out'.
예를 들어, 상기 내시경 카메라(110)의 위치에 3차원 직교 좌표계를 적용하면, ‘캠 라이트(Cam right)’와 ‘캠 레프트(Cam left)’는 X축 상의 이동을 나타내는 의미로 사용될 수 있으며, ‘캠 업(Cam up)’과 ‘캠 다운(Cam down)’은 Y축 상의 이동을 나타내는 의미로 사용될 수 있으며, ‘캠 줌 인(Cam zoon in)’과 ‘캠 줌 아웃(Cam zoom out)’은 Z축 상의 이동을 나타내는 의미로 사용될 수 있다.For example, when a three-dimensional Cartesian coordinate system is applied to the position of the
상기 구동제어신호 생성부(155)는 상기 발화지침에 기초하여 상기 구동부(120)를 제어하기 위한 구동제어신호를 생성할 수 있다.The driving control
상기 구동제어신호는 상기 발화지침에 따른 상기 내시경 카메라(110)의 동작을 수행하기 위한 상기 구동부(120)의 작동을 위한 것으로, 상기 구동부(120)의 구체적인 구성에 따라 다양한 형태의 구동제어신호가 생성될 수 있다. The driving control signal is for the operation of the
예를 들어, 상기 구동부(120)가 상기 내시경 카메라(110)를 3축 각각으로 동작시키기 위한 3개의 모터로 이루어지고, 상기 발화지침이 ‘캠 라이트(Cam right)’ 또는 ‘캠 레프트(Cam left)’인 경우, 상기 구동제어신호는 상기 내시경 카메라(110)를 X축 상으로 이동시키는 모터를 작동시키기 위한 신호일 수 있다. For example, the driving
상기 송신부(157)는 상기 내시경 카메라(110)로부터 수신된 영상정보와 상기 발화지침을 상기 헤드셋(130)으로 전송하며, 상기 구동제어신호를 상기 구동부(120)로 전송할 수 있다.The
한편, 상기 헤드셋(130)은 상기 송신부(130)에서 전송되는 영상정보를 표시하는 영상표시부(133)를 포함할 수 있다. Meanwhile, the
상기 내시경 카메라(110)에서 촬영된 영상정보는 상기 송신부(157)로 전송되고, 이어서 상기 송신부(157)에 의해 상기 헤드셋(100)로 전송되어 상기 영상표시부(133)를 통해 표시될 수 있다. The image information photographed by the
상기 헤드셋(120)은 무선 또는 유선으로 상기 송신부(157)와 연결되어 상기 영상정보를 전송받을 수 있다.The
상기 헤드셋(130)에는 사용자의 양측 눈에 대응하는 위치에 머리 착용 디스플레이(HMD, Head Mounted Display)와 같은 형태로 상기 영상표시부(133)가 제공될 수 있다.The
따라서, 사용자는 상기 영상표시부(133)를 통해 상기 내시경 카메라(110)에서 촬영되는 영상정보를 실시간으로 확인하면서 수술을 진행할 수 있다.Accordingly, the user can proceed with the operation while checking the image information captured by the
또한, 상기 헤드셋(130)은 상기 송신부(130)에서 전송되는 발화지침을 상기 영상표시부(133)에 자막으로 표시하는 자막표시부(134)를 더 포함할 수 있다. In addition, the
도 3은 상기 헤드셋(130)의 영상표시부(133)에 발화지침이 자막으로 표시된 일례를 도시한다. FIG. 3 shows an example in which utterance instructions are displayed in captions on the
도 3에서 보이는 바와 같이, 상기 내시경 카메라(110)의 동작 제어에 대한 정보 즉, 상기 발화지침이 상기 헤드셋(130)의 영상표시부(133)에 디스플레이되는 내시경 영상에 자막 형식으로 표시되면, 사용자는 내시경 영상과 함께 상기 발화지침을 동시에 확인하면서 상기 내시경 카메라(110)의 동작을 제어할 수 있다.As shown in FIG. 3 , when information on the operation control of the
한편, 상기 음성인식 판단부(151)는 머신 러닝 기반의 음성 인식 모델을 이용하여 상기 음성인식부(140)를 통해 확보된 음성데이터 중에서 상기 내시경 카메라(110)의 동작 제어에 필요한 단어들을 구분하고 패턴화하여 상기 내시경 카메라(110)의 움직임에 대한 사용자의 의도를 파악할 수 있다.On the other hand, the voice
이때, 상기 음성 인식 모델은 딥 러닝(deep learning) 기반의 학습에 기초하여 구축된 심층신경망(Deep neural network)를 포함할 수 있다. In this case, the voice recognition model may include a deep neural network constructed based on deep learning-based learning.
도 4는 상기 음성인식 판단부(151)에 멀티 레이어 신경망을 이용한 음성인식 모델이 적용된 일예를 도시한다.4 illustrates an example in which a speech recognition model using a multi-layer neural network is applied to the speech
이하에서는 도 4를 참조하여, 상기 음성인식 판단부(151)에 적용되는 음성 인식 모델에 대해서 상세히 설명한다. 여기서, 음성 인식 모델은 인공 지능의 일례로서, 딥러닝에 대해서 상세히 설명한다. Hereinafter, a voice recognition model applied to the voice
인공 지능이란 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 일 분야에 해당한다. 이러한 인공지능의 연구 분야 중 하나인 머신 러닝은 경험적 데이터를 기반으로 예측을 수행하고, 학습을 통해 스스로의 성능을 향상시키는 시스템을 의미할 수 있다. Artificial intelligence is a field of computer science and information technology that studies how computers can do the thinking, learning, and self-development that human intelligence can do. Machine learning, one of the research fields of artificial intelligence, can mean a system that makes predictions based on empirical data and improves its own performance through learning.
머신 러닝의 일종인 딥러닝 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다.Deep learning technology, a type of machine learning, learns from data in multiple stages down to a deep level.
딥러닝은 단계를 높여 갈수록 복수의 데이터로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낼 수 있다.Deep learning can represent a set of machine learning algorithms that extract core data from multiple pieces of data as the level goes up.
딥러닝 구조는 인공신경망(artificial neural network(ANN))을 포함할 수 있고, 예를 들어 딥러닝 구조는 CNN(convolutional neural network), RNN(recurrent neural network), DBN(deep belief network) 등 심층신경망(deep neural network)으로 구성될 수 있다.The deep learning structure may include an artificial neural network (ANN), for example, the deep learning structure is a deep neural network such as a convolutional neural network (CNN), a recurrent neural network (RNN), or a deep belief network (DBN). (deep neural network) can be configured.
도 4를 참조하면, 인공신경망은 입력 레이어(Input Layer), 히든 레이어(Hidden Layer), 및 출력 레이어 (Output Layer)를 포함할 수 있다. 각 레이어는 복수의 노드들을 포함하고, 각 레이어는 다음 레이어와 연결된다. 인접한 레이어 사이의 노드들은 웨이트(weight)를 가지고 서로 연결될 수 있다.Referring to FIG. 4 , the artificial neural network may include an input layer, a hidden layer, and an output layer. Each layer includes a plurality of nodes, and each layer is connected to the next layer. Nodes between adjacent layers may be connected to each other with weights.
여기서, 히든 레이어가 단일 레이어를 가질 수도 있으며 복수 레이어를 가질 수 있다. 전자를 단일 레이어 신경망(single-layer neural network)라 하고 후자를 멀티 레이어 신경망(multi-layer neural network)라 할 수 있다. 도 4에는 멀티 레이어 신경망이 상기 음성인식 판단부(151)에 적용된 일례를 도시하고 있다. Here, the hidden layer may have a single layer or a plurality of layers. The former may be referred to as a single-layer neural network, and the latter may be referred to as a multi-layer neural network. 4 shows an example in which a multi-layer neural network is applied to the speech
상기 음성인식 판단부(151)는 상기 음성인식부(140)를 통해 확보된 음성데이터 중에서 일정한 패턴을 발견해 특징맵(feature-map)을 형성할 수 있다. The voice
예컨대, 도 4에 도시된 바와 같이 상기 음성인식 판단부(151)는 하위레벨 특징(hidden layer 1)부터, 중간레벨 특징(hidden layer 2), 및 상위레벨 특징(hidden layer 3)을 추출하여, 대상을 인식하고 그 결과를 출력(output layer)할 수 있다.For example, as shown in FIG. 4, the voice
인공신경망은 다음 순서의 레이어로 갈 수록 더욱 상위레벨의 특징으로 추상화할 수 있다. 그리고, 다음 순서의 레이어로 갈 수록 노드의 개수는 줄어든다고 할 수 있다. The artificial neural network can be abstracted with higher-level features as it goes to the next layer. And, it can be said that the number of nodes decreases as the next layer progresses.
각 노드들은 활성화 모델에 기초하여 동작할 수 있고, 활성화 모델에 따라 입력값에 대응하는 출력값이 결정될 수 있다.Each node may operate based on an activation model, and an output value corresponding to an input value may be determined according to the activation model.
임의의 노드, 예를 들어, 하위레벨 특징(hidden layer 1)의 출력값은 해당 노드와 연결된 다음 레이어, 예를 들어, 중간레벨 특징(hidden layer 2)의 노드로 입력될 수 있다. 다음 레이어의 노드, 예를 들어, 중간레벨 특징(hidden layer 2)의 노드는 하위레벨 특징(hidden layder 1)의 복수의 노드들로부터 출력되는 값들을 입력받을 수 있다.An output value of an arbitrary node, for example, a low-level feature (hidden layer 1) may be input to a node of a next layer connected to the corresponding node, for example, a node of a middle-level feature (hidden layer 2). A node of a next layer, for example, a node of an intermediate-level feature (hidden layer 2) may receive values output from a plurality of nodes of a lower-level feature (hidden layer 1).
이 때, 각 노드의 입력값은 이전 레이어의 노드의 출력값에 웨이트(weight)가 적용된 값일 수 있다. 웨이트는 노드 간의 연결 강도를 의미할 수 있다.In this case, the input value of each node may be a value in which a weight is applied to the output value of the node of the previous layer. The weight may mean the strength of a connection between nodes.
또한, 딥러닝 과정은 적절한 웨이트를 찾아내는 과정으로도 볼 수 있다.In addition, the deep learning process can be viewed as a process of finding an appropriate weight.
한편, 임의의 노드, 예를 들어, 중간레벨 특징(hidden layer 2)의 출력값은 해당 노드와 연결된 다음 레이어, 예를 들어, 상위레벨 특징(hidden layer 3)의 노드로 입력될 수 있다. 다음 레이어의 노드, 예를 들어, 상위레벨 특징(hidden layer 3)의 노드는 중간레벨 특징(hidden layer 2)의 복수의 노드로부터 출력되는 값들을 입력받을 수 있다.Meanwhile, an output value of an arbitrary node, for example, a middle-level feature (hidden layer 2) may be input to a node of a next layer connected to the corresponding node, for example, a node of a higher-level feature (hidden layer 3). A node of a next layer, for example, a node of a higher-level feature (hidden layer 3) may receive values output from a plurality of nodes of a middle-level feature (hidden layer 2).
인공신경망은 각 레벨에 대응하는 학습된 레이어(layer)를 이용하여, 각 레벨에 대응하는 특징 정보를 추출할 수 있다. 인공신경망은 순차적으로 추상화하여, 가장 상위 레벨의 특징 정보를 출력할 수 있다. The artificial neural network may extract feature information corresponding to each level by using a learned layer corresponding to each level. The artificial neural network may sequentially abstract and output the highest-level feature information.
따라서, 상기 음성인식 판단부(151)는 상기 가장 상위 레벨의 특징 정보로부터 상기 내시경 카메라(110)의 움직임에 대한 사용자의 의도를 파악할 수 있다. Accordingly, the voice
즉, 상기 음성인식 판단부(151)는 머신 러닝 기반의 상기 음성 인식 모델을 이용하여 상기 음성인식부(140)를 통해 확보된 음성데이터 중에서 상기 내시경 카메라(110)의 동작 제어에 필요한 단어들을 구분하고 패턴화하여 상기 내시경 카메라(110)의 움직임에 대한 사용자의 의도를 파악할 수 있다.That is, the voice
그리고, 이와 같이 파악된 사용자의 의도는 상기 발화지침 생성부(153)에 의해 상기 내시경 카메라(110)의 동작 제어에 필요한 발화지침으로 생성될 수 있다.In addition, the user's intention identified in this way may be generated as a speech guideline necessary for operation control of the
한편, 본 실시예와 같이 음성으로 상기 내시경 카메라(110)의 움직임을 제어하는 경우, 상기 내시경 카메라(110) 만을 통해서 수술부위를 관찰하게 되므로 상기 수술공간으로 삽입된 내시경 카메라(110)와 로봇팔(115)의 충돌이 발생할 수 있다. 특히, 상기 로봇팔(115)을 복수개 구비하는 경우에 상기 로봇팔(115)과 내시경 카메라(110)의 충돌 가능성이 높아지게 된다. 상기 로봇팔(115)과 내시경 카메라(110)가 충돌하게 되면, 상기 수술공간(12)에 위치한 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등에 손상이 발생할 수 있다.On the other hand, when controlling the movement of the
특히, 수술 로봇을 이용한 최소 침습 수술의 경우에는 수술 부위가 협소하여 내시경 카메라(110)의 제어 범위가 좁으므로, 상술한 바와 같이 상기 발화지침이 상기 헤드셋(130)의 영상표시부(133)에 디스플레이되는 내시경 영상에 자막 형식으로 표시되도록 하여 사용자가 내시경 카메라(110)의 움직임을 원활히 인지할 수 있도록 하는 피드백 정보뿐만 아니라, 상기 내시경 카메라(110)와 로봇팔(115)의 충돌 가능성에 대한 정보 역시 사용자가 실시간으로 인지하도록 할 필요가 있다.In particular, in the case of minimally invasive surgery using a surgical robot, since the surgical site is narrow and the control range of the
도 5는 다른 실시 예에 따른 수술로봇 시스템의 제어부의 구성을 도시한 블록도이다. 5 is a block diagram illustrating a configuration of a control unit of a surgical robot system according to another embodiment.
도 5를 참조하면, 본 실시 예에 따른 수술로봇 시스템(100)의 제어부(150)는, 상기 실시 예에 따른 수술로봇 시스템의 제어부와 비교하여, 상기 내시경 카메라(110)와 상기 로봇팔(115)의 충돌확률을 계산하여 상기 계산된 충돌확률을 상기 헤드셋(130)으로 전송하는 기능을 더 수행하도록 구성될 수 있다. Referring to FIG. 5 , the
이를 위해, 본 실시 예에 따른 수술로봇 시스템(100)의 제어부(150)는, 상기 실시 예에 따른 수술로봇 시스템(100)의 제어부(100)와 비교하여, 충돌확률 계산부(160)를 더 포함할 수 있다.To this end, the
상기 충돌확률 계산부(160)는 상기 내시경 카메라(110)와 로봇팔(115)의 충돌가능성을 확률로 계산할 수 있다.The
예를 들어, 상기 충돌확률 계산부(160)는 상기 내시경 카메라(110)와 상기 로봇팔(115) 사이의 거리가 '0'인 경우를 충돌확률 100%로 하고, 상기 내시경 카메라(110)와 상기 로봇팔(115) 사이의 거리가 멀어질수록 충돌확률이 낮아지는 것으로 계산할 수 있다.For example, the
이때, 상기 송신부(157)는 상기 충돌확률 계산부(160)에서 계산된 충돌확률을 상기 헤드셋(130)으로 전송할 수 있으며, 상기 헤드셋(130)의 자막표시부(134)는 상기 송신부(157)에서 전송되는 충돌확률을 상기 영상표시부(133)에 자막으로 표시할 수 있다. At this time, the
도 6은 상기 헤드셋(130)의 영상표시부(133)에 충돌확률이 자막으로 표시된 일례를 도시한다.6 shows an example in which the probability of collision is displayed as a caption on the
도 6에서 보이는 바와 같이, 상기 내시경 카메라(110)와 로봇팔(115)간의 충돌확률이 상기 헤드셋(130)의 영상표시부(133)에 디스플레이되는 내시경 영상에 자막 형식으로 표시됨에 따라, 사용자는 내시경 영상과 함께 상기 내시경 카메라(110)와 로봇팔(115)간의 충돌확률을 동시에 확인하면서 상기 내시경 카메라(110)의 동작을 제어할 수 있다. As shown in FIG. 6 , as the collision probability between the
따라서, 본 실시 예에 따른 수술로봇 시스템(100)은, 상기 발화지침이 상기 헤드셋(130)의 영상표시부(133)에 디스플레이되는 내시경 영상에 자막 형식으로 표시되도록 함으로써, 사용자가 상기 내시경 카메라(110)의 움직임을 원활히 인지할 수 있도록 할 수 있을 뿐만 아니라, 상기 내시경 카메라(110)와 로봇팔(115)의 충돌 가능성에 대한 정보까지도 사용자가 실시간으로 인지할 수 있도록 할 수 있으므로, 사용자는 보다 안전하고 원활하게 상기 내시경 카메라(110)의 움직임을 제어할 수 있다.Therefore, in the
또한, 본 실시 예에 따른 수술로봇 시스템(100)은, 상기 충돌확률에 대한 과도한 정보에 대한 사용자의 노출을 방지할 수 있도록, 상기 헤드셋(130)의 영상표시부(133)에 자막으로 표시되는 충돌확률의 기준을 사용자가 선택할 수 있도록 구성될 수 있다. In addition, the
이를 위해, 상기 음성인식 판단부(151)는 상기 음성인식부(140)를 통해 확보된 음성데이터로부터 상기 내시경 카메라(110)의 움직임에 대한 사용자의 의도뿐만 아니라, 상기 내시경 카메라(110)와 로봇팔(115)의 충돌확률을 표시하는 기준에 대한 사용자 의도를 파악하도록 구성될 수 있다.To this end, the voice
이때, 상기 음성인식 판단부(151)는 머신 러닝 기반의 음성 인식 모델을 통해 상기 음성인식부(140)를 통해 확보된 음성데이터 중에서 상기 내시경 카메라(110) 동작 제어에 필요한 단어들과 상기 내시경 카메라(110)와 로봇팔(115)의 충돌확률을 표시하는 기준에 대한 단어들을 구분하고 패턴화하여 상기 내시경 카메라(110)의 움직임에 대한 사용자 의도와 상기 내시경 카메라(110)와 상기 로봇팔(115)의 충돌확률을 표시하는 기준에 대한 사용자 의도를 파악할 수 있다.In this case, the voice
여기서, 상기 음성 인식 모델은 딥 러닝(deep learning) 기반의 학습에 기초하여 구축된 심층신경망(Deep neural network)를 포함할 수 있음은 전술한 바와 같다.Here, as described above, the voice recognition model may include a deep neural network constructed based on deep learning-based learning.
또한, 상기 제어부(150)는 충돌확률 표시여부 판단부(165)를 더 포함할 수 있다.In addition, the
상기 충돌확률 표시여부 판단부(165)는 상기 충돌확률 계산부(160)에서 계산된 충돌확률이 상기 음성인식 판단부(151)에서 파악된 상기 내시경 카메라(110)와 로봇팔(115)의 충돌확률을 표시하는 기준에 대한 사용자 의도에 따른 충돌확률보다 높은 경우에 상기 송신부(157)가 상기 충돌확률 계산부(160)에서 계산된 충돌확률을 상기 헤드셋(130)으로 전송하도록 할 수 있다.The collision probability
예를 들어, 사용자가 상기 음성인식부(140)를 통해 충돌확률 기준을 80%라고 발화하면, 상기 충돌확률 기준은 상기 음성인식 판단부(151)에 의해 80%로 파악되고, 상기 충돌확률 표시여부 판단부(165)는 상기 충돌확률 계산부(160)에서 계산된 충돌확률이 80% 미만일 때는 상기 송신부(157)가 상기 충돌확률을 상기 헤드셋(130)으로 송신하지 않도록 하여 상기 충돌확률이 상기 영상표시부(133)에 표시되지 않도록 하며, 상기 충돌확률 계산부(160)에서 계산된 충돌확률이 80% 이상일 때는 상기 송신부(157)가 상기 충돌확률을 상기 헤드셋(130)으로 송신하도록 하여 상기 충돌확률이 상기 영상표시부(133)에 표시되도록 할 수 있다. For example, if the user utters that the collision probability criterion is 80% through the
따라서, 사용자는 상기 내시경 카메라(110)와 로봇팔(115)의 충돌확률이 높은 위험한 상황에서만 상기 충돌확률에 대한 정보를 자막을 통해 확인할 수 있게 됨에 따라, 상기 충돌확률에 대한 과도한 정보에 대한 사용자의 노출을 방지할 수 있으며, 따라서 로봇수술의 안전성을 도모할 수 있음과 동시에 사용자의 편의성을 증대시킬 수 있다.Therefore, the user can check the information on the collision probability through subtitles only in a dangerous situation where the collision probability between the
이상에서 살펴본 바와 같이, 본 발명은 사용자가 내시경 영상을 VR(Virtual Reality) 헤드셋(Headset)을 통해 확인하면서 음성인식 마이크로폰을 이용하여 손을 사용할 필요없이 음성으로 내시경 카메라의 동작을 제어할 수 있는 수술로봇 시스템에 관한 것으로서, 그 실시 형태는 다양한 형태로 변경가능하다 할 것이다. 따라서 본 발명은 본 명세서에서 개시된 실시 예에 의해 한정되지 않으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 변경 가능한 모든 형태도 본 발명의 권리범위에 속한다 할 것이다.As described above, the present invention allows the user to control the operation of the endoscopic camera by voice without using a hand using a voice recognition microphone while checking the endoscopic image through a VR (Virtual Reality) headset. As it relates to the robot system, the embodiment will be said to be changeable in various forms. Therefore, the present invention is not limited by the embodiments disclosed herein, and all forms that can be changed by a person of ordinary skill in the art to which the present invention pertains will fall within the scope of the present invention.
100 : 수술로봇 시스템
110 : 내시경 카메라
120 : 구동부 130 : 헤드셋
133 : 영상표시부 134 : 자막표시부
140 : 음성인식부 150 : 제어부
151 : 음성인식 판단부
153 : 발화지침 생성부
155 : 구동제어신호 생성부
157 : 송신부
160 : 충돌확률 계산부
165 : 충돌확률 표시여부 판단부100: surgical robot system
110: endoscope camera
120: driving unit 130: headset
133: video display unit 134: subtitle display unit
140: voice recognition unit 150: control unit
151: voice recognition determination unit
153: ignition guide generation unit
155: drive control signal generator
157: transmitter
160: collision probability calculator
165: collision probability display determination unit
Claims (16)
상기 수술공간으로 삽입되어 상기 수술부위를 수술하기 위한 로봇팔;
상기 내시경 카메라를 이동시키는 구동부;
사용자의 머리에 착탈 가능하게 착용되어 상기 내시경 카메라에서 촬영된 영상을 표시하는 헤드셋;
사용자의 음성을 인식하는 음성인식부; 및
상기음성인식부에서 인식된 음성데이터로부터 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악한 후 이를 기초로 상기 구동부를 제어하기 위한 구동제어신호를 상기 구동부로 송신하고, 상기 내시경 카메라와 상기 로봇팔의 충돌확률을 계산하여 상기 계산된 충돌확률을 상기 헤드셋으로 전송하며, 상기 내시경 카메라로부터 수신된 영상정보를 상기 헤드셋으로 전송하는 제어부;를 포함하고,
상기 제어부는,
상기 음성인식부를 통해 확보된 음성데이터로부터 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 파악하는 음성인식 판단부;
상기 음성인식 판단부에서 파악된 상기 내시경 카메라의 움직임에 대한 사용자의 의도를 기초로 상기 내시경 카메라의 동작 제어에 필요한 발화지침을 생성하는 발화지침 생성부;
상기 발화지침에 기초하여 상기 구동부를 제어하기 위한 구동제어신호를 생성하는 구동제어신호 생성부;
상기 내시경 카메라와 상기 로봇팔의 충돌가능성을 확률로 계산하는 충돌확률 계산부; 및
상기 내시경 카메라로부터 수신된 영상정보와, 상기 발화지침과, 상기 충돌확률 계산부에서 계산된 충돌확률을 상기 헤드셋으로 전송하며, 상기 구동제어신호를 상기 구동부로 전송하는 송신부;를 포함하고,
상기 헤드셋은,
상기 송신부에서 전송되는 영상정보를 표시하는 영상표시부; 및
상기 송신부에서 전송되는 발화지침과 충돌확률을 상기 영상표시부에 표시하는 자막표시부;를 포함하고,
상기 음성인식 판단부는 상기 내시경 카메라와 로봇팔의 충돌확률을 표시하는 기준에 대한 사용자 의도를 파악하도록 구비되고,
상기 제어부는 상기 충돌확률 계산부에서 계산된 충돌확률이 상기 음성인식 판단부에서 파악된 상기 내시경 카메라와 로봇팔의 충돌확률을 표시하는 기준에 대한 사용자 의도에 따른 충돌확률보다 높은 경우에 상기 송신부가 상기 충돌확률 계산부에서 계산된 충돌확률을 상기 헤드셋으로 전송하도록 하는 충돌확률 표시여부 판단부를 더 포함하는 것을 특징으로 하는 수술로봇 시스템.an endoscopic camera inserted into the operating space through a predetermined incision to photograph the surgical site in real time;
a robot arm inserted into the operating space to operate the surgical site;
a driving unit for moving the endoscope camera;
a headset that is detachably worn on the user's head and displays the image captured by the endoscope camera;
a voice recognition unit for recognizing the user's voice; and
After recognizing the user's intention for the movement of the endoscope camera from the voice data recognized by the voice recognition unit, a driving control signal for controlling the driving unit is transmitted to the driving unit based on this, and the endoscope camera and the robot arm A control unit that calculates a collision probability, transmits the calculated collision probability to the headset, and transmits image information received from the endoscope camera to the headset;
The control unit is
a voice recognition determination unit for identifying a user's intention for the movement of the endoscope camera from the voice data secured through the voice recognition unit;
a speech guide generation unit for generating speech guidelines necessary for controlling the operation of the endoscope camera based on the user's intention for the movement of the endoscope camera detected by the speech recognition determination unit;
a driving control signal generating unit configured to generate a driving control signal for controlling the driving unit based on the ignition guide;
a collision probability calculator for calculating the probability of collision between the endoscope camera and the robot arm as a probability; and
a transmission unit for transmitting the image information received from the endoscope camera, the ignition instructions, and the collision probability calculated by the collision probability calculator to the headset, and transmitting the driving control signal to the driving unit;
The headset is
an image display unit for displaying image information transmitted from the transmitting unit; and
and a caption display unit for displaying the utterance instructions transmitted from the transmitter and the collision probability on the image display unit;
The voice recognition determination unit is provided to determine the user's intention with respect to the criterion for displaying the probability of collision between the endoscope camera and the robot arm,
The control unit is the transmission unit when the collision probability calculated by the collision probability calculation unit is higher than the collision probability according to the user's intention with respect to the criterion for displaying the collision probability between the endoscope camera and the robot arm identified by the voice recognition determination unit The surgical robot system further comprising a collision probability display determination unit for transmitting the collision probability calculated by the collision probability calculation unit to the headset.
상기 음성인식 판단부는 머신 러닝 기반의 음성 인식 모델을 통해 상기 음성인식부를 통해 확보된 음성데이터 중에서 상기 내시경 카메라 동작 제어에 필요한 단어들과 상기 내시경 카메라와 로봇팔의 충돌확률을 표시하는 기준에 대한 단어들을 구분하고 패턴화하여 상기 내시경 카메라의 움직임에 대한 사용자 의도와 상기 내시경 카메라와 상기 로봇팔의 충돌확률을 표시하는 기준에 대한 사용자 의도를 파악하는 것을 특징으로 하는 수술로봇 시스템.13. The method of claim 12,
The voice recognition determination unit is a word for a criterion for displaying the probability of collision between the endoscope camera and the robot arm and the words necessary for controlling the operation of the endoscope camera among the voice data secured through the voice recognition unit through the machine learning-based voice recognition model Surgical robot system, characterized in that by distinguishing and patterning the user intention for the movement of the endoscope camera and the user intention with respect to a criterion for displaying the probability of collision between the endoscope camera and the robot arm.
상기 음성 인식 모델은 딥 러닝(deep learning) 기반의 학습에 기초하여 구축된 심층신경망(Deep neural network)를 포함함을 특징으로 하는 수술로봇 시스템.14. The method of claim 13,
The voice recognition model is a surgical robot system, characterized in that it comprises a deep neural network (Deep neural network) built based on learning based on deep learning (deep learning).
상기 발화 지침은 ‘캠 라이트(Cam right)’, ‘캠 레프트(Cam left)’, ‘캠 업(Cam up)’, ‘캠 다운(Cam down)’, ‘캠 줌 인(Cam zoon in)’및 ‘캠 줌 아웃(Camera zoom out)’을 포함하는 것을 특징으로 하는 수술로봇 시스템.14. The method of claim 13,
The utterance instructions are 'Cam right', 'Cam left', 'Cam up', 'Cam down', and 'Cam zoom in'. And Surgical robot system comprising a 'cam zoom out (Camera zoom out)'.
상기 음성인식부는 상기 헤드셋 일측에 착탈가능하게 구비되거나 상기 헤드셋에 일체로 구비되는 마이크로폰인 것을 특징으로 하는 수술로봇 시스템.13. The method of claim 12,
The voice recognition unit is a surgical robot system, characterized in that the microphone is detachably provided on one side of the headset or provided integrally with the headset.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200131637A KR102430468B1 (en) | 2020-10-13 | 2020-10-13 | Surgical robot system based on Headset using voice recognition Microphone |
PCT/KR2021/013954 WO2022080788A1 (en) | 2020-10-13 | 2021-10-08 | Surgical robot system using headset-based voice recognition microphone |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200131637A KR102430468B1 (en) | 2020-10-13 | 2020-10-13 | Surgical robot system based on Headset using voice recognition Microphone |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220049062A KR20220049062A (en) | 2022-04-21 |
KR102430468B1 true KR102430468B1 (en) | 2022-08-09 |
Family
ID=81208407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200131637A KR102430468B1 (en) | 2020-10-13 | 2020-10-13 | Surgical robot system based on Headset using voice recognition Microphone |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102430468B1 (en) |
WO (1) | WO2022080788A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10866783B2 (en) * | 2011-08-21 | 2020-12-15 | Transenterix Europe S.A.R.L. | Vocally activated surgical control system |
US11561762B2 (en) * | 2011-08-21 | 2023-01-24 | Asensus Surgical Europe S.A.R.L. | Vocally actuated surgical control system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002244841A (en) * | 2001-02-21 | 2002-08-30 | Japan Science & Technology Corp | Voice indication system and voice indication program |
KR101705921B1 (en) * | 2009-03-31 | 2017-02-10 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | Synthetic representation of a surgical robot |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101598774B1 (en) * | 2009-10-01 | 2016-03-02 | (주)미래컴퍼니 | Apparatus and Method for processing surgical image |
WO2015172021A1 (en) * | 2014-05-09 | 2015-11-12 | Nazareth Godfrey | Portable surgical methods, systems, and apparatus |
JP2017070636A (en) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | Surgical operation system, surgical operation control device, and surgical operation control method |
KR102297517B1 (en) | 2019-03-06 | 2021-09-02 | 서울대학교 산학협력단 | Surgical robot system for minimal invasive surgery and drive method thereof |
-
2020
- 2020-10-13 KR KR1020200131637A patent/KR102430468B1/en active IP Right Grant
-
2021
- 2021-10-08 WO PCT/KR2021/013954 patent/WO2022080788A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002244841A (en) * | 2001-02-21 | 2002-08-30 | Japan Science & Technology Corp | Voice indication system and voice indication program |
KR101705921B1 (en) * | 2009-03-31 | 2017-02-10 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | Synthetic representation of a surgical robot |
Also Published As
Publication number | Publication date |
---|---|
WO2022080788A1 (en) | 2022-04-21 |
KR20220049062A (en) | 2022-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11886772B2 (en) | Vocally actuated surgical control system | |
US10772689B2 (en) | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide | |
US11779418B2 (en) | System and apparatus for positioning an instrument in a body cavity for performing a surgical procedure | |
KR102430468B1 (en) | Surgical robot system based on Headset using voice recognition Microphone | |
EP3612123A1 (en) | Systems and methods for constraining a virtual reality surgical system | |
EP2533678B1 (en) | System for automatically maintaining an operator selected roll orientation at a distal tip of a robotic endoscope | |
JP5028219B2 (en) | Manipulator device and medical device system | |
EP1965699B1 (en) | Medical robotic system providing three-dimensional telestration | |
WO2021124716A1 (en) | Method, apparatus and system for controlling an image capture device during surgery | |
US9974620B2 (en) | Manipulator system, and medical system | |
JP2022184961A (en) | Automatic endoscope video augmentation | |
KR101598774B1 (en) | Apparatus and Method for processing surgical image | |
WO2017175232A1 (en) | Vocally activated surgical control system | |
JP2023509321A (en) | Guided anatomical manipulation for endoscopic procedures | |
JP2002017752A (en) | Endoscopic surgery system | |
Nakazawa et al. | Feedback methods for collision avoidance using virtual fixtures for robotic neurosurgery in deep and narrow spaces | |
Bihlmaier et al. | Endoscope robots and automated camera guidance | |
KR102297517B1 (en) | Surgical robot system for minimal invasive surgery and drive method thereof | |
KR20110059587A (en) | Surgical robot system and motion restriction control method thereof | |
US20220409326A1 (en) | Method, apparatus and system for controlling an image capture device during surgery | |
WO2021125115A1 (en) | Robotic arm system, method and computer program | |
JP2014158577A (en) | Endoscope system | |
KR101114237B1 (en) | Apparatus and method for processing surgical image based on motion | |
CN115836915A (en) | Surgical instrument control system and control method for surgical instrument control system | |
WO2024006729A1 (en) | Assisted port placement for minimally invasive or robotic assisted surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |