WO2023013832A1 - 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템 - Google Patents

헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템 Download PDF

Info

Publication number
WO2023013832A1
WO2023013832A1 PCT/KR2022/000256 KR2022000256W WO2023013832A1 WO 2023013832 A1 WO2023013832 A1 WO 2023013832A1 KR 2022000256 W KR2022000256 W KR 2022000256W WO 2023013832 A1 WO2023013832 A1 WO 2023013832A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
robot arm
state
hand
surgical
Prior art date
Application number
PCT/KR2022/000256
Other languages
English (en)
French (fr)
Inventor
김성완
김영균
이원석
김병수
윤단
Original Assignee
서울대학교병원
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원, 서울대학교 산학협력단 filed Critical 서울대학교병원
Publication of WO2023013832A1 publication Critical patent/WO2023013832A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/77Manipulators with motion or force scaling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/303Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels

Definitions

  • the present invention relates to a surgical robot control system using a headset-based non-contact hand-tracking technology, and more particularly, to miniaturize a control unit of a surgical robot into a head-worn headset, and to use the non-contact hand-tracking technology. It relates to a surgical robot control system that can improve the overall surgical environment of a surgeon by applying the surgical robot manipulation method.
  • Minimally invasive surgery is a surgical technique that allows the patient to perform necessary medical care by making a minimal incision. Compared to traditional surgical methods (open surgery, open surgery, etc.) It is contributing greatly to improving the treatment prognosis of patients with small or invisible scars, etc.).
  • Minimally invasive surgery was initially performed through manual operation of laparoscopic surgical instruments, but this was performed due to various limitations (counter-intuitive operation method, low degree of freedom of surgical instruments, and reduced depth due to 2-dimensional endoscopic images). etc.), and robotic surgery combined with robotics was developed to improve the disadvantages of manual operation.
  • the surgical robot is largely composed of a master console operated by the surgeon and a patient side robot.
  • dVSS da Vinci Surgical System
  • the master console consists of a Stereo Viewer that transmits a 3D image to the surgeon, Master Tool Manipulators (MTMs) that can apply position manipulation inputs to the robot, and Feet that can perform various special functions. It is composed of Pedal Tray.
  • MTMs Master Tool Manipulators
  • the Stereo Viewer transmits images taken from different viewpoints to each eye of the surgeon to artificially feel parallax so that a sense of depth and immersion can be felt.
  • the Patient Side Robot is composed of several manipulators to which various surgical tools (forceps, scalpel, scissors, endoscope, etc.) can be attached.
  • various surgical tools forceps, scalpel, scissors, endoscope, etc.
  • the Patient Side Manipulators used to directly manipulate the patient and the surgical site It is divided into Endoscopic Camera Manipulator (ECM), which can be equipped with an endoscope camera that takes images of and provides vision to the surgeon.
  • ECM Endoscopic Camera Manipulator
  • the Master Tool Manipulator is a device that focuses on the free and intuitive position control of the Patient Side Robot and is the control panel of the master console.
  • the surgeon can freely apply manipulations using the movements of the hands and wrists within the allowable manipulation range of MTM. These movements are reflected to the manipulator currently being controlled by the Patient Side Robot, and the surgical tools mounted on the manipulator are designed to implement the movements of the MTM.
  • the Foot Pedal Tray is composed of pedals that can perform various functions other than position control of each manipulator of the Patient Side Robot.
  • the surgical robot has a problem in that the surgical space is inefficiently utilized due to its large volume.
  • da Vinci Surgical System has high initial purchase, maintenance, and repair costs, which act as a great economic burden for both hospitals and patients, and despite the various advantages of robotic surgery, it is relatively not widely used. .
  • the present invention is to solve the above problems, and an object of the present invention is to provide a surgical robot control system using a headset-based non-contact hand motion recognition technology.
  • the present invention determines the anatomical landmarks (key points) of the hand in a non-contact manner using a camera, acquires their three-dimensional coordinates, and classifies the hand gestures based on the answer learning and machine learning algorithms.
  • An object of the present invention is to provide a surgical robot control system capable of implementing hand motion recognition.
  • the present invention applies a complete non-contact method capable of obtaining information on the position and gesture of the hand without the need for an additional wearable structure, thereby controlling a surgical robot capable of minimizing the physical fatigue of the surgeon's hand or wrist joint.
  • the purpose is to provide a system.
  • the present invention estimates the 3D position of the hand by using a deep learning algorithm through the images of two cameras mounted on the HMD (Head-Mounted Display), and various gestures other than pinch gestures due to the large number of landmarks.
  • An object of the present invention is to provide a surgical robot control system capable of recognizing.
  • an object of the present invention is to provide a surgical robot control system capable of reducing the fatigue of the surgeon's neck and back by replacing the conventional vision system with the HMD in the stereo viewer to improve the operating environment of the surgeon.
  • the present invention is capable of recognizing various gestures, so it is an object of the present invention to provide a surgical robot control system capable of performing complex functions such as changing the control right of a robot arm performed by a conventional foot pedal and manipulating the position of an endoscope camera only by recognizing hand motions. .
  • the present invention provides a more convenient and intuitive surgical environment for surgeons by replacing the function of the conventional foot pedal by integrating the change of control authority for various robot arms, such as three PSMs and one ECM, into one method called hand motion recognition.
  • the purpose of the present invention is to provide a surgical robot control system capable of
  • a surgical robot control system includes an endoscope that is inserted into a surgical space through a predetermined incision and photographs the surgical site in real time; A plurality of robot arms inserted into the surgical space through a predetermined incision; a headset that is detachably worn on the head of the surgeon and displays images captured by the endoscope; a camera provided in the headset to record hand movements of the surgeon; a hand motion recognition unit recognizing a gesture for controlling the robot arm from the hand motion image of the housekeeper captured by the camera; and a control unit controlling the robot arm based on the gesture recognized by the hand motion recognizing unit, and receiving image information from the endoscope and transmitting the received image information to the headset.
  • the endoscope is inserted into the surgical space through a predetermined incision to photograph the surgical site in real time; a driving unit for moving the endoscope; A plurality of robot arms inserted into the surgical space through a predetermined incision; a headset that is detachably worn on the head of the surgeon and displays images captured by the endoscope; a camera provided in the headset to record hand movements of the surgeon; a hand motion recognition unit recognizing a gesture for controlling the robot arm and the driving unit from the hand motion image of the housekeeper captured by the camera; and a control unit controlling the robot arm and the driving unit based on the gesture recognized by the hand motion recognizing unit, and receiving image information from the endoscope and transmitting the received image information to the headset.
  • anatomical landmarks (key points) of the hand are non-contacted using a camera, and their 3D coordinates are obtained. Therefore, hand gesture recognition can be implemented by classifying hand gestures based on answer learning and machine learning algorithms.
  • the surgical robot control system by applying a complete non-contact method capable of obtaining information on the position and gesture of the hand without the need for an additional structure to be worn, the surgeon's hand or wrist Physical fatigue of the joints can be minimized.
  • the three-dimensional position of the hand is estimated by using a deep learning algorithm through images of two cameras mounted on a head-mounted display (HMD), and landmark Since the number of is large, it is possible to recognize various gestures other than pinch gestures.
  • HMD head-mounted display
  • various gestures can be recognized, and complex functions such as changing the control right of a robot arm and manipulating the position of an endoscope camera, which were previously performed by a foot pedal, can be performed only by recognizing hand motions.
  • changing the control right for various robot arms is integrated into one method of hand motion recognition, replacing the function of the conventional foot pedal. , it can provide a more convenient and intuitive surgical environment to the surgeon.
  • the surgical robot control system it is possible to efficiently utilize the surgical space by replacing the stereo viewer of the conventional surgical robot with a headset-based display, and significantly reduce hardware purchase, maintenance, and repair costs. As it can be reduced, overall medical costs can be reduced. In addition, the surgeon no longer has to perform surgery while fixing the waist and neck for a long time, and can reduce physical fatigue by viewing a high-quality 3D image even when wearing only a lightweight headset.
  • the surgical robot control system by using the non-contact hand motion recognition technology for controlling the surgical robot, the conventional MTM and Foot Pedal Tray are no longer needed, enabling efficient use of the surgical space it can be done.
  • dVSS da Vinci Surgical System
  • FIG. 2 is a schematic diagram showing the configuration of a surgical robot control system according to an embodiment of the present invention
  • FIG. 3 is a configuration diagram of a surgical robot control system according to FIG. 2;
  • FIG. 4 is a diagram schematically showing an example of a hand gesture recognition unit according to the present invention.
  • 5 is a diagram illustrating a selection gesture
  • 6(a) is a diagram illustrating a clutch gesture
  • 6(b) is a diagram showing a manipulation gesture
  • 6(c) is a diagram showing an energy gesture
  • FIG. 7 is a diagram showing a coordinate axis alignment relationship between a process of adjusting the coordinate axes of a robot arm and a hand of a housekeeper and a process of manipulating a robot arm;
  • FIG. 8 is a block diagram of a surgical robot control system according to another embodiment of the present invention.
  • FIG. 9 is a diagram illustrating an endoscope gesture according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an example of endoscope operation and control.
  • each layer film
  • region, pattern, or structure may be modified or exaggerated for clarity and convenience of explanation, and the present invention is not limited by the relative size or thickness shown in the accompanying drawings.
  • each embodiment may be implemented independently or together, and some components may be excluded in accordance with the purpose of the invention.
  • first and second may be used to describe various components, but the components are not limited to the above terms and may be used for the purpose of distinguishing one component from another.
  • FIG. 2 is a schematic diagram showing the configuration of a surgical robot control system according to an embodiment of the present invention
  • FIG. 3 is a configuration diagram of the surgical robot control system according to FIG. 2 .
  • the surgical robot control system 100 includes an endoscope 110, a plurality of robot arms 120, a headset 130, and a camera 140. , a hand gesture recognition unit 150 and a control unit 160 may be included.
  • the endoscope 110 is inserted into the surgical space 12 through a predetermined incision 21 and takes pictures of the surgical site in real time.
  • the plurality of robot arms 120 are configured to be inserted into the surgical space 12 through predetermined incisions 23, 25, and 27, for example, the plurality of robot arms 120 are conventional PSM (Patient Side Manipulators), and may include a first robot arm 121, a second robot arm 123, and a third robot arm 125.
  • PSM Patient Side Manipulators
  • the headset 130 is detachably worn on the head of the surgeon and displays 2D or 3D images captured by the endoscope 110 .
  • the camera 140 is provided in the headset 130 and is configured to photograph the hand motions of the housekeeper, and may be detachably attached to the headset 130.
  • the hand motion recognition unit 150 recognizes a gesture for controlling the robot arm 120 from the hand motion image of the housekeeper captured by the camera 140 .
  • the control unit 160 controls the robot arm 120 based on the gesture recognized by the hand motion recognition unit 150, receives image information from the endoscope 110, and transmits it to the headset 130.
  • the operating space 12 corresponds to the inside of a human or animal body, and in the operating space 12, organs 15, various blood vessels 17 such as arteries and veins, or nerves 19 ) can be distributed.
  • Lower ends of the endoscope 110 and the plurality of robot arms 121, 123, and 125 may be inserted into the surgical space 12 through pre-formed incisions 21, 23, 25, and 27.
  • the plurality of robotic arms 121 , 123 , and 125 are surgical tools that can take necessary measures on the surgical site inside the surgical space 12 , for example, by applying heat or current to the end of the robot arm 120 to cut the A surgical tool or the like capable of applying or hemostasis may be provided at its distal end, but is not limited to a specific form.
  • the incisions 21 , 23 , 25 , and 27 may be formed of holes such as an abdominal cavity having a size or diameter into which the lower end of the endoscope 110 or the robot arm 120 can be inserted.
  • the number of incisions 21 , 23 , 25 , and 27 may be determined to correspond to the number of robot arms 120 and endoscopes 110 required for surgery. For example, as shown in the drawing, when surgery is performed using three robot arms 121, 123, and 125 and one endoscope 110, the incisions 21, 23, 25, and 27 are the endoscope 110 ), and three robot arm incisions 23, 25, and 27 for inserting the robot arm 120.
  • the number of the incisions 21 , 23 , 25 , and 27 described in the present invention is merely an example and may be appropriately modified.
  • the headset 130 that can be worn on the user's head can be implemented in the form of a VR headset (virtual reality headset), which has recently been actively developed.
  • the headset 130 may be implemented as a Head Mounted Display (HMD).
  • HMD Head Mounted Display
  • the HMD can track the relative position of the HMD in real time based on infrared signals transmitted from multiple fixed base stations, and the user can use various inputs (controller, headset position and posture change, voice, etc.) and outputs (sound, Vibration, screen, etc.) to interact with the mixed reality interface.
  • the headset 130 is not limited to the HMD, which is a type of VR device, and can be implemented in various examples.
  • the camera 140 may be detachably provided on one side of the headset 130 or implemented in a form integrally provided with the headset 130, but the present invention is not limited thereto.
  • FIG. 4 is a diagram schematically illustrating an example of a hand gesture recognition unit according to the present invention.
  • the hand gesture recognition unit 150 may implement hand gesture recognition using a deep learning algorithm or a machine learning algorithm from an image of a surgeon's hand gesture captured by the camera 140 .
  • the hand motion recognition unit 150 obtains information on the 3D position and orientation of the hand from the hand motion image captured by the camera 140, and then determines the state of the hand.
  • Hand gesture recognition can be implemented by determining anatomical landmarks (key points), obtaining 3D coordinates of the landmarks, and classifying hand gestures using a deep learning or machine learning algorithm.
  • a potentiometer, an inertial measurement unit (IMU), wearable gloves, etc. are directly attached to or worn on the body to determine the position of the hand and It can be implemented by inputting the posture in real time, but in this case, it is inconvenient for the surgeon to wear various equipment.
  • IMU inertial measurement unit
  • the hand motion recognition unit 150 can recognize a hand motion by analyzing a black-and-white or color image of a hand acquired through a digital camera without wearing a separate device.
  • the hand gesture recognizing unit 150 may implement hand gesture recognition through machine learning, deep learning, or the like, from the hand gesture image of the housekeeper captured by the camera 140 .
  • Machine learning one of these artificial intelligence research fields, can mean a system that makes predictions based on empirical data and improves its own performance through learning.
  • Deep learning technology a type of machine learning, learns by going down to a deep level in multiple stages based on data.
  • Deep learning can represent a set of machine learning algorithms that extract core data from a plurality of data as the level increases.
  • the deep learning structure may include an artificial neural network (ANN), and for example, the deep learning structure may include a deep neural network such as a convolutional neural network (CNN), a recurrent neural network (RNN), and a deep belief network (DBN). (deep neural network).
  • ANN artificial neural network
  • CNN convolutional neural network
  • RNN recurrent neural network
  • DNN deep belief network
  • the gesture may include a selection gesture, a clutch gesture, a manipulation gesture, and an energy gesture.
  • FIG. 5 and 6 are diagrams for explaining gestures according to an embodiment of the present invention, in which FIG. 5 is a diagram showing a selection gesture, FIG. 6 (a) is a diagram showing a clutch gesture, and FIG. 6 (b) is a diagram showing a manipulation gesture, and FIG. 6(c) is a diagram showing an energy gesture.
  • the selection gesture is a gesture for selecting at least one robot arm to be manipulated from among the plurality of robot arms 120 and selecting which hand of the operator to secure control of the selected robot arm.
  • the operating surgeon may take the selection gesture by expressing the number of the robot arm to be manipulated as a hand to manipulate the robot arm.
  • the left hand can spread one finger, and the right hand can make a gesture with two fingers extended.
  • the hand motion recognition unit 150 recognizes the selection gesture according to FIG. 5(a), and the control unit 160 determines the first robot arm based on the selection gesture according to FIG. 5(a). 121) can be secured with the surgeon's left hand, and the second robot arm 123 can be secured with the surgeon's right hand.
  • the clutch gesture is a gesture for converting the selected robot arm into a manipulable state, and is a gesture for activating the selected robot arm from a ready state to a manipulation state.
  • the surgeon may perform the clutch gesture by bringing the thumb, index finger, and middle finger together at one point and making a gesture with both the ring finger and the small finger extended.
  • the manipulation gesture is a gesture for freely manipulating the selected robot arm.
  • the surgeon may perform the manipulation gesture by making the thumb and middle finger in the shape of a forefinger and extending all other fingers.
  • the energy gesture is a gesture for operating a surgical tool provided at the distal end of the selected robot arm.
  • the housekeeper may take the energy gesture by making a gesture by bringing all the fingers together at one point.
  • the control unit 160 may switch the robot arm corresponding to the selection gesture from an idle state to a ready state. .
  • the control unit 160 operates the robot arm in the ready state. (Manipulation) state can be switched.
  • the control unit 160 controls the operation of the robot arm according to the movement of the operating gesture. You can control movement.
  • control unit 160 may operate a surgical tool provided at the distal end of the robot arm when the gesture recognized by the hand motion recognition unit 150 is the energy gesture in a state in which the movement of the robot arm is controlled. .
  • the Idle state is a state in which the operator's hand has not acquired the right to control the robot arm
  • the Ready state is a state in which the operator's hand has acquired the right to control the robot arm
  • Actuation is a disabled state (Deactivated state)
  • Manipulation state is a state (Activated state) in which the operator's hand acquires the right to control the robot arm and even drives the robot arm.
  • control unit 160 may switch the robot arm from an operating state to a ready state when the gesture recognized by the hand motion recognizing unit 150 is the clutch gesture in a state in which the movement of the robot arm is controlled.
  • the operating surgeon may readjust only the posture of the bone without moving the robot arm, and may control the robot arm again by taking the operating gesture again in the readjusted posture.
  • the operating surgeon takes the manipulation gesture to manipulate the robot arm and then takes the clutch gesture, the operating surgeon's hand movement is no longer reflected on the robot arm (deactivation), and the operating surgeon adjusts the position of the arm in a comfortable position for manipulation. If an operation gesture is taken again after adjustment, then the robot arm can be operated again.
  • FIG. 7 is a diagram illustrating a coordinate axis alignment relationship between a process of adjusting the coordinate axes of a robot arm and a hand of a housekeeper and a process of manipulating a robot arm.
  • the robot arm 120 is a surgical tool capable of directly applying physical manipulation to the patient's body, the patient's safety should be prioritized in manipulation. Therefore, coordinate axis adjustment (Frame Calibration) of the robot arm 120 and the hands of the housekeeper is required to safely control the robot arm 120 .
  • the coordinate axis adjustment may be performed by the control unit 160 when the robot arm is switched from a ready state to an operating state, that is, when the gesture recognized by the hand motion recognizing unit 150 is the clutch gesture.
  • the third metacarpophalangeal (3rd MCP) Joint is the origin of the coordinate system of the surgeon's hand, and the direction reaching the midpoint between the tip of the thumb and the tip of the middle finger is the x-axis of the hand. (xh-axis), and the normal vector in the direction of the index finger of the plane composed of the thumb and middle finger becomes the z-axis (zh-axis) of the hand, and the y-axis can be determined by the right-hand rule.
  • the coordinate axes xe, ye, and ze of the end-effector of the robot arm 120 can also be defined, and the control unit 160 determines that xh, yh, and zh are xe, ye , ze, the robot arm is activated from the ready state to the manipulation state.
  • whether the coordinate axes are aligned can be determined by estimating the unit quaternion from the rotation matrix of the hand and end-effector for the global frame and measuring the distance between the two numbers.
  • the controller 160 may activate the robot arm from a ready state to a manipulation state when the distance difference is within a specific range.
  • the coordinate axis adjustment may be performed when the surgeon maintains the clutch gesture for a predetermined time.
  • the control unit 160 controls the movement of the robot arm according to the movement of the operation gesture
  • the forceps of the robot arm are stretched at intervals between the thumb and the middle finger of the surgeon. The degree is controlled, and the robot arm can be moved in proportion to the displacement vector of the surgeon's hand.
  • control unit 160 may deactivate the robot arm in a ready state by deeming that the surgeon has no will to manipulate the robot arm when the operator's hand deviates from the operation gesture beyond a preset range in the manipulation state. .
  • FIG. 8 is a configuration diagram showing a surgical robot control system according to another embodiment of the present invention.
  • the surgical robot control system 100 may be configured to control the movement of the endoscope 110 with the hand motion of the surgeon.
  • the surgical robot control system 100 A drive unit 115 for moving the endoscope 110 may be further included.
  • the surgical robot control system 100 includes an endoscope 110 that is inserted into a surgical space through a predetermined incision 21 and photographs the surgical site in real time, and a driving unit that moves the endoscope 110. (115), a plurality of robot arms (120) inserted into the surgical space through predetermined incisions (23, 25, 27), detachably worn on the surgeon's head, and displaying images captured by the endoscope (110)
  • a headset 130 provided in the headset 130 to record the hand motions of the housekeeper, and the robot arm 120 and the driving unit 115 from the video of the housekeeper's hand motions captured by the camera 140.
  • the hand motion recognition unit 150 for recognizing a gesture for controlling the hand motion recognition unit 150 controls the robot arm 120 and the driving unit 115 based on the gesture recognized by the hand motion recognition unit 150, and the endoscope 110 It may include a controller 160 that receives image information from and transmits it to the headset 130.
  • the gesture may further include an endoscope gesture for manipulating the movement of the endoscope 110 .
  • the gesture may include a selection gesture, a clutch gesture, a manipulation gesture, an energy gesture, and an endoscope gesture.
  • the detailed description of the selection gesture, the clutch gesture, the manipulation gesture, and the energy gesture uses the detailed description according to the embodiment, and the endoscope gesture will be described in detail below.
  • FIG. 9 is a diagram illustrating an endoscope gesture according to an embodiment of the present invention
  • FIG. 10 is a diagram illustrating an example of manipulation and control of an endoscope.
  • the surgeon may take the endoscopic gesture by making a gesture of fully extending both hands so that the backs of the hands are visible.
  • the control unit 150 switches the driving unit 115 from an idle state to a ready state.
  • the control unit 150 may control the driving unit 115 to move the endoscope 110 according to the movements of both hands after switching the driving unit 115 from a ready state to an operating state.
  • the distance between both hands at the moment when the driver 115 is switched from the ready state to the operating state by moving both hands after the surgeon makes the endoscopic gesture is called d 1 .
  • the angle shown in FIG. 10(a) the displacement vector of the midpoint between the hands, and the later distance d 2 between the hands can be obtained.
  • the expansion and contraction of the field of view of the endoscope 110 is related to the insertion depth of the endoscope 110 in the body cavity of the patient, and the increase or decrease of the insertion depth of the endoscope 110 through the difference between d 1 and d 2 can be calculated.
  • the parallel movement of the field of view of the endoscope 110 can be made possible by the control unit 150 controlling the driving unit 115 so that the endoscope 110 moves in a direction parallel to the displacement vectors of the midpoints of both hands.
  • the rotation of the endoscope 110 about the optical axis is related to the rotation of a vector from the left hand to the right hand, and a rolling motion can be implemented in proportion to the rotation angle of the vector.
  • control unit 160 deactivates the driving unit 115 from an operating state and converts it to an idle state.
  • the present invention relates to a surgical robot control system using a headset-based non-contact hand motion recognition technology, and its embodiment can be changed into various forms. Therefore, the present invention is not limited by the embodiments disclosed herein, and all forms changeable by those skilled in the art will also fall within the scope of the present invention.

Abstract

본 발명은 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템에 관한 것으로서, 상세하게는 수술 로봇의 제어부를 머리에 착용 가능한 헤드셋으로 소형화하고, 비접촉 손동작 인식 기술(Contactless Hand-Tracking Technology)을 활용한 수술 로봇 조작 방식을 적용함으로써, 집도의의 수술 환경을 전반적으로 개선할 수 있는 수술 로봇 제어시스템에 관한 것이다.

Description

헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
본 발명은 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템에 관한 것으로서, 상세하게는 수술 로봇의 제어부를 머리에 착용 가능한 헤드셋으로 소형화하고, 비접촉 손동작 인식 기술(Contactless Hand-Tracking Technology)을 활용한 수술 로봇 조작 방식을 적용함으로써, 집도의의 수술 환경을 전반적으로 개선할 수 있는 수술 로봇 제어시스템에 관한 것이다.
최소침습수술은 환자에게 최소한의 절개를 가하여 필요한 의료행위를 할 수 있는 수술 기법으로, 전통적인 수술 방식(개복수술, 개흉수술 등의 Open Surgery)에 비해 다양한 이점(출혈량 최소화, 회복 및 입원 기간 단축, 작거나 보이지 않는 흉터 등)으로 환자의 치료 예후 개선에 크게 이바지하고 있다.
최소침습수술은 초기에 복강경 수술 도구(Laparoscopic Surgical Instrument)의 수동 조작을 통해 이루어졌으나, 이는 집도의가 다양한 한계점(직관에 반하는 조작 방법, 수술 도구의 적은 자유도, 2차원 내시경 영상으로 인해 줄어든 깊이감 등)이 있었으며, 수동 조작의 단점을 개선하기 위해 로봇 공학과 접목한 로봇수술이 개발되었다.
수술 로봇은 크게 집도의가 조작을 가하는 마스터 콘솔(Master Console)과 환자 쪽에 있는 로봇(Patient Side Robot)으로 구성된다.
도 1은 종래 국내외에서 가장 널리 활용되는 외과 수술 로봇인 Intuitive Surgical 사의 da Vinci Surgical System(dVSS)을 나타내는 도면이다.
도 1을 참조하면, 마스터 콘솔(Master Console)은 집도의에게 3차원 영상을 송출하는 Stereo Viewer, 로봇의 위치 조작 입력을 가할 수 있는 Master Tool Manipulators(MTMs), 그리고 다양한 특수 기능을 수행할 수 있는 Foot Pedal Tray로 구성된다.
Stereo Viewer는 집도의의 각 눈에 서로 다른 시점(Viewpoint)에서 촬영된 영상을 송출하여 인위적으로 시차(Parallax)를 느끼도록 함으로써 깊이감과 몰입감을 느낄 수 있도록 한다.
Patient Side Robot은 다양한 수술 도구(포셉, 메스, 가위, 내시경 등)을 부착할 수 있는 여러 Manipulator들로 구성되며, 대표적으로 환자에게 직접적인 조작을 가하는 데에 활용되는 Patient Side Manipulators(PSMs)와 수술 부위의 영상을 촬영하여 집도의에게 시야를 제공하는 내시경 카메라를 장착할 수 있는 Endoscopic Camera Manipulator(ECM)로 나뉜다.
Master Tool Manipulator(MTM)은 Patient Side Robot의 자유롭고 직관적인 위치 제어에 초점을 둔 장치로, 마스터 콘솔의 조작부이다.
집도의는 MTM의 허용 조작 범위 내에서 자유롭게 손과 손목의 움직임을 활용하여 조작을 가할 수 있다. 이러한 움직임은 Patient Side Robot의 현재 제어 중인 Manipulator로 반영되어, Manipulator에 장착된 수술 도구가 MTM의 움직임을 구현할 수 있도록 설계되어 있다.
Foot Pedal Tray는 Patient Side Robot의 각 Manipulator의 위치 제어 이외의 다양한 기능을 수행할 수 있는 페달들로 구성된다.
그러나, 상기 수술 로봇은 부피가 매우 커서 수술공간이 비효율적으로 활용되는 문제가 있다.
또한, da Vinci Surgical System(dVSS)는 초기 구매 및 유지, 보수 비용이 많이 발생하여 병원과 환자 모두에게 큰 경제적 부담으로 작용하며, 로봇수술에 다양한 장점이 있음에도 불구하고 상대적으로 널리 활용되지 못하는 실정이다.
또한, 현재 활용되는 수술 로봇은 장시간 수술하는 집도의의 인체공학적 특성을 잘 반영하지 못하여, 집도의의 육체적 피로가 가중되고 있으며, 이는 만성 관절 통증 및 불편감의 원인으로 작용한다. 예를 들어, 의사는 수술 시간 내내 Stereo Viewer 내부에 시선을 고정해야 하므로 목과 허리에 무리가 갈 수 있고, MTM은 수술하는 도중 계속 잡고 있어야 하므로, 수부 관절 등에 과도한 부하가 걸리는 문제가 있다.
한편, 손동작 인식 기술을 활용하여 수술로봇을 제어하는 선행기술들로서, US20120071891A(공개일: 2012-3-22, 발명의 명칭: METHODANDAPPARATUS FORHAND GESTURE CONTROL IN A MINIMALLY INVASIVE SURGICAL SYSTEM), US2011/0118753A(공개일: 2011-5-19, 발명의 명칭: MASTER FINGER TRACKING DEVICE AND METHOD OF USE IN A MINIMALLY INVASIVE SURGICAL SYSTEM), KR10-1825929B(공고일: 2018-1-31, 발명의 명칭: 수술로봇 조종을 위한 무구속의 3차원 손동작 모션 인식 시스템, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체) 등이 개시된 바 있다.
그러나, 상기 선행기술들은 사람 손의 일부에 장착된 센서 요소의 위치를 추적함으로써 손동작을 인식하기 때문에 완전한 비접촉 방식으로 보기 어려우며, 적외선 센서를 통해 정보를 획득하기 때문에 Landmark의 개수가 제한적이라는 한계가 있으며, 또한 한 손으로 하나의 로봇 팔만 조작이 가능하며 모드 변경은 불가하다는 문제가 있다.
본 발명은 전술한 문제점을 해결하기 위한 것으로서, 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 카메라를 이용하여 비접촉으로 손의 해부학적인 특이지점 (Anatomical Landmark, Key Point)을 정하고, 이들의 3 차원 좌표를 획득하여 답러닝 및 머신러닝 알고리즘을 기반으로 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 추가로 착용하는 구조물이 필요 없이 손의 위치와 제스처에 대한 정보를 획득할 수 있는 완전한 비접촉 방식을 적용함으로써, 집도의의 손이나 손목 관절의 육체적 피로도를 최소화할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 HMD(Head-Mounted Display)에 탑재된 두 카메라의 영상을 통해, 딥러닝 알고리즘을 활용하여 손의 3차원 위치를 가늠하며, Landmark의 개수가 많아서 손가락으로 집는 제스처 이외의 다양한 제스처의 인식이 가능한 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 종래 비전 시스템을 Stereo Viewer에서 HMD로 대체함으로써 수술 집도의의 수술 환경을 개선하여 집도의의 목, 허리 등의 피로도를 감소시킬 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 다양한 제스처를 인식할 수 있어 종래 Foot Pedal이 수행하던 로봇 팔의 제어권 변경, 내시경 카메라 위치 조작 등의 복잡한 기능들을 오직 손동작 인식만으로 할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 3대의 PSM과 1대의 ECM 등 다양한 로봇 팔에 대한 제어권 변경을 손동작 인식이라는 하나의 방법으로 통합하여 종래 Foot Pedal의 기능을 대체함으로써, 집도의에게 더 편리하고 직관적인 수술 환경을 제공할 수 있는 수술 로봇 제어 시스템을 제공하는데 목적이 있다.
본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경; 소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔; 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋; 상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라; 상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔을 제어하기 위한 제스처를 인식하는 손동작 인식부; 및 상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔을 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함할 수 있다.
한편, 다른 측면에서의 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템은, 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경; 상기 내시경을 이동시키는 구동부; 소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔; 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋; 상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라; 상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔과 상기 구동부를 제어하기 위한 제스처를 인식하는 손동작 인식부; 상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔과 상기 구동부를 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함할 수 있다.
상기와 같은 구성을 가지는 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 카메라를 이용하여 비접촉으로 손의 해부학적인 특이지점 (Anatomical Landmark, Key Point)을 정하고, 이들의 3 차원 좌표를 획득하여 답러닝 및 머신러닝 알고리즘을 기반으로 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 추가로 착용하는 구조물이 필요 없이 손의 위치와 제스처에 대한 정보를 획득할 수 있는 완전한 비접촉 방식을 적용함으로써, 집도의의 손이나 손목 관절의 육체적 피로도를 최소화할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, HMD(Head-Mounted Display)에 탑재된 두 카메라의 영상을 통해, 딥러닝 알고리즘을 활용하여 손의 3차원 위치를 가늠하며, Landmark의 개수가 많아서 손가락으로 집는 제스처 이외의 다양한 제스처의 인식이 가능하다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 종래 비전 시스템을 Stereo Viewer에서 HMD로 대체함으로써 수술 집도의의 수술 환경을 개선하여 집도의의 목, 허리 등의 피로도를 감소시킬 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 다양한 제스처를 인식할 수 있어 종래 Foot Pedal이 수행하던 로봇 팔의 제어권 변경, 내시경 카메라 위치 조작 등의 복잡한 기능들을 오직 손동작 인식만으로 할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 3대의 PSM과 1대의 ECM 등 다양한 로봇 팔에 대한 제어권 변경을 손동작 인식이라는 하나의 방법으로 통합하여 종래 Foot Pedal의 기능을 대체함으로써, 집도의에게 더 편리하고 직관적인 수술 환경을 제공할 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 종래 수술 로봇의 Stereo Viewer를 헤드셋 기반의 디스플레이로 대체하여 효율적인 수술공간의 활용이 가능하며, 하드웨어의 구매 및 유지, 보수 비용을 현저히 감소시킬 수 있게 됨에 따라 의료비용을 전반적으로 감소시킬 수 있다. 또한, 집도의는 더 이상 허리와 목을 장시간 고정한 채로 수술에 임하지 않아도 되며, 가벼운 헤드셋만 착용하여도 양질의 3차원 영상을 볼 수 있으므로 육체적 피로도를 감소시킬 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 비접촉 손동작 인식 기술을 통해 필요한 모든 작업을 양손만을 사용하여 실현할 수 있으므로, 집도의의 심적 부담을 줄일 수 있다.
또한, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템에 의하면, 비접촉 손동작 인식 기술을 수술 로봇 제어에 활용함으로써 종래의 MTM과 Foot Pedal Tray가 더 이상 필요하지 않게 됨에 따라 수술공간의 효율적 활용이 가능해질 수 있다. 또한, 장시간 MTM에 구속된 동작을 하여 발생하였던 집도의의 수부 관절의 만성 피로를 줄일 수 있다.
본 발명에 따른 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위와 상세한 설명의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진자에게 명확하게 이해될 수 있을 것이다.
도 1은 종래 국내외에서 가장 널리 활용되는 외과 수술 로봇인 Intuitive Surgical 사의 da Vinci Surgical System(dVSS)을 나타내는 도면이고,
도 2는 본 발명의 일 실시예에 따른 수술 로봇 제어 시스템의 구성을 도시한 개략도이고,
도 3은 도 2에 따른 수술 로봇 제어 시스템의 구성도이고,
도 4는 본 발명에 따른 손동작 인식부의 일 예를 개략적으로 나타내는 도면이고,
도 5는 선택 제스처를 나타내는 도면이고,
도 6(a)는 클러치 제스처를 나타내는 도면이고,
도 6(b)는 조작 제스처를 나타내는 도면이고,
도 6(c)는 에너지 제스처를 나타내는 도면이고,
도 7은 로봇팔과 집도의 손의 좌표축 조정 과정과 로봇팔 조작 과정에서의 좌표축 정렬 관계를 나타내는 도면이고,
도 8은 본 발명의 다른 실시 예에 따른 수술 로봇 제어 시스템의 구성도이고,
도 9는 본 발명의 일 형태에 따른 내시경 제스처를 나타내는 도면이고,
도 10은 내시경 조작과 제어의 일 예를 나타내는 도면이다.
이하에서는 첨부된 도면을 참고하여 본 발명의 실시예들에 대하여 상세하게 설명한다.
첨부 도면을 참조하여 설명함에 있어, 동일한 구성요소는 동일한 도면 부호를 부여하고, 이에 대한 중복설명은 생략한다.
도면에서 각 층(막), 영역, 패턴 또는 구조물들의 두께나 크기는 설명의 명확성 및 편의를 위하여 변형 또는 과장될 수 있으며, 본 발명은 첨부도면에 도시된 상대적인 크기나 두께에 의해 제한되지 않는다.
한편, 각 실시예는 독립적으로 실시되거나 함께 실시될 수 있으며, 발명의 목적에 부합하게 일부 구성요소는 제외될 수 있다.
또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있으나, 상기 구성요소들은 상기 용어들에 한정되지 않고, 하나의 구성요소를 다른 구성요소와 구별하는 목적으로 사용될 수 있다.
도 2는 본 발명의 일 실시예에 따른 수술 로봇 제어 시스템의 구성을 도시한 개략도이고, 도 3은 도 2에 따른 수술 로봇 제어 시스템의 구성도이다.
도 2 및 도 3을 참조하면, 본 발명의 일실시 예에 따른 수술 로봇 제어 시스템(100)은 내시경(110), 복수의 로봇팔(120), 헤드셋(headset)(130), 카메라(140), 손동작 인식부(150), 제어부(160)를 포함할 수 있다.
상기 내시경(110)은 소정의 절개부위(21)를 통해 수술공간(12)으로 삽입되어 수술부위를 실시간으로 촬영하는 구성이다.
상기 복수의 로봇팔(120)은 소정의 절개부위(23, 25, 27)를 통해 수술공간(12)으로 삽입되는 구성으로서, 예를 들어 상기 복수의 로봇팔(120)은 종래 PSM(Patient Side Manipulators)일 수 있으며, 제1 로봇팔(121), 제2 로봇팔(123), 제3 로봇팔(125)를 포함할 수 있다.
상기 헤드셋(130)은 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경(110)에서 촬영된 2D 또는 3D 영상을 표시한다.
상기 카메라(140)는 상기 헤드셋(130)에 구비되어 집도의의 손동작을 촬영하는 구성으로서, 상기 헤드셋(130)에 착탈 가능하게 구비될 수 있다.
상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔(120)을 제어하기 위한 제스처(gesture)를 인식한다.
상기 제어부(160)는 상기 손동작 인식부(150)에서 인식된 제스처를 기초로 상기 로봇팔(120)을 제어하며, 상기 내시경(110)으로부터 영상정보를 수신하여 상기 헤드셋(130)으로 전송한다.
도 2에서 보이는 바와 같이, 상기 수술공간(12)은 사람 또는 동물의 몸체 내부에 해당하며, 상기 수술공간(12)에는 장기(15), 동맥과 정맥과 같은 각종 혈관(17) 또는 신경(19) 등이 분포할 수 있다.
상기 내시경(110)과 상기 복수의 로봇팔(121,123,125)은 미리 형성된 절개부위(21, 23, 25, 27)를 통해 그 하단부가 상기 수술공간(12)의 내측으로 삽입될 수 있다.
상기 복수의 로봇팔(121,123,125)은 상기 수술공간(12)의 내측에서 상기 수술부위에 대해 필요한 조치를 취할 수 있는 수술도구 예를 들어, 상기 로봇팔(120) 말단에 열이나 전류를 인가하여 절개를 가하거나 지혈 등을 할 수 있는 수술도구 등을 그 말단부에 구비할 수 있으며, 특정한 형태로 한정하지는 않는다.
상기 절개부위(21, 23, 25, 27)는 상기 내시경(110) 또는 로봇팔(120)의 하단부가 삽입될 수 있는 크기 또는 직경을 가지는 복강공과 같은 구멍으로 이루어질 수 있다.
상기 절개부위(21, 23, 25, 27)의 개수는 수술에 필요한 상기 로봇팔(120)과 내시경(110)의 개수에 대응하도록 결정될 수 있다. 예를 들어, 도면에 도시된 바와 같이 3개의 로봇팔(121,123,125)과 1개의 내시경(110)을 이용하여 수술을 진행하는 경우에 상기 절개부위(21, 23, 25, 27)는 상기 내시경(110)의 삽입을 위한 1개의 내시경 절개부위(21)와, 상기 로봇팔(120)의 삽입을 위한 3개의 로봇팔 절개부위(23, 25, 27)로 이루어질 수 있다.
다만, 본 발명에서 설명하는 상기 절개부위(21, 23, 25, 27)의 개수는 일예를 들어 설명한 것에 불과하며, 적절하게 변형될 수 있다.
한편, 사용자의 머리에 착용될 수 있는 헤드셋(130)은 최근 들어 활발히 개발되고 있는 VR 헤드셋(virtual reality headset) 등의 형태로 구현될 수 있다. 예를 들어, 상기 헤드셋(130)은 HMD(Head Mounted Display)로 구현될 수 있다.
HMD는 여러 대의 고정된 Base Station에서 송출되는 적외선 신호를 기반으로 HMD의 상대적인 위치를 실시간으로 추적할 수 있고, 사용자는 다양한 입력(컨트롤러, 헤드셋 위치 및 자세의 변화, 음성 등) 및 출력(소리, 진동, 화면 등) 채널을 통해 혼합 현실 인터페이스와 상호작용할 수 있다. 물론, 상기 헤드셋(130)은 VR 기기의 일 형태인 HMD에 한정되지 않으며 다양한 예로 구현이 가능하다.
또한, 상기 카메라(140)는 상기 헤드셋(130) 일측에 착탈가능하게 구비되거나 상기 헤드셋(130)에 일체로 구비된 형태로 구현될 수 있으며, 본 발명은 이에 한정하지 않는다.
도 4는 본 발명에 따른 손동작 인식부의 일 예를 개략적으로 나타내는 도면이다.
도 4에서 보이는 바와 같이, 상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 딥러닝 알고리즘 또는 머신러닝 알고리즘을 이용하여 손동작 인식을 구현할 수 있다.
상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 손동작 영상으로부터 손의 3차원 위치(Position)와 자세(Orientation)에 대한 정보를 얻은 후 손의 상태(State)를 결정하기 위한 손의 해부학적인 특이지점들(Anatomical Landmarks, Key Points)을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현할 수 있다.
집도의의 손동작을 인식하는 방법으로는 종래 기술에서와 같이, 전위차계(Potentiometer), 관성 측정 장비(Inertial Measurement Unit, IMU), 웨어러블 장갑(Wearable Gloves) 등을 신체에 직접 부착하거나 착용하여 손의 위치와 자세를 실시간으로 입력받음으로써 구현할 수도 있지만, 이 경우 집도의가 여러 장비를 착용해야 하는 번거로움이 있다.
반면, 본 발명에 따른 손동작 인식부(150)는 별도의 장비를 착용하지 않고도 디지털카메라를 통해 획득한 손의 흑백 혹은 컬러 영상을 분석함으로써 손동작을 인식할 수 있다. 특히, 상기 손동작 인식부(150)는 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 머신러닝, 딥러닝 등으로 손동작 인식을 구현할 수 있다.
인공 지능이란 인간의 지능으로 할 수 있는 사고, 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 일 분야에 해당한다. 이러한 인공지능의 연구 분야 중 하나인 머신 러닝은 경험적 데이터를 기반으로 예측을 수행하고, 학습을 통해 스스로의 성능을 향상시키는 시스템을 의미할 수 있다.
머신 러닝의 일종인 딥러닝 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다.
딥러닝은 단계를 높여 갈수록 복수의 데이터로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낼 수 있다.
딥러닝 구조는 인공신경망(artificial neural network(ANN))을 포함할 수 있고, 예를 들어 딥러닝 구조는 CNN(convolutional neural network), RNN(recurrent neural network), DBN(deep belief network) 등 심층신경망(deep neural network)으로 구성될 수 있다.
한편, 상기 제스처는 선택 제스처, 클러치(Clutch) 제스처, 조작(Manipulation) 제스처 및 에너지(Energy) 제스처를 포함할 수 있다.
도 5 및 도 6은 본 발명의 일실시 예에 따른 제스처들을 설명하기 위한 도면들로서, 도 5는 선택 제스처를 나타내는 도면이고, 도 6(a)는 클러치 제스처를 나타내는 도면이고, 도 6(b)는 조작 제스처를 나타내는 도면이고, 도 6(c)는 에너지 제스처를 나타내는 도면이다.
상기 선택 제스처는 상기 복수의 로봇팔(120) 중 조작(manipulation)하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 제스처이다.
예를 들어, 집도의는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현함으로써, 상기 선택 제스처를 취할 수 있다.
도 5(a)에서 보이는 바와 같이, 집도의는 상기 복수의 로봇팔(120) 중 제1 로봇팔(121)의 제어권은 왼손으로, 제2 로봇팔(123)의 제어권은 오른손으로 확보하고자 하는 경우, 왼손은 손가락 하나를 펴고, 오른손은 손가락 2개를 편 제스처를 취할 수 있다.
그러면, 상기 손동작 인식부(150)는 상기 도 5(a)에 따른 선택 제스처를 인식하게 되고, 상기 제어부(160)는 상기 도 5(a)에 따른 선택 제스처를 기초로 상기 제1 로봇팔(121)은 집도의의 왼손으로, 상기 제2 로봇팔(123)은 집도의의 오른손으로 제어권을 확보하도록 할 수 있다.
마찬가지로, 도 5(b)에서 보이는 바와 같이, 집도의가 제1 로봇팔(121)의 제어권은 집도의의 왼손으로, 제3 로봇팔(125)의 제어권은 집도의의 오른손으로 확보하고자 하는 경우, 집도의는 왼손은 손가락 하나를 펴고, 오른손은 손가락 3개를 편 제스처를 취할 수 있다.
상기 클러치 제스처는 상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 제스처로서, 상기 선택된 로봇팔을 레디(ready) 상태에서 조작(manipulation) 상태로 활성화하기 위한 제스처이다.
예를 들어, 도 6(a)에서 보이는 바와 같이, 집도의는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처를 취함으로써, 상기 클러치 제스처를 취할 수 있다.
상기 조작 제스처는 상기 선택된 로봇팔을 자유롭게 조작하기 위한 제스처이다.
예를 들어, 도 6(b)에서 보이는 바와 같이, 집도의는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처를 취함으로써, 상기 조작 제스처를 취할 수 있다.
상기 에너지 제스처는 상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 제스처이다.
예를 들어, 도 6(c)에서 보이는 바와 같이, 집도의는 모든 손가락을 한 점으로 모은 제스처를 취함으로써, 상기 에너지 제스처를 취할 수 있다.
한편, 상기 제어부(160)는 상기 손동작 인식부(150)에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환할 수 있다.
또한, 상기 제어부(160)는 상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환할 수 있다.
또한, 상기 제어부(160)는 상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 작동 제스처인 경우 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어할 수 있다.
또한, 상기 제어부(160)는 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시킬 수 있다.
여기서, 상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)이다.
또한, 상기 제어부(160)는 상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부(150)에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환할 수 있다.
이때, 집도의는 상기 로봇팔의 움직임 없이 본의 자세만을 재조정할 수 있으며, 재조정된 자세에서 다시 상기 작동 제스처를 취함으로써 상기 로봇팔을 다시 제어할 수 있다.
즉, 집도의가 상기 조작 제스처를 취해 상기 로봇팔을 조작하다가 상기 클러치 제스처를 취하면, 집도의의 손 움직임은 더이상 상기 로봇팔에 반영되지 않으며(Deactivation), 집도의가 조작하기 편한 자세로 팔의 위치를 조정한 뒤 다시 작동 제스처를 취하면, 그때 다시 상기 로봇팔을 조작할 수 있다.
도 7은 로봇팔과 집도의 손의 좌표축 조정 과정과 로봇팔 조작 과정에서의 좌표축 정렬 관계를 나타내는 도면이다.
상기 로봇팔(120)은 환자의 체내에 직접적인 물리적 조작을 가할 수 있는 수술도구이므로 조작에 있어 환자의 안전이 우선시되어야 한다. 따라서, 안전한 로봇팔(120) 제어를 위해 로봇팔(120)과 집도의 손의 좌표축 조정(Frame Calibration)이 필요하다.
상기 좌표축 조정은 상기 로봇팔을 레디 상태에서 조작상태로 전환하는 경우 즉, 상기 손동작 인식부(150)에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 제어부(160)에 의해 수행될 수 있다.
도 7(a)에서 보이는 바와 같이, 집도의가 상기 클러치 제스처를 취한 경우 집도의 손의 좌표계는 Third Metacarpophalangeal(3rd MCP) Joint가 원점이며, 엄지 끝과 중지 끝의 중점에 이르는 방향이 손의 x축(xh축)이고, 엄지와 중지로 구성되는 평면의 검지 방향 법선 벡터가 손의 z축(zh축)이 되며, 오른나사의 법칙에 의해 y축이 결정될 수 있다.
마찬가지로, 도 7(b)에서 보이는 바와 같이, 상기 로봇팔(120)의 End-Effector의 좌표축 xe, ye, ze도 정의할 수 있으며, 상기 제어부(160)는 xh, yh, zh가 xe, ye, ze에 충분히 정렬되었다고 판단될 때, 상기 로봇팔을 레디 상태에서 조작 상태로 활성화시킨다.
예를 들어, 상기 좌표축의 정렬 여부는 Global Frame에 대한 손과 End-Effector의 회전행렬(Rotation Matrix)로부터 단위 사원수(Unit Quaternion)을 추산하여 두 수 간의 거리를 측정함으로써 판단할 수 있는데, 상기 제어부(160)는 상기 거리 차이가 특정 범위 안으로 들어올 때 상기 로봇팔을 레디 상태에서 조작 상태로 활성화시킬 수 있다.
상기 좌표축 조정은 집도의가 상기 클러치 제스처를 소정시간 동안 유지하는 경우 행해질 수 있다.
또한, 도 7(c)에서 보이는 바와 같이, 상기 제어부(160)는 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하는 경우, 집도의의 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시킬 수 있다.
이때, 상기 제어부(160)는 상기 조작 상태에서 집도의의 손이 상기 작동 제스처에서 기 설정된 범위 이상으로 벗어나는 경우 집도의의가 상기 로봇팔을 조작하고자 하는 의지가 없는 것으로 간주하여 레디 상태로 비활성화할 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 수술 로봇 제어 시스템을 나타내는 구성도이다.
도 8을 참조하면, 본 실시 예에 따른 수술 로봇 제어 시스템(100)은 집도의의 손동작으로 내시경(110)의 움직임까지 제어할 수 있도록 구성될 수 있으며, 이를 위해 상기 수술 로봇 제어 시스템(100)은 내시경(110)을 이동시키는 구동부(115)를 더 포함할 수 있다.
즉, 본 실시 예에 따른 수술 로봇 제어 시스템(100)은 소정의 절개부위(21)를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경(110), 상기 내시경(110)을 이동시키는 구동부(115), 소정의 절개부위(23,25,27)를 통해 수술공간으로 삽입되는 복수의 로봇팔(120), 집도의의 머리에 착탈 가능하게 착용되어 상기 내시경(110)에서 촬영된 영상을 표시하는 헤드셋(130), 상기 헤드셋(130)에 구비되어 집도의의 손동작을 촬영하는 카메라(140), 상기 카메라(140)에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔(120)과 상기 구동부(115)를 제어하기 위한 제스처를 인식하는 손동작 인식부(150), 상기 손동작 인식부(150)에서 인식된 제스처를 기초로 상기 로봇팔(120)과 상기 구동부(115)를 제어하며, 상기 내시경(110)으로부터 영상정보를 수신하여 상기 헤드셋(130)으로 전송하는 제어부(160)를 포함할 수 있다.
상기 제스처는 상기 내시경(110)의 움직임을 조작하기 위한 내시경 제스처를 더 포함할 수 있다.
즉, 상기 제스처는 선택 제스처, 클러치(Clutch) 제스처, 조작(Manipulation) 제스처, 에너지(Energy) 제스처 및 내시경 제스처를 포함할 수 있다.
상기 선택 제스처, 상기 클러치 제스처, 상기 조작 제스처 및 상기 에너지 제스처에 대한 상세한 설명은 상기 실시 예에 따른 상세한 설명을 원용하며, 이하에서는 상기 내시경 제스처에 대해 상세히 설명한다.
도 9는 본 발명의 일 형태에 따른 내시경 제스처를 나타내는 도면이고, 도 10은 내시경 조작과 제어의 일 예를 나타내는 도면이다.
도 9를 참조하면, 집도의는 양손을 손등이 보이도록 완전히 편 제스처를 취함으로써, 상기 내시경 제스처를 취할 수 있다.
상기 제어부(150)는 상기 손동작 인식부(150)에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부(115)를 아이들 상태에서 레디 상태로 전환한다.
이때, 도 10(a)에서 보이는 바와 같이, 상기 구동부(115)가 레디 상태로 전환된 상태에서 집도의가 양손을 손등이 보이도록 완전히 편 상태에서 양손을 움직이면, 도 10(b)에서 보이는 바와 같이, 상기 제어부(150)는 상기 구동부(115)를 레디 상태에서 조작 상태로 전환한 후 상기 양손의 움직임에 따라 상기 내시경(110)이 움직이도록 상기 구동부(115)를 제어할 수 있다.
예를 들어, 도 10(a)에서 보이는 바와 같이, 집도의가 상기 내시경 제스처를 취한 후 양손을 움직임으로써 상기 구동부(115)가 레디 상태에서 조작 상태로 전환되어 활성화되는 순간 양손 사이 거리를 d1이라 하고, 손을 자유자재로 움직이며 도 10(a)에 표시된 각도와 양손 사이 중점의 변위 벡터, 그리고 양손 사이 나중 거리 d2를 구할 수 있다.
또한, 상기 내시경(110) 시야의 확대 및 축소는 환자의 체강 내 상기 내시경(110)의 투입 깊이와 관련이 있으며, d1, d2 사이의 차이를 통해 상기 내시경(110)의 투입 깊이의 증감을 계산할 수 있다.
이때, 상기 내시경(110) 시야의 평행이동은 양손의 중점의 변위 벡터와 평행한 방향으로 상기 내시경(110)이 움직이도록 상기 제어부(150)가 상기 구동부(115)를 제어함으로써 가능해질 수 있다.
또한, 상기 내시경(110)의 광축(Optical Axis)에 대한 회전은 왼손에서 오른손으로 향하는 벡터의 회전과 관련이 있으며, 상기 벡터의 회전 각도에 비례하여 Rolling Motion을 구현할 수 있다.
한편, 집도의가 상기 내시경 제스처를 다른 제스처로 바꾸는 경우 상기 제어부(160)는 상기 구동부(115)를 조작 상태에서 비활성화하여 아이들 상태로 전환한다.
이상에서 살펴본 바와 같이, 본 발명은 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템에 관한 것으로서, 그 실시 형태는 다양한 형태로 변경가능하다 할 것이다. 따라서 본 발명은 본 명세서에서 개시된 실시 예에 의해 한정되지 않으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 변경 가능한 모든 형태도 본 발명의 권리범위에 속한다 할 것이다.

Claims (17)

  1. 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경;
    소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔;
    집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋;
    상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라;
    상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔을 제어하기 위한 제스처를 인식하는 손동작 인식부; 및
    상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔을 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함하는 수술 로봇 제어 시스템.
  2. 제 1 항에 있어서,
    상기 손동작 인식부는 상기 카메라에서 촬영된 사용자의 손동작 영상으로부터 손의 3차원 위치와 자세에 대한 정보를 얻은 후 손의 상태를 결정하기 위해 손의 해부학적인 특이지점들을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  3. 제 1 항에 있어서,
    상기 제스처는,
    상기 복수의 로봇팔 중 조작하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 선택 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 클러치 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 조작 제스처; 및
    상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 에너지 제스처;를 포함하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  4. 제 3 항에 있어서,
    상기 선택 제스처는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현하는 제스처이고,
    상기 클러치 제스처는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처이고,
    상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 에너지 제스처는 모든 손가락을 한 점으로 모은 제스처인 것을 특징으로 하는 수술 로봇 제어 시스템.
  5. 제 3 항에 있어서,
    상기 제어부는
    상기 손동작 인식부에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환하며,
    상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환하며,
    상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 작동 제스처인 경우 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시키며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환하며,
    상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)인 것을 특징으로 하는 수술 로봇 제어 시스템.
  6. 제 5 항에 있어서,
    상기 제어부는 상기 로봇팔을 레디 상태에서 조작 상태로 전환하는 경우 상기 로봇팔과 집도의 손의 좌표축 조정을 수행하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  7. 제 5 항에 있어서,
    상기 작동 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 제어부는 상기 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시키는 것을 특징으로 하는 수술 로봇 제어 시스템.
  8. 제 5 항에 있어서,
    상기 제어부는 상기 조작 상태에서 집도의의 손이 상기 작동 제스처의 기 설정된 범위 이상으로 벗어나는 경우 상기 로봇팔을 레디 상태로 전환하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  9. 소정의 절개부위를 통해 수술공간으로 삽입되어 수술부위를 실시간으로 촬영하는 내시경;
    상기 내시경을 이동시키는 구동부;
    소정의 절개부위를 통해 수술공간으로 삽입되는 복수의 로봇팔;
    집도의의 머리에 착탈 가능하게 착용되어 상기 내시경에서 촬영된 영상을 표시하는 헤드셋;
    상기 헤드셋에 구비되어 집도의의 손동작을 촬영하는 카메라;
    상기 카메라에서 촬영된 집도의의 손동작 영상으로부터 상기 로봇팔과 상기 구동부를 제어하기 위한 제스처를 인식하는 손동작 인식부;
    상기 손동작 인식부에서 인식된 제스처를 기초로 상기 로봇팔과 상기 구동부를 제어하며, 상기 내시경으로부터 영상정보를 수신하여 상기 헤드셋으로 전송하는 제어부;를 포함하는 수술 로봇 제어 시스템.
  10. 제 9 항에 있어서,
    상기 손동작 인식부는 상기 카메라에서 촬영된 사용자의 손동작 영상으로부터 손의 3차원 위치와 자세에 대한 정보를 얻은 후 손의 상태를 결정하기 위해 손의 해부학적인 특이지점들을 정하고, 상기 특이지점들의 3차원 좌표를 획득하여 딥러닝 또는 머신러닝 알고리즘을 이용하여 손의 제스처를 분류함으로써 손동작 인식을 구현하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  11. 제 9 항에 있어서,
    상기 제스처는,
    상기 복수의 로봇팔 중 조작하고자 하는 로봇팔을 적어도 하나 이상 선택하고, 상기 선택된 로봇팔의 제어권을 집도의의 어느 손으로 확보할 것인지 선택하기 위한 선택 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 상태로 전환하기 위한 클러치 제스처;
    상기 선택된 로봇팔을 조작할 수 있는 조작 제스처;
    상기 선택된 로봇팔의 말단에 구비된 수술도구 작동을 위한 에너지 제스처; 및
    상기 내시경의 움직임을 조작하기 위한 내시경 제스처;를 포함하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  12. 제 11 항에 있어서,
    상기 선택 제스처는 상기 조작하고자 하는 로봇팔의 번호를 상기 로봇팔을 조작하고자 하는 손으로 표현하는 제스처이고,
    상기 클러치 제스처는 엄지, 검지, 중지를 한 점으로 모으고, 약지와 소지를 모두 편 제스처이고,
    상기 조작 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 에너지 제스처는 모든 손가락을 한 점으로 모은 제스처이고,
    상기 내시경 제스처는 양손을 손등이 보이도록 완전히 편 제스처인 것을 특징으로 하는 수술 로봇 제어 시스템.
  13. 제 11 항에 있어서,
    상기 제어부는
    상기 손동작 인식부에서 인식된 제스처가 상기 선택 제스처인 경우 상기 선택 제스처에 해당하는 로봇팔을 아이들(Idle) 상태에서 레디(Ready) 상태로 전환하며,
    상기 로봇팔이 레디(Ready) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 레디(Ready) 상태에서 조작(Manipulation) 상태로 전환하며,
    상기 로봇팔이 조작(Manipulation) 상태로 전환된 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 작동 제스처인 경우 상기 작동 제스처의 움직임에 따라 상기 로봇팔의 움직임을 제어하며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 에너지 제스처인 경우 상기 로봇팔의 말단에 구비된 수술도구를 작동시키며,
    상기 로봇팔의 움직임이 제어되는 상태에서 상기 손동작 인식부에서 인식된 제스처가 상기 클러치 제스처인 경우 상기 로봇팔을 조작 상태에서 레디 상태로 전환하며,
    상기 손동작 인식부에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부를 아이들 상태에서 레디 상태로 전환하며,
    상기 아이들(Idle) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하지 못한 상태이고, 상기 레디(Ready) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권은 획득하였지만 상기 로봇팔의 구동(actuation)은 불가한 상태(Deactivated state)이고, 조작(Manipulation) 상태는 집도의의 손이 상기 로봇팔에 대하여 제어권을 획득하여 상기 로봇팔의 구동까지 가능한 상태(Activated state)인 것을 특징으로 하는 수술 로봇 제어 시스템.
  14. 제 13 항에 있어서,
    상기 제어부는 상기 로봇팔을 레디 상태에서 조작 상태로 전환하는 경우 상기 로봇팔과 집도의 손의 좌표축 조정을 수행하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  15. 제 13 항에 있어서,
    상기 작동 제스처는 엄지와 중지를 집게 모양으로 하고, 나머지 손가락을 모두 편 제스처이고,
    상기 제어부는 상기 엄지와 중지 사이 간격으로 상기 로봇팔의 포셉의 펴진 정도를 제어하며, 상기 집도의 손의 변위 벡터에 비례하여 상기 로봇팔을 이동시키는 것을 특징으로 하는 수술 로봇 제어 시스템.
  16. 제 13 항에 있어서,
    상기 제어부는 상기 조작 상태에서 집도의의 손이 상기 작동 제스처의 기 설정된 범위 이상으로 벗어나는 경우 상기 로봇팔을 레디 상태로 전환하는 것을 특징으로 하는 수술 로봇 제어 시스템.
  17. 제 13 항에 있어서,
    상기 내시경 제스처는 양손을 손등이 보이도록 완전히 편 제스처이고,
    상기 제어부는
    상기 손동작 인식부에서 인식된 제스처가 상기 내시경 제스처인 경우 상기 구동부를 아이들 상태에서 레디 상태로 전환하며,
    상기 구동부가 레디 상태로 전환된 상태에서 집도의가 양손을 손등이 보이도록 완전히 편 상태에서 양손을 움직이면, 상기 구동부를 레디 상태에서 조작 상태로 전환한 후 상기 양손의 움직임에 따라 상기 내시경이 움직이도록 상기 구동부를 제어하는 것을 특징으로 하는 수술 로봇 제어 시스템.
PCT/KR2022/000256 2021-08-05 2022-01-06 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템 WO2023013832A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210103374A KR102532351B1 (ko) 2021-08-05 2021-08-05 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
KR10-2021-0103374 2021-08-05

Publications (1)

Publication Number Publication Date
WO2023013832A1 true WO2023013832A1 (ko) 2023-02-09

Family

ID=85156060

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000256 WO2023013832A1 (ko) 2021-08-05 2022-01-06 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템

Country Status (2)

Country Link
KR (1) KR102532351B1 (ko)
WO (1) WO2023013832A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120025582A (ko) * 2009-11-24 2012-03-15 가부시키가이샤 도요다 지도숏키 로봇의 교시 데이터를 작성하는 방법 및 로봇 교시 시스템
KR20150124009A (ko) * 2014-04-25 2015-11-05 한성대학교 산학협력단 손동작을 이용한 로봇 코칭 시스템
KR101797169B1 (ko) * 2013-10-01 2017-11-13 에이비비 곰텍 게엠베하 제스처 컨트롤을 이용한 로봇 시스템 제어를 위한 방법과 제어 장치
KR101825929B1 (ko) * 2017-11-24 2018-02-06 재단법인 구미전자정보기술원 수술로봇 조종을 위한 무구속의 3차원 손동작 모션 인식 시스템, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR20200140834A (ko) * 2019-04-30 2020-12-16 치루 유니버시티 오브 테크놀로지 웨어러블 디바이스 기반의 이동 로봇 제어 시스템 및 제어 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3342555A4 (en) * 2015-08-25 2019-10-02 Kawasaki Jukogyo Kabushiki Kaisha REMOTE CONTROL MANIPULATOR SYSTEM AND OPERATING METHOD THEREFOR
KR20190011137A (ko) * 2017-07-24 2019-02-01 아주대학교산학협력단 움직임 감지를 이용한 수술 영상화 시스템 제어 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120025582A (ko) * 2009-11-24 2012-03-15 가부시키가이샤 도요다 지도숏키 로봇의 교시 데이터를 작성하는 방법 및 로봇 교시 시스템
KR101797169B1 (ko) * 2013-10-01 2017-11-13 에이비비 곰텍 게엠베하 제스처 컨트롤을 이용한 로봇 시스템 제어를 위한 방법과 제어 장치
KR20150124009A (ko) * 2014-04-25 2015-11-05 한성대학교 산학협력단 손동작을 이용한 로봇 코칭 시스템
KR101825929B1 (ko) * 2017-11-24 2018-02-06 재단법인 구미전자정보기술원 수술로봇 조종을 위한 무구속의 3차원 손동작 모션 인식 시스템, 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR20200140834A (ko) * 2019-04-30 2020-12-16 치루 유니버시티 오브 테크놀로지 웨어러블 디바이스 기반의 이동 로봇 제어 시스템 및 제어 방법

Also Published As

Publication number Publication date
KR20230021471A (ko) 2023-02-14
KR102532351B1 (ko) 2023-05-15

Similar Documents

Publication Publication Date Title
US20220336078A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
US8527094B2 (en) Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
KR101772958B1 (ko) 최소 침습 원격조종 수술 기구를 위한 환자측 의사 인터페이스
US6731988B1 (en) System and method for remote endoscopic surgery
US6223100B1 (en) Apparatus and method for performing computer enhanced surgery with articulated instrument
US6850817B1 (en) Surgical system
US6788999B2 (en) Surgical system
CN113440263B (zh) 计算机辅助式远程操作系统中的次级器械控制
EP3166468A1 (en) Improved interface for laparoscopic surgeries - movement gestures
WO2010021447A1 (ko) 수술용 로봇의 3차원 디스플레이 시스템 및 그 제어방법
KR20140022907A (ko) 도구의 제어 움직임에 사용되는 프레임의 위치 및 방향을 추정하는 장치 및 방법
CN109806002A (zh) 一种用于手术机器人的成像系统及手术机器人
JPH07328016A (ja) 手術用マニピュレータシステム
CA3152108A1 (en) Surgical virtual reality user interface
JP2023520191A (ja) 外科手術用ロボットを制御するための仮想コンソール
WO2021062375A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
Cavusoglu Telesurgery and surgical simulation: Design, modeling, and evaluation of haptic interfaces to real and virtual surgical environments
JP2018107603A (ja) センサ情報取得装置、センサ情報取得方法、センサ情報取得プログラム及び医療器具
WO2023013832A1 (ko) 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
Fu et al. Mobile Teleoperation: Feasibility of Wireless Wearable Sensing of the Operator’s Arm Motion
Hill et al. Telepresence interface with applications to microsurgery and surgical simulation
US20220378528A1 (en) Systems and methods for controlling a surgical robotic assembly in an internal body cavity
US20230270510A1 (en) Secondary instrument control in a computer-assisted teleoperated system
WO2022219491A1 (en) System and method for tracking a portion of the user as a proxy for non-monitored instrument
CN117480569A (zh) 作为非监测器械的代理来跟踪用户的一部分的系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22853213

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE