KR20210102658A - Asceptic operating system using gaze-tracking, gesture, or voice - Google Patents

Asceptic operating system using gaze-tracking, gesture, or voice Download PDF

Info

Publication number
KR20210102658A
KR20210102658A KR1020200016941A KR20200016941A KR20210102658A KR 20210102658 A KR20210102658 A KR 20210102658A KR 1020200016941 A KR1020200016941 A KR 1020200016941A KR 20200016941 A KR20200016941 A KR 20200016941A KR 20210102658 A KR20210102658 A KR 20210102658A
Authority
KR
South Korea
Prior art keywords
unit
gesture
gaze
voice
image
Prior art date
Application number
KR1020200016941A
Other languages
Korean (ko)
Other versions
KR102482133B1 (en
Inventor
신승용
김상욱
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020200016941A priority Critical patent/KR102482133B1/en
Publication of KR20210102658A publication Critical patent/KR20210102658A/en
Application granted granted Critical
Publication of KR102482133B1 publication Critical patent/KR102482133B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • G06K9/00355
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Embodiments of the present invention provide a non-contact aseptic controlling system capable of realizing a perfect sterile surgical environment by controlling equipment without touch operation such as a mouse or keyboard after processing gaze, gesture (motion), or voice signals with a preset program. According to an embodiment of the present invention, provided is an asceptic operating system using gaze, gesture, or voice. The system comprises: a display unit arranged to display an image; a gaze tracking unit disposed on one side of the display unit to track the user's gaze movement; a gesture sensing unit disposed on one side of the display unit to detect a movement or shape of a user's hand; an eye tracking unit; a control unit that selects and processes a preset image according to a signal detected by the gesture sensing unit, and displays the image through the display unit.

Description

시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템{ASCEPTIC OPERATING SYSTEM USING GAZE-TRACKING, GESTURE, OR VOICE} Non-contact aseptic manipulation system using gaze, gesture, or voice {ASCEPTIC OPERATING SYSTEM USING GAZE-TRACKING, GESTURE, OR VOICE}

본 발명은 무균 조작 시스템에 대한 것으로, 보다 상세하게는 키보드나 마우스를 조작하여 영상 시스템을 제어하는 전통적인 방법을 대신하여 사용자의 시선, 제스쳐, 또는 음성을 이용하는 무균 조작 시스템에 관한 것이다. The present invention relates to a sterile manipulation system, and more particularly, to a sterile manipulation system using a user's gaze, gesture, or voice instead of a traditional method of controlling an image system by manipulating a keyboard or mouse.

스크린에 표시되는 일련의 객체(예컨대, 웹브라우저나 어플리케이션 등)를 조작하기 위해서는 대표적인 입력장치로 키보드, 마우스, 또는 리모컨이 사용되며, 스크린을 직접 터치하기도 한다. In order to manipulate a series of objects displayed on the screen (eg, a web browser or an application, etc.), a keyboard, a mouse, or a remote control is used as a typical input device, and the screen is directly touched.

컴퓨터의 성능 향상으로 인간과 컴퓨터 사이에 상호 작용이 강화된 직관적인 인터페이스 기술들이 부상하고 있는데, 사용자의 모션 정보를 검출하고 이로부터 조작명령을 인식하는 기술이 의료 분야에서도 개발되고 있다. With the improvement of computer performance, intuitive interface technologies that enhance interaction between humans and computers are emerging. A technology for detecting user's motion information and recognizing operation commands therefrom is also being developed in the medical field.

특히, 최근의 의료 분야에서, 많은 종류의 시술과 수술이 최소침습 및 경피적 시술로 바뀌어감에 따라서 사람의 육안으로 직접 보고 만지는 고전적인 사용자 환경(UI)보다 다양한 영상장비를 통해서 치료기구의 위치와 모양을 확인 및 측정하고 유도하는 사용자 환경이 등장했다. In particular, in the recent medical field, as many types of procedures and surgeries have been changed to minimally invasive and percutaneous procedures, the location and location of treatment devices and User experiences have emerged to identify, measure, and guide shapes.

이와 같은 사용자 환경에서 수술이나 시술을 무균적으로 진행하기 위해서는 주 시술자 외에 각종 영상장비들을 조작하기 위한 보조 인력이 필요하다. In order to perform a surgery or procedure aseptically in such a user environment, an assistant manpower to operate various imaging equipment in addition to the main operator is required.

특히, 보조 인력은 고도의 수술과 시술을 잘 이해하고 있으며, 각각의 특수한 상황들과 그 상황에 맞도록 적절한 영상을 추적하고 시술자가 정확히 판단하기 유리하도록 보여주어 시술/수술이 안전하고 정확하게 유도될 수 있도록 도와주는 일을 수행한다. In particular, the assistant personnel have a good understanding of advanced surgeries and procedures, and track the appropriate images for each special situation and the situation, and show the operator to make an accurate judgment so that the procedure/surgery can be guided safely and accurately. Do what you can to help

그러나, 시술 중 발생하는 다양하고 복잡한 상황들을 함께 처리하기 불가능하고, 시술 전에 예측하지 못한 다양한 상황에 맞도록 보조자는 시술자가 원하는 방향으로 영상을 보여주고 필요한 정보(목표물의 위치, 거리, 크기 등)를 빠르고 정확하게 추적하여 시술자가 판단하기 유리하도록 시술자에게 보여주는 것이 중요하다. However, it is impossible to deal with various and complex situations that occur during the procedure, and the assistant shows the image in the desired direction to fit the various unexpected situations before the procedure and provides the necessary information (position, distance, size, etc. of the target) It is important to quickly and accurately track and show the operator so that the operator can make a decision.

보조자는 시술자가 원하는 동작(영상장비 조작 등)을 수행하고 시술자는 제공된 정보를 바탕으로 다음 단계를 어떻게 진행할 지 결정하는데, 시술자는 무균적 조작을 위해 멸균 가운과 장갑을 착용하고 있으며, 시술자의 양손은 도구들을 잡거나 연속적으로 조작하고 있기 때문에 리모컨이 멸균처리가 되어 있더라도 직접 조작이 불가능하다. 많은 경우에 시술자의 발도 (주로 영상) 장비 조작을 위해 페달을 사용하고 있는 상태이므로, 시술자는 요구사항을 주로 언어를 통해서 보조자에게 전달해야 한다. The assistant performs the operation desired by the operator (manipulating imaging equipment, etc.) and the operator decides how to proceed to the next step based on the provided information. Since the silver tools are being held or operated continuously, direct operation is impossible even if the remote control is sterilized. In many cases, since the operator's feet are also using pedals to operate the equipment (mainly video), the operator must communicate the requirements to the assistant mainly through language.

그러나, 일반적인 병원 환경에서 대부분의 보조자들이 시술자만큼 숙달된 경우는 드물고 잘 훈련된 보조자라 하더라도 시술자가 원하는 동작을 한번에 신속하고 정확하게 수행하는 것은 불가능하다. However, in a general hospital environment, it is rare for most assistants to be as proficient as the operator, and even a well-trained assistant may not be able to quickly and accurately perform the operation desired by the operator at once.

따라서, 시술의 종류, 상황에 따라서 이와 같은 지연과 부정확함이 환자의 안전과 시술 결과에 심각한 영향을 미칠 수 있기 때문에 시술자가 직접 정확하고 무균적으로 조작할 수 있게 하는 시스템이 필요하다. Therefore, depending on the type and situation of the procedure, such delay and inaccuracy can seriously affect the safety of the patient and the result of the procedure, so a system that allows the operator to directly and accurately and aseptically operate is needed.

위에서 언급된 배경기술에 기재된 내용들은 단지 본 발명의 배경기술을 이해시키기 위해서 작성된 것이므로, 이 기술의 당업자에게 이미 알려진 공지기술 외의 내용을 포함할 수 있다. Since the contents described in the above-mentioned background are only written for understanding the background of the present invention, it may include contents other than those already known to those skilled in the art.

출원번호 10-2016-0064946Application No. 10-2016-0064946 출원번호 10-2012-0103599Application No. 10-2012-0103599 출원번호 10-2015-0144243Application No. 10-2015-0144243

본 발명의 실시예들은 시선, 제스쳐(모션), 또는 음성신호를 미리 설정된 프로그램으로 처리하여 마우스나 키보드 같은 접촉 조작 없이 장비를 제어함으로써 보다 완벽한 무균 상태의 시술환경을 구현할 수 있는 비접촉 무균 조작 시스템을 제공하는 것이다. Embodiments of the present invention provide a non-contact aseptic operation system that can implement a more perfect sterile surgical environment by processing the gaze, gesture (motion), or voice signal with a preset program and controlling the equipment without touch operation such as a mouse or keyboard. will provide

또한, 시술 과정에서 원하는 영상을 검색하는 기능, 검색된 영상에서 설정된 구간을 반복적으로 재생하는 기능, 검색된 영상에서 원하는 프레임을 검색하는 기능, 영상에서 원하는 부위를 선택하고 확대하는 기능, 영상의 특정 영역의 길이를 측정하는 기능, 및 검색된 영상들을 비교하는 기능, 영상 장비가 시술자가 원하는 동작을 하도록 하는 기능 등을 수행할 수 있는 무균 조작 시스템을 제공하는 것이다. In addition, a function to search for a desired image during the procedure, a function to repeatedly play a set section in the searched image, a function to search for a desired frame in a searched image, a function to select and enlarge a desired part in the image, a function to An object of the present invention is to provide an aseptic manipulation system capable of performing a function of measuring a length, a function of comparing searched images, and a function of allowing the imaging equipment to perform a desired operation by an operator.

뿐만 아니라, 다양한 시술에 사용되는 영상 및 보조 장비에 적합한 사용자 인터페이스로의 변환이 가능하며, 복잡한 시술/수술에서 보조자의 숙련도 차이에서 생기는 특수 상황에서의 신속하고 정확하게 대응하여 잠재적 위험요인을 제거할 수 있어 환자 안전 재고와 치료 결과 개선에 도움이 될 수 있는 비접촉 무균 조작 시스템을 제공하는 것이다. In addition, it is possible to convert to a user interface suitable for images and auxiliary equipment used in various procedures, and it is possible to eliminate potential risk factors by quickly and accurately responding to special situations caused by differences in the skill of assistants in complex procedures/surgeries. The goal is to provide a non-contact aseptic handling system that can help improve patient safety inventory and treatment outcomes.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템은 영상을 표시하도록 배치되는 디스플레이부; 사용자의 시선 움직임을 추적하도록 상기 디스플레이부의 일측에 배치되는 시선 추적부; 사용자의 손의 움직임이나 형태를 감지하도록 상기 디스플레이부의 일측에 배치되는 제스쳐 감지부; 및 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서 미리 설정된 영상을 선택 및 가공하고, 이를 상기 디스플레이부를 통해서 디스플레이하는 제어부를 포함할 수 있다. A non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention includes a display unit arranged to display an image; a gaze tracking unit disposed on one side of the display unit to track a user's gaze movement; a gesture sensing unit disposed on one side of the display unit to detect a movement or shape of a user's hand; and a control unit that selects and processes a preset image according to the signal detected by the eye tracking unit and the gesture sensing unit, and displays the selected image through the display unit.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부는 상기 디스플레이부의 일측에 시선의 움직임 방향으로 배치되는 바 타입일 수 있다. In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, the gaze tracking unit may be of a bar type disposed on one side of the display unit in the direction of movement of the gaze.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부는 상기 디스플레이부의 일측에 배치될 수 있다. In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, the gaze tracking unit may be disposed on one side of the display unit.

본 발명의 실시예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 제스쳐 감지부는 Depth 카메라, RBG 카메라, 스테레오 카메라, 또는 적외선 카메라를 포함할 수 있다.In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, the gesture sensing unit may include a depth camera, an RBG camera, a stereo camera, or an infrared camera.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 사용자의 음성을 감지하도록 상기 디스플레이부의 일측에 배치되는 음성 인식부를 더 포함할 수 있다. In the non-contact aseptic manipulation system using gaze, gesture, or voice according to an embodiment of the present invention, a voice recognition unit disposed on one side of the display unit to detect a user's voice may be further included.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 소프트웨어부를 통해서 메모리부에 저장된 영상들 중에서 적어도 하나를 선택하는 제어부를 포함할 수 있다. In the non-contact aseptic manipulation system using gaze, gesture, or voice according to an embodiment of the present invention, according to the signal detected by the gaze tracking unit and the gesture sensing unit, at least one of the images stored in the memory unit through the software unit is selected. It may include a control unit to select.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 상기 제어부는 선택된 영상에서 미리 설정된 구간을 반복하여 디스플레이할 수 있다. In the non-contact aseptic manipulation system using gaze, gesture, or voice according to an embodiment of the present invention, according to the signal detected by the gaze tracking unit and the gesture detection unit, the control unit repeats a preset section in the selected image and displays can do.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 상기 제어부는 영상을 구성하는 프레임들 중에서 적어도 하나의 프레임을 선택하여 디스플레이할 수 있다. In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, according to a signal detected by the gaze tracking unit and the gesture sensing unit, the control unit selects at least one of the frames constituting the image. You can select a frame to display.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 상기 제어부는 영상에서 적어도 하나의 지점에 시각적 마크(mark)를 형성하고, 이를 시선이나 제스쳐에 따라서 움직이거나 고정시킬 수 있다. In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, according to a signal detected by the gaze tracking unit and the gesture sensing unit, the control unit places a visual mark ( mark), and it can be moved or fixed according to the gaze or gesture.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 상기 제어부는 적어도 두 개의 상기 마크가 형성하는 거리, 면적, 또는 부피를 연산하고, 이를 디스플레이할 수 있다. In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, according to a signal detected by the gaze tracking unit and the gesture sensing unit, the control unit controls the distance between the at least two marks, The area or volume can be calculated and displayed.

본 발명의 실시예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 상기 제어부는 음성 인식부를 통해서 입력 받은 음성신호와 상기 마크를 서로 매칭시킬 수 있다. In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, according to the signal detected by the gaze tracking unit and the gesture sensing unit, the control unit includes the voice signal input through the voice recognition unit and the Marks can be matched to each other.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 상기 제어부는 상기 음성 인식부를 통해서 입력받은 음성신호와 매칭되는 상기 마크를 탐색하고, 탐색된 상기 마크가 포함된 영상을 디스플레이할 수 있다. In the non-contact aseptic manipulation system using gaze, gesture, or voice according to an embodiment of the present invention, according to the signal detected by the gaze tracking unit and the gesture sensing unit, the control unit includes a voice signal input through the voice recognition unit and The matching mark may be searched for, and an image including the searched mark may be displayed.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 상기 디스플레이부가 사용자의 눈 또는 손을 바라보도록 회전시키는 회동부를 포함할 수 있다. In the non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention, the display unit may include a rotating unit that rotates to face the user's eyes or hands.

본 발명의 실시 예들에 따르면, 시선, 제스쳐(모션), 또는 음성신호를 미리 설정된 프로그램으로 처리하여 마우스나 키보드의 조작 없이 장비를 제어함으로써 보다 무균 상태의 시술환경을 구현할 수 있다. According to embodiments of the present invention, it is possible to implement a more sterile surgical environment by processing a gaze, a gesture (motion), or a voice signal with a preset program to control the equipment without manipulation of a mouse or keyboard.

특히, 시술 과정에서 원하는 영상을 검색하는 기능, 검색된 영상에서 설정된 구간을 반복적으로 재생하는 기능, 검색된 영상에서 원하는 프레임을 검색하는 기능, 영상에서 원하는 부위를 선택하고 확대하는 기능, 영상의 특정 영역의 길이를 측정하는 기능, 및 검색된 영상들을 비교하는 기능을 수행할 수 있다. In particular, a function to search for a desired image during the procedure, a function to repeatedly play a set section in the searched image, a function to search for a desired frame in a searched image, a function to select and enlarge a desired part in the image, and a function to A function of measuring the length and a function of comparing searched images may be performed.

뿐만 아니라, 다양한 시술에 사용되는 영상 및 보조 장비에 적합한 사용자 인터페이스로의 변환이 가능하며, 복잡한 시술/수술에서 보조자의 숙련도 차이에서 생기는 특수 상황에서의 신속하고 정확하게 대응하여 잠재적 위험요인을 제거할 수 있어 환자 안전 재고와 치료 결과 개선에 도움이 될 수 있다. In addition, it is possible to convert to a user interface suitable for images and auxiliary equipment used in various procedures, and it is possible to eliminate potential risk factors by quickly and accurately responding to special situations caused by differences in the skill of assistants in complex procedures/surgeries. This can help to rethink patient safety and improve treatment outcomes.

위에서 언급된 본 발명의 실시 예에 따른 효과는 기재된 내용에만 한정되지 않고, 명세서 및 도면으로부터 예측 가능한 모든 효과를 더 포함할 수 있다. The above-mentioned effects according to the embodiments of the present invention are not limited to the described contents, and may further include all effects predictable from the specification and drawings.

도 1은 본 발명의 실시예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템의 개략적인 구성도이다.
도 2는 본 발명의 실시예에 따른 무균 조작 시스템의 조작방법을 보여준다.
도 3은 본 발명의 실시예에 따른 무균 조작 시스템의 프로세스를 보여주는 플로우차트이다.
도 4는 본 발명의 실시예에 따른 무균 조작 시스템의 기능을 보여주는 테이블이다.
도 5는 본 발명의 실시예에 따른 무균 조작 시스템의 영상을 보여준다.
도 6은 본 발명의 다른 실시예에 따른 무균 조작 시스템의 개략적인 사시도이다.
도 7 내지 도 12는 본 발명의 실시예들을 보여주는 개략적인 도면이다.
1 is a schematic configuration diagram of a non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention.
2 shows a method of operating an aseptic handling system according to an embodiment of the present invention.
3 is a flowchart showing a process of an aseptic handling system according to an embodiment of the present invention.
4 is a table showing the functions of the aseptic handling system according to an embodiment of the present invention.
5 shows an image of an aseptic manipulation system according to an embodiment of the present invention.
6 is a schematic perspective view of an aseptic handling system according to another embodiment of the present invention.
7 to 12 are schematic views showing embodiments of the present invention.

본 발명은 이하에서 설명되는 특정 실시 예에 한정되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변형, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. It should be understood that the present invention is not limited to the specific embodiments described below, and includes all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 명세서에서 사용한 용어는 특정 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 뜻하지 않는 한 복수의 표현을 포함할 수 있다. The terms used herein are used to describe specific embodiments, and are not intended to limit the present invention. A singular expression may include a plural expression unless the context clearly dictates otherwise.

"포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 구성이나 작용 등 외에도 다른 구성이나 작용 등을 더 포함할 가능성이 있음을 의미한다. 제1, 제2 등의 용어는 구성요소들을 한정하기 위한 것이 아니며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적이다. Terms such as “include” or “have” mean that there is a possibility to further include other components or actions in addition to the components or actions described in the specification. Terms such as first, second, etc. are not intended to limit the components, and are for the purpose of distinguishing one component from other components.

이하, 본 발명에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템의 실시 예를 첨부도면을 참조하여 상세히 설명한다.Hereinafter, an embodiment of a non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템의 개략적인 구성도이다. 1 is a schematic configuration diagram of a non-contact aseptic manipulation system using a gaze, a gesture, or a voice according to an embodiment of the present invention.

도 1을 참조하면, 무균 조작 시스템은 시선 추적부(100), 제스쳐 감지부(105), 음성 인식부(110), 디스플레이부(115), 입출력부(120), 연산제어부(130), 메모리부(135), 및 소프트웨어부(140)를 포함하고, 입출력부(120)에는 키보드(122), 마우스(124), 또는 페달(126)이 유/무선으로 연결될 수 있다. 먼저, 시선 추적부(100)는, 사람의 눈에 적외선이나 빛을 쪼아 눈의 동공 위치를 추적하고 이를 이용하여 눈의 움직임을 추정하여 시선(210)을 추적할 수 있고, 눈동자를 포함한 눈의 전체 모습을 촬영함으로써 시선(210)의 방향을 추정할 수 있다. 이렇게 추정된 시선 방향을 가상의 선으로 설정해서 2D 평면 모니터에서의 위치 또는 3D 공간 상에서의 방향과 영역을 추정할 수 있다. Referring to FIG. 1 , the aseptic manipulation system includes an eye tracking unit 100 , a gesture sensing unit 105 , a voice recognition unit 110 , a display unit 115 , an input/output unit 120 , an operation control unit 130 , and a memory. It includes a unit 135 and a software unit 140 , and a keyboard 122 , a mouse 124 , or a pedal 126 may be connected to the input/output unit 120 by wire/wireless. First, the gaze tracking unit 100 may track the gaze 210 by irradiating infrared or light into the human eye, tracking the pupil position of the eye, and estimating the movement of the eye using this, and The direction of the gaze 210 may be estimated by photographing the entire appearance. By setting the estimated gaze direction as a virtual line, the position on the 2D flat monitor or the direction and area in 3D space can be estimated.

본 발명의 실시예에 따른 시선 추적부(100)는, 상기 디스플레이부(115)의 하단에 부착되는 바 타입으로 구성될 수 있고, 이러한 구조를 통해서 사용자가 바라보고 있는 영상 안에서 특정 지점 혹은 영역을 보다 빠르고 정확하게 선택할 수 있다. The eye tracking unit 100 according to an embodiment of the present invention may be configured as a bar type attached to the lower end of the display unit 115, and through this structure, a specific point or area in the image the user is looking at is detected. faster and more accurate selection.

그리고, 상기 제스쳐 감지부(105)는, 손가락의 움직임이나 모양을 인식하는 것으로, 카메라를 포함할 수 있으며, 상기 제스쳐 감지부(105)는 카메라를 이용하여 비접촉식으로 손가락의 움직임을 추적할 수 있다. In addition, the gesture detection unit 105 recognizes the movement or shape of a finger, and may include a camera, and the gesture detection unit 105 may track the movement of a finger in a non-contact manner using a camera. .

상기 제스쳐 감지부(105)의 카메라는 크게 깊이(depth) 영상을 이용하는 타입과 칼라(RBG) 영상 또는 적외선을 이용하는 타입을 포함할 수 있고, 본 발명의 실시 예에서 깊이 영상을 이용하는 타입이 상대적으로 더 좋은 추적 성능을 보일 수 있으나, 칼라 영상을 이용하는 타입도 채용될 수 있다. The camera of the gesture sensing unit 105 may largely include a type using a depth image and a type using a color (RBG) image or infrared light, and in an embodiment of the present invention, a type using a depth image is relatively A better tracking performance may be exhibited, but a type using a color image may also be employed.

본 발명에서는 3인칭 시점에서의 손가락 움직임 추적 방법이 적합할 것으로 생각되며, 사용자가 수술의사인 경우에, 혈액이 묻어 있는 장갑을 착용하고 있기 때문에, 성능의 안정성을 위해 깊이 영상 타입의 카메라를 사용할 수 있다. 아울러, 사용자의 손을 빠르게 탐지하는 방법으로써, 이미 공지된 프로그램, 작동 기구, 및 방법들이 실시 예에 따라서 적합하게 적용될 수 있다. In the present invention, it is considered that the finger motion tracking method in the third person view is suitable, and if the user is a surgeon, a depth image type camera can be used for stability of performance because he is wearing gloves stained with blood. have. In addition, as a method of quickly detecting a user's hand, well-known programs, operating devices, and methods may be suitably applied according to embodiments.

또한, 상기 음성 인식부(110)는 음성 인식 기술을 활용하여 특정 위치에서 시선 등을 고정시킨 상태에서 음성을 이용한 주석(annotation)을 이용하여 영상의 원하는 지점에 점을 찍거나 점을 선택하고, 이에 명칭을 부여하며, 필요한 경우에 같은 지점을 음성을 통해서 지칭하거나 검색할 수 있다. In addition, the voice recognition unit 110 uses a voice recognition technology to draw a point or select a point at a desired point in the image using an annotation using a voice in a state where the gaze is fixed at a specific position, A name is given to this, and if necessary, the same point can be referred to or searched for through voice.

상기 디스플레이부(115)는 본 발명의 실시예에서, 영상을 표시한 것으로, 플라스마, 발광다이오트, 액정 등의 전자디바이스이며 터치 기능이 있는 평면모니터가 적용될 수 있으며, 공지된 디스플레이 장치를 선택적으로 적용할 수 있다. In an embodiment of the present invention, the display unit 115 displays an image, and is an electronic device such as plasma, light emitting diode, liquid crystal, etc. can be applied.

상기 연산제어부(130)는 미리 설정된 소프트웨어 또는 프로그램에 의해 동작하는 하나 이상의 마이크로 프로세서로 구현될 있으며, 이러한 설정된 프로그램 또는 소프트웨어는 본 발명의 실시 예에 따른 각 동작과 기능을 수행하기 위한 일련의 명령을 포함할 수 있다. The operation control unit 130 may be implemented as one or more microprocessors operated by preset software or programs, and such a set program or software executes a series of instructions for performing each operation and function according to an embodiment of the present invention. may include

상기 메모리부(135)에는 미리 설정된 영상이 저장되고 배열되며, 업데이트될 수 있으며, 이는 외부 시스템과 유무선으로 연결될 수 있으며, 상기 소프트웨어부(140)는 상기 입출력부(120)의 키보드, 마우스, 또는 페달을 통해서 입력되거나 상기 시선 추적부(100), 상기 제스쳐 감지부(105), 또는 상기 음성 인식부(110)를 통해서 입력되는 사용자의 지시나 명령을 연산제어부(130)를 통해서 수행할 수 있으며, 상기 연산제어부(130)와 상기 소프트웨어부(140)를 통해서 수행하는 기능들에 대해서는 도 1 내지 6을 참조하여 설명한다. In the memory unit 135 , preset images may be stored, arranged, and updated, which may be connected to an external system by wire or wireless, and the software unit 140 may include a keyboard, mouse, or A user's instruction or command input through the pedal or input through the eye tracking unit 100, the gesture sensing unit 105, or the voice recognition unit 110 may be performed through the operation control unit 130, , functions performed through the operation control unit 130 and the software unit 140 will be described with reference to FIGS. 1 to 6 .

도 2는 본 발명의 실시예에 따른 무균 조작 시스템의 조작방법을 보여준다. 2 shows a method of operating an aseptic handling system according to an embodiment of the present invention.

도 2를 참조하면, 디스플레이부(115)의 하단부에는 가로방향으로 바 타입의 시선 추적부(100)가 장착된다. 본 발명의 실시예에서, 바 타입의 상기 시선 추적부(100)는 상기 디스플레이부(115)의 상단에 가로방향으로 배치될 수도 있고, 디스플레이부(115)와 별도로 구성될 수도 있다. Referring to FIG. 2 , the bar-type gaze tracking unit 100 is mounted on the lower end of the display unit 115 in the horizontal direction. In an embodiment of the present invention, the bar-type gaze tracking unit 100 may be horizontally disposed on the upper end of the display unit 115 , or may be configured separately from the display unit 115 .

상기 제스쳐 감지부(105)는 상기 디스플레이부(115)의 상단부에서 좌우로 배치될 수 있고, 이는 깊이 카메라 또는 칼라 카메라일 수 있으며, 이의 설치 위치는 가변될 수 있고, 상기 제스쳐 감지부(105)는 상기 디스플레이부(115)와 별도로 구성될 수도 있다. The gesture sensing unit 105 may be disposed left and right at the upper end of the display unit 115 , which may be a depth camera or a color camera, and its installation position may be variable, and the gesture sensing unit 105 may be configured separately from the display unit 115 .

상기 음성 인식부(110)는 외부로부터 사용자의 음성을 감지하도록 상기 디스플레이부(115)의 측면에 설치될 수 있고, 상기 음성 인식부(110)의 설치위치는 가변될 수 있고, 상기 디스플레이부(115)와 별도로 구성될 수도 있다. The voice recognition unit 110 may be installed on the side of the display unit 115 to detect the user's voice from the outside, the installation position of the voice recognition unit 110 may be variable, and the display unit ( 115) and may be configured separately.

사용자의 눈이 상기 디스플레이부(115)의 화면을 주시하는 상태에서, 상기 시선 추적부(100)는 사용자의 눈의 시선(210) 방향을 감지하고, 상기 제스쳐 감지부(105)는 사용자의 손(200)의 이동경로와 손의 형태 등을 감지할 수 있다. 아울러, 사용자는 키보드(122), 마우스(124), 또는 페달(126)을 통해서 지시신호를 입력할 수 있다. In a state in which the user's eyes gaze at the screen of the display unit 115 , the eye tracking unit 100 detects the direction of the user's eye gaze 210 , and the gesture detection unit 105 detects the user's hand It is possible to detect the movement path of 200 and the shape of the hand. In addition, the user may input an instruction signal through the keyboard 122 , the mouse 124 , or the pedal 126 .

도 3은 본 발명의 실시예에 따른 무균 조작 시스템의 프로세스를 보여주는 플로우차트이다. 3 is a flowchart showing a process of an aseptic handling system according to an embodiment of the present invention.

도 3을 참조하면, S300에서 무균 조작 시스템의 파워가 온 되고, S310에서 시선 추적부(100)가 사용자의 시선을 추적하며, S320에서 제스쳐 감지부(105)가 사용자의 손의 움직임과 형태를 감지하며, S330에서 음성감지부(105)가 사용자의 음성을 감지한다. Referring to FIG. 3 , the power of the aseptic manipulation system is turned on in S300, the eye tracking unit 100 tracks the user's gaze in S310, and the gesture sensing unit 105 detects the movement and shape of the user's hand in S320. , and the voice sensing unit 105 detects the user's voice in S330.

S340에서 연산제어부(130)는 시선 추적부(100), 제스쳐 감지부(105), 및 음성감지부(105)에서 감지된 신호들을 처리하고, 이에 대응하는 명령신호를 생성하고, S350에서 소프트웨어부(140)는 연산제어부(130)에서 생성된 명령신호를 수신하고, 이에 대응하는 기능을 수행한다. In S340, the operation control unit 130 processes the signals detected by the eye tracking unit 100, the gesture sensing unit 105, and the voice sensing unit 105, and generates a command signal corresponding thereto, and in S350, the software unit 140 receives the command signal generated by the operation control unit 130, and performs a function corresponding thereto.

도 4는 본 발명의 실시 예에 따른 무균 조작 시스템의 기능을 보여주는 테이블이다. 4 is a table showing the functions of the aseptic handling system according to an embodiment of the present invention.

도 4를 참조하면, 무균 조작 시스템은 S400에서 메모리부(135)에 저장된 영상을 검색하는 기능을 수행할 수 있다. 여기서, 영상의 제목을 통해서 영상의 검색이 가능하고, 영상의 제목은 음성으로 인식될 수 있다. Referring to FIG. 4 , the aseptic manipulation system may perform a function of searching for an image stored in the memory unit 135 in S400 . Here, it is possible to search for an image through the title of the image, and the title of the image may be recognized as a voice.

또한, 무균 조작 시스템은 S410에서 검색된 영상에서 프레임을 검색하는 기능을 수행할 수 있는데, 선택될 프레임에 대응하는 명칭을 음성으로 입력하여 프레임을 검색할 수 있다. In addition, the aseptic manipulation system may perform a function of searching for a frame in the image searched for in S410, and may search for a frame by inputting a name corresponding to the frame to be selected by voice.

또한, 무균 조작 시스템은 S420에서 검색된 영상을 반복적으로 재생하는 기능을 수행할 수 있는데, 사용자는 검색된 영상에서 반복될 구간을 설정할 수 있고, 이 구간을 반복하여 재생할 수 있다. In addition, the aseptic manipulation system may perform a function of repeatedly reproducing the image searched for in S420, and the user may set a section to be repeated in the searched image, and this section can be played repeatedly.

또한, 무균 조작 시스템은 S430에서 영상에서 특정 영역의 길이/직경/부피 등을 측정할 수 있는 기능을 수행할 수 있다. 사용자는 시선, 제스쳐, 또는 음성을 통해서 영상, 또는 프레임을 검색하고, 특정영역을 선택하고, 이의 길이, 직경, 또는 부피가 측정할 수 있다. In addition, the aseptic manipulation system may perform a function of measuring the length/diameter/volume of a specific region in the image in S430. A user may search for an image or frame through gaze, gesture, or voice, select a specific region, and measure its length, diameter, or volume.

또한, 무균 조작 시스템은 S440에서 영상에서 특정영역을 확대 또는 축소를 수행하는 기능을 수행할 수 있다. 사용자는 시선, 제스쳐, 또는 음성을 통해서 영상, 또는 프레임을 검색하고, 영상의 특정영역을 선택하고, 선택된 영역을 확대 또는 축소할 수 있다. In addition, the aseptic manipulation system may perform a function of enlarging or reducing a specific area in the image in S440 . The user may search for an image or a frame through a gaze, a gesture, or a voice, select a specific region of the image, and enlarge or reduce the selected region.

또한, 무균 조작 시스템은 S450에서 영상에서 특정영역 또는 지점에 마크를 형성하는 기능을 수행할 수 있다. 사용자는 시선, 제스쳐, 또는 음성을 통해서 영상의 특정영역 또는 지점을 선택하고, 선택된 영역 또는 지점에 미리 설정된 마크를 형성할 수 있다. 여기서, 사용자는 마크의 형태 등을 다양하게 선택할 수 있다. In addition, the aseptic manipulation system may perform a function of forming a mark on a specific area or point in the image in S450. A user may select a specific area or point of an image through a gaze, a gesture, or a voice, and may form a preset mark in the selected area or point. Here, the user can variously select the shape of the mark and the like.

또한, 무균 조작 시스템은 S460에서 검색된 영상에서 특정영역 또는 지점에 마크를 형성하고, 이 마크에 텍스트 명칭 또는 음성 명칭을 부여하는 기능을 수행할 수 있고, 사용자는 영상의 특정영역 또는 지점을 선택하고, 선택된 영역 또는 지점에 미리 설정된 마크를 형성하고, 형성된 마크에 텍스트 명칭 또는 음성 명칭을 부여할 수 있다. In addition, the aseptic manipulation system may perform a function of forming a mark on a specific area or point in the image searched in S460, and giving a text name or an audio name to the mark, and the user selects a specific area or point of the image and , a preset mark may be formed in a selected area or point, and a text name or a voice name may be assigned to the formed mark.

또한, 무균 조작 시스템은 S470에서 미리 형성된 마크에 텍스트 명칭 또는 음성 명칭을 부여하는 기능을 수행할 수 있다. 따라서, 사용자는 텍스트 명칭 또는 음성 명칭을 통해서 영상 또는 프레임을 신속하고 정확하게 검색할 수 있다. In addition, the aseptic manipulation system may perform a function of giving a text name or a voice name to the mark formed in advance in S470. Accordingly, the user can quickly and accurately search for an image or frame through a text name or an audio name.

도 5는 본 발명의 실시예에 따른 무균 조작 시스템의 영상을 보여준다. 5 shows an image of an aseptic manipulation system according to an embodiment of the present invention.

도 5를 참조하면, 사용자는 시선, 제스쳐, 또는 음성을 통해서 디스플레이부(115)에서 표현되는 영상과 프레임을 검색하고, 특정 영역에 마크(500)를 형성하고, 이 마크(500) 사이에 길이(L)을 파악할 수 있다. 아울러, 사용자는 마크(500)에 텍스트 명칭 또는 음성 명칭을 부여하고, 추후에 텍스트 명칭 또는 음성 명칭을 통해서 영상과 프레임을 신속하게 검색할 수 있으며, 이는 디스플레이부(115)를 통해서 눈으로 확인할 수 있다. Referring to FIG. 5 , a user searches for an image and a frame expressed on the display unit 115 through a gaze, a gesture, or a voice, forms a mark 500 in a specific area, and a length between the marks 500 . (L) can be found. In addition, the user can give the mark 500 a text name or a voice name, and then quickly search for images and frames through the text name or voice name later, which can be visually confirmed through the display unit 115 . have.

본 발명의 실시 예에서, 사용자는 특정 영상과 특정 프레임에 텍스트 명칭 또는 음성 명칭을 부여할 수 있고, 이러한 명칭은 영상에서 시각적으로 표현될 수 있으며, 이러한 명칭을 이용하여 영상과 프레임이 신속하고 정확하게 검색될 수 있다. In an embodiment of the present invention, a user may give a text name or an audio name to a specific image and a specific frame, and the name may be visually expressed in the image. can be searched for.

도 6은 본 발명의 다른 실시예에 따른 무균 조작 시스템의 개략적인 사시도이다. 6 is a schematic perspective view of an aseptic handling system according to another embodiment of the present invention.

도 6을 참조하면, 디스플레이부(115)의 하부에는 받침대(610)가 배치되고, 상기 받침대(610)에는 회동부(600)가 구성되고, 상기 회동부(600)는 상기 디스플레이부(115)를 설정각도로 회전시킬 수 있다. Referring to FIG. 6 , a pedestal 610 is disposed below the display unit 115 , and a rotating unit 600 is configured on the pedestal 610 , and the rotating unit 600 includes the display unit 115 . can be rotated to a set angle.

여기서, 상기 회동부는 상기 디스플레이부를 좌우방향 또는 상하방향으로 회전시킬 수 있고, 3차원 공간에서 움직일 수 있다. 따라서, 시선과 동작을 편안하고 정확하게 인식하여 시술자에 맞도록 방향/높이를 전환할 수 있다. Here, the rotating unit may rotate the display unit in a left-right direction or a vertical direction, and may move in a three-dimensional space. Accordingly, the direction/height can be changed to suit the operator by comfortably and accurately recognizing the gaze and motion.

상기 음성 인식부(110), 상기 제스쳐 감지부(105), 또는 상기 시선 추적부(100)는 미리 설정된 메인 사용자의 위치를 감지하고, 연산제어부(130)는 감지된 위치에 따라서 상기 회동부(600)를 제어하여 상기 디스플레이부(115)의 화면이 사용자의 눈에 잘 보여지도록 할 수 있으며, 상기 시선 추적부(100)와 상기 제스쳐 감지부(105)의 감지 정확도를 향상시킬 수 있다. The voice recognition unit 110 , the gesture detection unit 105 , or the eye tracking unit 100 detects a preset main user's position, and the operation control unit 130 controls the rotation unit ( 130 ) according to the detected position. 600 ) so that the screen of the display unit 115 can be easily seen by the user's eyes, and the detection accuracy of the eye tracking unit 100 and the gesture sensing unit 105 can be improved.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 사용자의 제스쳐 명령을 종합적으로 분석하여, 보조 장비가 원하는 동작(전/후/좌/우로 이동, 회전 등)을 원하는 만큼(각도, 거리, 높/낮이 등) 취하도록 할 수 있으며, 명령의 수행 과정에서 사용자가 원하는 동작을 더욱 정확하게 수행할 수 있도록 머신 러닝 등의 알고리즘을 사용할 수 있다. In the non-contact aseptic manipulation system using gaze, gesture, or voice according to an embodiment of the present invention, the user's gesture command is comprehensively analyzed to allow the auxiliary equipment to perform the desired operation (forward/backward/left/right movement, rotation, etc.) You can make it take as many as you want (angle, distance, height/height, etc.), and algorithms such as machine learning can be used to more accurately perform the user's desired action in the process of executing the command.

도 6을 참조하면, 회동부는 사용자의 시선을 추적하고 인식을 정확하게 하기 위해서 필요하다고 생각하며, 사용자의 키와 위치에 따라서 적절히 높낮이와 상하 회전도 가능하다. Referring to FIG. 6 , the rotating unit is thought to be necessary in order to track the user's gaze and to accurately recognize the user's gaze, and appropriately height and vertical rotation are possible according to the height and position of the user.

본 발명의 실시 예에 따른 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템에서, 명령을 종합적으로 분석하여 보조 장비가 원하는 동작(전/후/좌/우로 이동, 회전 등)을 원하는 만큼(각도, 거리, 높/낮이 등) 취하도록 할 수 있으며, 명령의 수행 과정에서 사용자가 원하는 동작을 더욱 정확하게 수행할 수 있도록 머신 러닝 등의 알고리듬을 사용할 수 있다. In the non-contact aseptic manipulation system using gaze, gesture, or voice according to an embodiment of the present invention, commands are comprehensively analyzed to allow auxiliary equipment to perform desired operations (forward/backward/left/right movement, rotation, etc.) as much as desired (angle , distance, height / height, etc.) can be taken, and algorithms such as machine learning can be used so that the user can perform the desired action more precisely in the process of executing the command.

도 7 내지 도 12는 본 발명의 실시 예들을 보여주는 개략적인 도면이다. 7 to 12 are schematic views showing embodiments of the present invention.

도 7을 참조하면, 투시 조영에 대한 것으로, 위로 올라감에 따라서 진행방향으로 장비가 적정위치를 찾아가며, 여러 가지 catheter의 모양/굵기/전극 배치에 따라서 인식하며, 시술자가 "가"라고 카테터를 조작할 때, "가"라고 네이밍하면 기구가 인식될 수 있다. Lock-on "가"가 된 후 기구를 따라서 영상을 보여줄 수 있다. 7, for fluoroscopy, the equipment finds an appropriate position in the moving direction as it goes up, recognizes according to the shape/thickness/electrode arrangement of various catheters, and the operator says "Go" to the catheter When operating, the instrument can be recognized by naming it "a". After the lock-on becomes "is", you can follow the device and show the image.

모니터 하단을 gaze tracking해서, 진행방향으로 70%의 여백이 유지되도록 적당한 속도로 움직일 수 있다. 또한, 머신 러닝의 기능을 활용하여 시술자/시술종류에 따라서 더욱 향상된 영상과 부드러운 작동 등 개선을 기대할 수 있다. By gaze tracking the bottom of the monitor, you can move at an appropriate speed so that 70% of the blank space is maintained in the moving direction. In addition, by utilizing the function of machine learning, improvements such as improved images and smooth operation can be expected depending on the operator/type of procedure.

또한, 멸균 장갑의 손등에 마커를 부착해서, 손동작 중 push-in 거리를 정확히 측정해서, 기계에 이동할 거리를 예측해서 전달할 수 있고, 이동거리를 카메라를 통해서 감지하고, 예상되는 위치로 동기화되어 이동할 수 있다. In addition, by attaching a marker to the back of the hand of the sterile glove, the push-in distance during hand movement can be accurately measured, and the distance to be moved to the machine can be predicted and transmitted. can

도 8은 심장의 전체윤곽을 보여주고, 네이밍 가능 활용예로써, 관상동맥 조영술시, "우관상동맥"이라고 네이밍하면, 오른쪽으로 포커싱하여 이동하고, "좌관상동맥"이라고 네이밍하면, 왼쪽으로 포커싱하여 이동하며, 심장의 윤곽/모션을 머신 러닝하여 혈관이 화면 밖으로 나가지 않도록, 화면의 상하좌우 위치와 X 선 투시장비의 높낮이, 각도가 조절될 수 있다. 8 shows the overall contour of the heart, and as a naming possible application example, when naming "right coronary artery" during coronary angiography, focusing and moving to the right, naming "left coronary artery", focusing to the left In order to prevent blood vessels from going out of the screen by machine learning the outline/motion of the heart, the vertical, horizontal, and vertical positions of the screen and the height and angle of the X-ray fluoroscopy equipment can be adjusted.

도 9를 참조하면, 혈관 조영측정(Angiographic measurement)으로써, 프레임선택/비디오클립선택(Frame selection/video clip selection)을 수행할 수 있다. 먼저, "기계이름"을 부르고(예를 들어, 기계명칭 "angio"), "나에게 클립리스트를 보여주시요(show me video clip list)"라고 부른다. 그럼, 도 9의 (a)와 같이, 썸네일 리스트가 플레이되는 상태로 디스플레이가 구성된다. Referring to FIG. 9 , as angiographic measurement, frame selection/video clip selection may be performed. First, call "machine name" (eg machine name "angio") and then say "show me video clip list". Then, as shown in (a) of FIG. 9 , the display is configured in a state in which the thumbnail list is played.

그 다음, 손동작을 좌/우로 스크롤하면, 시선에 따라서 선택된 썸네일이 주위보다 커지고, 이것이 맞는 것으로 판단되면, "ok"를 부르거나 손동작으로 이를 선택한다. 그 다음, 선택된 클립이 전체화면으로 바뀌고, 디스플레이 되도록 준비되며, 도 9의 (b)와 같이 아래의 프레임 뷰 영역에, 프레임 위치를 손동작을 좌우로 이동하여 원하는 프레임을 선택한다. 그리고, 선택된 프레임에서 앞뒤의 1 내지 3 프레임을 병합하고, 디스플레이 대상의 경계를 선명하게 하여, margin enhance 상태로 측정 전에 프로세스를 진행한다. Then, if the hand gesture is scrolled left/right, the selected thumbnail becomes larger than the surrounding according to the gaze, and if it is determined that it is correct, call “ok” or select it with a hand gesture. Then, the selected clip is changed to the full screen, ready to be displayed, and the desired frame is selected by moving the frame position left and right in the frame view area below as shown in FIG. 9(b). Then, in the selected frame, the front and rear 1 to 3 frames are merged, the boundary of the display target is sharpened, and the process is performed before measurement in the margin enhanced state.

도 10을 참조하면, 혈관조영 측정(Angiographic measurement)에 대한 것으로, 보조자의기계적 측정의 예시는, d1', d2', d3'이고, 시술자의 의도 시술계획, d1, d2, d3이다. 사용자가, 음성으로, 활성화할 장비 이름 "A-view"라고 부르면, 대기 입력모드로 진입하고, 사용할 기능으로써, "거리측정(distance measurement)"라고 부르면, 시선 경로(gaze tracking) 부위가 화면에서 과녁모양 등으로 확대된다. Referring to FIG. 10 , for angiographic measurement, examples of the assistant's mechanical measurement are d1', d2', and d3', and the operator's intentional treatment plan, d1, d2, d3. When the user calls “A-view”, the name of the device to be activated by voice, enters the standby input mode, and calls “distance measurement” as a function to use, the gaze tracking area is displayed on the screen It is enlarged to the shape of a target, etc.

그 다음, "Point1" 이 과녁에 대응되면, 이 자리에서 "stop"이라 부른다. 만약, "비의도적 눈 움직임"이나 "stop"후, 눈을 잠시 떼거나 깜빡임을 이용해서 정확한 포인트에 마커가 고정되었는지를 확인하고 수정할 수 있다. 같은 방법으로 "point2"를 고정 후 두 점 사이의 "거리 측정"[수행하고자 하는 기능이름]을 부르고 거리측정을 수행할 수 있다. Then, when "Point1" hits the target, it is called "stop" at this point. If, after "unintentional eye movement" or "stop", you can take your eyes off for a while or use blinking to check and correct whether the marker is fixed at the correct point. In the same way, after fixing "point2", you can call "Measure distance" between two points [name of the function you want to perform] and measure the distance.

도 11을 참조하면, 심장 내 전기도(Electrogram, EGM) 및 조율(pacing) 기록의 측정 및 분석 기능에 대한 것으로, 원하는 페이지(page)가 스크롤(scroll)될 때 대응하는 부분에서, "book mark"라고 부르면, 로그(log)에 표시되고, 리뷰(review) 화면에서 "book mark 번호"를 부르면, 그 화면으로 이동한다. 여기서, 원하는 신호가 화면 구석에 있을 수도 있으므로, 스크롤(scroll)해서 원하는 부위를 찾을 수 있다. 본 실시 예에서, 스크롤(scroll)은 음성/손동작(좌우움직임, 거리/속도)/에 따라서 마우스 마크를 움직여서 수행될 수 있다. 아울러, 포워드/백워드, by second/page/half page 등 자유롭게 명령하고, 첫 명령 후, "next"를 말하면, 같은 스케일과 방향으로 이동할 수 있다. 11, for the measurement and analysis function of the electrocardiogram (EGM) and pacing record in the heart, in the corresponding part when the desired page is scrolled, "book mark If you call ", it is displayed in the log, and if you call "book mark number" on the review screen, it moves to that screen. Here, since a desired signal may be in a corner of the screen, a desired portion can be found by scrolling. In the present embodiment, scrolling may be performed by moving a mouse mark according to voice/hand gesture (left/right movement, distance/speed)/. In addition, you can freely command forward/backward, by second/page/half page, etc., and say “next” after the first command to move in the same scale and direction.

아울러, "stimulation"이라 부르고, 원하는 명령을 입력하면, stimulation 기능을 수행하고, 예를 들어서, 특정지점"A1-2/site"를 설정된 주기로 지속적으로 박동 조율(straight pacing at the cycle length of 500ms)하는 기능을 수행할 수 있다. In addition, it is called "stimulation", and when a desired command is entered, it performs a stimulation function, for example, straight pacing at the cycle length of 500ms at a specific point "A1-2/site" at a set period. function can be performed.

도 12에서, "trace v1-2"라고 말하면, v1-2신호를 다른 색깔로 바꾸고, 활성화하여 크게 화면을 확대하고, 시선을 따라서 "X"마커가 선을 따라서 표시되며, 정점을 측정할 때는 "peak"라고 하면, 신호피크점(signal peak)에 마커(marker)가 표시된다. 그리고, 원하는 곳에 오면 "point 1, 같은 방법으로 피크(peak)가 여러 개 있으며, "first peak"및"second peak"하며, p1 및 p2 결정하고, 이 "measure time between p1 and p2"를 통해서 두 점 사이의 시간을 측정할 수 있다. In Fig. 12, when we say "trace v1-2", we change the v1-2 signal to a different color, activate it to enlarge the screen, and the "X" marker is displayed along the line along the line of sight, and when measuring the vertex When "peak" is said, a marker is displayed at the signal peak point. And, when it comes to the desired place, "point 1, there are several peaks in the same way," "first peak" and "second peak", determine p1 and p2, and through this "measure time between p1 and p2", two You can measure the time between points.

아울러, "A1-2"와 다른 줄에 있는 것 측정 시에는 p1 결정 후, "change channel to V1-2" 라고 지칭한 후, 같은 방법으로 p2 고정 후, "measure p1 and p2"를 통해서 두 점 사이의 시간을 측정하며, "take off"/"beginning" 명령을 이용해서 심장 전기도의 "peak"/"take off" 선택하고, 머신 러닝을 통해서 신호 정의(signal definition)를 정확히 수행할 수 있다. In addition, when measuring something on a line different from "A1-2", after determining p1, refer to "change channel to V1-2", fix p2 in the same way, and then use "measure p1 and p2" between two points It measures the time of , selects the "peak"/"take off" of the cardiac electrocardiogram using the "take off"/"beginning" commands, and can accurately perform signal definition through machine learning.

이상에서 본 발명의 실시 예들에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다. Although the embodiments of the present invention have been described above, the spirit of the present invention is not limited to the embodiments presented herein, and those skilled in the art who understand the spirit of the present invention can add components, Other embodiments may be easily proposed by changes, deletions, additions, etc., but these will also fall within the scope of the present invention.

100: 시선 추적부 105: 제스쳐 감지부
110: 음성 인식부 115: 디스플레이부
120: 입출력부 130: 제어부
135: 메모리부 140: 소프트웨어부
122: 키보드 124: 마우스
126: 페달 200: 손
210: 눈 500: 마크
600: 회동부 610: 받침대
100: eye tracking unit 105: gesture detection unit
110: voice recognition unit 115: display unit
120: input/output unit 130: control unit
135: memory unit 140: software unit
122: keyboard 124: mouse
126: pedal 200: hand
210: eye 500: mark
600: rotating unit 610: pedestal

Claims (13)

영상을 표시하도록 배치되는 디스플레이부;
사용자의 시선 움직임을 추적하도록 상기 디스플레이부의 일측에 배치되는 시선 추적부;
사용자의 손의 움직임이나 형태를 감지하도록 상기 디스플레이부의 일측에 배치되는 제스쳐 감지부; 및
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서 미리 설정된 영상을 선택 및 가공하고, 이를 상기 디스플레이부를 통해서 디스플레이하는 제어부;
를 포함하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
a display unit arranged to display an image;
a gaze tracking unit disposed on one side of the display unit to track a user's gaze movement;
a gesture sensing unit disposed on one side of the display unit to detect a movement or shape of a user's hand; and
a control unit for selecting and processing a preset image according to the signal detected by the eye tracking unit and the gesture sensing unit, and displaying the selected image through the display unit;
A non-contact aseptic manipulation system using a gaze, a gesture, or a voice, comprising a.
제 1 항에 있어서,
상기 시선 추적부는 상기 디스플레이부의 일측에 시선의 움직임 방향으로 배치되는 바 타입인 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
The method of claim 1,
The non-contact aseptic manipulation system using a gaze, a gesture, or a voice, characterized in that the gaze tracking unit is a bar type disposed on one side of the display unit in the direction of movement of the gaze.
제 2 항에 있어서,
상기 시선 추적부는 상기 디스플레이부의 일측에 배치되는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
3. The method of claim 2,
The non-contact aseptic manipulation system using a gaze, a gesture, or a voice, characterized in that the gaze tracking unit is disposed on one side of the display unit.
제 1 항에 있어서,
상기 제스쳐 감지부는 Depth 카메라, RBG 카메라, 스테레오 카메라, 또는 적외선 카메라를 포함하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
The method of claim 1,
The gesture detection unit is a non-contact aseptic manipulation system using a gaze, a gesture, or a voice, characterized in that it includes a depth camera, an RBG camera, a stereo camera, or an infrared camera.
제 1 항에 있어서,
사용자의 음성을 감지하도록 상기 디스플레이부의 일측에 배치되는 음성 인식부를 더 포함하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 무균 조작 시스템.
The method of claim 1,
Aseptic manipulation system using gaze, gesture, or voice, characterized in that it further comprises a voice recognition unit disposed on one side of the display unit to detect the user's voice.
제 1 항에 있어서,
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서, 소프트웨어부를 통해서 메모리부에 저장된 영상들 중에서 적어도 하나를 선택하는 제어부;
를 포함하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
The method of claim 1,
a control unit configured to select at least one of the images stored in the memory unit through a software unit according to the signal detected by the eye tracking unit and the gesture sensing unit;
A non-contact aseptic manipulation system using a gaze, a gesture, or a voice, comprising a.
제 6 항에 있어서,
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서,
상기 제어부는 선택된 영상에서 미리 설정된 구간을 반복하여 디스플레이하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
7. The method of claim 6,
According to the signal detected by the eye tracking unit and the gesture sensing unit,
The control unit is a non-contact aseptic manipulation system using a gaze, a gesture, or a voice, characterized in that it repeatedly displays a preset section in the selected image.
제 6 항에 있어서,
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서,
상기 제어부는 영상을 구성하는 프레임들 중에서 적어도 하나의 프레임을 선택하여 디스플레이하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
7. The method of claim 6,
According to the signal detected by the eye tracking unit and the gesture sensing unit,
The control unit selects and displays at least one frame from among the frames constituting the image.
제 6 항에 있어서,
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서,
상기 제어부는 영상에서 적어도 하나의 지점에 시각적 마크(mark)를 형성하고, 이를 시선이나 제스쳐에 따라서 움직이는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
7. The method of claim 6,
According to the signal detected by the eye tracking unit and the gesture sensing unit,
The control unit forms a visual mark at at least one point in the image, and moves it according to the gaze or gesture.
제 9 항에 있어서,
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서,
상기 제어부는 적어도 두 개의 상기 마크가 형성하는 거리, 면적, 또는 부피를 연산하고, 이를 디스플레이하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
10. The method of claim 9,
According to the signal detected by the eye tracking unit and the gesture sensing unit,
The control unit calculates the distance, area, or volume formed by at least two of the marks, and displays them.
제 9 항에 있어서,
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서,
상기 제어부는 음성 인신부를 통해서 입력 받은 음성신호와 상기 마크를 서로 매칭시키는 것을 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
10. The method of claim 9,
According to the signal detected by the eye tracking unit and the gesture sensing unit,
The control unit is a non-contact aseptic manipulation system using a gaze, a gesture, or a voice, characterized in that matching the mark with the voice signal received through the voice human.
제 11 항에 있어서,
상기 시선 추적부 및 상기 제스쳐 감지부에서 감지된 신호에 따라서,
상기 제어부는 상기 음성 인식부를 통해서 입력받은 음성신호와 매칭되는 상기 마크를 탐색하고, 탐색된 상기 마크가 포함된 영상을 디스플레이하는 것을 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
12. The method of claim 11,
According to the signal detected by the eye tracking unit and the gesture sensing unit,
The control unit searches for the mark matching the voice signal input through the voice recognition unit, and displays an image including the searched mark.
제 1 항에 있어서,
상기 디스플레이부가 사용자의 눈 또는 손을 바라보도록 회전시키는 회동부; 를 포함하는 것을 특징으로 하는 시선, 제스쳐, 또는 음성을 이용한 비접촉 무균 조작 시스템.
The method of claim 1,
a rotating unit for rotating the display unit to face the user's eyes or hands; A non-contact aseptic manipulation system using a gaze, a gesture, or a voice, comprising a.
KR1020200016941A 2020-02-12 2020-02-12 Asceptic operating system using gaze-tracking, gesture, or voice KR102482133B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200016941A KR102482133B1 (en) 2020-02-12 2020-02-12 Asceptic operating system using gaze-tracking, gesture, or voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200016941A KR102482133B1 (en) 2020-02-12 2020-02-12 Asceptic operating system using gaze-tracking, gesture, or voice

Publications (2)

Publication Number Publication Date
KR20210102658A true KR20210102658A (en) 2021-08-20
KR102482133B1 KR102482133B1 (en) 2022-12-29

Family

ID=77466772

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200016941A KR102482133B1 (en) 2020-02-12 2020-02-12 Asceptic operating system using gaze-tracking, gesture, or voice

Country Status (1)

Country Link
KR (1) KR102482133B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024019374A1 (en) * 2022-07-19 2024-01-25 재단법인 아산사회복지재단 Method and device for providing cross-sectional medical image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120103599A (en) 2009-11-25 2012-09-19 마이크로소프트 코포레이션 Quick access utility
KR20150002293A (en) * 2013-06-28 2015-01-07 삼성전자주식회사 Method for moving display of ultrasound diagnostic device, and ultrasound diagnostic apparatus
KR20150103278A (en) * 2013-03-05 2015-09-09 인텔 코포레이션 Interaction of multiple perceptual sensing inputs
KR20150144243A (en) 2014-06-16 2015-12-24 손예진 powder quantizer
KR20160023015A (en) * 2014-08-20 2016-03-03 울산대학교 산학협력단 Method of providing medical image
KR20160064946A (en) 2014-11-28 2016-06-08 주식회사 드림 Apparatus for heat-pasting of zipper
JP2019144622A (en) * 2018-02-16 2019-08-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Moving picture playback apparatus and moving picture playback method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120103599A (en) 2009-11-25 2012-09-19 마이크로소프트 코포레이션 Quick access utility
KR20150103278A (en) * 2013-03-05 2015-09-09 인텔 코포레이션 Interaction of multiple perceptual sensing inputs
KR20150002293A (en) * 2013-06-28 2015-01-07 삼성전자주식회사 Method for moving display of ultrasound diagnostic device, and ultrasound diagnostic apparatus
KR20150144243A (en) 2014-06-16 2015-12-24 손예진 powder quantizer
KR20160023015A (en) * 2014-08-20 2016-03-03 울산대학교 산학협력단 Method of providing medical image
KR20160064946A (en) 2014-11-28 2016-06-08 주식회사 드림 Apparatus for heat-pasting of zipper
JP2019144622A (en) * 2018-02-16 2019-08-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Moving picture playback apparatus and moving picture playback method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024019374A1 (en) * 2022-07-19 2024-01-25 재단법인 아산사회복지재단 Method and device for providing cross-sectional medical image

Also Published As

Publication number Publication date
KR102482133B1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
US11786319B2 (en) Multi-panel graphical user interface for a robotic surgical system
US20220121281A1 (en) Accelerated gaze-supported manual cursor control
US20220175470A1 (en) Reconfigurable display in computer-assisted tele-operated surgery
Jacob et al. Context-based hand gesture recognition for the operating room
US10123843B2 (en) Input device for controlling a catheter
US10806519B2 (en) Computer-assisted surgery system with user interface tool used as mouse in sterile surgery environment
JP5807989B2 (en) Gaze assist computer interface
Hatscher et al. GazeTap: towards hands-free interaction in the operating room
US9398937B2 (en) Operating room environment
US20210228282A1 (en) Methods of guiding manual movement of medical systems
Kajastila et al. Eyes-free interaction with free-hand gestures and auditory menus
US20160004315A1 (en) System and method of touch-free operation of a picture archiving and communication system
EP3907585B1 (en) Systems and methods of controlling an operating room display using an augmented reality headset
US11737700B2 (en) Electrogram annotation system
JP2001070293A (en) Radio-diagnostic device
CN113366583A (en) Camera control system and method for computer-assisted surgery system
KR102482133B1 (en) Asceptic operating system using gaze-tracking, gesture, or voice
JP6488153B2 (en) Cursor control method, cursor control program, scroll control method, scroll control program, cursor display system, and medical device
US20220378396A1 (en) Ultrasound probe operation system and method
US20220327704A1 (en) Method for determining location of target of body
KR20130123116A (en) Apparatus for recognizing gesture by using see-through display and method thereof
Schröder et al. Contactless operating table control based on 3D image processing
Stuij Usability evaluation of the kinect in aiding surgeon computer interaction
Hatscher Touchless, direct input methods for human-computer interaction to support image-guided interventions
EP4286991A1 (en) Guidance for medical interventions

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right