KR20230031765A - Hand tracking system capable of sensory transmission - Google Patents

Hand tracking system capable of sensory transmission Download PDF

Info

Publication number
KR20230031765A
KR20230031765A KR1020220046327A KR20220046327A KR20230031765A KR 20230031765 A KR20230031765 A KR 20230031765A KR 1020220046327 A KR1020220046327 A KR 1020220046327A KR 20220046327 A KR20220046327 A KR 20220046327A KR 20230031765 A KR20230031765 A KR 20230031765A
Authority
KR
South Korea
Prior art keywords
unit
user
information
hand
sensory
Prior art date
Application number
KR1020220046327A
Other languages
Korean (ko)
Inventor
천해광
김수연
김정우
Original Assignee
주식회사 지엘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지엘 filed Critical 주식회사 지엘
Publication of KR20230031765A publication Critical patent/KR20230031765A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

The present invention relates to a hand tracking system that can transmit a sense for an object in a virtual space to a user. The hand tracking system according to an embodiment of the present invention comprises: a camera photographing the user's arms and hands within a photographing area to acquire depth image information including the user's arms and hands; a wearable terminal attached to the user's arm to measure the user's electromyography signals, update the electromyography signals in real time, and transmit a sense for an object in a virtual space to the user; a hand tracking module generating a first object capable of performing an interaction in a virtual space, generating a second object which arrives at the first object to generate event information while being capable of performing an interaction with the user's arms and hands in the virtual space based on the depth image information and the electromyography signals, determining whether the first object and the second object are capable of performing an interaction in the virtual space, and if the event information occurs, generating sense information mapped corresponding to the event information to transmit the sense information to the wearable terminal; and an HMD terminal generating first creation coordinates at which the first object is to be generated, and size information and shape information of the first object to transmit the same to the hand tracking module, and outputting, to the virtual space, the first object and the second object which are determined to perform an interaction in the virtual space from the hand tracking module.

Description

감각 전달이 가능한 핸드 트래킹 시스템 {Hand tracking system capable of sensory transmission}Hand tracking system capable of sensory transmission

본 발명은 핸드 트래킹 시스템에 관한 것으로, 보다 구체적으로는 가상공간에서 사용자의 팔 및 손과 상호작용이 가능하면서 사용자에게 가상공간의 객체에 대한 감각을 전달할 수 있는 핸드 트래킹 시스템에 관한 것이다.The present invention relates to a hand tracking system, and more particularly, to a hand tracking system capable of communicating a sense of an object in a virtual space to a user while interacting with a user's arm and hand in a virtual space.

종래의 일반적인 게임은 사용자가 모니터를 보면서 조이스틱이나 키보드와 같은 간단한 조작장치를 이용하여 화면에 출력되는 게임 상황에 따라 게임을 즐기게 되므로, 사용자는 게임의 상황을 실제로 경험하는 것과 같은 체험은 할 수 없었다. 하지만 가상현실(VR: Virtual Reality)을 게임에 적용하는 경우 사용자가 실제 상황처럼 오감을 이용해 게임 상황을 경험할 수 있게 되므로 게임의 몰입도를 증가시킬 수 있다.In the conventional general game, the user enjoys the game according to the game situation output on the screen using a simple operating device such as a joystick or keyboard while looking at the monitor, so the user could not experience the same as actually experiencing the game situation. . However, when VR (Virtual Reality) is applied to games, the user can experience the game situation using the five senses as if it were a real situation, so the degree of immersion in the game can be increased.

가상현실이란 컴퓨터를 이용하여 구축한 가상공간(Virtual Environmental) 속에서 인간감각계(sensory system)와의 상호작용을 통해 물리적, 공간적 제약에 의해 현실세계에서는 직접 경험하기 어려운 상황을 간접체험할 수 있도록 만든 정보활동 분야이다. 가상현실을 구현해 내는 시스템들이 사용자의 시점과 동작이 실현되는 가상환경을 제공하게 되면, 일반적으로 사용자의 시점이나 동작의 변화를 가상공간에 실제로 반영하거나 가상공간에서 인간의 신체를 대신하여 행위를 수행하는 존재를 통하여 그 환경을 경험할 수 있다.Virtual reality is information created to indirectly experience situations that are difficult to directly experience in the real world due to physical and spatial constraints through interaction with the human sensory system in a virtual environment built using a computer. field of activity When systems that implement virtual reality provide a virtual environment in which the user's viewpoint and motion are realized, generally, changes in the user's viewpoint or motion are actually reflected in the virtual space or actions are performed on behalf of the human body in the virtual space. You can experience the environment through being.

또한, 최근 들어 컴퓨터 게임 및 멀티미디어 애플리케이션은 카메라 및 소프트웨어 제스처 인식 엔진을 이용한 내츄럴 사용자 인터페이스(NUI: Natural User Interface)를 제공하기 시작하였다. 이러한 내츄럴 사용자 인터페이스는 원 관절 데이터(raw joint data), 사용자의 제스처를 탐지, 해석 및 사용하여 가상공간의 객체(아바타)나 애플리케이션의 기타 양태들을 제어하게 된다.In addition, recently, computer games and multimedia applications have begun to provide a natural user interface (NUI) using a camera and a software gesture recognition engine. These natural user interfaces detect, interpret, and use raw joint data and user gestures to control virtual space objects (avatars) or other aspects of an application.

그리고, 내츄럴 사용자 인터페이스의 과제 중 하나는 카메라 또는 센서의 시야에 있는 사용자를 구분하고, 시야 내에서 사용자의 팔과 손을 포함하는 신체 부위의 위치를 정확하게 식별하는 것이다. 종래에는 사용자의 팔, 손, 다리, 머리 및 상체를 트래킹하는 루틴이 공개된 바 있다.And, one of the tasks of the natural user interface is to identify a user in the field of view of a camera or sensor, and to accurately identify positions of body parts including arms and hands of the user within the field of view. Conventionally, a routine for tracking a user's arms, hands, legs, head, and upper body has been disclosed.

그러나, 상기의 트래킹을 통해 사용자의 팔과 손의 감지하기 힘든 세부 사항과 매우 다양한 위치가 제공된다 하여도, 종래의 핸드 트래킹 시스템은 사용자의 팔과 손에 대한 위치를 포함하는 사용자의 신체를 충분히 인식하고 트래킹할 수 없는 문제점이 있었다.However, even though the above tracking provides subtle details and very diverse positions of the user's arms and hands, conventional hand tracking systems can sufficiently track the user's body, including the positions of the user's arms and hands. There was a problem that could not be recognized and tracked.

또한, 단순히 가상공간 내에서 손과 객체와의 위치 관계만을 인식할 뿐이여서, 생동감 있는 가상 현실을 제공할 수 없는 문제점이 있다.In addition, there is a problem in that a lively virtual reality cannot be provided because only the positional relationship between the hand and the object is simply recognized in the virtual space.

대한민국 등록특허 제10-1748126호Republic of Korea Patent No. 10-1748126 대한민국 공개특허공보 제10-2012-0010374호Republic of Korea Patent Publication No. 10-2012-0010374

본 발명은 가상공간에서 사용자의 팔 및 손과 상호작용이 가능하면서 사용자에게 가상공간의 객체에 대한 감각을 전달할 수 있는 감각 전달이 가능한 핸드 트래킹 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a hand tracking system capable of transmitting senses capable of conveying a sense of an object in a virtual space to a user while being able to interact with a user's arm and hand in a virtual space.

본 발명의 실시예에 따른 핸드 트래킹 시스템은,The hand tracking system according to an embodiment of the present invention,

촬영 영역 내의 사용자의 팔과 손을 촬영하여 상기 사용자의 팔과 손이 포함되는 깊이 이미지 정보를 획득하는 카메라; 상기 사용자의 팔에 부착되어 상기 사용자의 근전도 신호를 측정하고, 상기 근전도 신호를 실시간으로 갱신하며, 상기 사용자에게 가상공간의 객체에 대한 감각을 전달하는 웨어러블 단말; 가상공간에서 상호작용이 가능한 제1 객체를 생성하며, 상기 깊이 이미지 정보와 상기 근전도 신호를 기반으로 상기 가상공간에서 상기 사용자의 팔 및 손과 상호작용이 가능하면서 상기 제1 객체에 도달하여 이벤트 정보를 발생시키는 제2 객체를 생성하고, 상기 제1 객체와 상기 제2 객체가 상기 가상공간에서 상호작용이 가능한지 여부를 판단하며, 상기 이벤트 정보가 발생하면 상기 이벤트 정보에 대응하도록 매핑된 감각 정보를 생성하여 상기 웨어러블 단말로 전송하는 핸드 트래킹 모듈; 및, 상기 제1 객체가 생성될 제1 생성 좌표, 상기 제1 객체의 크기 정보 및 모양 정보를 생성하여 상기 핸드 트래킹 모듈로 송신하며, 상기 핸드 트래킹 모듈로부터 상기 가상공간에서 상호작용이 가능한 것으로 판단된 상기 제1 객체와 상기 제2 객체를 상기 가상공간에 출력하는 HMD 단말;을 포함한다.a camera for acquiring depth image information including the user's arm and hand by capturing the user's arm and hand within the photographing area; a wearable terminal attached to the user's arm to measure an EMG signal of the user, update the EMG signal in real time, and transmit a sense of an object in a virtual space to the user; A first object capable of interaction is created in virtual space, and based on the depth image information and the EMG signal, it reaches the first object while being able to interact with the user's arm and hand in the virtual space, thereby providing event information. generating a second object, determining whether the first object and the second object can interact in the virtual space, and when the event information occurs, sensory information mapped to correspond to the event information a hand tracking module that generates and transmits the generated data to the wearable terminal; and generating and transmitting first creation coordinates at which the first object is to be created, size information and shape information of the first object to the hand tracking module, and determining that interaction is possible in the virtual space from the hand tracking module. and an HMD terminal outputting the first object and the second object to the virtual space.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 웨어러블 단말은, 상기 사용자의 팔 또는 손에 부착되어 상기 사용자의 팔과 손에 대한 근전도 신호를 측정하는 전극부; 상기 전극부로부터 측정된 근전도 신호를 취합하는 근전도 취합부; 상기 전극부에 설치되며, 상기 카메라가 상기 사용자의 팔과 손을 추적하도록 상기 카메라에 추적 신호를 송신하는 추적센서부; 상기 전극부에 설치되며, 상기 카메라로부터 생성된 촬영 신호를 수신하는 감지센서부; 상기 핸드 트래킹 모듈에서 생성된 감각 정보에 기반하여 상기 사용자에게 감각을 전달하는 감각전달부; 상기 근전도 취합부로부터 취합된 근전도 신호를 상기 핸드 트래킹 모듈로 송신하는 통신부; 및, 상기 감지센서부가 촬영 신호를 수신하면, 상기 전극부로부터 상기 근전도 신호가 측정되도록 하는 제어부;를 포함할 수 있다.In the hand tracking system according to an embodiment of the present invention, the wearable terminal may include an electrode unit attached to the user's arm or hand to measure EMG signals of the user's arm and hand; an EMG collecting unit that collects EMG signals measured from the electrode unit; a tracking sensor unit installed in the electrode unit and transmitting a tracking signal to the camera so that the camera tracks the arm and hand of the user; a detection sensor unit installed on the electrode unit and receiving a photographing signal generated from the camera; a sense delivery unit that transmits senses to the user based on the sense information generated by the hand tracking module; a communication unit that transmits the EMG signals collected from the EMG collection unit to the hand tracking module; and a controller configured to measure the EMG signal from the electrode unit when the detection sensor unit receives a photographing signal.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 감각전달부는, 내부에 진동기가 설치되어 상기 이벤트 정보가 진동과 관련된 경우 상기 진동기를 작동시켜서 상기 사용자에게 진동을 제공하는 진동발생기와, 내부에 히터가 설치되어 상기 이벤트 정보가 열과 관련된 경우 상기 히터를 작동시켜서 상기 사용자에게 열을 제공하는 열발생기와, 내부에 스피커가 설치되어 상기 이벤트 정보가 소리와 관련된 경우 상기 스피커를 작동시켜서 상기 사용자에게 소리를 제공하는 소리발생기를 포함할 수 있다.In the hand tracking system according to an embodiment of the present invention, the sense transmission unit includes a vibration generator installed therein to provide vibration to the user by operating the vibrator when the event information is related to vibration; When a heater is installed and the event information is related to heat, a heat generator operates the heater to provide heat to the user, and a speaker is installed inside to operate the speaker to provide heat to the user when the event information is related to sound. It may include a sound generator that provides.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 감각전달부는,In the hand tracking system according to an embodiment of the present invention, the sense transmission unit,

상기 이벤트 정보의 종류에 따라 상기 진동발생기, 상기 열발생기, 상기 소리발생기 중 적어도 어느 둘 이상을 복합적으로 작동시켜서 복합 감각을 제공할 수 있다.Depending on the type of event information, at least two or more of the vibration generator, the heat generator, and the sound generator may be operated in combination to provide a complex sensation.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 핸드 트래킹 모듈은, 상기 깊이 이미지 정보, 상기 근전도 신호, 상기 제1 생성 좌표, 상기 제1 객체의 크기 정보 및 모양 정보를 수신하는 통신부; 상기 제1 객체의 크기 및 모양을 상기 제1 객체의 크기 정보 및 모양 정보를 기반으로 결정하고, 상기 크기 및 모양이 결정된 제1 객체를 상기 제1 생성 좌표에 생성하는 제1 객체 처리부; 상기 깊이 이미지 정보로부터 상기 제2 객체가 생성될 제2 생성 좌표를 검출하는 좌표 검출부; 상기 사용자의 팔과 손에 대한 근전도 신호 패턴이 하나 이상 기저장되는 근전도 신호 패턴 저장부; 상기 근전도 신호와 상기 기저장된 근전도 신호 패턴을 비교하여 상기 제2 객체의 크기 및 모양을 결정하고, 상기 크기 및 모양이 결정된 제2 객체를 상기 제2 생성 좌표에 생성하는 제2 객체 처리부; 상기 제2 객체가 상기 제1 객체에 도달하여 상기 이벤트 정보가 발생하는지 여부를 판단하는 제어부; 및, 상기 이벤트 정보가 발생하면 상기 이벤트 정보에 대응하도록 매핑된 감각 정보를 생성하는 감각처리부;를 포함할 수 있다.In the hand tracking system according to an embodiment of the present invention, the hand tracking module may include: a communication unit configured to receive the depth image information, the EMG signal, the first generated coordinates, and size information and shape information of the first object; a first object processor configured to determine the size and shape of the first object based on the size and shape information of the first object, and to create the first object having the determined size and shape at the first creation coordinates; a coordinate detector configured to detect second creation coordinates at which the second object is to be generated from the depth image information; an EMG signal pattern storage unit pre-stored at least one EMG signal pattern for the user's arm and hand; a second object processing unit that compares the EMG signal with the previously stored EMG signal pattern to determine the size and shape of the second object, and creates the second object having the determined size and shape at the second creation coordinates; a control unit that determines whether the event information occurs when the second object reaches the first object; and a sensory processing unit configured to generate sensory information mapped to the event information when the event information occurs.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 감각처리부는 다른 종류의 제1 객체들 상호간에 대한, 또는 임의의 제1 객체에 대한 상기 제2 객체의 이벤트에 따른 물리적 특성을 감각 정보와 매핑하여 저장한 감각 정보 데이터베이스를 포함하며, 상기 제어부는 상기 이벤트 정보가 발생하는 경우, 상기 제1 객체, 상기 제1 생성 좌표, 상기 제2 객체, 상기 제2 생성 좌표에 대한 정보를 상기 HMD 단말로 송신하도록 제어하고, 상기 감각 정보를 상기 웨어러블 단말로 송신하도록 제어할 수 있다.In the hand tracking system according to an embodiment of the present invention, the sensory processing unit may display physical characteristics according to an event of the second object with respect to each other of different types of first objects or with respect to an arbitrary first object, together with sensory information. and a sensory information database stored by mapping, wherein the control unit, when the event information occurs, transmits information on the first object, the first generated coordinates, the second object, and the second generated coordinates to the HMD device. and control to transmit the sensory information to the wearable terminal.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 감각 정보 데이터베이스는, 상기 가상공간의 물리적 특성을 반영하는 감각 정보를 저장할 수 있다.In the hand tracking system according to an embodiment of the present invention, the sensory information database may store sensory information reflecting physical characteristics of the virtual space.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 감각처리부는, 객체 검출 모델을 구비하여, 상기 가상공간 내의 객체를 자체적으로 판단하여 제1 객체들 상호간에 대한, 또는 임의의 제1 객체에 대한 제2 객체의 이벤트를 처리할 수 있다.In the hand tracking system according to an embodiment of the present invention, the sensory processing unit is provided with an object detection model, and determines an object in the virtual space by itself to determine whether the first objects are related to each other or to an arbitrary first object. It is possible to process the event of the second object for

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 제어부는, 상기 이벤트 정보가 발생하지 않는 경우, 상기 제1 생성 좌표로부터 상기 제1 객체가 삭제되도록 하거나, 상기 제2 생성 좌표로부터 상기 제2 객체가 삭제되도록 하고, 상기 HMD 단말로부터 상기 제1 생성 좌표가 조정된 후 상기 제1 객체 처리부로부터 상기 조정된 제1 생성 좌표에 상기 제1 객체가 재생성되도록 하거나, 상기 좌표 검출부로부터 상기 제2 생성 좌표가 조정된 후 상기 제2 객체 처리부로부터 상기 조정된 제2 생성 좌표에 상기 제2 객체가 재생성되도록 할 수 있다.In the hand tracking system according to an embodiment of the present invention, when the event information does not occur, the control unit causes the first object to be deleted from the first created coordinates or the second created coordinates to be deleted. The object is deleted, and after the first created coordinates are adjusted from the HMD terminal, the first object processing unit regenerates the first object at the adjusted first created coordinates, or the coordinate detector detects the second created coordinates. After the coordinates are adjusted, the second object processing unit may regenerate the second object at the adjusted second creation coordinates.

본 발명의 실시예에 따른 핸드 트래킹 시스템에 있어서, 상기 웨어러블 단말은 장갑형으로 형성되고, 상기 진동발생기와 상기 열발생기는 장갑형 웨어러블 단말의 손바닥면 또는 손등면에 설치될 수 있다.In the hand tracking system according to an embodiment of the present invention, the wearable terminal is formed in the form of a glove, and the vibration generator and the heat generator may be installed on a palm surface or a back surface of the glove-type wearable terminal.

기타 본 발명의 다양한 측면에 따른 구현예들의 구체적인 사항은 이하의 상세한 설명에 포함되어 있다.Other specific details of implementations according to various aspects of the present invention are included in the detailed description below.

본 발명의 실시 형태에 따르면, 사용자의 팔과 손에 대한 깊이 이미지 정보와 근전도 신호를 기반으로 가상공간에서 사용자의 팔 및 손과 상호작용이 가능한 객체를 생성하면서 사용자에게 가상공간의 객체에 대한 감각을 전달할 수 있게 되어, 보다 생동감 있는 가상 현실을 제공할 수 있다.According to an embodiment of the present invention, an object capable of interacting with the user's arm and hand is created in a virtual space based on depth image information and EMG signals of the user's arm and hand, and the user has a sense of the object in the virtual space. It is possible to deliver a more lively virtual reality.

도 1은 본 발명의 일 실시예에 따른 핸드 트래킹 시스템이 도시된 개략도이다.
도 2는 카메라의 구성이 도시된 블록도이다.
도 3은 웨어러블 단말이 도시된 사시도이다.
도 4는 웨어러블 단말의 구성이 도시된 블록도이다.
도 5는 사용자의 팔과 손을 추적하는 과정 및 근전도 신호를 측정하는 과정이 도시된 흐름도이다.
도 6은 LED부가 빛을 발생시키기 위해 연동되는 구성이 도시된 블록도이다.
도 7은 HMD 단말의 구성이 도시된 블록도이다.
도 8은 핸드 트래킹 모듈의 구성이 도시된 블록도이다.
도 9는 제1 객체와 제2 객체를 생성하는 과정이 도시된 흐름도이다.
도 10은 이벤트 정보가 발생하는지 여부에 따른 핸드 트래킹 모듈의 제어부의 동작 과정이 도시된 흐름도이다.
도 11은 HMD 단말의 출력부를 통해 출력되는 가상공간이 도시된 이미지이다.
도 12는 본 발명의 다른 실시예에 따른 전극부를 나타내는 개략도이다.
도 13은 제1 LED부와 제2 LED부가 빛을 발생시키기 위해 연동되는 구성이 도시된 블록도이다.
도 14는 본 발명의 실시예에 따른, 컴퓨팅 장치가 도시된 도면이다.
1 is a schematic diagram showing a hand tracking system according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a camera.
3 is a perspective view illustrating a wearable terminal.
4 is a block diagram illustrating the configuration of a wearable terminal.
5 is a flowchart illustrating a process of tracking a user's arm and hand and a process of measuring an EMG signal.
6 is a block diagram showing a configuration in which the LED unit is interlocked to generate light.
7 is a block diagram showing the configuration of an HMD terminal.
8 is a block diagram showing the configuration of a hand tracking module.
9 is a flowchart illustrating a process of creating a first object and a second object.
10 is a flowchart illustrating an operation process of a control unit of a hand tracking module according to whether event information is generated.
11 is an image showing a virtual space output through an output unit of an HMD terminal.
12 is a schematic diagram showing an electrode unit according to another embodiment of the present invention.
13 is a block diagram illustrating a configuration in which a first LED unit and a second LED unit are interlocked to generate light.
14 is a diagram illustrating a computing device according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예를 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can apply various transformations and have various embodiments, specific embodiments will be exemplified and described in detail in the detailed description. However, it should be understood that this is not intended to limit the present invention to specific embodiments, and includes all transformations, equivalents, and substitutes included in the spirit and scope of the present invention.

본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, '포함하다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 이하, 도면을 참조하여 본 발명의 실시예에 따른 감각 전달이 가능한 핸드 트래킹 시스템을 설명한다.Terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as 'include' or 'having' are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded. Hereinafter, a hand tracking system capable of sensory transmission according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 핸드 트래킹 시스템이 도시된 개략도이다.1 is a schematic diagram showing a hand tracking system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 핸드 트래킹 시스템은, 카메라(100), 웨어러블 단말(200), HMD 단말(300), 핸드 트래킹 모듈(400)을 포함한다.Referring to FIG. 1 , a hand tracking system according to an embodiment of the present invention includes a camera 100, a wearable terminal 200, an HMD terminal 300, and a hand tracking module 400.

본 발명의 일 실시예에 따른 핸드 트래킹 시스템은 사용자가 팔과 손의 근전도 신호를 측정하는 웨어러블 단말(200)을 팔에 부착하고, 카메라(100)로 사용자의 팔과 손에 대한 깊이 이미지 정보의 획득이 가능하며, HMD 단말(300) 및 핸드 트래킹 모듈(400)이 연동을 통해 깊이 이미지 정보와 근전도 신호를 기반으로 가상공간(331)과 가상공간(331)에서 상호작용이 가능한 제1 객체(332)와 제2 객체(333)를 생성하여 사용자에게 핸드 트래킹을 제공한다. 이때, 핸드 트래킹 모듈(400)은 제1 객체(332)와 제2 객체(333)의 상호 작용에 따른 사용자의 객체에 대한 감각 정보를 웨어러블 단말(200)로 전송하고, 웨어러블 단말(200)은 감각 정보에 대응하는 감각을 사용자에게 제공한다. In the hand tracking system according to an embodiment of the present invention, a user attaches a wearable terminal 200 that measures EMG signals of the arm and hand to an arm, and uses a camera 100 to obtain depth image information of the user's arm and hand. A first object that can be acquired and can be interacted with in the virtual space 331 and the virtual space 331 based on the depth image information and the EMG signal through interworking between the HMD terminal 300 and the hand tracking module 400 ( 332) and the second object 333 are created to provide hand tracking to the user. At this time, the hand tracking module 400 transmits sensory information about the user's object according to the interaction between the first object 332 and the second object 333 to the wearable terminal 200, and the wearable terminal 200 A sense corresponding to the sensory information is provided to the user.

도 2는 카메라(100)의 구성이 도시된 블록도이다.2 is a block diagram showing the configuration of the camera 100.

도 2를 참조하면, 카메라(100)는 사용자의 팔과 손에 대한 깊이 이미지 정보를 획득하기 위해 마련되며, 깊이 카메라부(110), 추적부(120), 촬영 영역 조절부(130), 촬영 신호 생성부(140), 통신부(150) 및 제어부(160)를 포함할 수 있다.Referring to FIG. 2 , a camera 100 is provided to obtain depth image information on a user's arm and hand, and includes a depth camera unit 110, a tracking unit 120, a capturing area adjusting unit 130, and a capturing image. It may include a signal generator 140, a communication unit 150 and a control unit 160.

깊이 카메라부(110)는 사용자의 팔과 손보다 상측에 위치되도록 구조물(미도시)의 상단에 설치되어 사용자가 하측에 위치되도록 하며, 촬영 영역 내의 사용자의 팔과 손을 촬영하여 사용자의 팔과 손이 적어도 포함되는 깊이 이미지 정보를 획득한다. 여기서, 깊이 카메라부(110)는 촬영된 이미지의 각 픽셀에 대한 깊이 데이터를 획득하는 것이며, 깊이는 객체인 사용자의 팔과 손으로부터 깊이 카메라부(110)까지의 거리를 의미하며, 깊이 이미지 정보는 깊이별로 다른 색상으로 표현될 수 있다.The depth camera unit 110 is installed on top of a structure (not shown) to be positioned above the user's arms and hands so that the user is positioned below, and captures the user's arms and hands within the shooting area to capture the user's arms and hands. Depth image information including at least a hand is acquired. Here, the depth camera unit 110 acquires depth data for each pixel of the photographed image. Depth means the distance from the user's arm and hand, which are objects, to the depth camera unit 110, and the depth image information may be expressed in different colors for each depth.

그리고 깊이 카메라부(110)는 깊이 이미지 정보를 획득하기 위해 TOF(Time-Of-Flight)(스캐닌 TOF 또는 어레이 TOF), 구조화 광, 레이더 반점(speckle) 패턴 기술, 스테레오 카메라 및 능동 스테레오 카메라 등으로 구현될 수 있다.In addition, the depth camera unit 110 may include time-of-flight (TOF) (scanning TOF or array TOF), structured light, radar speckle pattern technology, a stereo camera, and an active stereo camera to acquire depth image information. can be implemented as

추적부(120)는 깊이 카메라부(110)로부터 깊이 이미지 정보를 획득하는 촬영이 진행되기 전에, 후술하는 웨어러블 단말(200)의 추적센서부(230)로부터 추적 신호를 수신하여 사용자의 팔과 손을 추적한다. 이러한 추적부(120)는 도면에 미도시되었으나, 깊이 카메라부(110)의 일측에 설치되어 사용자의 팔과 손을 추적할 수 있다.The tracking unit 120 receives a tracking signal from the tracking sensor unit 230 of the wearable terminal 200, which will be described later, before photography for obtaining depth image information from the depth camera unit 110 is performed, and the user's arm and hand to track Although this tracking unit 120 is not shown in the drawing, it is installed on one side of the depth camera unit 110 to track the user's arms and hands.

촬영 영역 조절부(130)는 추적부(120)로부터 추적되는 사용자의 팔과 손이 촬영 영역 내에 위치되도록 깊이 카메라부(110)의 촬영 영역을 조절한다. 여기서, 촬영 영역 조절부(130)는 줌-인 또는 줌-아웃을 이용하여 깊이 카메라부(110)의 촬영 영역을 조절한다. 다만, 촬영 영역의 조절을 줌-인 또는 줌-아웃으로 한정하는 것은 아니며, 카메라 렌즈의 회전을 통해 깊이 카메라부(110)의 촬영 영역을 조절할 수 있다.The capturing area adjusting unit 130 adjusts the capturing area of the depth camera unit 110 so that the arm and hand of the user tracked by the tracking unit 120 are positioned within the capturing area. Here, the capturing area adjusting unit 130 adjusts the capturing area of the depth camera unit 110 using zoom-in or zoom-out. However, the adjustment of the capture area is not limited to zoom-in or zoom-out, and the capture area of the depth camera unit 110 may be adjusted through rotation of the camera lens.

촬영 신호 생성부(140)는 깊이 카메라부(110)가 사용자의 팔과 손을 촬영할 때, 촬영 신호를 생성하여 후술하는 웨어러블 단말(200)의 감지센서부(240)로 촬영 신호를 송신한다.When the depth camera 110 photographs the user's arm and hand, the photographing signal generating unit 140 generates a photographing signal and transmits the photographing signal to the detection sensor unit 240 of the wearable terminal 200 described below.

통신부(150)는 깊이 카메라부(110)로부터 획득된 깊이 이미지 정보를 핸드 트래킹 모듈(400)로 송신한다. 여기서, 통신부(150)는 후술하는 핸드 트래킹 모듈(400)의 통신부(410)와의 통신을 통해 깊이 이미지 정보를 핸드 트래킹 모듈(400)로 송신하며, 이를 위한 통신 방식으로는 와이파이, 블루투스, 지그비 등의 무선 방식이 사용될 수 있다. 다만, 통신부(150)는 상기의 무선 방식으로 통신 방식을 한정하는 것은 아니며, 유선 방식을 이용하여 깊이 이미지 정보의 송신이 가능할 수 있다.The communication unit 150 transmits depth image information obtained from the depth camera unit 110 to the hand tracking module 400 . Here, the communication unit 150 transmits depth image information to the hand tracking module 400 through communication with the communication unit 410 of the hand tracking module 400, which will be described later, and a communication method for this is Wi-Fi, Bluetooth, ZigBee, etc. A wireless method of can be used. However, the communication unit 150 does not limit the communication method to the wireless method, and may transmit depth image information using a wired method.

제어부(160)는 카메라(100)의 구성들을 제어할 뿐만 아니라, 깊이 카메라부(110)의 촬영 영역이 촬영 영역 조절부(130)에 의해 조절되어 사용자의 팔과 손이 촬영 영역 내에 위치하게 되면, 깊이 카메라부(110)로부터 촬영이 실시되도록 깊이 카메라부(110)를 제어한다.The control unit 160 not only controls components of the camera 100, but also controls the shooting area of the depth camera unit 110 by the shooting area control unit 130 so that the user's arms and hands are positioned within the shooting area. , The depth camera unit 110 is controlled so that photography is performed from the depth camera unit 110 .

도 3은 웨어러블 단말이 도시된 사시도이고, 도 4는 웨어러블 단말의 구성이 도시된 블록도이며, 도 5는 사용자의 팔과 손을 추적하는 과정 및 근전도 신호를 측정하는 과정이 도시된 흐름도이고, 도 6은 LED부가 빛을 발생시키기 위해 연동되는 구성이 도시된 블록도이다.3 is a perspective view showing a wearable terminal, FIG. 4 is a block diagram showing the configuration of the wearable terminal, and FIG. 5 is a flowchart showing a process of tracking a user's arm and hand and measuring an EMG signal, 6 is a block diagram showing a configuration in which the LED unit is interlocked to generate light.

도 3 내지 도 6을 참조하면, 웨어러블 단말(200)은 사용자의 팔과 손에 대한 근전도 신호를 측정 및 취합하고 사용자에게 가상공간의 객체에 대한 감각을 전달하기 위해 마련되며, 전극부(210), 근전도 취합부(220), 추적센서부(230), 감지센서부(240), LED부(250), 감각전달부(260), 통신부(270), 및 제어부(280)를 포함할 수 있다. 웨어러블 단말(200)은 도 3과 같은 밴드형이거나 또는 도 12와 같이 장갑형일 수 있다.Referring to FIGS. 3 to 6 , the wearable terminal 200 is provided to measure and collect EMG signals of the user's arm and hand and to convey the sense of objects in the virtual space to the user, and the electrode unit 210 , EMG collection unit 220, tracking sensor unit 230, detection sensor unit 240, LED unit 250, sensory transmission unit 260, communication unit 270, and control unit 280 may be included. . The wearable terminal 200 may be a band type as shown in FIG. 3 or a glove type as shown in FIG. 12 .

전극부(210)는 사용자의 팔 또는 손에 부착되어 사용자의 팔과 손에 대한 근전도 신호를 측정하며, 사용자의 팔에 부착되기 위해 밴드나 장갑 형태의 악세사리에 결합되는 복수의 전극(210a, 210b, 210c, 210d, ??)으로 이루어질 수 있다. 즉, 전극부(210)는 복수의 전극(210a, 210b, 210c, 210d, ??)을 이용하여 사용자의 팔과 손에 대한 근전도 신호를 측정할 수 있다.The electrode unit 210 is attached to the user's arm or hand to measure the EMG signal of the user's arm and hand, and includes a plurality of electrodes 210a and 210b coupled to a band or glove-type accessory to be attached to the user's arm. , 210c, 210d, ??). That is, the electrode unit 210 may measure EMG signals of the user's arms and hands using a plurality of electrodes 210a, 210b, 210c, 210d, ??.

근전도 취합부(220)는 전극부(210) 중 하나인 전극(210b)에 구성되며, 전극부(210)로부터 측정된 근전도 신호를 취합한다. 이와 같이, 근전도 취합부(220)가 근전도 신호를 취합하도록, 전극부(210)는 근전도 신호를 송수신할 수 있는 회로를 통해 서로 연결될 수 있다.The EMG collection unit 220 is configured in one electrode 210b of the electrode units 210 and collects EMG signals measured from the electrode unit 210 . In this way, the electrode units 210 may be connected to each other through a circuit capable of transmitting and receiving EMG signals so that the EMG collecting unit 220 collects the EMG signals.

추적센서부(230)는 전극부(210) 중 하나인 전극(210a)에 구성되고, 추적부(120)가 사용자의 팔과 손을 추적하도록 추적부(120)에 추적 신호를 송신한다. 추적부(120)는 추적 신호를 수신하면, 추적 신호를 감지하여 사용자의 팔과 손을 추적한다.The tracking sensor unit 230 is configured on the electrode 210a, which is one of the electrode units 210, and transmits a tracking signal to the tracking unit 120 so that the tracking unit 120 tracks the user's arm and hand. When receiving the tracking signal, the tracking unit 120 detects the tracking signal and tracks the user's arm and hand.

감지센서부(240)는 전극부(210) 중 하나인 전극(210a)에 구성되며, 전극부(210)가 사용자의 팔과 손에 대한 근전도 신호를 측정하도록 촬영 신호 생성부(140)로부터 촬영 신호를 수신한다. 즉, 전극부(210)는 감지센서부(240)가 촬영 신호를 수신하면, 사용자의 팔과 손에 대한 근전도 신호를 측정하게 된다.The detection sensor unit 240 is composed of an electrode 210a, which is one of the electrode units 210, and the electrode unit 210 takes pictures from the recording signal generator 140 so that the EMG signals for the user's arm and hand are measured. receive a signal That is, when the detection sensor unit 240 receives a photographing signal, the electrode unit 210 measures the EMG signal for the user's arm and hand.

LED부(250)는 전극부(210) 중 하나인 전극(210a)에 구성되고, 전극부(210)로부터 근전도 신호가 측정될 때, 추적센서부(230)가 추적 신호를 추적부(120)로 송신할 때 및 감지센서부(240)가 촬영 신호 생성부(140)로부터 촬영 신호를 수신할 때 중 적어도 하나일 때 빛을 발생시킨다.The LED unit 250 is configured on the electrode 210a, which is one of the electrode units 210, and when the EMG signal is measured from the electrode unit 210, the tracking sensor unit 230 transmits the tracking signal to the tracking unit 120. Light is emitted when at least one of the time of transmitting to and when the detection sensor unit 240 receives a photographing signal from the photographing signal generator 140 .

더 나아가, LED부(250)는 사용자가 3가지 경우를 판단할 수 있도록, 서로 다른 색상으로 빛을 발생시키거나, 서로 다른 방식으로 빛을 점멸시킨다.Furthermore, the LED unit 250 emits light in different colors or flickers the light in different ways so that the user can determine three cases.

구체적인 일례로, LED부(250)는 전극부(210)로부터 근전도 신호가 측정될 때 초록색의 빛을 발생시키며, 추적센서부(230)가 추적 신호를 추적부(120)로 송신할 때 빨간색의 빛을 발생시키고, 감지센서부(240)가 촬영 신호 생성부(140)로부터 촬영 신호를 수신할 때 파란색의 빛을 발생시킬 수 있다.As a specific example, the LED unit 250 generates green light when the EMG signal is measured from the electrode unit 210, and emits red light when the tracking sensor unit 230 transmits the tracking signal to the tracking unit 120. Light is generated, and when the detection sensor unit 240 receives a photographing signal from the photographing signal generator 140, blue light may be generated.

다른 예로, LED부(250)는 전극부(210)로부터 근전도 신호가 측정될 때 1초 이하의 간격으로 빛을 점멸시키며, 추적센서부(230)가 추적 신호를 추적부(120)로 송신할 때 2초 이상 3초 이하의 간격으로 빛을 점멸시키고, 감지센서부(240)가 촬영 신호 생성부(140)로부터 촬영 신호를 수신할 때 4초 이상 5초 이하의 간격으로 빛을 점멸시킬 수 있다.As another example, when the EMG signal is measured from the electrode unit 210, the LED unit 250 blinks light at an interval of 1 second or less, and the tracking sensor unit 230 transmits the tracking signal to the tracking unit 120. When the light is blinking at intervals of 2 seconds or more and 3 seconds or less, and when the detection sensor unit 240 receives a photographing signal from the photographing signal generator 140, the light may blink at intervals of 4 seconds or more and 5 seconds or less. there is.

감각전달부(260)는 사용자에게 가상공간의 객체에 대한 감각을 전달한다. 감각전달부(260)는 핸드 트래킹 모듈(400)의 감각처리부(460)에서 생성된 감각 정보에 기반하여 소리, 진동, 열 등을 발생시켜서 사용자에게 전달한다.The sense transmission unit 260 conveys the sense of an object in the virtual space to the user. The sensory transmission unit 260 generates sound, vibration, heat, and the like based on the sensory information generated by the sensory processing unit 460 of the hand tracking module 400 and transmits it to the user.

사용자의 팔 및 손과 상호작용하는 제2 객체(333, 도 11 참조)가 제1 객체(332, 도 11 참조)에 도달하여 이벤트 정보(타격, 충돌, 투척, 파지 등)가 발생하면, 감각전달부(260)는 각각의 이벤트 정보에 대응하도록 매핑(mapping)된 감각(소리, 진동, 열 등)을 사용자에게 전달하여 보다 생동감 있는 가상 현실을 제공할 수 있다.When the second object (333, see FIG. 11) interacting with the user's arm and hand reaches the first object (332, see FIG. 11) and event information (hit, collision, throw, grip, etc.) occurs, senses The transmission unit 260 may provide a more lively virtual reality by transmitting senses (sound, vibration, heat, etc.) mapped to correspond to each event information to the user.

구체적으로, 감각전달부(260)는 진동발생기(261), 열발생기(262), 소리발생기(263)를 포함할 수 있다. 물론, 이에 한정되지 않고 감각을 전달할 수 있는 구성을 추가할 수 있다.Specifically, the sense transmission unit 260 may include a vibration generator 261, a heat generator 262, and a sound generator 263. Of course, it is not limited thereto, and a configuration capable of transmitting senses may be added.

진동발생기(261)는 내부에 소형 진동기가 설치되어 있으며, 감각처리부(460)에서 생성된 이벤트 정보가 진동과 관련된 경우(예를 들어, 타격/충돌), 진동기를 작동시켜서 사용자의 손목(밴드형) 또는 손바닥(장갑형)을 통해 사용자에게 진동 감각을 제공할 수 있다. 이때, 이벤트 정보의 종류에 따라 진동의 종류 및 세기, 진동 시간 등이 조절될 수 있다.The vibration generator 261 has a small vibrator installed inside, and when the event information generated by the sensory processing unit 460 is related to vibration (eg, hit/collision), the vibrator operates to the user's wrist (band type). ) or a palm (glove type) to provide a user with a sense of vibration. At this time, the type and strength of vibration, the vibration time, etc. may be adjusted according to the type of event information.

열발생기(262)는 내부에 소형 히터가 설치되어 있으며, 감각처리부(460)에서 생성된 이벤트 정보가 열과 관련된 경우(예를 들어, 열이 있는 제1 객체 파지), 히터를 작동시켜서 사용자의 손목(밴드형) 또는 손바닥(장갑형)을 통해 사용자에게 열 감각을 제공할 수 있다. 이때, 이벤트 정보의 종류에 따라 열의 세기, 지속 시간 등이 조절될 수 있다.The heat generator 262 has a small heater installed inside, and when the event information generated by the sensory processing unit 460 is related to heat (for example, gripping a first object with heat), the heater is operated to move the user's wrist. (band type) or the palm (glove type) to provide a sense of heat to the user. In this case, the intensity and duration of the heat may be adjusted according to the type of event information.

소리발생기(263)는 내부에 소형 스피커가 설치되어 있으며, 감각처리부(460)에서 생성된 이벤트 정보가 소리와 관련된 경우(예를 들어, 타격/충돌), 스피커를 작동시켜서 사용자에게 소리를 제공할 수 있다. 이때, 이벤트 정보의 종류에 따라 소리의 종류 및 세기, 지속 시간 등이 조절될 수 있다.The sound generator 263 has a small speaker installed therein, and when the event information generated by the sensory processing unit 460 is related to sound (eg, hit/collision), the speaker is operated to provide sound to the user. can In this case, the type, intensity, and duration of sound may be adjusted according to the type of event information.

물론, 이벤트 정보의 종류에 따라 진동발생기(261), 열발생기(262), 소리발생기(263) 중 적어도 어느 둘 이상을 복합적으로 작동시켜서 복합 감각을 제공할 수 있다.Of course, depending on the type of event information, at least two or more of the vibration generator 261, the heat generator 262, and the sound generator 263 may be operated in combination to provide a complex sensation.

예를 들어, 열이 있는 제1 객체 파지시에, 진동을 전달하여 사용자에게 파지감을 제공함과 동시에 열을 전달하여 열 감각을 제공할 수 있다. 또한, 야구공을 치는 제1 객체 타격시에, 진동을 전달하여 사용자에게 타격감을 제공함과 동시에 타격 소리를 전달하여 소리 감각을 제공할 수 있다. For example, when gripping a first object with heat, vibration may be transmitted to provide the user with a feeling of grip, and heat may be transmitted to provide a thermal sensation. In addition, when hitting the first object hitting the baseball, vibration may be transmitted to provide a sense of impact to the user, and sound may be transmitted to provide a sense of sound.

통신부(270)는 전극부(210) 중 하나인 전극(210c)에 구성되고, 근전도 취합부(220)로부터 취합된 근전도 신호를 핸드 트래킹 모듈(400)로 송신한다. 여기서, 통신부(270)는 핸드 트래킹 모듈(400)의 통신부(410)와의 통신을 통해 취합된 근전도 신호를 핸드 트래킹 모듈(400)로 송신한다. 그리고 통신부(270)는 와이파이, 블루투스, 지그비 등의 무선 방식이 사용될 수 있으며, 무선 방식 대신 유선 방식이 사용될 수 있다.The communication unit 270 is configured in the electrode 210c, which is one of the electrode units 210, and transmits the EMG signal collected from the EMG collecting unit 220 to the hand tracking module 400. Here, the communication unit 270 transmits the collected EMG signals to the hand tracking module 400 through communication with the communication unit 410 of the hand tracking module 400 . In addition, the communication unit 270 may use a wireless method such as Wi-Fi, Bluetooth, or ZigBee, and may use a wired method instead of a wireless method.

또한, 통신부(270)는 핸드 트래킹 모듈(400)의 통신부(410)와의 통신을 통해 감각처리부(460)에서 생성된 감각 정보를 수신하여 제어부(280)로 전달한다.In addition, the communication unit 270 receives sensory information generated by the sensory processing unit 460 through communication with the communication unit 410 of the hand tracking module 400 and transfers it to the control unit 280 .

제어부(280)는 전극부(210) 중 하나인 전극(210d)에 구성되며, 웨어러블 단말(200)의 구성들을 제어할 뿐만 아니라, 감지센서부(240)가 촬영 신호 생성부(140)로부터 촬영 신호를 수신하면, 전극부(210)로부터 근전도 신호가 측정되도록 전극부(210)를 제어한다.The control unit 280 is formed on the electrode 210d, which is one of the electrode units 210, and not only controls components of the wearable terminal 200, but also allows the detection sensor unit 240 to take pictures from the shooting signal generator 140. When the signal is received, the electrode unit 210 is controlled so that the EMG signal is measured from the electrode unit 210 .

또한, 제어부(280)는 감각처리부(460)에서 생성된 감각 정보에 기반하여 진동발생기(261), 열발생기(262), 소리발생기(263) 중 적어도 어느 하나의 작동을 제어한다.In addition, the controller 280 controls the operation of at least one of the vibration generator 261, the heat generator 262, and the sound generator 263 based on sensory information generated by the sensory processing unit 460.

웨어러블 단말(200)의 구성들 중 추적센서부(230), 감지센서부(240), LED부(250)는 하나의 전극부(210a)에 설치될 수 있고, 나머지 구성인 근전도 취합부(220), 통신부(270), 제어부(280)는 서로 다른 전극부(210b, 210c, 210d)에 각각 설치될 수 있다.Among the components of the wearable terminal 200, the tracking sensor unit 230, the detection sensor unit 240, and the LED unit 250 may be installed on one electrode unit 210a, and the other component, the electromyogram collection unit 220 ), the communication unit 270, and the control unit 280 may be installed on different electrode units 210b, 210c, and 210d, respectively.

도 7은 HMD 단말의 구성이 도시된 블록도이고, 도 8은 핸드 트래킹 모듈의 구성이 도시된 블록도이며, 도 9는 제1 객체와 제2 객체를 생성하는 과정이 도시된 흐름도이고, 도 10은 이벤트 정보가 발생하는지 여부에 따른 핸드 트래킹 모듈의 제어부의 동작 과정이 도시된 흐름도이며, 도 11은 HMD 단말의 출력부를 통해 출력되는 가상공간이 도시된 이미지이다.7 is a block diagram showing the configuration of an HMD terminal, FIG. 8 is a block diagram showing the configuration of a hand tracking module, and FIG. 9 is a flowchart showing a process of generating a first object and a second object. 10 is a flowchart showing the operation process of the control unit of the hand tracking module according to whether event information is generated, and FIG. 11 is an image showing a virtual space output through the output unit of the HMD terminal.

도 7 및 도 11을 참조하면, HMD 단말(300)은 가상공간(331)을 포함하는 가상현실 컨텐츠를 사용자에게 제공하기 위해 핸드 트래킹 모듈(400)과 연동되며, 제1 객체 생성부(310), 통신부(320) 및 출력부(330)를 포함할 수 있다.Referring to FIGS. 7 and 11 , the HMD terminal 300 is interlocked with the hand tracking module 400 to provide virtual reality content including a virtual space 331 to the user, and the first object generator 310 , It may include a communication unit 320 and an output unit 330.

제1 객체 생성부(310)는 가상공간에서 상호작용이 가능한 제1 객체(332)가 생성될 제1 생성 좌표, 제1 객체(332)의 크기 정보 및 모양 정보를 결정하여 생성한다. 여기서, 제1 객체(332)는 가상공간의 객체를 의미하고, 제1 생성 좌표는 제1 객체(332)가 가상공간에서 타격, 충돌, 투척, 파지 등에 의한 이벤트 정보를 기반으로 움직이게 되면 갱신되며, 제1 객체(332)의 크기 정보 및 모양 정보는 제1 객체(332)가 가상공간에서 결합, 흡수, 절단, 삭제 등에 의한 이벤트 정보를 기반으로 크기 및 모양이 변경되면 갱신된다.The first object creation unit 310 determines and creates first creation coordinates at which the first object 332 capable of interaction in virtual space is to be created, size information and shape information of the first object 332 . Here, the first object 332 means an object in virtual space, and the first created coordinates are updated when the first object 332 moves based on event information such as hitting, collision, throwing, and gripping in virtual space. , Size information and shape information of the first object 332 are updated when the size and shape of the first object 332 is changed based on event information such as combining, absorbing, cutting, or deleting in virtual space.

통신부(320)는 제1 객체 생성부(330)에 생성된 제1 생성 좌표, 제1 객체(332)의 크기 정보 및 모양 정보를 핸드 트래킹 모듈(400)로 송신한다. 여기서, 통신부(320)는 핸드 트래킹 모듈(400)의 통신부(410)와의 통신을 통해 제1 생성 좌표, 제1 객체(332)의 크기 정보 및 모양 정보를 핸드 트래킹 모듈(400)로 송신한다. 또한, 통신부(320)는 와이파이, 블루투스, 지그비 등의 무선 방식이 사용될 수 있으며, 무선 방식 대신에 유선 방식이 사용될 수 있다.The communication unit 320 transmits the first creation coordinates generated by the first object generator 330 and the size information and shape information of the first object 332 to the hand tracking module 400 . Here, the communication unit 320 transmits the first generated coordinates and size information and shape information of the first object 332 to the hand tracking module 400 through communication with the communication unit 410 of the hand tracking module 400. Also, the communication unit 320 may use a wireless method such as Wi-Fi, Bluetooth, or ZigBee, and may use a wired method instead of a wireless method.

더 나아가, 통신부(320)는 핸드 트래킹 모듈(400)의 통신부(410)로부터 핸드 트래킹 모듈(400)에서 생성된 제1 객체(332)에 대한 정보와 제2 객체(333)에 대한 정보를 수신한다.Furthermore, the communication unit 320 receives information on the first object 332 and the second object 333 generated by the hand tracking module 400 from the communication unit 410 of the hand tracking module 400. do.

출력부(330)는 도 11에 도시된 바와 같이, 가상공간(331)에 통신부(320)가 수신하는 제1 객체(332)와 제2 객체(333)를 출력한다. 이때, 출력부(330)는 가상공간(331)의 중심 좌표(331a)가 제1 객체(332) 및 제2 객체(333)와 함께 가상공간(331)에 출력되도록 한다. 여기서, 중심 좌표(331a)는 가상공간(331)의 x, y, z 좌표계의 중심을 이루는 좌표를 의미하며, 사용자에게 가상공간(331)에서의 위치를 안내하기 위해 출력될 수 있다.As shown in FIG. 11 , the output unit 330 outputs the first object 332 and the second object 333 received by the communication unit 320 to the virtual space 331 . At this time, the output unit 330 outputs the center coordinates 331a of the virtual space 331 to the virtual space 331 together with the first object 332 and the second object 333 . Here, the center coordinates 331a mean coordinates forming the center of the x, y, and z coordinate system of the virtual space 331, and may be output to guide the user to a position in the virtual space 331.

HMD 단말(300)은 도면에 미도시되었으나, 출력부(330)가 출력하는 가상공간(331)을 생성하는 가상공간 생성부(미도시) 및 HMD 단말(300)의 구성들을 제어하는 제어부(미도시)가 더 포함되는 것이 바람직하다.Although the HMD terminal 300 is not shown in the drawing, a virtual space generator (not shown) that creates a virtual space 331 output by the output unit 330 and a control unit that controls components of the HMD terminal 300 (not shown) City) is preferably further included.

도 8 내지 도 10을 참조하면, 핸드 트래킹 모듈(400)은 가상공간에서 상호작용이 가능한 제1 객체(332)와 제2 객체(333)를 생성하기 위해 HMD 단말(300)과 연동되며, 통신부(410), 제1 객체 처리부(420), 좌표 검출부(430), 근전도 신호 패턴 저장부(440), 제2 객체 처리부(450), 제어부(460), 및 감각처리부(470)를 포함할 수 있다.8 to 10, the hand tracking module 400 interworks with the HMD terminal 300 to create a first object 332 and a second object 333 capable of interaction in a virtual space, and the communication unit 410, a first object processing unit 420, a coordinate detection unit 430, an EMG signal pattern storage unit 440, a second object processing unit 450, a control unit 460, and a sensory processing unit 470. there is.

통신부(410)는 카메라(100)의 통신부(150)로부터 깊이 이미지 정보를 수신하며, 웨어러블 단말(200)의 통신부(270)로부터 취합된 근전도 신호를 수신하고, HMD 단말(300)의 통신부(320)로부터 제1 생성 좌표, 제1 객체(332)의 크기 정보 및 모양 정보를 수신한다.The communication unit 410 receives depth image information from the communication unit 150 of the camera 100, receives EMG signals collected from the communication unit 270 of the wearable terminal 200, and receives the EMG signal collected from the communication unit 320 of the HMD terminal 300. ), first created coordinates, size information and shape information of the first object 332 are received.

제1 객체 처리부(420)는 통신부(410)가 수신한 제1 객체(332)의 크기 정보 및 모양 정보를 기반으로 제1 객체(332)의 크기 및 모양을 결정하고, 통신부(410)가 수신한 제1 생성 좌표에 제1 객체(332)를 생성한다. The first object processing unit 420 determines the size and shape of the first object 332 based on the size and shape information of the first object 332 received by the communication unit 410, and the communication unit 410 receives the received information. A first object 332 is created at one first creation coordinate.

좌표 검출부(430)는 통신부(410)가 수신한 깊이 이미지 정보를 통해 깊이 카메라(110)로부터 사용자의 팔과 손의 깊이를 판단하여 제2 생성 좌표를 검출한다.The coordinate detector 430 determines the depths of the user's arm and hand from the depth camera 110 through the depth image information received by the communication unit 410 and detects second generated coordinates.

근전도 신호 패턴 저장부(440)는 하나 이상의 근전도 신호 패턴(예: 주먹을 쥔 상태, 손가락을 모두 펼친 상태, 엄지와 검지만 펴고 나머지 손가락은 접은 패턴 등)이 기저장된다.The EMG signal pattern storage unit 440 pre-stores one or more EMG signal patterns (eg, a fist clenched state, a state in which all fingers are spread, a pattern in which only the thumb and forefinger are spread and the rest of the fingers are folded, etc.).

제2 객체 처리부(450)는 통신부(410)가 수신한 취합된 근전도 신호와 근전도 신호 패턴 저장부(440)에 기저장된 근전도 신호 패턴을 비교하여 제2 객체(333)의 크기 및 모양을 결정하고, 좌표 검출부(430)로부터 생성된 제2 생성 좌표에 제2 객체(333)를 생성한다. 여기서, 취합된 근전도 신호와 근전도 신호 패턴을 비교하는 것은 사용자 개인 또는 사용자 개인의 신체 컨디션에 따라 격차가 큰 근전도 신호의 오차를 현저히 감소시키기 위함이다. 그리고 제2 객체(333)는 가상공간에서 사용자의 팔 및 손과 상호작용이 가능하면서 제2 생성 좌표의 갱신에 따라 제1 객체(332)에 도달하여 이벤트 정보를 발생시킬 수 있는 객체를 의미한다.The second object processing unit 450 determines the size and shape of the second object 333 by comparing the collected EMG signals received by the communication unit 410 with the EMG signal patterns pre-stored in the EMG signal pattern storage unit 440, , The second object 333 is created at the second generated coordinates generated by the coordinate detector 430 . Here, the comparison of the collected EMG signals and the EMG signal patterns is intended to significantly reduce errors in the EMG signals with a large gap depending on the individual user or the physical condition of the individual user. And, the second object 333 refers to an object capable of interacting with the user's arm and hand in virtual space and generating event information by reaching the first object 332 according to the update of the second created coordinates. .

제어부(460)는 도 10에 도시된 바와 같이, 제1 객체 처리부(420)로부터 제1 객체(332)가 생성되며, 제2 객체 처리부(450)로부터 제2 객체(333)가 생성되면(S10), 제2 객체(333)가 제1 객체(332)에 도달하여 이벤트 정보가 발생하는지 여부를 판단한다(S20).As shown in FIG. 10 , the control unit 460 controls when the first object 332 is created from the first object processing unit 420 and the second object 333 is created from the second object processing unit 450 (S10). ), it is determined whether event information occurs when the second object 333 reaches the first object 332 (S20).

이때 만약, 이벤트 정보가 발생하는 경우(S20-YES), 제어부(460)는 제1 객체 처리부(420)로부터 생성되는 제1 생성 좌표의 제1 객체(332)를 가상공간(331)에 적용될 최종적인 제1 객체(332)로 판단하며, 제2 객체 처리부(450)로부터 생성되는 제2 생성 좌표의 제2 객체(333)를 가상공간(331)에 적용될 최종적인 제2 객체(333)로 판단하고, 통신부(410)를 통해 HMD 단말(300)로 송신한다(S30).At this time, if event information occurs (S20-YES), the controller 460 transfers the first object 332 of the first created coordinates generated by the first object processor 420 to the virtual space 331 as the final object to be applied. The second object 333 of the second created coordinates generated by the second object processing unit 450 is determined as the final second object 333 to be applied to the virtual space 331 and transmitted to the HMD terminal 300 through the communication unit 410 (S30).

이때, 통신부(320)는 통신부(410)로부터 최종적인 제1 객체(332)에 대한 정보와 제2 객체(333)에 대한 정보를 각각 수신하며, 출력부(330)는 최종적인 제1 객체(332) 및 제2 객체(333)를 가상공간(331)에 출력한다.At this time, the communication unit 320 receives information on the final first object 332 and information on the second object 333 from the communication unit 410, respectively, and the output unit 330 outputs the final first object ( 332) and the second object 333 are output to the virtual space 331.

그리고, 제1 객체 및 제2 객체에 대한 정보와 함께, 제1 객체(332)와 제2 객체(333)의 상호 작용에 따른 사용자의 객체에 대한 감각 정보를 웨어러블 단말(200)로 전송한다(S40). In addition, along with information on the first object and the second object, sensory information about the user's object according to the interaction between the first object 332 and the second object 333 is transmitted to the wearable terminal 200 ( S40).

이와 달리 만약, 이벤트 정보가 발생하지 않는 경우(S20-NO), 제1 객체 처리부(420)와 제2 객체 처리부(450)를 각각 제어하여 제1 객체 처리부(420)의 제1 객체(332)와 제2 객체 처리부(450)의 제2 객체(333)가 각각 삭제되도록 한다(S50).In contrast, if event information does not occur (S20-NO), the first object 332 of the first object processing unit 420 is controlled by controlling the first object processing unit 420 and the second object processing unit 450, respectively. and the second object 333 of the second object processing unit 450 are deleted (S50).

그 후, 제어부(460)는 통신부(410)를 통해 제1 객체(332)가 삭제된 것을 제1 객체 생성부(310)에 전달하고, 제2 객체(333)가 삭제된 것을 제2 좌표 검출부(430)에 전달한다.Thereafter, the controller 460 transmits the deletion of the first object 332 to the first object creation unit 310 through the communication unit 410, and the deletion of the second object 333 to the second coordinate detector. forwarded to (430).

그 후, 제1 객체 생성부(310)는 제1 생성 좌표를 조정하며, 제1 객체 처리부(420)는 제1 객체 생성부(310)로부터 조정된 제1 생성 좌표에 제1 객체(332)를 재생성한다(S60).Then, the first object creation unit 310 adjusts the first creation coordinates, and the first object processing unit 420 places the first object 332 at the adjusted first creation coordinates from the first object creation unit 310. Regenerate (S60).

또한, 좌표 검출부(430)는 제2 생성 좌표를 조정하며, 제2 객체 처리부(450)는 좌표 검출부(430)로부터 조정된 제2 생성 좌표에 제2 객체(333)를 재생성한다(S60).In addition, the coordinate detector 430 adjusts the second created coordinates, and the second object processor 450 regenerates the second object 333 at the adjusted second created coordinates from the coordinate detector 430 (S60).

이와 같이, 제어부(460)는 이벤트 정보가 발생하지 않는 경우(S20-NO), 제1 생성 좌표와 제2 생성 좌표를 조정하여 제1 객체(332)와 제2 객체(333)를 재생성하나, 이를 한정하는 것은 아니며 이벤트 정보가 발생하지 않는 경우(S20-NO), 제1 생성 좌표, 제1 객체(332)의 크기 정보 및 모양 정보, 제2 생성 좌표, 제2 객체(333)의 크기 정보 및 모양 정보를 조정하여 제1 객체(332)와 제2 객체(333)를 재생성할 수 있다.In this way, when event information does not occur (S20-NO), the control unit 460 regenerates the first object 332 and the second object 333 by adjusting the first creation coordinates and the second creation coordinates, This is not limited to, and when event information does not occur (S20-NO), first creation coordinates, size information and shape information of the first object 332, second creation coordinates, and size information of the second object 333 And shape information may be adjusted to regenerate the first object 332 and the second object 333 .

구체적인 일례로, 제1 객체 생성부(310)는 제1 생성 좌표, 제1 객체(332)의 크기 정보 및 모양 정보를 조정하며, 제1 객체 처리부(420)는 제1 객체 생성부(310)로부터 조정된 제1 객체(332)의 크기 정보 및 모양 정보를 기반으로 제1 객체(332)의 크기 및 모양을 결정하고, 조정된 제1 생성 좌표에 제1 객체(332)를 재생성할 수 있다.As a specific example, the first object generator 310 adjusts the first creation coordinates and size information and shape information of the first object 332, and the first object processor 420 controls the first object generator 310 The size and shape of the first object 332 may be determined based on the size information and shape information of the first object 332 adjusted from , and the first object 332 may be regenerated at the adjusted first creation coordinates. .

또한, 좌표 검출부(430)는 제2 생성 좌표를 조정하며, 제2 객체 처리부(450)는 취합된 근전도 신호와 근전도 신호 패턴 저장부(440)의 근전도 신호 패턴을 다시 비교하여 제2 객체(333)의 크기 및 모양을 결정하고, 조정된 제2 생성 좌표에 제2 객체(333)를 재생성할 수 있다.In addition, the coordinate detection unit 430 adjusts the second generated coordinates, and the second object processing unit 450 compares the collected EMG signals with the EMG signal pattern stored in the EMG signal pattern storage unit 440 again, so that the second object 333 ), and regenerate the second object 333 at the adjusted second creation coordinates.

즉, 제어부(460)는 판단의 과정을 기반으로 제1 객체(332)와 제2 객체(333)를 최종적으로 생성하며, 통신부(410)를 통해 최종적인 제1 객체(332)와 제2 객체(333)를 HMD 단말(300)로 송신한다. 이때, HMD 단말(300)은 도 11에 도시된 바와 같이 출력부(330)를 통해 가상공간(331)에 최종적인 제1 객체(332)와 제2 객체(333)를 출력한다.That is, the control unit 460 finally creates the first object 332 and the second object 333 based on the process of determination, and the final first object 332 and the second object through the communication unit 410 (333) is transmitted to the HMD terminal (300). At this time, the HMD terminal 300 outputs the final first object 332 and the second object 333 to the virtual space 331 through the output unit 330 as shown in FIG. 11 .

감각처리부(470)는 사용자의 팔 및 손과 상호작용하는 제2 객체(333)가 제1 객체(332)에 도달하여 타격, 충돌, 투척, 파지 등의 이벤트 정보가 발생하면, 각각의 이벤트 정보에 대응하도록 매핑(mapping)된 감각 정보(소리, 진동, 열 등)를 생성하여, 보다 생동감 있는 가상 현실을 제공한다. 이는, 어느 하나의 제1 객체가 다른 제1 객체에 도달하여 타격, 충돌, 투척, 파지 등의 이벤트 정보가 발생하는 경우에도 마찬가지이다. (예를 들어, 사용자가 야구 배트로 야구공을 타격하는 경우)When the second object 333 interacting with the user's arm and hand reaches the first object 332 and event information such as hitting, collision, throwing, and gripping occurs, the sensory processing unit 470 generates each event information. By generating sensory information (sound, vibration, heat, etc.) mapped to correspond to, a more lively virtual reality is provided. This is the same even when one first object reaches another first object and event information such as hitting, collision, throwing, and gripping occurs. (For example, when a user hits a baseball with a baseball bat)

감각처리부(470)는 제1 객체(332)의 속성 정보와 이벤트 정보를 참조하여 감각 정보를 생성한다. 제1 객체(332)의 속성 정보는 제1 객체(332)의 물리적 특성에 관한 정보로, 현실 세계에서의 제1 객체의 물리적 특성을 기반으로 마련될 수 있다. 물리적 특성은, 제1 객체(332)의 온도(냉/온), 표면 거칠기, 질감(부드러움/단단함), 타격/충돌/파지시의 소리 등일 수 있다.The sensory processing unit 470 generates sensory information by referring to attribute information and event information of the first object 332 . Attribute information of the first object 332 is information about the physical characteristics of the first object 332 and may be provided based on the physical characteristics of the first object in the real world. The physical characteristics may include the temperature (cold/hot), surface roughness, texture (soft/hard), and sound of hitting/collision/gripping of the first object 332 .

감각처리부(470)는 다른 종류의 임의의 제1 객체들 상호간에 대한, 또는 임의의 제1 객체에 대한 제2 객체의 타격, 충돌, 투척, 파지 등 각각의 이벤트에 따른 물리적 특성을 감각 정보와 매핑하여 저장한 감각 정보 데이터베이스를 포함한다. 특정의 제1 객체에 대한 특정의 이벤트 발생시, 감각처리부(470)는 이에 대응하는 감각 정보를 감각 정보 데이터베이스에서 추출한다. 또한, 감각 정보 데이터베이스는 가상공간(331)의 물리적 특성을 반영하는 감각 정보를 저장할 수 있다.The sensory processing unit 470 converts physical characteristics according to each event, such as hitting, collision, throwing, and gripping of a second object to each other or to any first object, with sensory information. It includes a database of sensory information stored by mapping. When a specific event occurs for a specific first object, the sensory processing unit 470 extracts sensory information corresponding thereto from the sensory information database. In addition, the sensory information database may store sensory information reflecting the physical characteristics of the virtual space 331 .

예를 들어, 가상공간(331)에서 사용자(제2 객체)가 야구 배트(제1 객체_1)로 야구공(제1 객체_2)을 타격하는 경우, 감각처리부(470)는 사용자가 야구 배트를 파지할 때의 파지감은 제1 레벨의 약한 진동을 표상하는 감각 정보를 생성하고, 야구 배트로 야구공을 타격할 때의 타격감은 제1 레벨 보다 큰 제2 레벨의 진동 및 타격음을 표상하는 감각 정보를 생성한다.For example, when a user (second object) hits a baseball (first object_2) with a baseball bat (first object_1) in the virtual space 331, the sensory processing unit 470 sends the user a baseball The grip feeling when gripping the bat generates sensory information representing weak vibration of the first level, and the hitting feeling when hitting the baseball with the baseball bat represents vibration and hitting sound of the second level greater than the first level. generate sensory information.

또한, 예를 들어, 가상공간(331)에서 사용자가 소방 훈련을 실시하는 경우, 화재가 진행중인 가상공간(331)의 물리적 특성(뜨거움)을 반영하는 감각 정보를 생성(열 발생)한 상태에서, 사용자가 소방 호스를 파지할 때의 파지감은 제1 레벨의 약한 진동을 표상하는 감각 정보를 생성하고, 소방 호스로 물을 배출할 때의 배출감은 제1 레벨 보다 큰 제2 레벨의 진동 및 배출음을 표상하는 감각 정보를 생성한다. 그리고, 시간 경과에 따라, 가상공간(331)에서 화재가 진압되면 이를 반영하는 감각 정보를 생성한다. 즉, 화재 진행 중에는 제2 레벨의 온도를, 화재 진압 과정에서는 제2 레벨보다 작은 제1 레벨의 온도를 표상하는 감각 정보를 생성한다.In addition, for example, when a user conducts a fire drill in the virtual space 331, in a state in which sensory information reflecting the physical characteristics (heat) of the virtual space 331 in which a fire is in progress is generated (heat generation), The feeling of grip when the user grips the fire hose generates sensory information representing weak vibration of the first level, and the feeling of discharge when discharging water through the fire hose generates vibration and sound of the second level that is greater than the first level. generate sensory information that represents Then, as time passes, when a fire is extinguished in the virtual space 331, sensory information reflecting this is generated. That is, sensory information representing a temperature of a second level during a fire in progress and a temperature of a first level lower than the second level during a fire suppression process is generated.

또한, 감각처리부(470)는 객체 검출 모델을 구비하여, 가상공간(331) 내의 객체를 자체적으로 판단하여 제1 객체들 상호간에 대한, 또는 임의의 제1 객체에 대한 제2 객체의 이벤트를 처리할 수 있다. 객체 검출 모델은 단일 단계 방식의 객체 탐지 알고리즘인 YOLO(Yoo Only Look Once)이거나, 이단계 방식의 객체 탐지 알고리즘인 Faster RCNN일 수 있다. 물론, 객체 검출 모델이 이에 한정되는 것은 아니다. In addition, the sensory processing unit 470 has an object detection model, determines an object within the virtual space 331 by itself, and processes an event of a second object between first objects or an arbitrary first object. can do. The object detection model may be YOLO (Yoo Only Look Once), a single-step object detection algorithm, or Faster RCNN, a two-step object detection algorithm. Of course, the object detection model is not limited thereto.

감각처리부(470)에서 생성된 감각 정보는 제1 객체 및 제2 객체에 대한 정보와 함께 웨어러블 단말(200)로 전송된다.Sensory information generated by the sensory processing unit 470 is transmitted to the wearable terminal 200 together with information on the first object and the second object.

본 발명의 다른 실시예는, 전술한 일 실시예와 구성 및 방식이 일부 동일하나, 전술한 일 실시예와 달리, 사용자의 팔에 대한 근전도 신호를 측정하는 전극부와 사용자의 손에 대한 근전도 신호를 측정하는 전극부를 포함하며, 사용자의 팔에 대한 근전도 신호를 측정하는지 여부와 사용자의 손에 대한 근전도 신호를 측정하는지 여부를 안내하는 LED부가 별도로 나누어지는 차이가 있다. Another embodiment of the present invention has some of the same configuration and method as the above-described embodiment, but unlike the above-described embodiment, the electrode unit for measuring the EMG signal of the user's arm and the EMG signal of the user's hand It includes an electrode unit for measuring , and there is a difference in that the LED unit for guiding whether or not to measure the EMG signal for the user's arm and the EMG signal for the user's hand are divided separately.

그리고, 웨어러블 단말(200)은 장갑형으로 형성되고, 감각전달부(260)의 일 구성인 진동발생기(261)와 열발생기(262)는 장갑형 웨어러블 단말(200)의 손바닥면 또는 손등면(213)에 설치되어 진동이나 열 감각을 효과적으로 전달할 수 있다.In addition, the wearable terminal 200 is formed in the form of a glove, and the vibration generator 261 and the heat generator 262, which are components of the sense transmission unit 260, are on the palm surface or the back surface 213 of the glove-type wearable terminal 200. It can effectively transmit vibration or thermal sensation.

이하에서는, 본 발명의 제1 실시예와 달리하는 전극부(210)와 LED부(250)를 중점적으로 설명하도록 하겠으며, 본 발명의 제1 실시예와 중복되는 구성 및 방식에 대한 자세한 설명은 편의상 생략하도록 하겠다.Hereinafter, the description will focus on the electrode unit 210 and the LED unit 250, which are different from the first embodiment of the present invention, and a detailed description of the configuration and method overlapping with the first embodiment of the present invention is provided for convenience. I will omit it.

도 12는 본 발명의 다른 실시예에 따른 전극부를 나타내는 개략도이고, 도 13은 제1 LED부와 제2 LED부가 빛을 발생시키기 위해 연동되는 구성이 도시된 블록도이다.12 is a schematic diagram showing an electrode unit according to another embodiment of the present invention, and FIG. 13 is a block diagram showing a configuration in which a first LED unit and a second LED unit are interlocked to generate light.

도 12를 참조하면, 전극부(210)는 제1 전극부(211) 및 제2 전극부(212)를 포함할 수 있다.Referring to FIG. 12 , the electrode unit 210 may include a first electrode unit 211 and a second electrode unit 212 .

제1 전극부(211)는 사용자의 팔에 부착되어 사용자의 팔에 대한 근전도 신호를 측정한다. 이러한 제1 전극부(211)는 일측에 감지센서부(240)와 후술하는 제1 LED부(251)가 각각 설치된다.The first electrode unit 211 is attached to the user's arm to measure the EMG signal of the user's arm. A detection sensor unit 240 and a first LED unit 251 to be described later are installed on one side of the first electrode unit 211, respectively.

제2 전극부(212)는 사용자의 손에 부착되어 사용자의 손에 대한 근전도 신호를 측정한다. 이러한 제2 전극부(212)는 일측에 추적센서부(230)와 후술하는 제2 LED부(252)가 각각 설치된다.The second electrode unit 212 is attached to the user's hand and measures the EMG signal of the user's hand. A tracking sensor unit 230 and a second LED unit 252 to be described later are respectively installed on one side of the second electrode unit 212 .

한편, 전극부(210)를 제1 전극부(211)와 제2 전극부(212)로 나누는 것은, 사용자의 팔에 대한 근전도 신호와 사용자의 손에 대한 근전도 신호를 각각의 전극으로 측정하여 본 발명의 제1 실시예보다 정확하게 사용자의 팔과 손에 대한 근전도 신호를 측정하기 위함이다.On the other hand, dividing the electrode unit 210 into a first electrode unit 211 and a second electrode unit 212 is obtained by measuring the EMG signal for the user's arm and the EMG signal for the user's hand with the respective electrodes. This is to measure the EMG signals of the user's arm and hand more accurately than the first embodiment of the present invention.

또한, 제1 전극부(211)와 제2 전극부(212)는 RMS, 파워 스펙트럼, Median Frequency, Mean Frequency, RMS-확률분포, RMS-상관함수, MVIC Normalzation 등 중 적어도 하나의 측정 방식으로 근전도 신호를 측정할 수 있으며, 서로 다른 방식으로 사용자의 팔 및 사용자의 손에 대한 근전도 신호를 측정할 수 있다.In addition, the first electrode unit 211 and the second electrode unit 212 measure the EMG by at least one measurement method among RMS, power spectrum, Median Frequency, Mean Frequency, RMS-probability distribution, RMS-correlation function, and MVIC Normalzation. Signals may be measured, and EMG signals of the user's arm and the user's hand may be measured in different ways.

구체적인 일례로, 제1 전극부(211)는 RMS 방식을 이용하여 사용자의 팔에 대한 근전도 신호를 측정할 수 있고, 제2 전극부(212)는 RMS-확률분포를 이용하여 사용자의 손에 대한 근전도 신호를 측정할 수 있다. 다만, 제1 전극부(211)와 제2 전극부(212)는 설계 변경 또는 설정 변경을 통해 동일한 측정방식으로 사용자의 팔 및 사용자의 손에 대한 근전도 신호를 측정할 수도 있다.As a specific example, the first electrode unit 211 may measure the EMG signal of the user's arm using the RMS method, and the second electrode unit 212 may measure the EMG signal of the user's hand using the RMS-probability distribution. EMG signals can be measured. However, the first electrode unit 211 and the second electrode unit 212 may measure EMG signals of the user's arm and the user's hand in the same measurement method through a design change or a setting change.

더 나아가, 제1 전극부(211)와 제2 전극부(212)는 별도의 회로를 통해 각각 동작될 수 있으나, 회로가 구성되는 악세사리(예: 장갑 등)를 통해 하나의 전극장치로서 동작될 수 있고, 사용자의 팔에 대한 근전도 신호와 사용자의 손에 대한 근전도 신호는 근전도 취합부(220)로부터 취합될 수 있다.Furthermore, the first electrode unit 211 and the second electrode unit 212 may be operated through separate circuits, but may be operated as one electrode device through accessories (eg gloves, etc.) in which the circuit is configured. The EMG signal of the user's arm and the EMG signal of the user's hand may be collected from the EMG collecting unit 220 .

도 13을 참조하면, LED부(250)는 제1 LED부(251)와 제2 LED부(252)를 포함할 수 있다.Referring to FIG. 13 , the LED unit 250 may include a first LED unit 251 and a second LED unit 252 .

제1 LED부(251)는 제1 전극부(211)의 일측에 설치되며, 제1 전극부(211)가 사용자의 팔에 대한 근전도 신호를 측정할 때 또는 감지센서부(240)가 촬영 신호 생성부(140)로부터 촬영 신호를 수신할 때 빛을 발생시키거나 빛을 점멸시킨다.The first LED unit 251 is installed on one side of the first electrode unit 211, and when the first electrode unit 211 measures the EMG signal of the user's arm or the detection sensor unit 240 captures a signal When a photographing signal is received from the generation unit 140, a light is generated or the light blinks.

더 나아가, 제1 LED부(251)는 사용자가 2가지 경우를 판단할 수 있도록, 서로 다른 색상으로 빛을 발생시키거나, 서로 다른 방식으로 빛을 점멸시킨다.Furthermore, the first LED unit 251 emits light in different colors or blinks the light in different ways so that the user can determine the two cases.

구체적인 일례로, 제1 LED부(251)는 제1 전극부(211)가 사용자의 팔에 대한 근전도 신호를 측정할 때 초록색의 빛을 발생시키고, 감지센서부(240)가 촬영 신호 생성부(140)로부터 촬영 신호를 수신할 때 빨간색의 빛을 발생시킨다.As a specific example, the first LED unit 251 generates green light when the first electrode unit 211 measures the EMG signal of the user's arm, and the sensor unit 240 is a photographing signal generator ( 140) generates red light when receiving a photographing signal.

다른 예로, 제1 LED부(251)는 제1 전극부(211)가 사용자의 팔에 대한 근전도 신호를 측정할 때 1초 이하의 간격으로 빛을 점멸시키며, 감지센서부(240)가 촬영 신호 생성부(140)로부터 촬영 신호를 수신할 때 2초 이상 3초 이하의 간격으로 빛을 점멸시킨다.As another example, the first LED unit 251 blinks light at intervals of 1 second or less when the first electrode unit 211 measures the EMG signal of the user's arm, and the sensor unit 240 transmits a photographing signal. When receiving a photographing signal from the generation unit 140, the light flickers at an interval of 2 seconds or more and 3 seconds or less.

제2 LED부(252)는 제2 전극부(212)의 일측에 설치되고, 제2 전극부(212)가 사용자의 손에 대한 근전도 신호를 측정할 때 또는 추적센서부(230)가 추적 신호를 추적부(120)로 송신할 때 빛을 발생시키거나 빛을 점멸시킨다. 이때, 제2 LED부(252)는 서로 동일 방식 또는 다른 방식으로 빛을 발생시키거나 빛을 점멸시킨다.The second LED unit 252 is installed on one side of the second electrode unit 212, and when the second electrode unit 212 measures the EMG signal of the user's hand or the tracking sensor unit 230 detects the tracking signal When transmitting to the tracking unit 120, a light is generated or a light is blinked. At this time, the second LED unit 252 generates light or blinks light in the same way or in a different way.

구체적인 일례로, 제2 LED부(252)는 제2 전극부(212)가 사용자의 손에 대한 근전도 신호를 측정할 때 초록색의 빛을 발생시키고, 추적센서부(230)가 추적 신호를 추적부(120)로 송신할 때 빨간색의 빛을 발생시킨다.As a specific example, the second LED unit 252 generates green light when the second electrode unit 212 measures the EMG signal of the user's hand, and the tracking sensor unit 230 transmits the tracking signal to the tracking unit. When transmitting to (120), a red light is generated.

다른 예로, 제2 LED부(252)는 제2 전극부(212)가 사용자의 손에 대한 근전도 신호를 측정할 때 1초 이하의 간격으로 빛을 점멸시키며, 추적센서부(230)가 추적 신호를 추적부(120)로 송신할 때 2초 이상 3초 이하의 간격으로 빛을 점멸시킨다.As another example, the second LED unit 252 blinks light at intervals of 1 second or less when the second electrode unit 212 measures the EMG signal of the user's hand, and the tracking sensor unit 230 transmits the tracking signal. When transmitting to the tracking unit 120, the light flickers at intervals of 2 seconds or more and 3 seconds or less.

한편, LED부(250)를 제1 LED부(251)와 제2 LED부(252)로 나누는 것은, 빛의 발생 또는 빛의 점멸을 통해 사용자의 팔과 손을 각각 측정하기 위해 나누어진 제1 전극부(211)와 제2 전극부(212)의 동작 여부를 사용자에게 안내하기 위함이다.On the other hand, dividing the LED unit 250 into a first LED unit 251 and a second LED unit 252, the first divided to measure the user's arm and hand, respectively, through light generation or flickering of light. This is to inform the user whether the electrode unit 211 and the second electrode unit 212 are operating.

더 나아가, 제1 LED부(251)와 제2 LED부(252)는 별도의 회로를 통해 각각 동작될 수 있으나, 회로가 구성되는 악세사리(예: 장갑 등)를 통해 하나의 LED로서 동작될 수 있다.Furthermore, the first LED unit 251 and the second LED unit 252 may be operated through separate circuits, but may be operated as one LED through an accessory (eg, gloves) in which the circuit is configured. there is.

도 14는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 14의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 핸드 트래킹 시스템의 하드웨어적인 구성일 수 있다.14 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 14 may be a hardware component of the hand tracking system described in this specification.

도 14의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 14 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, an output interface device TN160, and the like. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다. The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.

한편, 본 발명은 컴퓨터프로그램으로 구현될 수도 있다. 본 발명은 하드웨어와 결합되어, 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.Meanwhile, the present invention may be implemented as a computer program. The present invention can be combined with hardware and implemented as a computer program stored in a computer-readable recording medium.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. Methods according to embodiments of the present invention may be implemented in the form of programs readable by various computer means and recorded on computer-readable recording media. Here, the recording medium may include program commands, data files, data structures, etc. alone or in combination.

기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software.

예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. For example, recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CDROMs and DVDs, and magneto-optical media such as floptical disks. optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. Examples of the program command may include a high-level language that can be executed by a computer using an interpreter, as well as a machine language generated by a compiler.

이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.These hardware devices may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.In the above, one embodiment of the present invention has been described, but those skilled in the art can add, change, delete, or add components within the scope not departing from the spirit of the present invention described in the claims. The present invention can be variously modified and changed by the like, and this will also be said to be included within the scope of the present invention.

100: 카메라
110: 깊이 카메라부 120: 추적부
130: 촬영 영역 조절부 140: 촬영 신호 생성부
150: 통신부 160: 제어부
200: 웨어러블 단말
210: 전극부 220: 근전도 취합부
230: 추적센서부 240: 감지센서부
250: LED부 260: 감각전달부
270: 통신부 280: 제어부
300: HMD 단말
310: 제1 객체 생성부 320: 통신부
330: 출력부
400: 핸드 트래킹 모듈
410: 통신부 420: 제1 객체 처리부
430: 좌표 검출부 440: 근전도 신호 패턴 저장부
450: 제2 객체 처리부 460: 제어부
470: 감각처리부
100: camera
110: depth camera unit 120: tracking unit
130: shooting area control unit 140: shooting signal generator
150: communication unit 160: control unit
200: wearable terminal
210: electrode unit 220: EMG collection unit
230: tracking sensor unit 240: detection sensor unit
250: LED unit 260: sensory transmission unit
270: communication unit 280: control unit
300: HMD terminal
310: first object creation unit 320: communication unit
330: output unit
400: hand tracking module
410: communication unit 420: first object processing unit
430: coordinate detection unit 440: EMG signal pattern storage unit
450: second object processing unit 460: control unit
470: sensory processing unit

Claims (10)

촬영 영역 내의 사용자의 팔과 손을 촬영하여 상기 사용자의 팔과 손이 포함되는 깊이 이미지 정보를 획득하는 카메라;
상기 사용자의 팔에 부착되어 상기 사용자의 근전도 신호를 측정하고, 상기 근전도 신호를 실시간으로 갱신하며, 상기 사용자에게 가상공간의 객체에 대한 감각을 전달하는 웨어러블 단말;
가상공간에서 상호작용이 가능한 제1 객체를 생성하며, 상기 깊이 이미지 정보와 상기 근전도 신호를 기반으로 상기 가상공간에서 상기 사용자의 팔 및 손과 상호작용이 가능하면서 상기 제1 객체에 도달하여 이벤트 정보를 발생시키는 제2 객체를 생성하고, 상기 제1 객체와 상기 제2 객체가 상기 가상공간에서 상호작용이 가능한지 여부를 판단하며, 상기 이벤트 정보가 발생하면 상기 이벤트 정보에 대응하도록 매핑된 감각 정보를 생성하여 상기 웨어러블 단말로 전송하는 핸드 트래킹 모듈; 및,
상기 제1 객체가 생성될 제1 생성 좌표, 상기 제1 객체의 크기 정보 및 모양 정보를 생성하여 상기 핸드 트래킹 모듈로 송신하며, 상기 핸드 트래킹 모듈로부터 상기 가상공간에서 상호작용이 가능한 것으로 판단된 상기 제1 객체와 상기 제2 객체를 상기 가상공간에 출력하는 HMD 단말;
을 포함하는 감각 전달이 가능한 핸드 트래킹 시스템.
a camera for acquiring depth image information including the user's arm and hand by capturing the user's arm and hand within the photographing area;
a wearable terminal attached to the user's arm to measure an EMG signal of the user, update the EMG signal in real time, and transmit a sense of an object in a virtual space to the user;
A first object capable of interaction is created in virtual space, and based on the depth image information and the EMG signal, it reaches the first object while being able to interact with the user's arm and hand in the virtual space, thereby providing event information. generating a second object, determining whether the first object and the second object can interact in the virtual space, and when the event information occurs, sensory information mapped to correspond to the event information a hand tracking module that generates and transmits the generated data to the wearable terminal; and,
A first creation coordinate at which the first object is to be created, size information and shape information of the first object are generated and transmitted to the hand tracking module, and the hand tracking module determines that the interaction is possible in the virtual space. an HMD terminal outputting the first object and the second object to the virtual space;
A hand tracking system capable of transmitting senses including.
청구항 1에 있어서, 상기 웨어러블 단말은,
상기 사용자의 팔 또는 손에 부착되어 상기 사용자의 팔과 손에 대한 근전도 신호를 측정하는 전극부;
상기 전극부로부터 측정된 근전도 신호를 취합하는 근전도 취합부;
상기 전극부에 설치되며, 상기 카메라가 상기 사용자의 팔과 손을 추적하도록 상기 카메라에 추적 신호를 송신하는 추적센서부;
상기 전극부에 설치되며, 상기 카메라로부터 생성된 촬영 신호를 수신하는 감지센서부;
상기 핸드 트래킹 모듈에서 생성된 감각 정보에 기반하여 상기 사용자에게 감각을 전달하는 감각전달부;
상기 근전도 취합부로부터 취합된 근전도 신호를 상기 핸드 트래킹 모듈로 송신하는 통신부; 및
상기 감지센서부가 촬영 신호를 수신하면, 상기 전극부로부터 상기 근전도 신호가 측정되도록 하는 제어부;
를 포함하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method according to claim 1, wherein the wearable terminal,
an electrode unit attached to the user's arm or hand to measure EMG signals of the user's arm and hand;
an EMG collecting unit that collects EMG signals measured from the electrode unit;
a tracking sensor unit installed in the electrode unit and transmitting a tracking signal to the camera so that the camera tracks the arm and hand of the user;
a detection sensor unit installed on the electrode unit and receiving a photographing signal generated from the camera;
a sense delivery unit that transmits senses to the user based on the sense information generated by the hand tracking module;
a communication unit that transmits the EMG signals collected from the EMG collection unit to the hand tracking module; and
a control unit configured to measure the EMG signal from the electrode unit when the detection sensor unit receives a photographing signal;
A hand tracking system capable of transmitting senses including.
청구항 2에 있어서, 상기 감각전달부는,
내부에 진동기가 설치되어 상기 이벤트 정보가 진동과 관련된 경우 상기 진동기를 작동시켜서 상기 사용자에게 진동을 제공하는 진동발생기와,
내부에 히터가 설치되어 상기 이벤트 정보가 열과 관련된 경우 상기 히터를 작동시켜서 상기 사용자에게 열을 제공하는 열발생기와,
내부에 스피커가 설치되어 상기 이벤트 정보가 소리와 관련된 경우 상기 스피커를 작동시켜서 상기 사용자에게 소리를 제공하는 소리발생기
를 포함하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method according to claim 2, wherein the sensory transfer unit,
A vibration generator having a vibrator installed therein to provide vibration to the user by operating the vibrator when the event information is related to vibration;
A heat generator having a heater installed therein to provide heat to the user by operating the heater when the event information is related to heat;
A sound generator having a speaker installed therein to provide sound to the user by operating the speaker when the event information is related to sound
A hand tracking system capable of transmitting senses including.
청구항 3에 있어서, 상기 감각전달부는,
상기 이벤트 정보의 종류에 따라 상기 진동발생기, 상기 열발생기, 상기 소리발생기 중 적어도 어느 둘 이상을 복합적으로 작동시켜서 복합 감각을 제공하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method according to claim 3, wherein the sensory transfer unit,
A hand tracking system capable of transmitting senses by operating at least two or more of the vibration generator, the heat generator, and the sound generator in a complex manner according to the type of the event information to provide a complex sensation.
청구항 1에 있어서, 상기 핸드 트래킹 모듈은,
상기 깊이 이미지 정보, 상기 근전도 신호, 상기 제1 생성 좌표, 상기 제1 객체의 크기 정보 및 모양 정보를 수신하는 통신부;
상기 제1 객체의 크기 및 모양을 상기 제1 객체의 크기 정보 및 모양 정보를 기반으로 결정하고, 상기 크기 및 모양이 결정된 제1 객체를 상기 제1 생성 좌표에 생성하는 제1 객체 처리부;
상기 깊이 이미지 정보로부터 상기 제2 객체가 생성될 제2 생성 좌표를 검출하는 좌표 검출부;
상기 사용자의 팔과 손에 대한 근전도 신호 패턴이 하나 이상 기저장되는 근전도 신호 패턴 저장부;
상기 근전도 신호와 상기 기저장된 근전도 신호 패턴을 비교하여 상기 제2 객체의 크기 및 모양을 결정하고, 상기 크기 및 모양이 결정된 제2 객체를 상기 제2 생성 좌표에 생성하는 제2 객체 처리부;
상기 제2 객체가 상기 제1 객체에 도달하여 상기 이벤트 정보가 발생하는지 여부를 판단하는 제어부; 및,
상기 이벤트 정보가 발생하면 상기 이벤트 정보에 대응하도록 매핑된 감각 정보를 생성하는 감각처리부;
를 포함하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method according to claim 1, wherein the hand tracking module,
a communication unit configured to receive the depth image information, the EMG signal, the first generated coordinates, and size information and shape information of the first object;
a first object processor configured to determine the size and shape of the first object based on the size and shape information of the first object, and to create the first object having the determined size and shape at the first creation coordinates;
a coordinate detector configured to detect second creation coordinates at which the second object is to be generated from the depth image information;
an EMG signal pattern storage unit pre-stored at least one EMG signal pattern for the user's arm and hand;
a second object processing unit that compares the EMG signal with the previously stored EMG signal pattern to determine the size and shape of the second object, and creates the second object having the determined size and shape at the second creation coordinates;
a control unit that determines whether the event information occurs when the second object reaches the first object; and,
a sensory processing unit generating sensory information mapped to correspond to the event information when the event information occurs;
A hand tracking system capable of transmitting senses including.
청구항 5에 있어서,
상기 감각처리부는 다른 종류의 제1 객체들 상호간에 대한, 또는 임의의 제1 객체에 대한 상기 제2 객체의 이벤트에 따른 물리적 특성을 감각 정보와 매핑하여 저장한 감각 정보 데이터베이스를 포함하며,
상기 제어부는 상기 이벤트 정보가 발생하는 경우, 상기 제1 객체, 상기 제1 생성 좌표, 상기 제2 객체, 상기 제2 생성 좌표에 대한 정보를 상기 HMD 단말로 송신하도록 제어하고, 상기 감각 정보를 상기 웨어러블 단말로 송신하도록 제어하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method of claim 5,
The sensory processing unit includes a sensory information database in which physical characteristics according to events of the second object for each other of different types of first objects or for an arbitrary first object are mapped with sensory information and stored,
When the event information occurs, the control unit controls to transmit information on the first object, the first generated coordinates, the second object, and the second generated coordinates to the HMD terminal, and transmits the sensory information to the HMD terminal. A hand tracking system capable of sensory transmission that is controlled to be transmitted to a wearable terminal.
청구항 6에 있어서, 상기 감각 정보 데이터베이스는,
상기 가상공간의 물리적 특성을 반영하는 감각 정보를 저장하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method according to claim 6, wherein the sensory information database,
A hand tracking system capable of transmitting senses that stores sensory information reflecting the physical characteristics of the virtual space.
청구항 5에 있어서, 상기 감각처리부는,
객체 검출 모델을 구비하여, 상기 가상공간 내의 객체를 자체적으로 판단하여 제1 객체들 상호간에 대한, 또는 임의의 제1 객체에 대한 제2 객체의 이벤트를 처리하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method according to claim 5, wherein the sensory processing unit,
A hand tracking system capable of sensory transfer by having an object detection model and determining an object in the virtual space by itself and processing an event of a second object between first objects or an arbitrary first object.
청구항 5에 있어서, 상기 제어부는,
상기 이벤트 정보가 발생하지 않는 경우, 상기 제1 생성 좌표로부터 상기 제1 객체가 삭제되도록 하거나, 상기 제2 생성 좌표로부터 상기 제2 객체가 삭제되도록 하고,
상기 HMD 단말로부터 상기 제1 생성 좌표가 조정된 후 상기 제1 객체 처리부로부터 상기 조정된 제1 생성 좌표에 상기 제1 객체가 재생성되도록 하거나, 상기 좌표 검출부로부터 상기 제2 생성 좌표가 조정된 후 상기 제2 객체 처리부로부터 상기 조정된 제2 생성 좌표에 상기 제2 객체가 재생성되도록 하는 감각 전달이 가능한 핸드 트래킹 시스템.
The method according to claim 5, wherein the control unit,
When the event information does not occur, the first object is deleted from the first created coordinates or the second object is deleted from the second created coordinates,
After the first creation coordinates are adjusted from the HMD terminal, the first object processing unit regenerates the first object at the adjusted first creation coordinates, or after the coordinate detection unit adjusts the second creation coordinates, A hand tracking system capable of sensory transfer such that the second object is regenerated at the adjusted second creation coordinates from the second object processor.
청구항 3에 있어서,
상기 웨어러블 단말은 장갑형으로 형성되고, 상기 진동발생기와 상기 열발생기는 장갑형 웨어러블 단말의 손바닥면 또는 손등면에 설치되는 감각 전달이 가능한 핸드 트래킹 시스템.
The method of claim 3,
The wearable terminal is formed in the form of a glove, and the vibration generator and the heat generator are installed on the palm surface or the back of the hand of the glove-type wearable terminal.
KR1020220046327A 2021-08-27 2022-04-14 Hand tracking system capable of sensory transmission KR20230031765A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210114276 2021-08-27
KR20210114276 2021-08-27

Publications (1)

Publication Number Publication Date
KR20230031765A true KR20230031765A (en) 2023-03-07

Family

ID=85513494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220046327A KR20230031765A (en) 2021-08-27 2022-04-14 Hand tracking system capable of sensory transmission

Country Status (1)

Country Link
KR (1) KR20230031765A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010374A (en) 2010-07-26 2012-02-03 이종우 Terminal providing 3d interface by recognizing motion of fingers and method thereof
KR101748126B1 (en) 2012-09-10 2017-06-28 한국전자통신연구원 Apparatus and method for user interfacing, and terminal apparatus using the method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010374A (en) 2010-07-26 2012-02-03 이종우 Terminal providing 3d interface by recognizing motion of fingers and method thereof
KR101748126B1 (en) 2012-09-10 2017-06-28 한국전자통신연구원 Apparatus and method for user interfacing, and terminal apparatus using the method

Similar Documents

Publication Publication Date Title
EP3688563B1 (en) Rendering of virtual hand pose based on detected hand input
TWI732194B (en) Method and system for eye tracking with prediction and late update to gpu for fast foveated rendering in an hmd environment and non-transitory computer-readable medium
JP6155448B2 (en) Wireless wrist computing and controlling device and method for 3D imaging, mapping, networking and interfacing
US8009022B2 (en) Systems and methods for immersive interaction with virtual objects
KR101658937B1 (en) Gesture shortcuts
CN107368183B (en) Glove for providing input
JP5739872B2 (en) Method and system for applying model tracking to motion capture
US8856691B2 (en) Gesture tool
US9694283B2 (en) Method and apparatus for tracking of a subject in a video game
WO2016038953A1 (en) Detection device, detection method, control device, and control method
JP2018512643A (en) Magnetic tracking of glove fingertips with peripheral devices
JP6834614B2 (en) Information processing equipment, information processing methods, and programs
JP2012525643A5 (en)
US11231771B2 (en) Interactive exercise and training system and method
KR20230031765A (en) Hand tracking system capable of sensory transmission
KR102325269B1 (en) Hand tracking system using epth camera and electromyogram sensors
TWI835289B (en) Virtual and real interaction method, computing system used for virtual world, and virtual reality system
CN112445325A (en) Virtual touch method and device, computer equipment and storage medium
TW202311912A (en) Virtual and real interaction method, computing system used for virtual world, and virtual reality system