KR102502195B1 - Method and system for operating virtual training content using user-defined gesture model - Google Patents

Method and system for operating virtual training content using user-defined gesture model Download PDF

Info

Publication number
KR102502195B1
KR102502195B1 KR1020200073037A KR20200073037A KR102502195B1 KR 102502195 B1 KR102502195 B1 KR 102502195B1 KR 1020200073037 A KR1020200073037 A KR 1020200073037A KR 20200073037 A KR20200073037 A KR 20200073037A KR 102502195 B1 KR102502195 B1 KR 102502195B1
Authority
KR
South Korea
Prior art keywords
user
hand
virtual training
gesture
training content
Prior art date
Application number
KR1020200073037A
Other languages
Korean (ko)
Other versions
KR20210155600A (en
Inventor
성상만
이현수
이원형
박정혁
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020200073037A priority Critical patent/KR102502195B1/en
Publication of KR20210155600A publication Critical patent/KR20210155600A/en
Application granted granted Critical
Publication of KR102502195B1 publication Critical patent/KR102502195B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작에 관한 것으로서, 더욱 상세하게는 가상훈련 콘텐츠의 활용시 항상 손에 들고 있어야 하는 컨트롤러 대신 사용자 정의 손 제스처를 인식하여 사용자에 따른 맞춤형 기능을 가능하게 하여 가상훈련 콘텐츠를 동작시키는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템에 관한 것이다.It relates to the operation of virtual training content using a user-defined gesture model, and more specifically, recognizes a user-defined hand gesture instead of a controller that must always be held in the hand when using virtual training content to enable customized functions according to the user. It relates to a method and system for operating virtual training contents using a user-defined gesture model that operates training contents.

Description

사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템{Method and system for operating virtual training content using user-defined gesture model}Method and system for operating virtual training content using user-defined gesture model

본 발명은 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작에 관한 것으로서, 더욱 상세하게는 가상훈련 콘텐츠의 활용시 항상 손에 들고 있어야 하는 컨트롤러 대신 사용자 정의 손 제스처를 인식하여 사용자에 따른 맞춤형 기능을 가능하게 하여 가상훈련 콘텐츠를 동작시키는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템에 관한 것이다. The present invention relates to the operation of virtual training content using a user-defined gesture model, and more particularly, enables customized functions according to the user by recognizing a user-defined hand gesture instead of a controller that must always be held in the hand when using virtual training content. It relates to a method and system for operating virtual training contents using a user-defined gesture model that operates virtual training contents by doing so.

가상환경을 통한 콘텐츠들이 증가하면서 가상현실 상에서의 교육 프로그램도 활발히 개발 되고 있다. 특히 가상현실을 이용하면 현실적으로 재현이 어려운 상황들을 실감적으로 체험할 수 있고, 원거리 상황에서도 제약 없이 콘텐츠 제공이 가능하기 때문에, 현실적인 제약을 극복하여 다양한 교육환경 및 콘텐츠를 제공할 수 있다는 면에서 교육 프로그램 응용분야가 급속히 증가하고 있다. 특히, 직업훈련 같은 경우 몰입도 증대와 안전한 상호작용을 통한 훈련 효과 향상이 실제적인 장점으로 부각되고 있다. As contents through virtual environments increase, educational programs in virtual reality are also being actively developed. In particular, when using virtual reality, it is possible to realistically experience situations that are difficult to reproduce in reality, and since it is possible to provide contents without restrictions even in a remote situation, education can overcome realistic limitations and provide various educational environments and contents. Program applications are rapidly increasing. In particular, in the case of vocational training, the improvement of training effect through increased immersion and safe interaction is emerging as a practical advantage.

다양한 IT 기술의 융합을 통해 구현되는 가상현실 기술은 사용자의 체험영역을 확대하고 물리적인 에너지와 각종 비용을 절감하는 기술로 최근에 많은 주목을 받고 있으며, 글로벌 기업들이 경쟁적으로 기술개발을 추진하고 있다. 그 이유로는 기술변화에 부응하는 첨단기술 장비의 교체수명이 짧아 지속적인 재원 투입에 한계가 있어, 이를 대체할 수 있는 가상훈련 시스템은 매우 효과적이고 높은 수요를 발달시키고 있고, 특히 고위험, 고비용의 산업훈련을 대체하는 장비실습에 대한 체험형, 실습형 가상훈련(Virtual Training) 콘텐츠 요구가 증대하고 있으며, 가상공간에서 인터랙션이 가능한 형태의 학습 시스템은 가상현실 시스템의 실감 상호작용, Natural User Interface 기술과 관련된 신개념의 인터페이스 장치 및 소프트웨어 기술은 향후 다양한 산업, 교육, 의료, 국방, 엔터테인먼트 등 많은 산업분야에서 적용될 것으로 예상되어 시장 확대가 전망되기 때문이다. Virtual reality technology, realized through the convergence of various IT technologies, is a technology that expands the user's experience area and reduces physical energy and various costs, and has recently attracted a lot of attention, and global companies are competitively promoting technology development. The reason for this is that the replacement life of high-tech equipment that responds to technological changes is short, so there is a limit to continuous financial input. Virtual training systems that can replace it are very effective and are developing high demand, especially high-risk and high-cost industrial training. Demand for experiential and hands-on virtual training content for equipment practice that replaces is increasing, and learning systems that can interact in virtual space are related to realistic interaction of virtual reality systems and natural user interface technology. This is because new-concept interface devices and software technologies are expected to be applied in many industries, such as various industries, education, medical care, defense, and entertainment, and the market is expected to expand.

따라서 가상현실기기의 발달과 더불어 가상현실 상에서의 교육 프로그램의 개발이 활발해지고 있으며, 원거리 상황, 혹은 현실적으로 재현이 어려운 상황 들을 실감적으로 체험하고 실습할 수 있는 가상현실 훈련 콘텐츠는 현실적인 제약을 극복하여 다양한 교육환경 및 콘텐츠를 제공한다는 측면에서 응용분야가 급속히 증가하는 추세이다. 특히, 직업훈련에 가상현실 기술을 접목할때, 몰입감의 증대와 상호작용을 통한 훈련 효과 및 학습전이 향상이 실제적인 장점으로 부각되고 있다. Therefore, along with the development of virtual reality devices, the development of educational programs in virtual reality is becoming active, and virtual reality training contents that can realistically experience and practice remote situations or situations that are difficult to reproduce realistically overcome realistic limitations. In terms of providing various educational environments and contents, the application fields are rapidly increasing. In particular, when applying virtual reality technology to vocational training, the increase in immersion and the improvement of training effect and learning transfer through interaction are emerging as practical advantages.

그러나 가상현실 기반 훈련시 사용자의 장비 착용은 큰 부담으로 작용하고 있으며, 이는 훈련의 실재감과 몰입감을 낮추는 단점이 있다. However, during virtual reality-based training, the user's wearing of equipment acts as a great burden, which has the disadvantage of lowering the sense of presence and immersion in training.

KRKR 10-2003-006562010-2003-0065620 AA

본 발명은 이와 같은 문제점을 해결하기 위하여 창안된 것으로서, 가상훈련 콘텐츠의 활용 시 항상 손에 들고 있어야 하는 컨트롤러 대신 사용자 정의 손 제스처를 인식하여 사용자에 따른 맞춤형 기능을 가능하게 하여 실재감과 몰입감을 높여 가상훈련 콘텐츠를 동작시키는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템을 제공하는 것을 그 목적으로 한다. The present invention was invented to solve this problem, and when using virtual training contents, it recognizes a user-defined hand gesture instead of a controller that must be held in the hand at all times to enable customized functions according to the user, thereby increasing the sense of reality and immersion. Its purpose is to provide a method and system for operating virtual training contents using a user-defined gesture model that operates training contents.

이와 같은 목적을 달성하기 위하여 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법으로서, (a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계; (b) 상기 단계 (a)에서 수신된 손 제스처 영상으로부터 궤적 및 이 궤적에 해당하는 부분영역들로 이루어진 패턴을 생성하고, 상기 패턴을기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및 (c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계를 포함하되, 상기 손 제스처는 손 모양 및 손 동작을 포함하며, 상기 단계 (b)의 비교는, (b1) 상기 부분영역 각각의 중심점 위치를 찾는 단계; (b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및 (b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값의 패턴으로 결과가 인식되는 단계인 Wangner Fischer Algorithm을 포함한다. In order to achieve the above object, a method of operating virtual training content using a user-defined gesture model according to the present invention includes: (a) receiving a hand gesture image obtained from a camera; (b) generating a pattern consisting of a trajectory and subregions corresponding to the trajectory from the hand gesture image received in step (a), and comparing the pattern with a pre-learned user-defined gesture model; and (c) driving virtual training content according to the recognition result of the hand gesture according to the comparison in step (b), wherein the hand gesture includes a hand shape and a hand motion, and the step (b) The comparison may include (b1) finding the location of the center point of each of the partial regions; (b2) calculating a relative distance using the location value of the central point found in step (b1); and (b3) a Wangner Fischer Algorithm in which a result is recognized as a pattern having the smallest relative distance calculated in step (b2).

상기 단계 (b)에서 궤적은 상기 손 동작에 대응되는 것이다. In the step (b), the trajectory corresponds to the hand motion.

상기 비교는 ART 알고리즘의 클러스터링 방식으로 이루어지는 것이다. The comparison is made by the clustering method of the ART algorithm.

상기 단계 (b3)의 상대적 거리 값이 임계값보다 크면, 결과가 인식되는 않는 것이다. If the relative distance value of step (b3) is greater than the threshold value, the result is not recognized.

이와 같은 목적을 달성하기 위한 본 발명의 다른 측면은 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키는 장치로서, 적어도 하나의 프로세서; 및 컴퓨터로 실행가능한 명령을 저장하는 적어도 하나의 메모리를 포함하되, 상기 적어도 하나의 메모리에 저장된 상기 컴퓨터로 실행가능한 명령은, 상기 적어도 하나의 프로세서에 의하여, (a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계; (b) 상기 단계 (a)에서 수신된 손 제스처 영상으로부터 궤적 및 이 궤적에 해당하는 부분영역들로 이루어진 패턴을 생성하고, 상기 패턴을 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및 (c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계를 포함하되, 상기 손 제스처는 손 모양 및 손 동작을 포함하며, 상기 단계 (b)의 비교는, (b1) 상기 부분영역 각각의 중심점 위치를 찾는 단계; (b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및 (b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값의 패턴으로 결과가 인식되는 단계인 Wangner Fischer Algorithm을 실행되도록 한다. Another aspect of the present invention for achieving the above object is an apparatus for operating virtual training content using a user-defined gesture model, comprising: at least one processor; and at least one memory for storing computer-executable instructions, wherein the computer-executable instructions stored in the at least one memory are, by the at least one processor, (a) a hand gesture image obtained from a camera. receiving; (b) generating a pattern consisting of a trajectory and subregions corresponding to the trajectory from the hand gesture image received in step (a), and comparing the pattern with a pre-learned user-defined gesture model; and (c) driving virtual training content according to the recognition result of the hand gesture according to the comparison in step (b), wherein the hand gesture includes a hand shape and a hand motion, and the step (b) The comparison may include (b1) finding the location of the center point of each of the partial regions; (b2) calculating a relative distance using the location value of the central point found in step (b1); and (b3) the Wangner Fischer Algorithm, which is a step of recognizing a pattern having the smallest relative distance calculated in step (b2), is executed.

상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 카메라 모듈과 연결되는 것이다. The device for operating virtual training contents using the user-defined gesture model is connected to the camera module.

상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 모니터 모듈과 연결되는 것이다. The device for operating virtual training contents using the user-defined gesture model is connected to the monitor module.

이와 같은 목적을 달성하기 위한 본 발명의 또 다른 측면은 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키기 위한 컴퓨터 프로그램으로서, 비일시적 저장매체에 저장되며, 프로세서에 의하여, (a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계; (b) 상기 단계 (a)에서 수신된 손 제스처 영상으로부터 궤적 및 이 궤적에 해당하는 부분영역들로 이루어진 패턴을 생성하고, 상기 패턴을 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및 (c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계를 포함하되, 상기 손 제츠처는 손 모양 및 손 동작을 포함하며, 상기 단계 (b)의 비교는, (b1) 상기 부분영역 각각의 중심점 위치를 찾는 단계; (b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및 (b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값의 패턴으로 결과가 인식되는 단계인 Wangner Fischer Algorithm이 실행되도록 하는 명령을 포함하는 것이다. Another aspect of the present invention for achieving this object is a computer program for operating virtual training content using a user-defined gesture model, stored in a non-temporary storage medium, by a processor, (a) obtained from a camera receiving a hand gesture image; (b) generating a pattern consisting of a trajectory and subregions corresponding to the trajectory from the hand gesture image received in step (a), and comparing the pattern with a pre-learned user-defined gesture model; and (c) driving virtual training content according to the recognition result of the hand gesture according to the comparison in step (b), wherein the hand gesture includes a hand shape and a hand motion, and the step (b) The comparison of is, (b1) finding the position of the center point of each of the sub-regions; (b2) calculating a relative distance using the location value of the central point found in step (b1); and (b3) a command for executing the Wangner Fischer Algorithm, which is a step of recognizing a pattern having the smallest relative distance calculated in step (b2).

본 발명에 의하면, 가상현실 기반 훈련시 사용자의 장비 착용의 부담을 줄여주는 효과가 있다. According to the present invention, there is an effect of reducing the user's burden of wearing equipment during virtual reality-based training.

또한 가상현실 훈련의 실재감과 몰입감을 높여주는 효과가 있다. In addition, it has the effect of enhancing the sense of presence and immersion in virtual reality training.

도 1은 본 발명에 따른 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습 방법을 보여주는 도면.
도 2 내지 도 3은 도 1에 따른 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습 방법의 이해를 돕기 위한 도면.
도 4는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 보여주는 순서도.
도 5 내지 도 7은 도 4에 따른 본 발명의 이해를 돕기 위한 도면.
도 8 내지 도 9는 도 4에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작에서 활용된 마우스 기능과 메뉴 및 버튼을 보여주는 화면.
도 10 내지 도 14는 도 4에 따른 본 발명의 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 위하여 사용자가 직접 데이터를 습득하고 학습시킬 수 있는 인터페이스 화면을 보여주는 도면.
도 15는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 시스템의 구성을 보여주는 도면.
1 is a diagram showing a learning method of a user-defined gesture model for the operation of virtual training content according to the present invention.
2 and 3 are diagrams for helping understanding of a learning method of a user-defined gesture model for the operation of virtual training content according to FIG. 1;
Figure 4 is a flow chart showing the operation of virtual training content using a user-defined gesture model according to the present invention.
5 to 7 are views for helping understanding of the present invention according to FIG. 4;
8 to 9 are screens showing mouse functions, menus, and buttons used in the operation of virtual training contents using the user-defined gesture model according to FIG. 4;
10 to 14 are diagrams showing interface screens through which a user can directly acquire and learn data for the operation of virtual training contents using the user-defined gesture model of the present invention according to FIG. 4 .
15 is a diagram showing the configuration of an operation system for virtual training contents using a user-defined gesture model according to the present invention.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, the terms or words used in this specification and claims should not be construed as being limited to the usual or dictionary meaning, and the inventor appropriately uses the concept of the term in order to explain his/her invention in the best way. It should be interpreted as a meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined. Therefore, since the embodiments described in this specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention and do not represent all of the technical ideas of the present invention, various alternatives may be used at the time of this application. It should be understood that there may be equivalents and variations.

도 4는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법을 보여주는 순서도이다. 4 is a flowchart showing a method of operating virtual training contents using a user-defined gesture model according to the present invention.

먼저 본 발명의 설명에 앞서 도 1 내지 도 3을 통하여 본 발명에 이용된 사용자 정의 제스처 모델에 대하여 설명하면 다음과 같다. Prior to the description of the present invention, a user-defined gesture model used in the present invention will be described through FIGS. 1 to 3 as follows.

도 1은 본 발명에 따른 가상훈련 콘텐츠 동작을 위한 사용자 정의 제스처 모델의 학습 방법을 보여주는 도면이고, 도 2 내지 도 3은 도 1에 따른 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습 방법의 이해를 돕기 위한 도면으로, 도 2는 도 1에 따른 기계학습의 이해를 돕기 위한 데이터 궤적에 따른 영역 구분을 보여주는 도면이고, 도 3은 도 1에 따른 기계학습의 이해를 돕기 위한 두 궤적간의 Levenshitein Distance를 설명하기 위한 도면이다.1 is a diagram showing a method of learning a user-defined gesture model for operating virtual training content according to the present invention, and FIGS. 2 and 3 are a method of learning a user-defined gesture model for operating virtual training content according to FIG. 1 As a diagram to aid understanding, FIG. 2 is a diagram showing area division according to data trajectories to help understand machine learning according to FIG. 1, and FIG. 3 is Levenshitein between the two trajectories to help understand machine learning according to FIG. 1 It is a drawing for explaining distance.

사용자 정의 제스처 모델 학습은 기계학습을 통하여 형성되는데, 이때 기계학습은 ART 알고리즘의 클러스터링(Clustering) 기법을 활용한다. 이는 기본적으로 ART는 비지도 클러스터링으로 데이터가 추가될 때마다 클러스터링이 자동으로 빠르게 이루어지며, 또한 최적화를 위해 반복적인 학습이 필요하지 않기 때문에 적합하다. ART 알고리즘은 데이터의 영역을 안과 밖으로 구분하기 때문에, 데이터 입력이 있을 때마다 기존에 형성된 영역에 새 데이터가 포함되느냐 또는 아니냐 그리고 기존 영역을 확장하느냐로 바로 판단이 가능하다. Learning of a user-defined gesture model is formed through machine learning, and at this time, machine learning utilizes the clustering technique of the ART algorithm. ART is basically unsupervised clustering, which is suitable because clustering is performed automatically and quickly whenever data is added, and it does not require repetitive learning for optimization. Since the ART algorithm distinguishes data areas from inside to outside, whenever there is data input, it is possible to immediately determine whether or not new data is included in the previously formed area and whether to expand the existing area.

먼저 도 1에 도시된 바와 같이 사용자 정의 제스처 모델의 학습은 카메라로부터 획득된 손 제스처 영상을 수신한다(S300). 여기서 손 제스처는 손모양 및 손동작을 포함한다.First, as shown in FIG. 1, learning of a user-defined gesture model receives a hand gesture image acquired from a camera (S300). Here, the hand gesture includes a hand shape and a hand motion.

그리고 단계 S300에서 수신 손 제스처 영상 데이터를 이용하여 제스처 모델 형성을 위한 기계학습을 수행한다(S310). 여기서, 기계학습은 도 2에 도시된 바와 같이, 도 2의 오른쪽(b)에서와 같이 빨간선은 연속적으로 들어오는 입력의 궤적이고, 파란박스는 입력에 따라 자동으로 영역을 구분한 결과이다. 이때 파란 박스 바깥쪽도 가까운 순서에 따라 영역이 구분되며, 거리가 있는 경우 이를 반영하여 영역 소속정도도 계산된다. 손 제스처 영상 데이터가 들어올 때마다 바로 영역을 업데이트시키기 때문에 궤적 입력이 끝나는 파란 박스로 표시된 영역들의 업데이트도 동시에 바로 마무리가 된다. In step S300, machine learning for forming a gesture model is performed using the received hand gesture image data (S310). Here, in machine learning, as shown in FIG. 2, the red line is the trajectory of continuously input input, and the blue box is the result of automatically dividing the area according to the input, as shown in the right (b) of FIG. At this time, regions outside the blue box are also classified according to the order of proximity, and if there is a distance, the degree of region membership is calculated by reflecting this. Since the region is immediately updated whenever hand gesture image data is received, the update of the regions indicated by the blue box where the trajectory input ends is immediately completed at the same time.

한편 연속된 입력이 한 영역 안에 반복적으로 들어올 때가 있는데, 예를 들면 카메라로부터 초당 최대 60번의 손 제스처 정보가 입력이 되는데, 손동작이 느려 한 영역에서 다른 영역으로 궤적이 옮겨가는데 1초가 걸렸다면, 앞선 영역에서 60번의 손 데이터가 들어온 셈이다. 만약 0.1초가 걸렸다면 6번의 손 데이터가 들어온 셈이 된다. 이렇게 한 영역 안에서 반복적으로 들어오는 입력을 모두 고려한다면, 영역 내 반복되는 손 데이터 샘플의 숫자로 손 움직임의 속도를 고려할 수 있게 된다. 즉, 같은 패턴의 손동작이더라도 빠르게 움직일 때와 느리게 움직일 때를 구분할 수 있다. 그러나 같은 사용자가 동일 제스처를 반복하더라도 속도까지 같게 반복하는 데에는 어려움이 있기 때문에 영역 내에서 반복되는 손 데이터는 중복처리하지 않는다. 즉 궤적의 영역이 바뀌기 전까지는 손동작의 정보가 동일한 것으로 간주한다. On the other hand, there are times when continuous input repeatedly enters one area. For example, up to 60 hand gesture information is input from the camera per second. This means that 60 hand data came in from the area. If it took 0.1 seconds, it means that the hand data came in 6 times. If all inputs repeatedly received within one area are considered, the speed of hand movement can be considered with the number of hand data samples repeated within the area. That is, even if the hand motion has the same pattern, it is possible to distinguish between a fast movement and a slow movement. However, even if the same user repeats the same gesture, it is difficult to repeat the same gesture at the same speed, so hand data repeated within the region is not redundantly processed. That is, until the area of the trajectory is changed, hand motion information is regarded as the same.

이후 입력된 데이터가 어떤 시퀀스(Sequence)를 갖느냐로 손동작 제스처의 패턴이 결정되는데, 이때 패턴의 결정은 두 시퀀스간의 유사도 비교를 통하여 이루어진다. Edit Distance 라고 불리는 Levenshitein Distance는 두 문자열 간의 차이를 비교하기 위해 몇 번의 수정이 필요한가를 세어서 거리로 정의하고 있다. 예를 들어 "kitten"과 "sitting"의 차이는 총 3번의 수정으로 같은 글자가 될 수 있기에 Levenshitein Distance가 3이 되고, "saturday"와 "sunday"는 3번의 수정으로 같은 글자가 될 수 있기에 Levenshitein Distance가 3이 된다. 이때 문자열을 비교하는 것으로 예를 들었지만, 본 발명에서는 부분영역의 번호 시퀀스를 문자열로 가정하여 비교하면 동일한 방법으로 유사도(거리)를 계산할 수 있다. 다음의 [식 1]은 유사도 값을 계산하는 방법이다. After that, the pattern of the hand motion gesture is determined depending on which sequence the input data has. At this time, the pattern is determined by comparing the similarity between the two sequences. Levenshitein Distance, called Edit Distance, counts how many corrections are needed to compare the difference between two strings and defines it as a distance. For example, the difference between "kitten" and "sitting" is that Levenshitein Distance is 3 because it can be the same letter with a total of 3 modifications, and "saturday" and "sunday" can be the same letter with 3 modifications, so Levenshitein Distance becomes 3. At this time, the comparison of character strings has been exemplified, but in the present invention, similarity (distance) can be calculated in the same way if the sequence of numbers in the partial region is assumed to be a character string and compared. The following [Equation 1] is a method for calculating the similarity value.

[식 1][Equation 1]

Figure 112020061825053-pat00001
Figure 112020061825053-pat00001

그러나 [식 1]의 방법처럼 Recurrsive 하게 계산할 경우, 계산량이 많아지기 때문에 본 발명에서는 Wagner Fischer Algorithm을 이용한다. However, in the case of recursive calculation like the method of [Equation 1], the amount of calculation increases, so the present invention uses the Wagner Fischer Algorithm.

도 3은 도 1에 따른 기계학습의 이해를 돕기 위한 두 궤적간의 Levenshitein Distance를 설명하기 위한 도면이다. FIG. 3 is a diagram for explaining the Levenshitein Distance between two trajectories to help understanding of machine learning according to FIG. 1 .

도 3을 참조하면, 도 3의 왼쪽(a)의 그림과 같이 두 개의 다른 패턴(빨간 궤적 1, 2) 입력이 들어왔을 때 바로 갱신되는 부분영역(파란 박스)에 따라 궤적 1, 2는 다음과 같은 차이를 가진다. Referring to FIG. 3, as shown in the figure on the left (a) of FIG. 3, the trajectories 1 and 2 are has the same difference as

궤적 1: (0, 1, 2, 3, 4, 5, 6, 7, 8, 9)Trajectory 1: (0, 1, 2, 3, 4, 5, 6, 7, 8, 9)

궤적 2: (0, 1, 10, 11, 12, 13, 8, 9))Trajectory 2: (0, 1, 10, 11, 12, 13, 8, 9))

두 궤적간의 Levenshitein Distance(Edit Distance)는 6The Levenshitein Distance (Edit Distance) between the two trajectories is 6

여기서 두 궤적 중 부분영역의 상대적 거리에 대해서는 고려하지 않았기 때문에, 부분영역이 다르다고 거리(distance)를 무조건 1로 카운트하기보다는 부분영역 간의 상대거리를 바탕으로 거리(distance)를 계산하도록 한다. 즉 두 부분영역이 다를 때 오른쪽(b)의 도면과 같이 초록색 화살표로 표시된 거리에 대한 정보를 계산하여 반영하는 것이다.Since the relative distance of the subregions of the two trajectories is not considered here, the distance is calculated based on the relative distance between the subregions rather than unconditionally counting the distance as 1 just because the subregions are different. That is, when the two subregions are different, the information on the distance indicated by the green arrow is calculated and reflected as shown in the drawing on the right (b).

그리고 단계 S310에서 수행된 제스처 모델을 저장하는데(S320), 이때 저장은 패턴별 카테고리로 구분되어 저장되며, 이와 같은 과정은 통하여 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습이 진행된다. Then, the gesture model performed in step S310 is stored (S320). At this time, the storage is divided into categories for each pattern and stored. Through this process, learning of a user-defined gesture model for the operation of virtual training content proceeds.

도 4는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 보여주는 순서도이며, 도 5 내지 도 7은 도 4에 따른 본 발명의 이해를 돕기 위한 도면이다. 4 is a flow chart showing the operation of virtual training content using a user-defined gesture model according to the present invention, and FIGS. 5 to 7 are diagrams to aid understanding of the present invention according to FIG. 4 .

먼저 도 4를 참조하면 카메라로부터 획득된 손 제스처 영상을 수신한다(S100). 이때 손 제스처는 손모양 및 손동작을 포함하며, 여기서 손 제스처 영상이 입력되면 도 4에 도시된 바와 같이 궤적(빨간색)이 생기고 ART 알고리즘에 따라 그 궤적에 맞는 부분영역(파란색)들이 선택된다. 그리고 선택된 부분영역들의 인덱스들을 시퀀스로 만들어 C = (c1,...Cn)이라고 한다. First, referring to FIG. 4 , a hand gesture image obtained from a camera is received (S100). At this time, the hand gesture includes a hand shape and a hand motion. Here, when a hand gesture image is input, a trajectory (red) is generated as shown in FIG. 4, and partial regions (blue) corresponding to the trajectory are selected according to the ART algorithm. Then, the indices of the selected subregions are made into a sequence and called C = (c 1 ,...C n ).

이어서 단계 S100에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교한다(S110). 이때 C는 도 6에 도시된 바와 같이 이전에 학습되었던 제스처와 일치하지 않을 수 있으므로 C와 이전에 학습되었던 제스처 패턴들 Pi = (P1,...Pmi)과 비교한다. 이때 C와 Pi를 비교할 때는 Levenshtein Distance levs,t를 계산하되 도 7의 Wangner Fischer Algorithm 을 활용한다. Subsequently, the hand gesture image received in step S100 is used as an input and compared with a pre-learned user-defined gesture model (S110). At this time, as shown in FIG. 6 , since C may not match a previously learned gesture, C is compared with previously learned gesture patterns P i = (P 1 ,...Pm i ). At this time, when comparing C and Pi , the Levenshtein Distance lev s,t is calculated, but the Wangner Fischer Algorithm of FIG. 7 is used.

도 7의 Wangner Fischer Algorithm 에서는 s가 Pi, t가 C에 매칭된다고 보게 되며, substitution Cost 가 1이 되어야 하는 경우를 개선하여 공간상의 특징을 살려 거리 정보를 추가하도록 한다.In the Wangner Fischer Algorithm of FIG. 7, it is considered that s matches P i and t matches C, and the case where the substitution cost should be 1 is improved to add distance information taking advantage of spatial characteristics.

이때 도 7의 알고리즘에 의한 Levenshtein Distance의 계산은 다음과 같다. At this time, the calculation of the Levenshtein Distance by the algorithm of FIG. 7 is as follows.

먼저 Ci와 Pj의 거리는 우선, 각 클러스터의 ci와 pj의 중심점 z의 위치를 찾으며 이는 다음의 [식 2]를 통해서 계산된다.First, the distance between C i and P j is first found, and the position of the center point z of c i and p j of each cluster is calculated through the following [Equation 2].

[식 2][Equation 2]

Figure 112020061825053-pat00002
Figure 112020061825053-pat00002

여기서,

Figure 112020061825053-pat00003
,
Figure 112020061825053-pat00004
는 클러스터 k의 웨이트 벡터이다. here,
Figure 112020061825053-pat00003
,
Figure 112020061825053-pat00004
is the weight vector of cluster k.

그리고 ci와 pj의 거리 D(ci, pj)는 ART 알고리즘에서 거리 계산식인 다음의 [식 3]을 활용하며, 패턴의 거리에 따른 차이를 줄이기 위해 패턴의 길이 값만큼 으로 나누어준다.In addition, the distance D(c i , p j ) of c i and p j uses the following [Equation 3], which is a distance calculation formula in the ART algorithm, and divides by the length value of the pattern to reduce the difference according to the distance of the pattern. .

[식 3][Equation 3]

Figure 112020061825053-pat00005
Figure 112020061825053-pat00005

여기서,

Figure 112020061825053-pat00006
이다. here,
Figure 112020061825053-pat00006
am.

그리고 만약 손 제스처 입력 x의 차원(dimension)이 M이라고 한다면, levc,pi는 0에서 M 사이값을 갖는다. And if the dimension of the hand gesture input x is M, lev c,pi has a value between 0 and M.

마지막으로, D(.)값을 반영하여 계산된 levc,pi 값이 가장 작은 패턴을 찾아 다음의 [식 4]에 의하여 결과 값으로 선택한다. Finally, the pattern with the smallest value of lev c,pi calculated by reflecting the value of D(.) is found and selected as the result value according to the following [Equation 4].

[식 4][Equation 4]

Figure 112020061825053-pat00007
Figure 112020061825053-pat00007

만약 levc,pi 값이 정해놓은 임계치

Figure 112020061825053-pat00008
값보다 크다면, 아무런 손 제스쳐 패턴도 선택하지 않는다. If the threshold set by the value of lev c,pi
Figure 112020061825053-pat00008
If greater than this value, no hand gesture pattern is selected.

이후 단계 S110의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠를 구동한다(S120). 여기서 가상훈련 콘텐츠는 예를 들면 배관배선, LED 제작과 관련된 직업훈련 콘텐츠로 대부분의 인터페이스는 마우스 등으로 동작이 가능하지만 본 발명에서는 인식된 손 제스처에 의하여 가상훈련 콘텐츠가 구동된다. 본 발명에서는 일반적으로 버튼 등을 클릭하는 마우스 이벤트 이외에 도 8에 도시된 기능들도 대체 가능하며 도 9에 도시된 콘텐츠의 내부 기능과 연동되는 부분도 구현 가능하다. Then, virtual training content is driven according to the recognition result of the hand gesture according to the comparison in step S110 (S120). Here, the virtual training contents are, for example, vocational training contents related to plumbing and LED production, and most of the interfaces can be operated with a mouse, but in the present invention, the virtual training contents are driven by recognized hand gestures. In the present invention, functions shown in FIG. 8 can be substituted in addition to a mouse event for clicking a button, etc., and parts that are interlocked with internal functions of the content shown in FIG. 9 can be implemented.

도 10 내지 도 14는 도 4에 따른 본 발명의 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 위하여 사용자가 직접 데이터를 습득하고 학습시킬 수 있는 인터페이스 화면을 보여주는 도면이다. 10 to 14 are views showing interface screens through which a user can directly acquire and learn data for the operation of virtual training contents using the user-defined gesture model of the present invention according to FIG. 4 .

도 10은 기본 버튼 설명을 위한 도면으로, 도 10의 Start Camera, Stop Camera 버튼을 통해서 카메라 센서가 연결만 되어 있으면 켜기, 끄기 동작을 확인할 수 있다. 또한, 본 발명의 사용자 인터페이스를 통해서 학습시킨 제스처를 저장하고자 한다면, Save Model 버튼을 눌러 원하는 위치에 저장시키면 된다. 저장될 파일은 확장자 .gr (Gesture Recognition Model)로 기본 저장된다. 그리고 과거에 학습시켰던 모델을 불러오고자 한다면, Load Model 버튼을 눌러 목표 Directory에서 학습시킨 모델을 불러오면 된다. 학습시킨 모델의 확장자는 .gr (Gesture Recognition Model)만 불러올 수 있다. Load Model 버튼을 누르면 기존 학습 모델은 사라질 수 있기 때문에 경고 메시지가 뜬다. 참고로 손모양 및 손동작 제스처가 함께 한 파일로 저장/불러오기가 가능하다.FIG. 10 is a diagram for explaining the basic buttons. As long as the camera sensor is connected through the Start Camera and Stop Camera buttons of FIG. 10, the operation of turning on and off can be confirmed. In addition, if you want to save a gesture learned through the user interface of the present invention, you can save it in a desired location by pressing the Save Model button. The file to be saved is basically saved with the extension .gr (Gesture Recognition Model). And if you want to load a model trained in the past, click the Load Model button to load the model trained in the target directory. Only .gr (Gesture Recognition Model) extensions of trained models can be loaded. When you click the Load Model button, a warning message appears because the existing trained model may disappear. For reference, it is possible to save/load as a file with hand shapes and hand gestures.

도 11은 손모양 제스처의 인식 및 등록을 설명하기 위한 도면으로, 도 10의 (1)번 버튼을 눌러 센서를 켜면 (2)번 화면에서와 같이 손을 인식하기 시작한다. 이때 이미 학습시켜 놓은 모델이 있다면, 손이 화면에 인식된 순간부터는 손모양 제스처 인식이 매 센서 데이터가 들어올 때마다 수행되어 (3)번과 (4)번에 결과로 출력된다. 이 때 손의 순서(3번 First Hand, 4번 Second Hand)는 카메라 이미지 상에서 가장 먼저 보인 손의 순서로, 최대 2개까지 제스처 인식이 동시에 가능하다. 손의 앞뒷면 구분이 쉽지 않기 때문에, 왼손과 오른손의 구분은 이미지 상에서 좌/우의 위치에 따라 구분 할 수도 있다. 11 is a diagram for explaining recognition and registration of a hand gesture. When a sensor is turned on by pressing button (1) in FIG. 10, the hand is recognized as shown in screen (2). At this time, if there is a model that has already been learned, from the moment the hand is recognized on the screen, hand gesture recognition is performed every time sensor data is received, and results are output in steps (3) and (4). At this time, the order of the hands (first hand number 3, second hand number 4) is the order of the first hand seen on the camera image, and gesture recognition is possible for up to two at the same time. Since it is not easy to distinguish the front and back sides of the hand, the left hand and right hand can be distinguished according to the left/right position on the image.

그리고 손모양 제스처를 추가로 학습시키고자 한다면, (5)번 버튼을 누르면 기존에 저장되어 있는 제스처 목록들을 확인할 수 있고, 원하는 제스처를 선택하면 된다. 또한, 기존에 없던 제스처를 등록하고 싶을 때에는 (6)번 창에 직접 제스처 이름을 입력하여 사용하면 된다. 학습시킬 제스처를 선택하였다면, 해당 제스처에 해당하는 손모양을 센서 앞에 가져다 놓고 (7)번 Train 버튼을 눌러 학습을 시작시킨다. 이때 학습에 필요한 최소/최대 시간은 정해져 있지 않다. 다만, 같은 손모양이더라도 여러 각도에 따라 센서에서는 다르게 보일 수 있기 때문에, 학습시키는 동안 손을 약간씩 돌려가며 움직여주어 변화에 강인하도록 학습시킨다. 학습이 끝났다고 생각되면 (7)번 버튼을 다시 눌러서 학습을 종료시키면 된다. 만약, 지금까지 학습된 현재 손모양 제스처 모델 전체를 초기화시키고 싶다면, (8)번 Reset 버튼을 누르면 된다. And, if you want to learn additional hand gestures, press button (5) to check the list of previously stored gestures and select the desired gesture. In addition, when you want to register a gesture that did not exist before, you can directly input the gesture name in window (6) and use it. If the gesture to be learned is selected, place the hand shape corresponding to the gesture in front of the sensor and press the Train button (7) to start learning. At this time, the minimum/maximum time required for learning is not fixed. However, even if the shape of the hand is the same, it may look different from the sensor depending on various angles, so during learning, the hand is slightly rotated and moved to learn to be strong against changes. If you think that the learning is over, press the (7) button again to end the learning. If you want to initialize all of the current hand gesture models learned so far, press the Reset button (8).

도 12는 손동작 제스처의 인식 및 등록을 설명하기 위한 도면으로, 손동작의 경우는 패턴이 입력되어야 하기 때문에 센서 앞에서 매 프레임마다 학습을 시킬 수 있는 게 아니고, 하나의 제스처 패턴 입력을 수행해야 한다. 12 is a diagram for explaining recognition and registration of hand gestures. In the case of hand gestures, since a pattern must be input, it is not possible to learn every frame in front of a sensor, but one gesture pattern input must be performed.

우선, (1)번 버튼으로 센서를 켠 후, (2)번에서와 같이 손이 화면에 나오면 자동적으로 손동작의 정보가 기록되기 시작한다. 제스처가 인식이 되면 그 결과는 (3)번 창에서 출력이 된다. 현재는 first hand 에 대해서만 모션 인식이 가능하다. First, after turning on the sensor with button (1), as in (2), when the hand appears on the screen, hand motion information is automatically recorded. When the gesture is recognized, the result is output in window (3). Currently, motion recognition is possible only for the first hand.

제스처가 인식이 되는 타이밍은 앞선 절에서 설명하였듯이, 손이 1초 동안 정지해 있으면 결과가 출력된다. 손이 움직이고 있는지 멈추어있는지는, (4)번 Status 창에서 확인할 수 있으며 손이 움직이고 있을 때에는 moving으로, 멈추었다고 판단되면 ready라고 뜬다. As explained in the previous section, the timing at which the gesture is recognized is output when the hand is still for 1 second. You can check whether the hand is moving or not, in the Status window (4), and when the hand is moving, moving is displayed, and when it is determined that the hand is stopped, ready is displayed.

손동작 제스처를 추가로 학습시키고 싶다면, (5)번을 눌러 목록에서 제스처를 선택하거나, 기존에 없던 제스처라면 (6)번에 직접 제스처 이름을 입력한다. 그리고 센서에 손을 위치시키고 (7)번 버튼을 눌러 제스처를 시작하면 된다. 한 번의 제스처가 끝나면 다시 (7)번 버튼을 눌러서 제스처가 끝났음을 확인한다. 만약 추가로 제스처를 학습시키고 싶다면 이 과정을 반복하면 된다. If you want to learn additional hand gestures, press (5) to select a gesture from the list, or if it is a non-existent gesture, directly enter the gesture name in (6). Then place your hand on the sensor and press button (7) to start the gesture. When one gesture is finished, press the button (7) again to confirm that the gesture is finished. If you want to learn additional gestures, you can repeat this process.

만약 학습시켜 놓았던 제스처 중 하나를 삭제하고 싶다면, (5)번을 눌러 제스처 목록에서 해당 제스처를 선택하고, (8)번 Delete 버튼을 눌러 지우면 된다. 모든 손동작 제스처 정보를 초기화하고 싶다면 (9)번 Reset 버튼을 누르면 된다.If you want to delete one of the learned gestures, press (5) to select the corresponding gesture from the gesture list, and press the Delete button (8) to delete it. If you want to initialize all hand gesture information, press the Reset button (9).

도 13은 기능연결을 설명하기 위한 도면으로, 앞서 손모양과 손동작 제스처의 등록이 끝났으면, 실제 콘텐츠와의 연동을 위한 기능과 연결을 시켜주는 작업을 해주어야 한다. 도 13은 앞서 UI 화면에서 좌측 하단을 클로즈업 한 사진이다. FIG. 13 is a diagram for explaining function connection. If the hand shape and hand gestures have been registered previously, an operation to connect the function for interlocking with actual content must be performed. 13 is a close-up picture of the lower left corner of the UI screen.

(1)번 버튼을 누르면 사용자가 연동시킬 수 있는 기능들의 리스트가 기본으로 제공된다. 앞선 내용에서 설명했듯이 마우스와 관련된 기능들과 콘텐츠 내에서 사용될 수 있는 특정 메뉴들이 보이며, 선택이 가능하다. (1)번에서 연동시킬 기능을 선택하면, (6)번과 (9)번에서 현재 연결되어 있는 손모양과 손동작을 확인할 수 있다. 손모양과 손동작이 다르게 학습되었기 때문에, 여기서도 별개로 추가해주도록 구성하였다. 만약 여기서 더 추가하고 싶은 손모양이나 손동작이 있는 경우 (2)번을 눌러 아직 아무 기능에도 연결되어 있지 않은 손모양을 선택하고, 손동작을 추가하고자 한다면 (3)번을 눌러 목록을 열고 선택하면 된다. 손모양의 경우는 (2)번 목록에서 제스처 선택 후 (4)번 화살표 버튼을 눌러 (1)에서 선택된 기능에 연결이 가능하고, 만약 빼고 싶은 것이 있다면, (6)번 리스트에서 빼고자 하는 손모양을 선택한 후 (5)번 화살표 버튼을 누르면 된다. 마찬가지로 손동작의 경우는 (3)번 목록에서 제스처 선택 후 (7)번 화살표 버튼을 눌러 (1)에서 선택된 기능에 연결이 가능하고, 만약 빼고 싶은 것이 있다면, (9)번 리스트에서 선택 후 (8)번 화살표 버튼을 누르면 된다. When button (1) is pressed, a list of functions that can be interlocked by the user is basically provided. As described in the previous section, functions related to the mouse and specific menus that can be used within the content are displayed and can be selected. If you select a function to link in (1), you can check the currently connected hand shape and hand motion in (6) and (9). Since the hand shape and hand motion were learned differently, it was configured to be added separately here as well. If there is a hand shape or motion that you want to add here, press (2) to select a hand shape that is not yet connected to any function, and if you want to add a hand gesture, press (3) to open the list and select it. . In the case of the hand shape, after selecting a gesture from the list (2), you can press the arrow button (4) to connect to the function selected in (1). If there is something you want to remove, the hand you want to remove from the list (6) After selecting the shape, press the arrow button (5). Similarly, in the case of hand gestures, after selecting a gesture from the list (3), you can press the arrow button (7) to connect to the function selected in (1), and if there is something you want to remove, select it from the list (9) ) by pressing the arrow button.

도 15는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 시스템의 구성을 보여주는 도면으로 도 15를 참조하여서는 가상훈련 콘텐츠 동작 장치(20)의 구성요소를 중심으로 간략히 정리하여 설명하기로 한다. 15 is a diagram showing the configuration of an operating system for virtual training content using a user-defined gesture model according to the present invention. Referring to FIG. 15, the components of the virtual training content operating device 20 will be briefly summarized and described. do.

도 15에 도시된 바와 같이 가상훈련 콘텐츠 동작 장치(20)는 프로세서(110), 프로그램과 데이터를 저장하는 비휘발성 저장부(120), 실행 중인 프로그램들을 저장하는 휘발성 메모리(130), 다른 기기와 통신을 수행하기 위한 통신부(140), 이들 장치 사이의 내부 통신 통로인 버스 등으로 이루어져 있다. 실행 중인 프로그램으로는, 장치 드라이버, 운영체계(Operating System), 및 다양한 어플리케이션이 있을 수 있다. 도시되지는 않았지만, 전력제공부를 포함한다.As shown in FIG. 15, the virtual training content operating device 20 includes a processor 110, a non-volatile storage unit 120 for storing programs and data, a volatile memory 130 for storing running programs, and other devices. It consists of a communication unit 140 for performing communication, a bus that is an internal communication path between these devices, and the like. Programs that are being executed may include device drivers, operating systems, and various applications. Although not shown, it includes a power supply unit.

가상훈련 콘텐츠 동작 장치는(20)는, 카메라(30)로부터, 영상 데이터 수신 드라이버(150)에 의해 손 제스처 영상 데이터를 전달받아 이를 가상훈련 콘텐츠 동작 어플리케이션에 있는 사용자 정의 제스처 모델에 입력하고, 사용자 정의 제스쳐 모델의 출력에 의해 가상훈련 콘텐츠가 동작되도록 하며 이를 모니터를 통하여 출력한다. The virtual training content operation device 20 receives hand gesture image data from the camera 30 by the image data reception driver 150 and inputs it to a user-defined gesture model in the virtual training content operation application, and the user The virtual training content is operated by the output of the defined gesture model and outputted through the monitor.

또한 통신부(140)는 도 1를 참조하여 설명한 바와 같은 사용자 정의 제스처 모델 학습 장치(10)와의 데이터 송수신 역할을 수행하는데, 즉 가상훈련 콘텐츠 동작 장치는 통신부(140)를 통하여, 카메라(30)에서 수신한 영상 데이터를 사용자 정의 제스처 모델 학습 장치로 송신하고, 사용자 정의 제스처 모델 학습 장치로부터(10) 학습된 사용자 정의 제스처 모델을 수신한다. In addition, the communication unit 140 performs a role of transmitting and receiving data with the user-defined gesture model learning device 10 as described with reference to FIG. The received image data is transmitted to the user-defined gesture model learning device, and the learned user-defined gesture model is received from the user-defined gesture model learning device (10).

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by the limited embodiments and drawings, the present invention is not limited thereto, and the technical spirit of the present invention and the following by those skilled in the art to which the present invention belongs Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

10: 사용자 정의 제스처 모델 학습 장치
20: 가상훈련 콘텐츠 동작 장치
30: 카메라
40: 모니터
110: 모니터
120: 저장부
130: 메모리
140: 통신부
150: 영상데이터 수신 드라이버
160: UX/UI 출력 드라이버
10: User-defined gesture model learning device
20: virtual training content operation device
30: camera
40: monitor
110: monitor
120: storage unit
130: memory
140: communication department
150: image data reception driver
160: UX/UI output driver

Claims (11)

사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법으로서,
(a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계;
(b) 상기 단계 (a)에서 수신된 손 제스처 영상으로부터 궤적 및 이 궤적에 해당하는 부분영역들로 이루어진 패턴을 생성하고, 상기 패턴을 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및
(c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계
를 포함하되,
상기 손 제스처는 손 모양 및 손 동작을 포함하며,
상기 단계 (b)의 비교는,
(b1) 상기 부분영역 각각의 중심점 위치를 찾는 단계;
(b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및,
(b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값을 패턴으로 결과가 인식되는 단계
인 Wagner Fischer Algorithm을 포함하는
사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법.
As a method of operating virtual training content using a user-defined gesture model,
(a) receiving a hand gesture image obtained from a camera;
(b) generating a pattern consisting of a trajectory and subregions corresponding to the trajectory from the hand gesture image received in step (a), and comparing the pattern with a pre-learned user-defined gesture model; and
(c) driving virtual training content according to the recognition result of the hand gesture according to the comparison in step (b)
Including,
The hand gesture includes a hand shape and a hand motion,
The comparison of step (b) above,
(b1) finding the location of the center point of each of the partial regions;
(b2) calculating a relative distance using the location value of the central point found in step (b1); and,
(b3) Recognizing the result as a pattern with the smallest value of the relative distance calculated in step (b2)
which includes the Wagner Fischer Algorithm
Operation method of virtual training contents using user-defined gesture model.
청구항 1에 있어서,
상기 단계 (b)에서 궤적은 상기 손 동작에 대응되는 것
을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법.
The method of claim 1,
In the step (b), the trajectory corresponds to the hand motion
Method of operating virtual training content using a user-defined gesture model, characterized in that.
청구항 1에 있어서,
상기 비교는 ART 알고리즘의 클러스터링 방식으로 이루어지는 것
을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법.
The method of claim 1,
The comparison is made by the clustering method of the ART algorithm
Method of operating virtual training content using a user-defined gesture model, characterized in that.
삭제delete 삭제delete 청구항 1에 있어서,
상기 단계 (b3)의 상대적 거리 값이 임계값보다 크면, 결과가 인식되는 않는 것
을 특징으로 하는 사용자 정의 제스처를 이용한 가상훈련 콘텐츠의 동작 방법.
The method of claim 1,
If the relative distance value of step (b3) is greater than the threshold value, the result is not recognized
Method of operating virtual training content using a user-defined gesture, characterized in that.
사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키는 장치로서,
적어도 하나의 프로세서; 및
컴퓨터로 실행가능한 명령을 저장하는 적어도 하나의 메모리를 포함하되,
상기 적어도 하나의 메모리에 저장된 상기 컴퓨터로 실행가능한 명령은, 상기 적어도 하나의 프로세서에 의하여,
(a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계;
(b) 상기 단계 (a)에서 수신된 손 제스처 영상으로부터 궤적 및 이 궤적에 해당하는 부분영역들로 이루어진 패턴을 생성하고, 상기 패턴을 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및
(c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계
를 포함하되,
상기 손 제스처는 손 모양 및 손 동작을 포함하며,
상기 단계 (b)의 비교는,
(b1) 상기 부분영역 각각의 중심점 위치를 찾는 단계;
(b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및,
(b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값을 패턴으로 결과가 인식되는 단계
인 Wagner Fischer Algorithm이 실행되도록 하는
사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 장치.
A device for operating virtual training content using a user-defined gesture model,
at least one processor; and
including at least one memory for storing computer-executable instructions;
The computer-executable instructions stored in the at least one memory are, by the at least one processor,
(a) receiving a hand gesture image obtained from a camera;
(b) generating a pattern consisting of a trajectory and subregions corresponding to the trajectory from the hand gesture image received in step (a), and comparing the pattern with a pre-learned user-defined gesture model; and
(c) driving virtual training content according to the recognition result of the hand gesture according to the comparison in step (b)
Including,
The hand gesture includes a hand shape and a hand motion,
The comparison of step (b) above,
(b1) finding the location of the center point of each of the partial regions;
(b2) calculating a relative distance using the location value of the central point found in step (b1); and,
(b3) Recognizing the result as a pattern with the smallest value of the relative distance calculated in step (b2)
which allows the Wagner Fischer Algorithm to be executed.
Operation device of virtual training contents using user-defined gesture model.
청구항 7에 있어서,
상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 카메라 모듈과 연결되는 것을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 장치.
The method of claim 7,
The device for operating virtual training content using a user-defined gesture model is connected to a camera module.
청구항 7에 있어서
상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 모니터 모듈과 연결되는 것을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 장치.
in claim 7
The device for operating virtual training content using a user-defined gesture model is characterized in that connected to the monitor module.
사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키기 위한 컴퓨터 프로그램으로서,
비일시적 저장매체에 저장되며, 프로세서에 의하여,
(a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계;
(b) 상기 단계 (a)에서 수신된 손 제스처 영상으로부터 궤적 및 이 궤적에 해당하는 부분영역들로 이루어진 패턴을 생성하고, 상기 패턴을 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및
(c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계
를 포함하되,
상기 손 제스처는 손 모양 및 손 동작을 포
상기 단계 (b)의 비교는,
(b1) 상기 부분영역 각각의 중심점 위치를 찾는 단계;
(b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및,
(b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값을 패턴으로 결과가 인식되는 단계
인 Wagner Fischer Algorithm이 실행되도록 하는 명령을 포함하는
사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키는 컴퓨터 프로그램.
As a computer program for operating virtual training content using a user-defined gesture model,
It is stored in a non-temporary storage medium, and by the processor,
(a) receiving a hand gesture image obtained from a camera;
(b) generating a pattern consisting of a trajectory and subregions corresponding to the trajectory from the hand gesture image received in step (a), and comparing the pattern with a pre-learned user-defined gesture model; and
(c) driving virtual training content according to the recognition result of the hand gesture according to the comparison in step (b)
Including,
The hand gesture includes a hand shape and a hand motion.
The comparison of step (b) above,
(b1) finding the location of the center point of each of the partial regions;
(b2) calculating a relative distance using the location value of the central point found in step (b1); and,
(b3) Recognizing the result as a pattern with the smallest value of the relative distance calculated in step (b2)
contains instructions that cause the Wagner Fischer Algorithm to be executed.
A computer program that operates virtual training contents using a user-defined gesture model.
청구항 1에 있어서
상기 단계 (b1)의 중심점 위치는,
Figure 112023500353173-pat00024
에 의하여 산출되며,
여기서,
Figure 112023500353173-pat00025
이며,
Figure 112023500353173-pat00026
는 부분영역 k의 웨이트 벡터이고, 상기 단계 (b2)의 상대적 거리 계산은,
Figure 112023500353173-pat00027
에 의하여 산출되고,
여기서,
Figure 112023500353173-pat00028
이며,
상기 단계 (b3)의 결과 인식은,
Figure 112023500353173-pat00029
에 의하여 인식되는 것
을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법.
in claim 1
The location of the center point in step (b1) is
Figure 112023500353173-pat00024
is calculated by
here,
Figure 112023500353173-pat00025
is,
Figure 112023500353173-pat00026
Is the weight vector of the subregion k, and the relative distance calculation in step (b2) is,
Figure 112023500353173-pat00027
is calculated by
here,
Figure 112023500353173-pat00028
is,
Recognizing the result of step (b3),
Figure 112023500353173-pat00029
recognized by
Method of operating virtual training content using a user-defined gesture model, characterized in that.
KR1020200073037A 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model KR102502195B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200073037A KR102502195B1 (en) 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200073037A KR102502195B1 (en) 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model

Publications (2)

Publication Number Publication Date
KR20210155600A KR20210155600A (en) 2021-12-23
KR102502195B1 true KR102502195B1 (en) 2023-02-21

Family

ID=79175813

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200073037A KR102502195B1 (en) 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model

Country Status (1)

Country Link
KR (1) KR102502195B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101865362B1 (en) * 2016-12-08 2018-06-07 동명대학교산학협력단 Control system and method for mixed reality using foot gesture
KR101989447B1 (en) 2017-12-12 2019-06-14 주식회사 큐랩 Dance motion feedback system providing video feedback to user using augmented reality

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030065620A (en) 2002-01-30 2003-08-09 대한민국(전남대학교총장) apparatus and method for recognizing action of virtual game system
KR101370830B1 (en) * 2012-04-25 2014-03-25 한국과학기술연구원 System and Method for Implementing User Interface
KR101761234B1 (en) * 2015-04-17 2017-07-26 가천대학교 산학협력단 Hand Feature Extraction Algorithm using Curvature Analysis For Recognition of Various Hand Feature
CN106980362A (en) * 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 Input method and device based on virtual reality scenario

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101865362B1 (en) * 2016-12-08 2018-06-07 동명대학교산학협력단 Control system and method for mixed reality using foot gesture
KR101989447B1 (en) 2017-12-12 2019-06-14 주식회사 큐랩 Dance motion feedback system providing video feedback to user using augmented reality

Also Published As

Publication number Publication date
KR20210155600A (en) 2021-12-23

Similar Documents

Publication Publication Date Title
US10664060B2 (en) Multimodal input-based interaction method and device
CN110021051B (en) Human image generation method based on generation of confrontation network through text guidance
KR102069096B1 (en) Apparatus for direct remote control of physical device
US11699295B1 (en) Machine learning for computing enabled systems and/or devices
US20230150127A1 (en) Optimizing policy controllers for robotic agents using image embeddings
US10102449B1 (en) Devices, systems, and methods for use in automation
US11126140B2 (en) Electronic device, external device capable of being combined with the electronic device, and a display method thereof
US9805493B2 (en) Social identity models for automated entity interactions
EP3702953B1 (en) Electronic device for obfuscating and decoding data and method for controlling same
CN111418198A (en) Electronic device for providing text-related image and method of operating the same
KR20170112406A (en) Apparatus and method for taking a picture with avatar in augmented reality
US11458624B2 (en) Control server and method for controlling robot using artificial neural network, and robot implementing the same
Wu et al. Vision-language navigation: a survey and taxonomy
CN113039561A (en) Aligning sequences by generating encoded representations of data items
KR20190107616A (en) Artificial intelligence apparatus and method for generating named entity table
KR102502195B1 (en) Method and system for operating virtual training content using user-defined gesture model
Ji et al. Human‐like sign‐language learning method using deep learning
CN107770253A (en) Long-range control method and system
CN115061577B (en) Hand projection interaction method, system and storage medium
KR20210056019A (en) Artificial intelligence device and operating method thereof
KR20210155590A (en) Method and apparatus for learning a custom gesture model for the operation of virtual training contents
Tazhigaliyeva et al. Slirs: Sign language interpreting system for human-robot interaction
CN111915701A (en) Button image generation method and device based on artificial intelligence
NL1042811B1 (en) A cognitive-emotional conversational interaction system.
CN105278658A (en) Display enhancing method based on temperature-sensitive

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant