KR20210155600A - Method and system for operating virtual training content using user-defined gesture model - Google Patents

Method and system for operating virtual training content using user-defined gesture model Download PDF

Info

Publication number
KR20210155600A
KR20210155600A KR1020200073037A KR20200073037A KR20210155600A KR 20210155600 A KR20210155600 A KR 20210155600A KR 1020200073037 A KR1020200073037 A KR 1020200073037A KR 20200073037 A KR20200073037 A KR 20200073037A KR 20210155600 A KR20210155600 A KR 20210155600A
Authority
KR
South Korea
Prior art keywords
user
virtual training
training content
gesture
hand
Prior art date
Application number
KR1020200073037A
Other languages
Korean (ko)
Other versions
KR102502195B1 (en
Inventor
성상만
이현수
이원형
박정혁
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020200073037A priority Critical patent/KR102502195B1/en
Publication of KR20210155600A publication Critical patent/KR20210155600A/en
Application granted granted Critical
Publication of KR102502195B1 publication Critical patent/KR102502195B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an operation of virtual training content using a user-defined gesture model and, more specifically, to an operating method of virtual training content using a user-defined gesture model and a system thereof which recognize user-defined hand gestures instead of a controller, which should always be held in a hand when using virtual training content, to function as a customized function according to a user, thereby operating the virtual training content.

Description

사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템{Method and system for operating virtual training content using user-defined gesture model}Method and system for operating virtual training content using user-defined gesture model

본 발명은 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작에 관한 것으로서, 더욱 상세하게는 가상훈련 콘텐츠의 활용시 항상 손에 들고 있어야 하는 컨트롤러 대신 사용자 정의 손 제스처를 인식하여 사용자에 따른 맞춤형 기능을 가능하게 하여 가상훈련 콘텐츠를 동작시키는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템에 관한 것이다. The present invention relates to the operation of virtual training content using a user-defined gesture model, and more particularly, by recognizing a user-defined hand gesture instead of a controller that should always be held in the hand when using the virtual training content, a customized function according to the user is possible It relates to a method and system for operating virtual training content using a user-defined gesture model that operates the virtual training content.

가상환경을 통한 콘텐츠들이 증가하면서 가상현실 상에서의 교육 프로그램도 활발히 개발 되고 있다. 특히 가상현실을 이용하면 현실적으로 재현이 어려운 상황들을 실감적으로 체험할 수 있고, 원거리 상황에서도 제약 없이 콘텐츠 제공이 가능하기 때문에, 현실적인 제약을 극복하여 다양한 교육환경 및 콘텐츠를 제공할 수 있다는 면에서 교육 프로그램 응용분야가 급속히 증가하고 있다. 특히, 직업훈련 같은 경우 몰입도 증대와 안전한 상호작용을 통한 훈련 효과 향상이 실제적인 장점으로 부각되고 있다. As content through virtual environments increases, educational programs in virtual reality are being actively developed. In particular, if virtual reality is used, it is possible to realistically experience situations that are difficult to reproduce in reality, and because content can be provided without restrictions even in remote situations, education is provided in terms of providing various educational environments and contents by overcoming realistic limitations. Program applications are growing rapidly. In particular, in the case of vocational training, improvement in training effectiveness through increased immersion and safe interaction is emerging as a practical advantage.

다양한 IT 기술의 융합을 통해 구현되는 가상현실 기술은 사용자의 체험영역을 확대하고 물리적인 에너지와 각종 비용을 절감하는 기술로 최근에 많은 주목을 받고 있으며, 글로벌 기업들이 경쟁적으로 기술개발을 추진하고 있다. 그 이유로는 기술변화에 부응하는 첨단기술 장비의 교체수명이 짧아 지속적인 재원 투입에 한계가 있어, 이를 대체할 수 있는 가상훈련 시스템은 매우 효과적이고 높은 수요를 발달시키고 있고, 특히 고위험, 고비용의 산업훈련을 대체하는 장비실습에 대한 체험형, 실습형 가상훈련(Virtual Training) 콘텐츠 요구가 증대하고 있으며, 가상공간에서 인터랙션이 가능한 형태의 학습 시스템은 가상현실 시스템의 실감 상호작용, Natural User Interface 기술과 관련된 신개념의 인터페이스 장치 및 소프트웨어 기술은 향후 다양한 산업, 교육, 의료, 국방, 엔터테인먼트 등 많은 산업분야에서 적용될 것으로 예상되어 시장 확대가 전망되기 때문이다. Virtual reality technology, implemented through the convergence of various IT technologies, has recently attracted a lot of attention as a technology that expands the user's experience area and reduces physical energy and various costs, and global companies are competitively promoting technology development. The reason is that the replacement life of high-tech equipment that responds to technological change is short, and there is a limit to continuous financial input. There is an increasing demand for experiential and practical virtual training content for equipment practice that replaces the This is because the new concept of interface device and software technology is expected to be applied in many industries, such as various industries, education, medical care, defense, and entertainment in the future, and thus the market is expected to expand.

따라서 가상현실기기의 발달과 더불어 가상현실 상에서의 교육 프로그램의 개발이 활발해지고 있으며, 원거리 상황, 혹은 현실적으로 재현이 어려운 상황 들을 실감적으로 체험하고 실습할 수 있는 가상현실 훈련 콘텐츠는 현실적인 제약을 극복하여 다양한 교육환경 및 콘텐츠를 제공한다는 측면에서 응용분야가 급속히 증가하는 추세이다. 특히, 직업훈련에 가상현실 기술을 접목할때, 몰입감의 증대와 상호작용을 통한 훈련 효과 및 학습전이 향상이 실제적인 장점으로 부각되고 있다. Therefore, along with the development of virtual reality devices, the development of educational programs in virtual reality is becoming more active. In terms of providing various educational environments and contents, the field of application is rapidly increasing. In particular, when virtual reality technology is applied to vocational training, an increase in immersion and an improvement in training effect and learning transfer through interaction are emerging as practical advantages.

그러나 가상현실 기반 훈련시 사용자의 장비 착용은 큰 부담으로 작용하고 있으며, 이는 훈련의 실재감과 몰입감을 낮추는 단점이 있다. However, the wear of the user's equipment during virtual reality-based training is a great burden, and this has the disadvantage of lowering the sense of reality and immersion in training.

KRKR 10-2003-006562010-2003-0065620 AA

본 발명은 이와 같은 문제점을 해결하기 위하여 창안된 것으로서, 가상훈련 콘텐츠의 활용 시 항상 손에 들고 있어야 하는 컨트롤러 대신 사용자 정의 손 제스처를 인식하여 사용자에 따른 맞춤형 기능을 가능하게 하여 실재감과 몰입감을 높여 가상훈련 콘텐츠를 동작시키는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법 및 시스템을 제공하는 것을 그 목적으로 한다. The present invention was devised to solve such a problem, and when using virtual training content, it recognizes a user-defined hand gesture instead of a controller that should always be held in the hand and enables a customized function according to the user to increase the sense of presence and immersion in virtual reality. An object of the present invention is to provide a method and system for operating virtual training content using a user-defined gesture model for operating the training content.

이와 같은 목적을 달성하기 위하여 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법으로서, (a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계; (b) 상기 단계 (a)에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및 (c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계를 포함한다. In order to achieve the above object, there is provided a method of operating virtual training content using a user-defined gesture model according to the present invention, comprising the steps of: (a) receiving a hand gesture image obtained from a camera; (b) comparing the hand gesture image received in step (a) with a previously learned user-defined gesture model; and (c) driving the virtual training content according to the recognition result of the hand gesture according to the comparison of step (b).

상기 손 제스처는, 손모양 및 손동작을 포함하는 것이다. The hand gesture includes a hand gesture and a hand gesture.

상기 비교는 ART 알고리즘의 클러스터링 방식으로 이루어지는 것이다. The comparison is made by the clustering method of the ART algorithm.

상기 입력된 손 제스처 영상은 궤적 및 이 궤적에 해당하는 클러스터들로 이루어진 패턴으로 구분되는 것이다. The input hand gesture image is divided into a trajectory and a pattern consisting of clusters corresponding to the trajectory.

상기 단계 (b)의 비교는, (b1) 각 클러스터의 중심점 위치를 찾는 단계; (b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및 (b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값의 패턴으로 결과가 인식되는 단계를 포함하는 것이다. The comparison of step (b) includes the steps of: (b1) finding the position of the center point of each cluster; (b2) calculating a relative distance using the position value of the central point found in step (b1); and (b3) recognizing the result as a pattern having the smallest relative distance calculated in step (b2).

상기 단계 (b3)의 상대적 거리 값이 임계값보다 크면, 결과가 인식되는 않는 것이다. If the relative distance value in step (b3) is greater than the threshold, the result is not recognized.

이와 같은 목적을 달성하기 위한 본 발명의 다른 측면은 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키는 장치로서, 적어도 하나의 프로세서; 및 컴퓨터로 실행가능한 명령을 저장하는 적어도 하나의 메모리를 포함하되, 상기 적어도 하나의 메모리에 저장된 상기 컴퓨터로 실행가능한 명령은, 상기 적어도 하나의 프로세서에 의하여, (a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계; (b) 상기 단계 (a)에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및 (c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계가 실행되도록 하는 것이다. Another aspect of the present invention for achieving the above object is an apparatus for operating virtual training content using a user-defined gesture model, comprising: at least one processor; and at least one memory storing computer-executable instructions, wherein the computer-executable instructions stored in the at least one memory are configured by the at least one processor: (a) a hand gesture image obtained from a camera receiving; (b) comparing the hand gesture image received in step (a) with a previously learned user-defined gesture model; And (c) the step of driving the virtual training content according to the recognition result of the hand gesture according to the comparison of step (b) is executed.

상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 카메라 모듈과 연결되는 것이다. The virtual training content operation device using the user-defined gesture model is connected to the camera module.

상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 모니터 모듈과 연결되는 것이다. The virtual training content operation device using the user-defined gesture model is connected to the monitor module.

이와 같은 목적을 달성하기 위한 본 발명의 또 다른 측면은 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키기 위한 컴퓨터 프로그램으로서, 비일시적 저장매체에 저장되며, 프로세서에 의하여, (a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계; (b) 상기 단계 (a)에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및 (c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계가 실행되도록 하는 명령을 포함하는 것이다. Another aspect of the present invention for achieving the above object is a computer program for operating virtual training content using a user-defined gesture model, stored in a non-transitory storage medium, by the processor, (a) obtained from the camera receiving a hand gesture image; (b) comparing the hand gesture image received in step (a) with a previously learned user-defined gesture model; and (c) a command for executing the step of driving the virtual training content according to the recognition result of the hand gesture according to the comparison of step (b).

본 발명에 의하면, 가상현실 기반 훈련시 사용자의 장비 착용의 부담을 줄여주는 효과가 있다. According to the present invention, there is an effect of reducing the burden of the user wearing equipment during virtual reality-based training.

또한 가상현실 훈련의 실재감과 몰입감을 높여주는 효과가 있다. In addition, it has the effect of increasing the sense of reality and immersion in virtual reality training.

도 1은 본 발명에 따른 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습 방법을 보여주는 도면.
도 2 내지 도 3은 도 1에 따른 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습 방법의 이해를 돕기 위한 도면.
도 4는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 보여주는 순서도.
도 5 내지 도 7은 도 4에 따른 본 발명의 이해를 돕기 위한 도면.
도 8 내지 도 9는 도 4에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작에서 활용된 마우스 기능과 메뉴 및 버튼을 보여주는 화면.
도 10 내지 도 14는 도 4에 따른 본 발명의 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 위하여 사용자가 직접 데이터를 습득하고 학습시킬 수 있는 인터페이스 화면을 보여주는 도면.
도 15는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 시스템의 구성을 보여주는 도면.
1 is a view showing a learning method of a user-defined gesture model for the operation of virtual training content according to the present invention.
2 to 3 are diagrams to help understand the learning method of the user-defined gesture model for the operation of the virtual training content according to FIG.
4 is a flowchart showing the operation of virtual training content using a user-defined gesture model according to the present invention.
5 to 7 are diagrams for helping understanding of the present invention according to FIG.
8 to 9 are screens showing mouse functions, menus and buttons utilized in the operation of virtual training contents using the user-defined gesture model according to FIG.
10 to 14 are diagrams showing an interface screen through which a user can directly acquire and learn data for the operation of virtual training content using the user-defined gesture model of the present invention according to FIG. 4;
15 is a diagram showing the configuration of an operation system of virtual training content using a user-defined gesture model according to the present invention.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor should properly understand the concept of the term in order to best describe his invention. Based on the principle that it can be defined, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. Accordingly, the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiment of the present invention and do not represent all the technical spirit of the present invention, so at the time of the present application, various It should be understood that there may be equivalents and variations.

도 4는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법을 보여주는 순서도이다. 4 is a flowchart illustrating a method of operating virtual training content using a user-defined gesture model according to the present invention.

먼저 본 발명의 설명에 앞서 도 1 내지 도 3을 통하여 본 발명에 이용된 사용자 정의 제스처 모델에 대하여 설명하면 다음과 같다. First, the user-defined gesture model used in the present invention will be described with reference to FIGS. 1 to 3 before the present invention is described.

도 1은 본 발명에 따른 가상훈련 콘텐츠 동작을 위한 사용자 정의 제스처 모델의 학습 방법을 보여주는 도면이고, 도 2 내지 도 3은 도 1에 따른 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습 방법의 이해를 돕기 위한 도면으로, 도 2는 도 1에 따른 기계학습의 이해를 돕기 위한 데이터 궤적에 따른 영역 구분을 보여주는 도면이고, 도 3은 도 1에 따른 기계학습의 이해를 돕기 위한 두 궤적간의 Levenshitein Distance를 설명하기 위한 도면이다.1 is a diagram showing a learning method of a user-defined gesture model for operation of virtual training content according to the present invention, and FIGS. 2 to 3 are a learning method of a user-defined gesture model for operation of virtual training content according to FIG. 1 As a diagram to aid understanding, FIG. 2 is a diagram showing region division according to data trajectories to help understand machine learning according to FIG. 1 , and FIG. 3 is a Levenshitein between two trajectories to help understand machine learning according to FIG. 1 . It is a diagram for explaining Distance.

사용자 정의 제스처 모델 학습은 기계학습을 통하여 형성되는데, 이때 기계학습은 ART 알고리즘의 클러스터링(Clustering) 기법을 활용한다. 이는 기본적으로 ART는 비지도 클러스터링으로 데이터가 추가될 때마다 클러스터링이 자동으로 빠르게 이루어지며, 또한 최적화를 위해 반복적인 학습이 필요하지 않기 때문에 적합하다. ART 알고리즘은 데이터의 영역을 안과 밖으로 구분하기 때문에, 데이터 입력이 있을 때마다 기존에 형성된 영역에 새 데이터가 포함되느냐 또는 아니냐 그리고 기존 영역을 확장하느냐로 바로 판단이 가능하다. User-defined gesture model learning is formed through machine learning, where machine learning utilizes the clustering technique of the ART algorithm. This is suitable because ART is basically unsupervised clustering, where clustering is performed automatically and quickly whenever data is added, and iterative learning is not required for optimization. Since the ART algorithm divides the data area into and out, whenever there is data input, it is possible to immediately determine whether or not new data is included in the previously formed area and whether the existing area is expanded.

먼저 도 1에 도시된 바와 같이 사용자 정의 제스처 모델의 학습은 카메라로부터 획득된 손 제스처 영상을 수신한다(S300). 여기서 손 제스처는 손모양 및 손동작을 포함한다.First, as shown in FIG. 1 , in learning the user-defined gesture model, a hand gesture image obtained from a camera is received ( S300 ). Here, the hand gesture includes a hand gesture and a hand gesture.

그리고 단계 S300에서 수신 손 제스처 영상 데이터를 이용하여 제스처 모델 형성을 위한 기계학습을 수행한다(S310). 여기서, 기계학습은 도 2에 도시된 바와 같이, 도 2의 오른쪽(b)에서와 같이 빨간선은 연속적으로 들어오는 입력의 궤적이고, 파란박스는 입력에 따라 자동으로 영역을 구분한 결과이다. 이때 파란 박스 바깥쪽도 가까운 순서에 따라 영역이 구분되며, 거리가 있는 경우 이를 반영하여 영역 소속정도도 계산된다. 손 제스처 영상 데이터가 들어올 때마다 바로 영역을 업데이트시키기 때문에 궤적 입력이 끝나는 파란 박스로 표시된 영역들의 업데이트도 동시에 바로 마무리가 된다. And in step S300, machine learning for forming a gesture model is performed using the received hand gesture image data (S310). Here, in machine learning, as shown in FIG. 2 , as in the right (b) of FIG. 2 , the red line is the trajectory of the continuously incoming input, and the blue box is the result of automatically dividing the area according to the input. At this time, the areas outside the blue box are also divided according to the order of proximity, and if there is a distance, the degree of belonging to the area is calculated by reflecting this. Since the area is updated every time hand gesture image data is received, the area marked with a blue box where the trajectory input ends is also immediately completed at the same time.

한편 연속된 입력이 한 영역 안에 반복적으로 들어올 때가 있는데, 예를 들면 카메라로부터 초당 최대 60번의 손 제스처 정보가 입력이 되는데, 손동작이 느려 한 영역에서 다른 영역으로 궤적이 옮겨가는데 1초가 걸렸다면, 앞선 영역에서 60번의 손 데이터가 들어온 셈이다. 만약 0.1초가 걸렸다면 6번의 손 데이터가 들어온 셈이 된다. 이렇게 한 영역 안에서 반복적으로 들어오는 입력을 모두 고려한다면, 영역 내 반복되는 손 데이터 샘플의 숫자로 손 움직임의 속도를 고려할 수 있게 된다. 즉, 같은 패턴의 손동작이더라도 빠르게 움직일 때와 느리게 움직일 때를 구분할 수 있다. 그러나 같은 사용자가 동일 제스처를 반복하더라도 속도까지 같게 반복하는 데에는 어려움이 있기 때문에 영역 내에서 반복되는 손 데이터는 중복처리하지 않는다. 즉 궤적의 영역이 바뀌기 전까지는 손동작의 정보가 동일한 것으로 간주한다. On the other hand, there are times when continuous input repeatedly enters one area. For example, hand gesture information is inputted from the camera up to 60 times per second. This means that 60 hand data came in from the area. If it took 0.1 seconds, it means that 6 hand data have been entered. In this way, if all repetitive input in one area is considered, the speed of hand movement can be considered with the number of repeated hand data samples in the area. That is, even with the same pattern of hand gestures, it is possible to distinguish between a fast movement and a slow movement. However, even if the same user repeats the same gesture, there is a difficulty in repeating the same gesture at the same speed. That is, until the area of the trajectory is changed, the information of the hand gesture is regarded as the same.

이후 입력된 데이터가 어떤 시퀀스(Sequence)를 갖느냐로 손동작 제스처의 패턴이 결정되는데, 이때 패턴의 결정은 두 시퀀스간의 유사도 비교를 통하여 이루어진다. Edit Distance 라고 불리는 Levenshitein Distance는 두 문자열 간의 차이를 비교하기 위해 몇 번의 수정이 필요한가를 세어서 거리로 정의하고 있다. 예를 들어 "kitten"과 "sitting"의 차이는 총 3번의 수정으로 같은 글자가 될 수 있기에 Levenshitein Distance가 3이 되고, "saturday"와 "sunday"는 3번의 수정으로 같은 글자가 될 수 있기에 Levenshitein Distance가 3이 된다. 이때 문자열을 비교하는 것으로 예를 들었지만, 본 발명에서는 클러스터의 번호 시퀀스를 문자열로 가정하여 비교하면 동일한 방법으로 유사도(거리)를 계산할 수 있다. 다음의 [식 1]은 유사도 값을 계산하는 방법이다. Thereafter, the pattern of the hand gesture gesture is determined based on which sequence the input data has. In this case, the pattern is determined by comparing the similarity between the two sequences. The Levenshitein Distance, called Edit Distance, is defined as the distance by counting how many corrections are needed to compare the difference between two strings. For example, the difference between "kitten" and "sitting" is that the Levenshitein Distance becomes 3 because the same letter can be modified 3 times in total, and "saturday" and "sunday" can become the same letter with 3 modifications, so Levenshitein Distance becomes 3. In this case, the comparison of character strings is an example, but in the present invention, if the number sequence of the cluster is assumed as a character string and compared, the similarity (distance) can be calculated in the same way. The following [Equation 1] is a method of calculating the similarity value.

[식 1][Equation 1]

Figure pat00001
Figure pat00001

그러나 [식 1]의 방법처럼 Recurrsive 하게 계산할 경우, 계산량이 많아지기 때문에 본 발명에서는 Wagner Fischer Algorithm을 이용한다. However, in the case of recurring calculation as in the method of [Equation 1], the amount of calculation increases, so Wagner Fischer Algorithm is used in the present invention.

도 3은 도 1에 따른 기계학습의 이해를 돕기 위한 두 궤적간의 Levenshitein Distance를 설명하기 위한 도면이다. FIG. 3 is a diagram for explaining the Levenshitein Distance between two trajectories to help understanding machine learning according to FIG. 1 .

도 3을 참조하면, 도 3의 왼쪽(a)의 그림과 같이 두 개의 다른 패턴(빨간 궤적 1, 2) 입력이 들어왔을 때 바로 갱신되는 클러스터(파란 박스)에 따라 궤적 1, 2는 다음과 같은 차이를 가진다. Referring to FIG. 3, as shown in the figure on the left (a) of FIG. 3, trajectories 1 and 2 are as follows according to the cluster (blue box) that is updated immediately when two different patterns (red trajectories 1 and 2) are input. have the same difference.

궤적 1: (0, 1, 2, 3, 4, 5, 6, 7, 8, 9)Trajectory 1: (0, 1, 2, 3, 4, 5, 6, 7, 8, 9)

궤적 2: (0, 1, 10, 11, 12, 13, 8, 9))Trajectory 2: (0, 1, 10, 11, 12, 13, 8, 9))

두 궤적간의 Levenshitein Distance(Edit Distance)는 6The Levenshitein Distance (Edit Distance) between the two trajectories is 6

여기서 두 궤적 중 클러스터의 상대적 거리에 대해서는 고려하지 않았기 때문에, 클러스터가 다르다고 거리(distance)를 무조건 1로 카운트하기보다는 클러스터 간의 상대거리를 바탕으로 거리(distance)를 계산하도록 한다. 즉 두 클러스터가 다를 때 오른쪽(b)의 도면과 같이 초록색 화살표로 표시된 거리에 대한 정보를 계산하여 반영하는 것이다.Here, since the relative distance of the clusters among the two trajectories is not considered, the distance is calculated based on the relative distance between the clusters rather than counting the distance as 1 just because the clusters are different. That is, when the two clusters are different, the information on the distance indicated by the green arrow is calculated and reflected as shown in the figure on the right (b).

그리고 단계 S310에서 수행된 제스처 모델을 저장하는데(S320), 이때 저장은 패턴별 카테고리로 구분되어 저장되며, 이와 같은 과정은 통하여 가상훈련 콘텐츠의 동작을 위한 사용자 정의 제스처 모델의 학습이 진행된다. Then, the gesture model performed in step S310 is stored (S320), where the storage is divided into categories for each pattern and stored, and through this process, learning of a user-defined gesture model for the operation of virtual training content is carried out.

도 4는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 보여주는 순서도이며, 도 5 내지 도 7은 도 4에 따른 본 발명의 이해를 돕기 위한 도면이다. 4 is a flowchart illustrating the operation of virtual training content using a user-defined gesture model according to the present invention, and FIGS. 5 to 7 are diagrams to help the understanding of the present invention according to FIG. 4 .

먼저 도 4를 참조하면 카메라로부터 획득된 손 제스처 영상을 수신한다(S100). 이때 손 제스처는 손모양 및 손동작을 포함하며, 여기서 손 제스처 영상이 입력되면 도 4에 도시된 바와 같이 궤적(빨간색)이 생기고 ART 알고리즘에 따라 그 궤적에 맞는 클러스터(파란색)들이 선택된다. 그리고 선택된 클러스터들의 인덱스들을 시퀀스로 만들어 C = (c1,...Cn)이라고 한다. First, referring to FIG. 4 , an image of a hand gesture obtained from a camera is received ( S100 ). In this case, the hand gesture includes a hand gesture and a hand gesture. Here, when a hand gesture image is input, a trajectory (red) is generated as shown in FIG. 4, and clusters (blue) matching the trajectory are selected according to the ART algorithm. And, by making the indices of the selected clusters into a sequence, it is called C = (c 1 ,...C n ).

이어서 단계 S100에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교한다(S110). 이때 C는 도 6에 도시된 바와 같이 이전에 학습되었던 제스처와 일치하지 않을 수 있으므로 C와 이전에 학습되었던 제스처 패턴들 Pi = (P1,...Pmi)과 비교한다. 이때 C와 Pi를 비교할 때는 Levenshtein Distance levs,t를 계산하되 도 7의 Wangner Fischer Algorithm 을 활용한다. Next, the hand gesture image received in step S100 is input and compared with a previously learned user-defined gesture model (S110). At this time, as shown in FIG. 6 , since C may not match the previously learned gesture, C is compared with previously learned gesture patterns P i = (P 1 ,...Pm i ). At this time, when comparing C and P i , the Levenshtein Distance lev s,t is calculated, but the Wangner Fischer Algorithm of FIG. 7 is used.

도 7의 Wangner Fischer Algorithm 에서는 s가 Pi, t가 C에 매칭된다고 보게 되며, substitution Cost 가 1이 되어야 하는 경우를 개선하여 공간상의 특징을 살려 거리 정보를 추가하도록 한다.In the Wangner Fischer Algorithm of FIG. 7, it is seen that s matches P i and t matches C, and the case where the substitution cost should be 1 is improved to take advantage of spatial characteristics to add distance information.

이때 도 7의 알고리즘에 의한 Levenshtein Distance의 계산은 다음과 같다. At this time, the calculation of the Levenshtein Distance by the algorithm of FIG. 7 is as follows.

먼저 Ci와 Pj의 거리는 우선, 각 클러스터의 ci와 pj의 중심점 z의 위치를 찾으며 이는 다음의 [식 2]를 통해서 계산된다.First finds the location of the C i and P j distance first, the center point of each cluster of c i and p j in the z, which is computed by the following [formula 2].

[식 2][Equation 2]

Figure pat00002
Figure pat00002

여기서,

Figure pat00003
,
Figure pat00004
는 클러스터 k의 웨이트 벡터이다. here,
Figure pat00003
,
Figure pat00004
is the weight vector of cluster k.

그리고 ci와 pj의 거리 D(ci, pj)는 ART 알고리즘에서 거리 계산식인 다음의 [식 3]을 활용하며, 패턴의 거리에 따른 차이를 줄이기 위해 패턴의 길이 값만큼 으로 나누어준다.And c i to the distance p j D (c i, p j) gives divided by the length value of the pattern to take advantage of the [formula 3], and the distance calculation in the ART algorithm, and reduce the difference in the distance of the pattern .

[식 3][Equation 3]

Figure pat00005
Figure pat00005

여기서,

Figure pat00006
이다. here,
Figure pat00006
to be.

그리고 만약 손 제스처 입력 x의 차원(dimension)이 M이라고 한다면, levc,pi는 0에서 M 사이값을 갖는다. And if the dimension of hand gesture input x is M, lev c,pi has a value between 0 and M.

마지막으로, D(.)값을 반영하여 계산된 levc,pi 값이 가장 작은 패턴을 찾아 다음의 [식 4]에 의하여 결과 값으로 선택한다. Finally, find the pattern with the smallest lev c,pi value calculated by reflecting the D(.) value and select it as the result value according to the following [Equation 4].

[식 4][Equation 4]

Figure pat00007
Figure pat00007

만약 levc,pi 값이 정해놓은 임계치

Figure pat00008
값보다 크다면, 아무런 손 제스쳐 패턴도 선택하지 않는다. If the lev c, pi value is a set threshold,
Figure pat00008
If greater than the value, no hand gesture pattern is selected.

이후 단계 S110의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠를 구동한다(S120). 여기서 가상훈련 콘텐츠는 예를 들면 배관배선, LED 제작과 관련된 직업훈련 콘텐츠로 대부분의 인터페이스는 마우스 등으로 동작이 가능하지만 본 발명에서는 인식된 손 제스처에 의하여 가상훈련 콘텐츠가 구동된다. 본 발명에서는 일반적으로 버튼 등을 클릭하는 마우스 이벤트 이외에 도 8에 도시된 기능들도 대체 가능하며 도 9에 도시된 콘텐츠의 내부 기능과 연동되는 부분도 구현 가능하다. Afterwards, the virtual training content is driven according to the recognition result of the hand gesture according to the comparison in step S110 (S120). Here, the virtual training content is, for example, vocational training content related to piping wiring and LED production. Most interfaces can be operated with a mouse, etc., but in the present invention, the virtual training content is driven by a recognized hand gesture. In the present invention, in addition to the mouse event of clicking a button or the like, the functions shown in FIG. 8 can be substituted, and parts linked to the internal functions of the content shown in FIG. 9 can be implemented.

도 10 내지 도 14는 도 4에 따른 본 발명의 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작을 위하여 사용자가 직접 데이터를 습득하고 학습시킬 수 있는 인터페이스 화면을 보여주는 도면이다. 10 to 14 are diagrams showing an interface screen through which a user can directly acquire and learn data for the operation of virtual training contents using the user-defined gesture model of the present invention according to FIG. 4 .

도 10은 기본 버튼 설명을 위한 도면으로, 도 10의 Start Camera, Stop Camera 버튼을 통해서 카메라 센서가 연결만 되어 있으면 켜기, 끄기 동작을 확인할 수 있다. 또한, 본 발명의 사용자 인터페이스를 통해서 학습시킨 제스처를 저장하고자 한다면, Save Model 버튼을 눌러 원하는 위치에 저장시키면 된다. 저장될 파일은 확장자 .gr (Gesture Recognition Model)로 기본 저장된다. 그리고 과거에 학습시켰던 모델을 불러오고자 한다면, Load Model 버튼을 눌러 목표 Directory에서 학습시킨 모델을 불러오면 된다. 학습시킨 모델의 확장자는 .gr (Gesture Recognition Model)만 불러올 수 있다. Load Model 버튼을 누르면 기존 학습 모델은 사라질 수 있기 때문에 경고 메시지가 뜬다. 참고로 손모양 및 손동작 제스처가 함께 한 파일로 저장/불러오기가 가능하다.FIG. 10 is a diagram for explaining the basic button, and if the camera sensor is connected through the Start Camera and Stop Camera buttons of FIG. 10, the on/off operation can be checked. In addition, if you want to save the gesture learned through the user interface of the present invention, you can save it in a desired location by pressing the Save Model button. The file to be saved is basically saved with the extension .gr (Gesture Recognition Model). And if you want to load the model trained in the past, click the Load Model button to load the model trained in the target directory. The extension of the trained model can only be called .gr (Gesture Recognition Model). If you press the Load Model button, a warning message appears because the existing training model may disappear. For reference, it is possible to save/load hand gestures and hand gestures together as a file.

도 11은 손모양 제스처의 인식 및 등록을 설명하기 위한 도면으로, 도 10의 (1)번 버튼을 눌러 센서를 켜면 (2)번 화면에서와 같이 손을 인식하기 시작한다. 이때 이미 학습시켜 놓은 모델이 있다면, 손이 화면에 인식된 순간부터는 손모양 제스처 인식이 매 센서 데이터가 들어올 때마다 수행되어 (3)번과 (4)번에 결과로 출력된다. 이 때 손의 순서(3번 First Hand, 4번 Second Hand)는 카메라 이미지 상에서 가장 먼저 보인 손의 순서로, 최대 2개까지 제스처 인식이 동시에 가능하다. 손의 앞뒷면 구분이 쉽지 않기 때문에, 왼손과 오른손의 구분은 이미지 상에서 좌/우의 위치에 따라 구분 할 수도 있다. 11 is a diagram for explaining the recognition and registration of a hand gesture. When the sensor is turned on by pressing the button (1) of FIG. 10, the hand is recognized as in the screen (2). At this time, if there is a model that has already been trained, from the moment the hand is recognized on the screen, hand gesture recognition is performed every time sensor data is received, and the results are output in steps (3) and (4). In this case, the hand order (No. 3 First Hand, No. 4 Second Hand) is the order of the first hand seen on the camera image, and up to two gestures can be recognized simultaneously. Since it is not easy to distinguish the front and back sides of the hand, the left hand and the right hand can be distinguished according to the left/right positions on the image.

그리고 손모양 제스처를 추가로 학습시키고자 한다면, (5)번 버튼을 누르면 기존에 저장되어 있는 제스처 목록들을 확인할 수 있고, 원하는 제스처를 선택하면 된다. 또한, 기존에 없던 제스처를 등록하고 싶을 때에는 (6)번 창에 직접 제스처 이름을 입력하여 사용하면 된다. 학습시킬 제스처를 선택하였다면, 해당 제스처에 해당하는 손모양을 센서 앞에 가져다 놓고 (7)번 Train 버튼을 눌러 학습을 시작시킨다. 이때 학습에 필요한 최소/최대 시간은 정해져 있지 않다. 다만, 같은 손모양이더라도 여러 각도에 따라 센서에서는 다르게 보일 수 있기 때문에, 학습시키는 동안 손을 약간씩 돌려가며 움직여주어 변화에 강인하도록 학습시킨다. 학습이 끝났다고 생각되면 (7)번 버튼을 다시 눌러서 학습을 종료시키면 된다. 만약, 지금까지 학습된 현재 손모양 제스처 모델 전체를 초기화시키고 싶다면, (8)번 Reset 버튼을 누르면 된다. And if you want to learn the hand gesture additionally, you can check the list of gestures stored in the past by pressing the button (5) and select the desired gesture. In addition, if you want to register a gesture that has not existed before, you can use it by directly entering the gesture name in the window (6). If you have selected a gesture to learn, place the hand corresponding to the gesture in front of the sensor and press the Train button (7) to start learning. At this time, the minimum/maximum time required for learning is not determined. However, even the same hand shape can be seen differently by the sensor depending on various angles, so while learning, the hand is rotated slightly while learning to be strong against change. If you think the learning is over, press button (7) again to end the learning. If you want to initialize the entire current hand gesture model learned so far, press the Reset button (8).

도 12는 손동작 제스처의 인식 및 등록을 설명하기 위한 도면으로, 손동작의 경우는 패턴이 입력되어야 하기 때문에 센서 앞에서 매 프레임마다 학습을 시킬 수 있는 게 아니고, 하나의 제스처 패턴 입력을 수행해야 한다. 12 is a diagram for explaining the recognition and registration of hand gestures. In the case of hand gestures, since a pattern must be input, learning cannot be performed every frame in front of the sensor, but one gesture pattern input must be performed.

우선, (1)번 버튼으로 센서를 켠 후, (2)번에서와 같이 손이 화면에 나오면 자동적으로 손동작의 정보가 기록되기 시작한다. 제스처가 인식이 되면 그 결과는 (3)번 창에서 출력이 된다. 현재는 first hand 에 대해서만 모션 인식이 가능하다. First, after turning on the sensor with button (1), as in (2), when the hand appears on the screen, the information of the hand motion starts to be recorded automatically. When the gesture is recognized, the result is output in the window (3). Currently, motion recognition is available only for the first hand.

제스처가 인식이 되는 타이밍은 앞선 절에서 설명하였듯이, 손이 1초 동안 정지해 있으면 결과가 출력된다. 손이 움직이고 있는지 멈추어있는지는, (4)번 Status 창에서 확인할 수 있으며 손이 움직이고 있을 때에는 moving으로, 멈추었다고 판단되면 ready라고 뜬다. The timing at which the gesture is recognized is as described in the previous section, if the hand is still for 1 second, the result is output. Whether the hand is moving or not can be checked in the status window (4). When the hand is moving, it is moving, and when it is determined that the hand is stopped, it is displayed as ready.

손동작 제스처를 추가로 학습시키고 싶다면, (5)번을 눌러 목록에서 제스처를 선택하거나, 기존에 없던 제스처라면 (6)번에 직접 제스처 이름을 입력한다. 그리고 센서에 손을 위치시키고 (7)번 버튼을 눌러 제스처를 시작하면 된다. 한 번의 제스처가 끝나면 다시 (7)번 버튼을 눌러서 제스처가 끝났음을 확인한다. 만약 추가로 제스처를 학습시키고 싶다면 이 과정을 반복하면 된다. If you want to learn hand gestures additionally, press (5) to select a gesture from the list, or directly enter the gesture name in (6) if there is no existing gesture. Then, place your hand on the sensor and press button (7) to start the gesture. When one gesture is finished, press button (7) again to confirm that the gesture is finished. If you want to learn additional gestures, repeat this process.

만약 학습시켜 놓았던 제스처 중 하나를 삭제하고 싶다면, (5)번을 눌러 제스처 목록에서 해당 제스처를 선택하고, (8)번 Delete 버튼을 눌러 지우면 된다. 모든 손동작 제스처 정보를 초기화하고 싶다면 (9)번 Reset 버튼을 누르면 된다.If you want to delete one of the learned gestures, press (5) to select the gesture from the gesture list, and press (8) Delete button to delete it. If you want to initialize all hand gesture information, press (9) Reset button.

도 13은 기능연결을 설명하기 위한 도면으로, 앞서 손모양과 손동작 제스처의 등록이 끝났으면, 실제 콘텐츠와의 연동을 위한 기능과 연결을 시켜주는 작업을 해주어야 한다. 도 13은 앞서 UI 화면에서 좌측 하단을 클로즈업 한 사진이다. FIG. 13 is a diagram for explaining functional connection. When the registration of hand shapes and hand gestures is completed, it is necessary to connect the functions with the actual content. 13 is a close-up photo of the lower left corner of the UI screen earlier.

(1)번 버튼을 누르면 사용자가 연동시킬 수 있는 기능들의 리스트가 기본으로 제공된다. 앞선 내용에서 설명했듯이 마우스와 관련된 기능들과 콘텐츠 내에서 사용될 수 있는 특정 메뉴들이 보이며, 선택이 가능하다. (1)번에서 연동시킬 기능을 선택하면, (6)번과 (9)번에서 현재 연결되어 있는 손모양과 손동작을 확인할 수 있다. 손모양과 손동작이 다르게 학습되었기 때문에, 여기서도 별개로 추가해주도록 구성하였다. 만약 여기서 더 추가하고 싶은 손모양이나 손동작이 있는 경우 (2)번을 눌러 아직 아무 기능에도 연결되어 있지 않은 손모양을 선택하고, 손동작을 추가하고자 한다면 (3)번을 눌러 목록을 열고 선택하면 된다. 손모양의 경우는 (2)번 목록에서 제스처 선택 후 (4)번 화살표 버튼을 눌러 (1)에서 선택된 기능에 연결이 가능하고, 만약 빼고 싶은 것이 있다면, (6)번 리스트에서 빼고자 하는 손모양을 선택한 후 (5)번 화살표 버튼을 누르면 된다. 마찬가지로 손동작의 경우는 (3)번 목록에서 제스처 선택 후 (7)번 화살표 버튼을 눌러 (1)에서 선택된 기능에 연결이 가능하고, 만약 빼고 싶은 것이 있다면, (9)번 리스트에서 선택 후 (8)번 화살표 버튼을 누르면 된다. When button (1) is pressed, a list of functions that can be linked by the user is provided by default. As explained in the previous section, mouse-related functions and specific menus that can be used within the content are displayed and can be selected. If you select a function to be linked in (1), you can check the hand shape and hand gestures currently connected in (6) and (9). Since the shape of the hand and the movement of the hand were learned differently, it was configured to be added separately here as well. If there is a hand shape or hand gesture that you want to add here, press (2) to select a hand that is not connected to any function yet. If you want to add a hand gesture, press (3) to open the list and select. . In the case of a hand, after selecting a gesture from the list (2), press the arrow button (4) to connect to the function selected in (1). If there is something you want to remove, the hand you want to remove from the list (6) After selecting a shape, press the (5) arrow button. Similarly, in the case of hand gestures, after selecting a gesture from the list (3), press the arrow button (7) to connect to the function selected in (1). ) by pressing the arrow button.

도 15는 본 발명에 따른 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 시스템의 구성을 보여주는 도면으로 도 15를 참조하여서는 가상훈련 콘텐츠 동작 장치(20)의 구성요소를 중심으로 간략히 정리하여 설명하기로 한다. 15 is a diagram showing the configuration of a system for operating virtual training content using a user-defined gesture model according to the present invention. do.

도 15에 도시된 바와 같이 가상훈련 콘텐츠 동작 장치(20)는 프로세서(110), 프로그램과 데이터를 저장하는 비휘발성 저장부(120), 실행 중인 프로그램들을 저장하는 휘발성 메모리(130), 다른 기기와 통신을 수행하기 위한 통신부(140), 이들 장치 사이의 내부 통신 통로인 버스 등으로 이루어져 있다. 실행 중인 프로그램으로는, 장치 드라이버, 운영체계(Operating System), 및 다양한 어플리케이션이 있을 수 있다. 도시되지는 않았지만, 전력제공부를 포함한다.15, the virtual training content operation device 20 includes a processor 110, a non-volatile storage unit 120 for storing programs and data, a volatile memory 130 for storing running programs, and other devices. It consists of a communication unit 140 for performing communication, a bus serving as an internal communication path between these devices, and the like. The running program may include a device driver, an operating system, and various applications. Although not shown, it includes a power supply unit.

가상훈련 콘텐츠 동작 장치는(20)는, 카메라(30)로부터, 영상 데이터 수신 드라이버(150)에 의해 손 제스처 영상 데이터를 전달받아 이를 가상훈련 콘텐츠 동작 어플리케이션에 있는 사용자 정의 제스처 모델에 입력하고, 사용자 정의 제스쳐 모델의 출력에 의해 가상훈련 콘텐츠가 동작되도록 하며 이를 모니터를 통하여 출력한다. The virtual training content operation device 20 receives the hand gesture image data from the camera 30 by the image data reception driver 150 and inputs it to a user-defined gesture model in the virtual training content operation application, and the user The virtual training content is operated by the output of the definition gesture model, and it is output through the monitor.

또한 통신부(140)는 도 1를 참조하여 설명한 바와 같은 사용자 정의 제스처 모델 학습 장치(10)와의 데이터 송수신 역할을 수행하는데, 즉 가상훈련 콘텐츠 동작 장치는 통신부(140)를 통하여, 카메라(30)에서 수신한 영상 데이터를 사용자 정의 제스처 모델 학습 장치로 송신하고, 사용자 정의 제스처 모델 학습 장치로부터(10) 학습된 사용자 정의 제스처 모델을 수신한다. In addition, the communication unit 140 performs a data transmission/reception role with the user-defined gesture model learning apparatus 10 as described with reference to FIG. The received image data is transmitted to the user-defined gesture model learning apparatus, and the learned user-defined gesture model is received from the user-defined gesture model learning apparatus (10).

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

10: 사용자 정의 제스처 모델 학습 장치
20: 가상훈련 콘텐츠 동작 장치
30: 카메라
40: 모니터
110: 모니터
120: 저장부
130: 메모리
140: 통신부
150: 영상데이터 수신 드라이버
160: UX/UI 출력 드라이버
10: Custom Gesture Model Training Apparatus
20: virtual training content operation device
30: camera
40: monitor
110: monitor
120: storage
130: memory
140: communication department
150: image data receiving driver
160: UX/UI output driver

Claims (10)

사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법으로서,
(a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계;
(b) 상기 단계 (a)에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및
(c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계;
를 포함하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법.
As an operation method of virtual training content using a user-defined gesture model,
(a) receiving a hand gesture image obtained from a camera;
(b) comparing the hand gesture image received in step (a) with a previously learned user-defined gesture model; and
(c) driving the virtual training content according to the recognition result of the hand gesture according to the comparison of step (b);
Operation method of virtual training content using a user-defined gesture model comprising a.
청구항 1에 있어서,
상기 손 제스처는, 손모양 및 손동작
을 포함하는 것을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법.
The method according to claim 1,
The hand gesture is a hand gesture and a hand gesture
Operation method of virtual training content using a user-defined gesture model, characterized in that it comprises a.
청구항 1에 있어서,
상기 비교는 ART 알고리즘의 클러스터링 방식으로 이루어지는 것
을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 방법.
The method according to claim 1,
The comparison is made in the clustering method of the ART algorithm.
Operation method of virtual training content using a user-defined gesture model, characterized in that.
청구항 1에 있어서
상기 입력된 손 제스처 영상은 궤적 및 이 궤적에 해당하는 클러스터들로 이루어진 패턴으로 구분되는 것
을 특징으로 하는 사용자 정의 제스처를 이용한 가상훈련 콘텐츠의 동작 방법.
The method according to claim 1
The input hand gesture image is divided into a trajectory and a pattern consisting of clusters corresponding to the trajectory.
Operation method of virtual training content using a user-defined gesture, characterized in that.
청구항 1에 있어서,
상기 단계 (b)의 비교는,
(b1) 각 클러스터의 중심점 위치를 찾는 단계;
(b2) 상기 단계 (b1)에서 찾은 중심점의 위치값을 이용하여 상대적 거리를 계산하는 단계; 및
(b3) 상기 단계 (b2)에서 계산된 상대적 거리가 가장 작은 값의 패턴으로 결과가 인식되는 단계
를 포함하는 것을 특징으로 하는 사용자 정의 제스처를 이용한 가상훈련 콘텐츠의 동작 방법.
The method according to claim 1,
The comparison of step (b) is,
(b1) finding the position of the center point of each cluster;
(b2) calculating a relative distance using the position value of the central point found in step (b1); and
(b3) step of recognizing the result as a pattern having the smallest relative distance calculated in step (b2)
Operation method of virtual training content using a user-defined gesture, characterized in that it comprises a.
청구항 5에 있어서,
상기 단계 (b3)의 상대적 거리 값이 임계값보다 크면, 결과가 인식되는 않는 것
을 특징으로 하는 사용자 정의 제스처를 이용한 가상훈련 콘텐츠의 동작 방법.
6. The method of claim 5,
If the relative distance value of step (b3) is greater than the threshold, the result is not recognized
Operation method of virtual training content using a user-defined gesture, characterized in that.
사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키는 장치로서,
적어도 하나의 프로세서; 및
컴퓨터로 실행가능한 명령을 저장하는 적어도 하나의 메모리를 포함하되,
상기 적어도 하나의 메모리에 저장된 상기 컴퓨터로 실행가능한 명령은, 상기 적어도 하나의 프로세서에 의하여,
(a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계;
(b) 상기 단계 (a)에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및
(c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계;
가 실행되도록 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 장치.
As a device for operating virtual training content using a user-defined gesture model,
at least one processor; and
at least one memory for storing computer-executable instructions;
The computer-executable instructions stored in the at least one memory are executed by the at least one processor,
(a) receiving a hand gesture image obtained from a camera;
(b) comparing the hand gesture image received in step (a) with a previously learned user-defined gesture model; and
(c) driving the virtual training content according to the recognition result of the hand gesture according to the comparison of step (b);
Operation device of virtual training content using a user-defined gesture model that allows to be executed.
청구항 7에 있어서,
상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 카메라 모듈과 연결되는 것을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 장치.
8. The method of claim 7,
The device for operating virtual training contents using the user-defined gesture model is an operating device for virtual training contents using a user-defined gesture model, characterized in that it is connected to a camera module.
청구항 7에 있어서
상기 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠 동작 장치는 모니터 모듈과 연결되는 것을 특징으로 하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠의 동작 장치.
8. The method of claim 7
The device for operating virtual training contents using the user-defined gesture model is an operating device for virtual training contents using a user-defined gesture model, characterized in that it is connected to a monitor module.
사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키기 위한 컴퓨터 프로그램으로서,
비일시적 저장매체에 저장되며, 프로세서에 의하여,
(a) 카메라로부터 획득된 손 제스처 영상을 수신하는 단계;
(b) 상기 단계 (a)에서 수신된 손 제스처 영상을 입력으로 하여, 기 학습된 사용자 정의 제스처 모델과 비교하는 단계; 및
(c) 상기 단계 (b)의 비교에 따른 손 제스처의 인식 결과에 따라 가상훈련 콘텐츠가 구동되는 단계
가 실행되도록 하는 명령을 포함하는 사용자 정의 제스처 모델을 이용한 가상훈련 콘텐츠를 동작시키는 컴퓨터 프로그램.
As a computer program for operating virtual training content using a user-defined gesture model,
It is stored in a non-transitory storage medium, and by the processor,
(a) receiving a hand gesture image obtained from a camera;
(b) comparing the hand gesture image received in step (a) with a previously learned user-defined gesture model; and
(c) driving the virtual training content according to the recognition result of the hand gesture according to the comparison of step (b)
A computer program for operating virtual training content using a user-defined gesture model including instructions to be executed.
KR1020200073037A 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model KR102502195B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200073037A KR102502195B1 (en) 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200073037A KR102502195B1 (en) 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model

Publications (2)

Publication Number Publication Date
KR20210155600A true KR20210155600A (en) 2021-12-23
KR102502195B1 KR102502195B1 (en) 2023-02-21

Family

ID=79175813

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200073037A KR102502195B1 (en) 2020-06-16 2020-06-16 Method and system for operating virtual training content using user-defined gesture model

Country Status (1)

Country Link
KR (1) KR102502195B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230142258A (en) * 2022-04-01 2023-10-11 한국생산기술연구원 An apparatus for recognizing hand signals based on vision artificial intelligence and a method for recognizing hand signals using the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030065620A (en) 2002-01-30 2003-08-09 대한민국(전남대학교총장) apparatus and method for recognizing action of virtual game system
KR20130120025A (en) * 2012-04-25 2013-11-04 한국과학기술연구원 System and method for implementing user interface
KR20160124361A (en) * 2015-04-17 2016-10-27 가천대학교 산학협력단 Hand Feature Extraction Algorithm using Curvature Analysis For Recognition of Various Hand Feature
KR101865362B1 (en) * 2016-12-08 2018-06-07 동명대학교산학협력단 Control system and method for mixed reality using foot gesture
KR20190064623A (en) * 2016-10-09 2019-06-10 알리바바 그룹 홀딩 리미티드 3D graphical user interface for inputting information in virtual reality environment
KR101989447B1 (en) * 2017-12-12 2019-06-14 주식회사 큐랩 Dance motion feedback system providing video feedback to user using augmented reality

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030065620A (en) 2002-01-30 2003-08-09 대한민국(전남대학교총장) apparatus and method for recognizing action of virtual game system
KR20130120025A (en) * 2012-04-25 2013-11-04 한국과학기술연구원 System and method for implementing user interface
KR20160124361A (en) * 2015-04-17 2016-10-27 가천대학교 산학협력단 Hand Feature Extraction Algorithm using Curvature Analysis For Recognition of Various Hand Feature
KR20190064623A (en) * 2016-10-09 2019-06-10 알리바바 그룹 홀딩 리미티드 3D graphical user interface for inputting information in virtual reality environment
KR101865362B1 (en) * 2016-12-08 2018-06-07 동명대학교산학협력단 Control system and method for mixed reality using foot gesture
KR101989447B1 (en) * 2017-12-12 2019-06-14 주식회사 큐랩 Dance motion feedback system providing video feedback to user using augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230142258A (en) * 2022-04-01 2023-10-11 한국생산기술연구원 An apparatus for recognizing hand signals based on vision artificial intelligence and a method for recognizing hand signals using the same

Also Published As

Publication number Publication date
KR102502195B1 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
US11386303B2 (en) Procedural language and content generation environment for use in augmented reality/mixed reality systems to support laboratory and related operations
CN110021051B (en) Human image generation method based on generation of confrontation network through text guidance
US9111375B2 (en) Evaluation of three-dimensional scenes using two-dimensional representations
CN110999269A (en) Method for displaying content and electronic device thereof
CN110008839B (en) Intelligent sign language interaction system and method for self-adaptive gesture recognition
CN111418198A (en) Electronic device for providing text-related image and method of operating the same
WO2023024442A1 (en) Detection method and apparatus, training method and apparatus, device, storage medium and program product
CN108073851B (en) Grabbing gesture recognition method and device and electronic equipment
CN111344671A (en) Electronic device and operation method thereof
CN109086653A (en) Handwriting model training method, hand-written character recognizing method, device, equipment and medium
KR20190105403A (en) An external device capable of being combined with an electronic device, and a display method thereof.
CN117197878A (en) Character facial expression capturing method and system based on machine learning
CN115061577B (en) Hand projection interaction method, system and storage medium
US20190251355A1 (en) Method and electronic device for generating text comment about content
CN114445853A (en) Visual gesture recognition system recognition method
KR102502195B1 (en) Method and system for operating virtual training content using user-defined gesture model
Henniges et al. Efficient occlusive components analysis.
Piater Visual feature learning
CN104615283A (en) Laser pen interaction method
CN107770253A (en) Long-range control method and system
KR20210155590A (en) Method and apparatus for learning a custom gesture model for the operation of virtual training contents
JP2023043849A (en) Method, apparatus, electronic device and storage medium for adjusting virtual face model
KR102251858B1 (en) Deep learning based image analysis method, system and mobile terminal
KR102667003B1 (en) Method and system for training image generation model using content information
CN116524106B (en) Image labeling method, device, equipment, storage medium and program product

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant