KR20210031333A - Augmented reality training system - Google Patents

Augmented reality training system Download PDF

Info

Publication number
KR20210031333A
KR20210031333A KR1020190113164A KR20190113164A KR20210031333A KR 20210031333 A KR20210031333 A KR 20210031333A KR 1020190113164 A KR1020190113164 A KR 1020190113164A KR 20190113164 A KR20190113164 A KR 20190113164A KR 20210031333 A KR20210031333 A KR 20210031333A
Authority
KR
South Korea
Prior art keywords
unit
training
information
data
shape data
Prior art date
Application number
KR1020190113164A
Other languages
Korean (ko)
Other versions
KR102299381B1 (en
Inventor
노진석
Original Assignee
노진석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노진석 filed Critical 노진석
Priority to KR1020190113164A priority Critical patent/KR102299381B1/en
Publication of KR20210031333A publication Critical patent/KR20210031333A/en
Application granted granted Critical
Publication of KR102299381B1 publication Critical patent/KR102299381B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0638Displaying moving images of recorded environment, e.g. virtual environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0647Visualisation of executed movements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/803Motion sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/836Sensors arranged on the body of the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to an augmented reality training system which enables a participant to easily learn based on preset training information and to check the participant′s training state by representing the participant′s training state in augmented reality. To this end, the augmented reality training system comprises: an experience information collection unit which collects motion information of a participant; a participant management unit which generates shape data by shaping the motion information of a participant in three dimensions; a training management unit which includes at least one of a learning state analysis unit that generates state data by comparing and analyzing shape data and preset training information and a learning progress analysis unit that generates progress data by comparing and analyzing current shape data and previous shape data in correspondence with the preset training information; and a training server in which the participant information for the identification of the participant, the motion information of a participant, preset training information, shape data, and analysis data are stored.

Description

증강현실 트레이닝 시스템{AUGMENTED REALITY TRAINING SYSTEM}Augmented Reality Training System {AUGMENTED REALITY TRAINING SYSTEM}

본 발명은 증강현실 트레이닝 시스템에 관한 것으로, 보다 구체적으로는 기설정된 트레이닝정보를 바탕으로 체험자가 간편하게 학습할 수 있고, 체험자의 트레이닝 상태를 증강현실에서 표현하여 체험자의 트레이닝 상태를 확인할 수 있도록 하는 증강현실 트레이닝 시스템에 관한 것이다.The present invention relates to an augmented reality training system, and more specifically, an augmented reality that allows an experienced person to learn easily based on preset training information, and expresses the experiencer's training status in augmented reality to confirm the experiencer's training status. It relates to a real training system.

일반적으로, 증강 현실(Augmented Reality)이란 가상 환경 및 가상 현실에서 파생한 용어로서, 현실 세계 위에 컴퓨터에 의해서 생성된 정보를 덧붙여 표현하는 것을 의미한다. 즉, 현실 세계 정보에는 사용자가 필요로 하지 않는 정보도 있고 때로는 사용자가 필요로 한 정보가 부족할 수도 있다. 그러나, 컴퓨터로 만든 가상 환경을 이용하면 필요로 하지 않는 정보를 단순하게 하거나 보이지 않는 정보들을 만들어낼 수도 있다. 즉, 증강 현실 시스템은 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호 작용이 이루어지도록 하는 것으로 가상 현실 시스템보다 더욱 향상된 몰입감을 제공한다는 이점이 있다.In general, augmented reality (Augmented Reality) is a term derived from a virtual environment and virtual reality, refers to the addition of information generated by a computer on the real world. That is, in the real world information, there may be information that the user does not need, and sometimes the information that the user needs may be insufficient. However, if you use a computer-generated virtual environment, you can simplify information you do not need or create invisible information. That is, the augmented reality system combines the real world with the virtual world to allow interaction with the user in real time, and has the advantage of providing a more improved sense of immersion than the virtual reality system.

또한, 현대인들은 실외의 미세먼지, 실외의 적절하지 않은 날씨 등으로 인해 실내 활동에 소요되는 시간이 증가하고 있으며, 활동성이 저하되어 비만, 우울증 등의 문제가 발생되었다. 이에 따라 최근에는 골프, 야구, 안무 등의 트레이닝에 대해 실내에서 가능한 시스템의 수요가 높아지고 있다.In addition, modern people are increasing the amount of time spent on indoor activities due to fine dust outdoors and inappropriate weather outdoors, and problems such as obesity and depression have occurred due to decreased activity. Accordingly, in recent years, there is an increasing demand for systems capable of indoors for training such as golf, baseball, and choreography.

대한민국 등록특허공보 제10-1950243호 (발명의 명칭 : 증강현실 또는 가상현실 체험을 제공하는 골프연습장치, 2019. 02. 21. 공고)Republic of Korea Patent Publication No. 10-1950243 (Name of invention: Golf practice device providing augmented reality or virtual reality experience, 2019. 02. 21. Announcement)

본 발명의 목적은 종래의 문제점을 해결하기 위한 것으로서, 기설정된 트레이닝정보를 바탕으로 체험자가 간편하게 학습할 수 있고, 체험자의 트레이닝 상태를 증강현실에서 표현하여 체험자의 트레이닝 상태를 확인할 수 있도록 하는 증강현실 트레이닝 시스템을 제공함에 있다.An object of the present invention is to solve the problems of the prior art, and an augmented reality that allows an experienced person to easily learn based on preset training information, and to check the training status of an experienced person by expressing the experience person's training status in augmented reality. It is to provide a training system.

상술한 본 발명의 목적을 달성하기 위한 바람직한 실시예에 따르면, 본 발명에 따른 증강현실 트레이닝 시스템은 체험자의 동작정보를 수집하는 체험정보수집유닛; 상기 체험자의 동작정보를 3차원으로 형상화하여 형상데이터를 생성하는 체험자관리유닛; 상기 형상데이터와 기설정된 트레이닝정보를 비교 분석하여 상태데이터를 생성하는 학습상태분석부와, 기설정된 트레이닝정보에 대응하여 현재의 형상데이터와 이전의 형상데이터를 비교 분석하여 진도데이터를 생성하는 학습진도분석부 중 적어도 어느 하나를 포함하여 분석데이터를 생성하는 트레이닝관리유닛; 및 체험자의 식별을 위한 체험자정보와, 체험자의 동작정보와, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터가 저장되는 트레이닝서버;를 포함한다.According to a preferred embodiment for achieving the object of the present invention described above, the augmented reality training system according to the present invention includes an experience information collection unit that collects motion information of an experienced person; An experience user management unit for generating shape data by shaping the motion information of the experienced person in three dimensions; A learning state analysis unit that compares and analyzes the shape data and preset training information to generate state data, and a learning progress that generates progress data by comparing and analyzing the current shape data and previous shape data in response to the preset training information. A training management unit for generating analysis data including at least one of the analysis units; And a training server in which the experience user information for identification of the experience person, motion information of the experience person, preset training information, the shape data, and the analysis data are stored.

여기서, 상기 체험정보수집유닛은, 체험자를 기준으로 상호 이격된 임의의 3점 이상에서 체험자를 촬영하여 임의 지점별 체험자에 대한 촬영데이터를 생성하는 카메라유닛; 및 상기 카메라유닛에 대한 기설정된 위치정보와 매칭되어 체험자에게 출력된 빛(레이저)의 반사를 추출하여 체험자의 동작정보에 대한 라이다데이터를 생성하는 라이다유닛;을 포함한다.Here, the experience information collection unit includes: a camera unit that photographs an experienced person at three or more points spaced apart from each other based on the experience person and generates photographing data for the experience person at each point; And a lidar unit that generates lidar data for motion information of the experiencer by extracting reflection of light (laser) output to the experiencer by matching with preset location information for the camera unit.

여기서, 상기 체험자관리유닛은, 임의 지점별 체험자에 대한 촬영데이터를 3차원 공간에서 중첩시켜 제1중첩영상을 형성하는 영상계산부; 임의 지점별 체험자에 대한 촬영데이터로부터 3차원 공간에 대해 상대적인 깊이 알고리즘을 사용하여 상기 제1중첩영상을 1차 보정하는 영상조정부; 임의 지점별 체험자에 대한 라이다데이터를 3차원 공간에서 중첩시켜 제2중첩영상을 형성하는 라이다계산부; 및 상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합하여 3차원 공간에 대한 형상데이터로 변환시키는 입체변환부;를 포함한다.Here, the experience user management unit includes: an image calculation unit for forming a first superimposed image by superimposing photographing data on an experience person for each point in a three-dimensional space; An image adjustment unit for primary correction of the first superimposed image using a depth algorithm relative to the three-dimensional space from the photographing data of the experienced person at each point; A lidar calculation unit for forming a second superimposed image by superimposing lidar data on the experienced person at each point in a three-dimensional space; And a three-dimensional conversion unit that combines the first superimposed image and the second superimposed image corrected through the image adjustment unit and converts the first superimposed image into shape data for a three-dimensional space.

본 발명에 따른 증강현실 트레이닝 시스템은 상기 체험자정보와 매칭되어 상기 트레이닝서버와 유선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 기설정된 트레이닝정보를 영상으로 표현하는 트레이닝표시유닛; 및 상기 체험자정보에 매칭되어 상기 트레이닝서버와 무선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 상기 형상데이터를 증강현실에서 영상으로 표현하는 휴대단말; 중 적어도 어느 하나를 더 포함한다.The augmented reality training system according to the present invention is matched with the experience user information and communicated with the training server by wire, and a training display expressing at least preset training information among preset training information, the shape data, and the analysis data as an image unit; And a mobile terminal that is matched with the experience user information and wirelessly communicates with the training server, and expresses at least the shape data of preset training information, the shape data, and the analysis data as an image in augmented reality. It further includes at least any one of.

여기서, 상기 체험자관리유닛은, 상기 형상데이터를 증강현실에서 360도 회전 가능한 컨텐츠로 제공하는 컨텐츠생성부;를 더 포함하고, 상기 휴대단말은, 상기 컨텐츠를 표현한다.Here, the experience user management unit further includes a content generation unit that provides the shape data as content that can be rotated 360 degrees in augmented reality, wherein the mobile terminal expresses the content.

여기서, 상기 트레이닝관리유닛은, 상기 학습상태분석부와 상기 학습진도분석부 중 적어도 어느 하나의 분석 결과에 대응하여 기설정된 트레이닝정보 또는 상기 형상데이터에서 교정이 필요한 부위를 선택하는 교정선택부;를 더 포함한다.Here, the training management unit includes: a calibration selection unit for selecting a portion to be corrected from preset training information or the shape data in response to an analysis result of at least one of the learning state analysis unit and the learning progress analysis unit; Include more.

여기서, 상기 트레이닝관리유닛은, 기설정된 트레이닝정보와 상기 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제하는 영상복제부;를 더 포함한다.Here, the training management unit further includes an image duplication unit that duplicates at least one of the preset training information and the shape data in two or more.

여기서, 상기 체험정보수집유닛은, 체험자의 손에 착용하여 체험자의 손의 움직임을 감지하여 햅틱데이터를 생성하는 햅틱글러브;를 더 포함하고, 상기 입체변환부는, 상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합할 때, 상기 햅틱데이터를 추가로 결합하여 3차원 공간에 대한 상기 형상데이터를 보완한다.Here, the experience information collecting unit further includes a haptic glove worn on the hand of the experiencer to sense the movement of the hand of the experiencer to generate haptic data, wherein the three-dimensional conversion unit comprises: a first corrected by the image adjusting unit When the superimposed image and the second superimposed image are combined, the haptic data is further combined to supplement the shape data for a three-dimensional space.

여기서, 상기 체험정보수집유닛은, 체험자의 신체에 결합되는 다수의 적외선마커; 및 상기 카메라유닛에 대한 기설정된 위치정보와 매칭되어 상기 적외선마커의 위치를 추출하여 마커데이터를 생성하는 적외선카메라;를 더 포함하고, 상기 마커데이터는, 상기 영상조정부에서 1차 보정된 상기 제1중첩영상과 결합하여 상기 제1중첩영상을 2차 보정하거나, 상기 입체변환부에서 상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합할 때, 추가로 결합하여 3차원 공간에 대한 상기 형상데이터를 보완한다.Here, the experience information collection unit includes: a plurality of infrared markers coupled to the body of the experiencer; And an infrared camera that is matched with preset position information for the camera unit to extract the position of the infrared marker to generate marker data, wherein the marker data is the first corrected by the image adjustment unit. When the first superimposed image is secondarily corrected by combining with the superimposed image, or when the first superimposed image and the second superimposed image corrected through the image adjustment unit are combined in the stereoscopic conversion unit, the three-dimensional space is further combined. The shape data for is supplemented.

여기서, 상기 체험정보수집유닛은, 기설정된 트레이닝정보에 대응하여 체험자의 특정 부위에 부착되는 기준스티커;를 더 포함하고, 상기 트레이닝관리유닛은, 상기 기준스티커와 기설정된 트레이닝정보에 포함된 기준정보를 매칭시키는 체험자매칭부;를 더 포함한다.Here, the experience information collection unit further includes a reference sticker attached to a specific part of the experienced person in response to preset training information, and the training management unit further includes the reference sticker and reference information included in the preset training information It further includes; experience matching unit for matching.

여기서, 상기 트레이닝관리유닛은, 상기 형상데이터에 포함된 체험자의 기초자세와 기설정된 트레이닝정보에 포함된 트레이닝자세를 매칭시키는 체험자매칭부;를 더 포함한다.Here, the training management unit further includes an experienced person matching unit for matching the basic posture of the experienced person included in the shape data with the training posture included in the preset training information.

본 발명에 따른 증강현실 트레이닝 시스템에 따르면, 기설정된 트레이닝정보를 바탕으로 체험자가 간편하게 학습할 수 있고, 체험자의 트레이닝 상태를 증강현실에서 표현하여 체험자의 트레이닝 상태를 확인할 수 있다.According to the augmented reality training system according to the present invention, the experiencer can easily learn based on preset training information, and the training status of the experiencer can be confirmed by expressing the training status of the experiencer in augmented reality.

또한, 본 발명은 카메라유닛을 통해 체험자의 움직임을 그대로 획득할 수 있고, 라이다유닛을 통해 체험자의 움직임에 대한 깊이정보를 획득할 수 있으며, 상기 체험자관리유닛의 세부 구성을 통해 형상데이터에서 체험자의 움직임에 따른 입체감을 표현할 수 있다.In addition, according to the present invention, the movement of the experiencer can be obtained as it is through the camera unit, the depth information on the movement of the experiencer can be obtained through the lidar unit, and the experiencer from the shape data through the detailed configuration of the experiencer management unit. You can express a three-dimensional effect according to the movement of

또한, 본 발명은 트레이닝표시유닛과 휴대단말 중 적어도 어느 하나를 통해 체험자의 학습을 위한 기설정된 트레이닝정보 및 체험자의 트레이닝 상태를 간편하게 확인할 수 있다.In addition, according to the present invention, it is possible to conveniently check preset training information for learning of the experiencer and the training state of the experiencer through at least one of the training display unit and the portable terminal.

또한, 본 발명은 컨텐츠생성부를 통해 체험자의 트레이닝 상태를 다양한 각도에서 확인할 수 있다.In addition, the present invention can check the training status of the experiencer from various angles through the content generation unit.

또한, 본 발명은 교정선택부를 통해 트레이닝관리유닛의 분석 결과에 대응하여 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)를 보다 자세하게 확인할 수 있고, 교정이 필요한 부위에 대해 체험자의 트레이닝 상태를 자세하게 확인할 수 있다.In addition, the present invention is to check in more detail the areas requiring correction (eg, head, torso, arms, inclination of legs, rotation of the waist, position of the hips, etc.) in response to the analysis result of the training management unit through the correction selection unit. You can check the training status of the experienced person in detail for the area that needs correction.

또한, 본 발명은 영상복제부를 통해 증강현실에서 기설정된 트레이닝정보와 형상데이터를 둘 이상으로 표현할 수 있고, 기설정된 트레이닝정보가 안무에 대응되는 경우, 군무 또는 그룹 영상으로 재생 가능하며, 영상복제부의 조절 상태에 따라 단순 복사에 그치지 않고 다수가 촬영한 영상인 것처럼 재생 가능하다.In addition, the present invention can express two or more preset training information and shape data in augmented reality through the image replicating unit, and when the preset training information corresponds to the choreography, it is possible to reproduce the group dance or group image, and Depending on the adjustment status, it can be reproduced as if it were a video shot by many people, not just copying.

또한, 본 발명은 햅틱글러브를 통해 기설정된 트레이닝정보가 체험자가 도구를 파지하여 학습에 참여하는 경우, 체험자로 하여금 도구의 파지 상태를 자세하게 확인할 수 있다.In addition, according to the present invention, when the training information preset through the haptic glove participates in learning by gripping the tool, the experiencer can check the gripping state of the tool in detail.

또한, 본 발명은 적외선마커 및 적외선카메라를 통해 촬영데이터를 추가 보정하거나, 형상데이터의 정확도를 향상시킬 수 있다.In addition, according to the present invention, photographing data may be additionally corrected through an infrared marker and an infrared camera, or accuracy of shape data may be improved.

또한, 본 발명은 체험자매칭부를 통해 형상데이터의 방향와 기설정된 트레이닝정보의 방향을 보다 정확하게 일치시키고, 트레이닝관리유닛의 분석 결과에 대한 신뢰도를 향상시킬 수 있다.In addition, the present invention can more accurately match the direction of the shape data and the direction of preset training information through the experience person matching unit, and improve the reliability of the analysis result of the training management unit.

도 1은 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템을 도시한 평면도이다.
도 2는 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템을 도시한 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템에서 햅틱글러브를 도시한 평면도이다.
1 is a plan view showing an augmented reality training system according to an embodiment of the present invention.
2 is a block diagram showing an augmented reality training system according to an embodiment of the present invention.
3 is a plan view showing a haptic glove in an augmented reality training system according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 증강현실 트레이닝 시스템의 일 실시예를 설명한다. 이때, 본 발명은 실시예에 의해 제한되거나 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 공지된 기능 혹은 구성에 대해 구체적인 설명은 본 발명의 요지를 명확하게 하기 위해 생략될 수 있다.Hereinafter, an embodiment of an augmented reality training system according to the present invention will be described with reference to the accompanying drawings. At this time, the present invention is not limited or limited by the examples. In addition, in describing the present invention, detailed descriptions of known functions or configurations may be omitted to clarify the gist of the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템은 체험정보수집유닛(10)과, 체험자관리유닛(20)과, 트레이닝관리유닛(30)과, 트레이닝서버(50)를 포함하고, 트레이닝표시유닛(40)과 휴대단말(60) 중 적어도 어느 하나를 더 포함할 수 있다.1 to 3, the augmented reality training system according to an embodiment of the present invention includes an experience information collection unit 10, an experience person management unit 20, a training management unit 30, and a training server ( 50), and may further include at least one of the training display unit 40 and the portable terminal 60.

여기서, 사용자인터페이스는 터치스크린, 키패드, 키보드, 스타일러스, 다른 입력장치와 같은 하나 이상의 입력 장치를 포함할 수 있다. 일예로, 사용자인터페이스에는 휴대단말(60)에 구비되는 터치스크린이 포함될 수 있다.Here, the user interface may include one or more input devices such as a touch screen, a keypad, a keyboard, a stylus, and other input devices. For example, the user interface may include a touch screen provided in the mobile terminal 60.

체험정보수집유닛(10)은 체험자(T)의 동작정보를 수집한다.The experience information collection unit 10 collects motion information of the experience person T.

그러면, 사용자인터페이스에 시작신호가 입력되면, 트레이닝표시유닛(40)이 동작되어 기설정된 트레이닝정보가 시각적, 청각적으로 표현되고, 체험정보수집유닛(10)이 동작되어 체험영역(S)에 위치한 체험자(T)의 동작정보를 수집할 수 있다. 이때, 체험영역(S)에서 체험자(T)가 검색되지 않으면, 알람을 발생시킬 수 있다.Then, when the start signal is input to the user interface, the training display unit 40 is operated so that the preset training information is expressed visually and aurally, and the experience information collecting unit 10 is operated to be located in the experience area (S). It is possible to collect motion information of the experienced person (T). At this time, if the experienced person T is not searched in the experience area S, an alarm may be generated.

체험정보수집유닛(10)은 체험자(T)를 기준으로 상호 이격된 임의의 3점 이상에서 체험자(T)를 촬영하여 임의 지점별 체험자(T)에 대한 촬영데이터를 생성하는 카메라유닛(11)과, 카메라유닛(11)에 대한 기설정된 위치정보와 매칭되어 체험자(T)에게 출력된 빛(레이저)의 반사를 추출하여 체험자(T)의 동작정보에 대한 라이다데이터를 생성하는 라이다유닛을 포함할 수 있다.The experience information collection unit 10 is a camera unit 11 that photographs the experienced person T at three or more points separated from each other based on the experienced person T, and generates photographing data for the experienced person T at each point. And, a lidar unit that extracts the reflection of light (laser) that is matched with preset location information for the camera unit 11 and output to the experienced person (T) to generate lidar data for the motion information of the experienced person (T). It may include.

본 발명의 일 실시예에서 카메라유닛(11)과 라이다유닛(12)은 각각 체험영역(S)을 기준으로 체험영역(S)의 둘레를 따라 3개가 상호 이격되어 가상의 삼각형의 꼭지점에 배치된 구조를 나타내지만, 카메라유닛(11)의 개수 및 위치를 한정하는 것은 아니고, 가상의 다각형의 꼭지점, 가상의 사면체의 꼭지점 등 공지된 다양한 형태를 통해 체험영역(S)에서 움직이는 체험자(T)를 안정되게 촬영할 수 있다.In one embodiment of the present invention, the camera unit 11 and the lidar unit 12 are respectively spaced apart from each other along the circumference of the experience area S based on the experience area S, and are arranged at the vertices of the virtual triangle. Although the structure is shown, the number and location of the camera units 11 are not limited, and the experiencer (T) moving in the experience area (S) through various known forms such as a vertex of a virtual polygon and a vertex of a virtual tetrahedron. Can be taken stably.

체험정보수집유닛(10)은 체험자(T)의 신체에 결합되는 다수의 적외선마커(13)와, 카메라유닛(11)에 대한 기설정된 위치정보와 매칭되어 적외선마커(13)의 위치를 추출하여 마커데이터를 생성하는 적외선카메라(14)를 더 포함할 수 있다.The experience information collection unit 10 is matched with a plurality of infrared markers 13 coupled to the body of the experienced person T and preset location information for the camera unit 11 to extract the location of the infrared marker 13 An infrared camera 14 for generating marker data may be further included.

체험정보수집유닛(10)은 체험자(T)의 손에 착용하여 체험자(T)의 손의 움직임을 감지하여 햅틱데이터를 생성하는 햅틱글러브(15)를 더 포함할 수 있다. 햅틱글러브(15)에는 체험자(T)의 손의 움직임을 감지하는 굽힘센서(151)와, 체험자(T)의 손에 접촉되는 도구의 접촉 상태를 감지하는 접촉센서(152) 중 적어도 어느 하나가 구비될 수 있다.The experience information collection unit 10 may further include a haptic glove 15 that is worn on the hand of the experience person T and senses the movement of the hand of the experience person T to generate haptic data. The haptic glove 15 includes at least one of a bending sensor 151 that detects the movement of the hand of the experienced person T and a contact sensor 152 that detects the contact state of a tool that is in contact with the hand of the experience person T. It can be provided.

체험정보수집유닛(10)은 기설정된 트레이닝정보에 대응하여 체험자(T)의 특정 부위에 부착되는 기준스티커(미도시)를 더 포함할 수 있다. 일예로, 기준스티커(미도시)는 체험자(T)의 가슴 부위에 부착되는 타겟부를 포함할 수 있다.The experience information collection unit 10 may further include a reference sticker (not shown) attached to a specific portion of the experience person T in response to preset training information. As an example, the reference sticker (not shown) may include a target portion attached to the chest of the experienced person T.

체험자관리유닛(20)은 체험자(T)의 동작정보를 3차원으로 형상화하여 형상데이터를 생성한다.The experience person management unit 20 generates shape data by forming the motion information of the experience person T in three dimensions.

체험자관리유닛(20)은 임의 지점별 체험자(T)에 대한 촬영데이터를 3차원 공간에서 중첩시켜 제1중첩영상을 형성하는 영상계산부(21)와, 임의 지점별 체험자(T)에 대한 촬영데이터로부터 3차원 공간에 대해 상대적인 깊이 알고리즘을 사용하여 제1중첩영상을 1차 보정하는 영상조정부(22)와, 임의 지점별 체험자(T)에 대한 라이다데이터를 3차원 공간에서 중첩시켜 제2중첩영상을 형성하는 라이다계산부(23)와, 영상조정부(22)를 통해 보정된 제1중첩영상과 제2중첩영상을 결합하여 3차원 공간에 대한 형상데이터로 변환시키는 입체변환부(24)를 포함할 수 있다.The experience user management unit 20 includes an image calculation unit 21 that forms a first superimposed image by superimposing photographing data on the experience person T at each point in a three-dimensional space, and a photographing of the experience person T at each point. The image adjustment unit 22 for primary correction of the first superimposed image using a depth algorithm relative to the 3D space from the data, and the lidar data for the experienced person T for each arbitrary point are superimposed in the 3D space to obtain a second A lidar calculation unit 23 for forming an overlapping image, and a three-dimensional conversion unit 24 that combines the first superimposed image and the second superimposed image corrected through the image adjustment unit 22 and converts it into shape data for a three-dimensional space. ) Can be included.

그러면, 촬영데이터와 라이다데이터는 시계열 순서에 따라 선입선출방식으로 영상계산부(21)와 라이다계산부(23)에 전달되고, 영상계산부(21)와 영상조정부(22)와 라이다계산부(23)와 입체변환부(24)를 통해 형상데이터로 변환된다. 여기서, 기설정된 트레이닝정보는 단위프레임별, 단위시간별로 시계열 순서에 따라 분할되어 연속적으로 표현될 수 있고, 이에 대응하여 형상데이터는 단위프레임별, 단위시간별로 시계열 순서에 따라 분할될 수 있다.Then, the photographing data and the lidar data are transmitted to the image calculation unit 21 and the lidar calculation unit 23 in a first-in, first-out manner according to the time series order, and the image calculation unit 21, the image adjustment unit 22 and the lidar. It is converted into shape data through the calculation unit 23 and the three-dimensional conversion unit 24. Here, the preset training information may be divided according to a time series order by unit frame and unit time and expressed continuously, and correspondingly, the shape data may be divided according to a time series order by unit frame and unit time.

체험정보수집유닛(10)이 햅틱글러브(15)를 포함하는 경우, 입체변환부(24)는 영상조정부(22)를 통해 보정된 제1중첩영상과 제2중첩영상을 결합할 때, 햅틱데이터를 추가로 결합하여 3차원 공간에 대한 형상데이터를 보완할 수 있다.When the experience information collection unit 10 includes a haptic glove 15, the three-dimensional conversion unit 24 combines the first superimposed image and the second superimposed image corrected through the image adjustment unit 22, haptic data The shape data for the three-dimensional space can be supplemented by additionally combining.

체험정보수집유닛(10)이 적외선카메라(14)를 포함하는 경우, 영상조정부(22)는 1차 보정된 제1중첩영상과 마커데이터를 결합하여 제1중첩영상을 2차 보정하거나, 입체변환부(24)는 영상조정부를 통해 보정된 제1중첩영상과 제2중첩영상을 결합할 때, 마커데이터를 추가로 결합하여 3차원 공간에 대한 형상데이터를 보완할 수 있다.When the experience information collection unit 10 includes an infrared camera 14, the image adjustment unit 22 combines the first-corrected first superimposed image and marker data to correct the first superimposed image, or perform a three-dimensional transformation. When combining the first superimposed image and the second superimposed image corrected through the image adjustment unit, the unit 24 may supplement shape data for the 3D space by additionally combining the marker data.

다른 표현으로, 체험정보수집유닛(10)이 적외선카메라(14)를 포함하는 경우, 마커데이터는 영상조정부(22)에서 1차 보정된 제1중첩영상과 결합하여 제1중첩영상을 2차 보정하거나, 입체변환부(24)에서 영상조정부(22)를 통해 보정된 제1중첩영상과 제2중첩영상을 결합할 때 추가로 결합하여 3차원 공간에 대한 형상데이터를 보완할 수 있다.In other words, when the experience information collection unit 10 includes the infrared camera 14, the marker data is combined with the first superimposed image that is first corrected by the image adjustment unit 22 to perform secondary correction of the first superimposed image. Alternatively, when the 3D conversion unit 24 combines the first superimposed image and the second superimposed image corrected through the image adjustment unit 22, the shape data for the 3D space may be supplemented by additionally combining the first superimposed image and the second superimposed image.

체험자관리유닛(20)은 형상데이터를 증강현실에서 360도 회전 가능한 컨텐츠로 제공하는 컨텐츠생성부(25)를 더 포함할 수 있다.The experience user management unit 20 may further include a content generation unit 25 that provides shape data as content that can be rotated 360 degrees in augmented reality.

그러면, 사용자인터페이스에 컨텐츠재생신호가 입력되면, 트레이닝서버(50)의 컨텐츠저장부(56)에 저장된 컨텐츠가 휴대단말(60)에 전송되고, 휴대단말(60)에서는 증강현실에서 컨텐츠를 시각적, 청각적으로 표현할 수 있다.Then, when a content reproduction signal is input to the user interface, the content stored in the content storage unit 56 of the training server 50 is transmitted to the mobile terminal 60, and the mobile terminal 60 visually displays the content in augmented reality. Can be expressed aurally.

트레이닝관리유닛(30)은 형상데이터를 비교 분석하여 분석데이터를 생성한다.The training management unit 30 compares and analyzes the shape data to generate analysis data.

트레이닝관리유닛(30)은 형상데이터와 기설정된 트레이닝정보를 비교 분석하여 상태데이터를 생성하는 학습상태분석부(32)와, 기설정된 트레이닝정보에 대응하여 현재의 형상데이터와 이전의 형상데이터를 비교 분석하여 진도데이터를 생성하는 학습진도분석부(33) 중 적어도 어느 하나를 포함할 수 있다.The training management unit 30 compares the current shape data with the previous shape data in response to the learning status analysis unit 32 that generates status data by comparing and analyzing the shape data and preset training information. It may include at least one of the learning progress analysis unit 33 that analyzes and generates progress data.

이에 따라, 분석데이터에는 상태데이터와 형상데이터 중 적어도 어느 하나를 포함할 수 있다.Accordingly, the analysis data may include at least one of state data and shape data.

트레이닝관리유닛(30)은 학습상태분석부(32)와 학습진도분석부(33) 중 적어도 어느 하나의 분석 결과에 대응하여 기설정된 트레이닝정보 또는 형상데이터에서 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)를 선택하는 교정선택부(34)를 더 포함할 수 있다.The training management unit 30 is a part (for example, a head, a part that needs to be corrected in the preset training information or shape data in response to the analysis result of at least one of the learning state analysis unit 32 and the learning progress analysis unit 33). It may further include a correction selection unit 34 for selecting the inclination of the torso, arms and legs, the rotational state of the waist, the position of the hips, etc.).

그러면, 사용자인터페이스는 트레이닝표시유닛(40)에 표현되는 기설정된 트레이닝정보 또는 휴대단말(60)에 표현되는 형상데이터에서 교정이 필요한 위치를 입력할 수 있고, 교정선택부(34)는 입력된 위치를 포함하여 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)로 선택할 수 있다.Then, the user interface may input a position that requires correction from preset training information expressed on the training display unit 40 or shape data expressed on the mobile terminal 60, and the correction selection unit 34 Including, it can be selected as a part that needs correction (for example, the tilt of the head, torso, arms and legs, the rotation of the waist, the position of the hips, etc.)

트레이닝관리유닛(30)은 기설정된 트레이닝정보와 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제하는 영상복제부(35)를 더 포함할 수 있다.The training management unit 30 may further include an image duplicating unit 35 that duplicates at least one of preset training information and shape data in two or more.

그러면, 사용자인터페이스에 복제신호가 입력되면, 영상복제부(35)는 기설정된 트레이닝정보와 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제할 수 있다.Then, when a duplicate signal is input to the user interface, the image duplicating unit 35 may duplicate at least one of preset training information and shape data in two or more.

일예로, 체험정보수집유닛(10)이 기준스티커(미도시)를 포함하는 경우, 트레이닝관리유닛(30)은 기준스티커(미도시)와 기설정된 트레이닝정보에 포함된 기준정보를 매칭시키는 체험자매칭부(31)를 더 포함할 수 있다.For example, when the experience information collection unit 10 includes a reference sticker (not shown), the training management unit 30 matches the reference sticker (not shown) with reference information included in preset training information. It may further include a portion (31).

다른 예로, 트레이닝관리유닛(30)은 형상데이터에 포함된 체험자(T)의 기초자세와 기설정된 트레이닝정보에 포함된 트레이닝자세를 매칭시키는 체험자매칭부(31)를 더 포함할 수 있다. 여기서, 체험자(T)의 기초자세는 최초 체험영역(S)에서 기설정된 트레이닝정보에 포함된 트레이닝자세에 따라 체험정보수집유닛(10)이 체험자(T)의 동작정보 중 일부로써 수집될 수 있다.As another example, the training management unit 30 may further include an experienced person matching unit 31 for matching the basic posture of the experienced person T included in the shape data with the training posture included in the preset training information. Here, the basic posture of the experienced person T may be collected by the experience information collecting unit 10 as part of the motion information of the experienced person T according to the training posture included in the training information preset in the initial experience area S. .

트레이닝서버(50)는 체험자(T)의 식별을 위한 체험자정보와, 체험자(T)의 동작정보와, 기설정된 트레이닝정보와, 형상데이터와, 분석데이터가 저장된다. 트레이닝서버(50)에 저장되는 데이터는 체험자(T)의 동작정보에 대응하여 갱신될 수 있다.The training server 50 stores experience user information for identification of the experience person T, motion information of the experience person T, preset training information, shape data, and analysis data. The data stored in the training server 50 may be updated in response to the motion information of the experienced person T.

트레이닝서버(50)에는 체험자정보가 저장되는 체험자정보저장부(51), 기설정된 트레이닝정보가 저장되는 트레이닝정보저장부(52), 체험자(T)의 동작정보 중 촬영데이터와 햅틱글러브(15)에서 생성되는 햅틱데이터와 적외선카메라(14)에서 생성되는 마커데이터와 영상계산부(21)에서 생성되는 제1중첩영상과 영상조정부(22)에서 생성되는 보정영상이 상호 매칭되어 저장되는 영상저장부(53)와, 라이다유닛(12)에서 생성되는 라이다데이터와 라이다계산부(23)에서 생성되는 제2중첩영상이 상호 매칭되어 저장되는 라이다저장부(54)와, 입체변환부(24)에서 생성되는 형상데이터가 저장되는 입체저장부(55)와, 컨텐츠생성부(25)에서 생성되는 컨텐츠가 저장되는 컨텐츠저장부(56)와, 학습상태분석부(32)에서 생성되는 상태데이터와 학습진도분석부(33)에서 생성되는 진도데이터가 저장되는 분석저장부(57)가 포함될 수 있다.The training server 50 includes an experience user information storage unit 51 that stores experience user information, a training information storage unit 52 that stores preset training information, and photographing data and haptic gloves 15 among motion information of the experience user (T). An image storage unit in which the haptic data generated by the infrared camera 14, the marker data generated by the infrared camera 14, the first superimposed image generated by the image calculation unit 21, and the corrected image generated by the image adjustment unit 22 are matched and stored A lidar storage unit 54 in which the lidar data generated by the lidar unit 12 and the second superimposed image generated by the lidar calculation unit 23 are matched and stored, and a three-dimensional conversion unit The three-dimensional storage unit 55 that stores the shape data generated in (24), the content storage unit 56 that stores the content generated by the content generation unit 25, and the learning state analysis unit 32 An analysis storage unit 57 for storing state data and progress data generated by the learning progress analysis unit 33 may be included.

또한, 트레이닝서버(50)에는 휴대단말(60)과 무선 통신하는 단말통신부(58)가 더 포함될 수 있다.In addition, the training server 50 may further include a terminal communication unit 58 for wireless communication with the portable terminal 60.

체험자정보는 휴대단말(60)과의 무선 통신을 통해 휴대단말(60)의 단말정보에서 추출하거나, 사용자인터페이스를 통해 입력될 수 있다.The experience user information may be extracted from terminal information of the mobile terminal 60 through wireless communication with the mobile terminal 60, or may be input through a user interface.

트레이닝표시유닛(40)은 체험자정보와 매칭되어 트레이닝서버(50)와 유선 또는 무선 통신되고, 기설정된 트레이닝정보와, 형상데이터와, 분석데이터 중 적어도 기설정된 트레이닝정보를 영상으로 표현한다. 트레이닝표시유닛(40)은 사용자인터페이스에 입력되는 시작신호 또는 별도의 표시신호에 따라 적어도 기설정된 트레이닝정보를 영상으로 표현할 수 있다.The training display unit 40 is matched with the experience user information and communicates with the training server 50 by wire or wirelessly, and displays at least preset training information among preset training information, shape data, and analysis data as an image. The training display unit 40 may express at least preset training information as an image according to a start signal input to a user interface or a separate display signal.

여기서, 트레이닝표시유닛(40)을 한정하는 것은 아니고, 홀로그램, 디스플레이 등 공지된 다양한 형태를 나타낼 수 있다.Here, the training display unit 40 is not limited, and may represent various known forms such as a hologram and a display.

휴대단말(60)은 체험자정보에 매칭되어 트레이닝서버(50)와 무선 통신되고, 기설정된 트레이닝정보와, 형상데이터와, 분석데이터 중 적어도 형상데이터를 증강현실에서 영상으로 표현한다.The mobile terminal 60 is matched with the experience user information and wirelessly communicates with the training server 50, and displays at least shape data among preset training information, shape data, and analysis data in augmented reality as an image.

체험자관리유닛(20)이 컨텐츠생성부(25)를 포함하는 경우, 휴대단말(60)은 컨텐츠재생신호에 따라 컨텐츠생성부(25)에서 제공하는 컨텐츠를 표현할 수 있다.When the experience user management unit 20 includes the content generation unit 25, the mobile terminal 60 may express the content provided by the content generation unit 25 according to the content reproduction signal.

휴대단말(60)에는 트레이닝서버(50)와 연동되는 트레이닝앱이 설치된다.A training app that works with the training server 50 is installed on the mobile terminal 60.

상술한 증강현실 트레이닝 시스템에 따르면, 기설정된 트레이닝정보를 바탕으로 체험자(T)가 간편하게 학습할 수 있고, 체험자(T)의 트레이닝 상태를 증강현실에서 표현하여 체험자(T)의 트레이닝 상태를 확인할 수 있다.According to the augmented reality training system described above, the experienced person T can easily learn based on preset training information, and the training status of the experienced person T can be checked by expressing the training status of the experienced person T in augmented reality. have.

또한, 카메라유닛(11)을 통해 체험자(T)의 움직임을 그대로 획득할 수 있고, 라이다유닛(12)을 통해 체험자(T)의 움직임에 대한 깊이정보를 획득할 수 있으며, 상기 체험자관리유닛(20)의 세부 구성을 통해 형상데이터에서 체험자(T)의 움직임에 따른 입체감을 표현할 수 있다.In addition, through the camera unit 11, the movement of the experienced person T can be obtained as it is, and the depth information on the movement of the experienced person T can be obtained through the lidar unit 12, and the experienced person management unit Through the detailed configuration of (20), it is possible to express a three-dimensional effect according to the movement of the experienced person (T) in the shape data.

또한, 트레이닝표시유닛(40)과 휴대단말(60) 중 적어도 어느 하나를 통해 체험자(T)의 학습을 위한 기설정된 트레이닝정보 및 체험자(T)의 트레이닝 상태를 간편하게 확인할 수 있다.In addition, preset training information for learning of the experienced person T and the training state of the experienced person T can be easily checked through at least one of the training display unit 40 and the portable terminal 60.

또한, 컨텐츠생성부(25)를 통해 체험자(T)의 트레이닝 상태를 다양한 각도에서 확인할 수 있다.In addition, through the content generation unit 25, the training status of the experienced person T can be checked from various angles.

또한, 교정선택부(34)를 통해 트레이닝관리유닛(30)의 분석 결과에 대응하여 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)를 보다 자세하게 확인할 수 있고, 교정이 필요한 부위에 대해 체험자(T)의 트레이닝 상태를 자세하게 확인할 수 있다.In addition, the area that needs correction in response to the analysis result of the training management unit 30 through the correction selection unit 34 (for example, the head, the torso, the inclination of the arms and legs, the rotation of the waist, the position of the hips, etc.) You can check in more detail, and you can check the training status of the experienced person (T) in detail for the area that needs correction.

또한, 영상복제부(35)를 통해 증강현실에서 기설정된 트레이닝정보와 형상데이터를 둘 이상으로 표현할 수 있고, 기설정된 트레이닝정보가 안무에 대응되는 경우, 군무 또는 그룹 영상으로 재생 가능하며, 영상복제부(35)의 조절 상태에 따라 단순 복사에 그치지 않고 다수가 촬영한 영상인 것처럼 재생 가능하다.In addition, it is possible to express two or more preset training information and shape data in augmented reality through the image duplicating unit 35, and if the preset training information corresponds to the choreography, it is possible to reproduce the group dance or group image, and the image reproduction Depending on the control state of the unit 35, it is possible to reproduce not only a simple copy, but as if it is an image captured by a large number of people.

또한, 햅틱글러브(15)를 통해 기설정된 트레이닝정보가 체험자(T)가 도구를 파지하여 학습에 참여하는 경우, 체험자(T)로 하여금 도구의 파지 상태를 자세하게 확인할 수 있다.In addition, when training information preset through the haptic glove 15 allows the experienced person T to grasp the tool and participate in learning, the experiencer T can check the gripping state of the tool in detail.

또한, 적외선마커(13) 및 적외선카메라(14)를 통해 촬영데이터를 추가 보정하거나, 형상데이터의 정확도를 향상시킬 수 있다.In addition, the photographing data may be additionally corrected through the infrared marker 13 and the infrared camera 14 or the accuracy of the shape data may be improved.

또한, 체험자매칭부(31)를 통해 형상데이터의 방향와 기설정된 트레이닝정보의 방향을 보다 정확하게 일치시키고, 트레이닝관리유닛(30)의 분석 결과에 대한 신뢰도를 향상시킬 수 있다.In addition, it is possible to more accurately match the direction of the shape data and the direction of preset training information through the experience person matching unit 31 and improve the reliability of the analysis result of the training management unit 30.

상술한 바와 같이 도면을 참조하여 본 발명의 바람직한 실시예를 설명하였지만, 해당 기술분야의 숙련된 당업자라면, 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변경시킬 수 있다.As described above, preferred embodiments of the present invention have been described with reference to the drawings, but those skilled in the art will variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. Can be modified or changed.

10: 체험정보수집유닛 11: 카메라유닛 12: 라이다유닛
13: 적외선마커 14: 적외선카메라 15: 햅틱글러브
151: 굽힘센서 152: 접촉센서 20: 체험자관리유닛
21: 영상계산부 22: 영상조정부 23: 라이다계산부
24: 입체변환부 25: 컨텐츠생성부 30: 트레이닝관리유닛
31: 체험자매칭부 32: 학습상태분석부 33: 학습진도분석부
34: 교정선택부 35: 영상복제부 40: 트레이닝표시유닛
50: 트레이닝서버 51: 체험자정보저장부 52: 트레이닝정보저장부
53: 영상저장부 54: 라이다저장부 55: 입체저장부
56: 컨텐츠저장부 57: 분석저장부 58: 단말통신부
60: 휴대단말 T: 체험자 S: 체험영역
10: experience information collection unit 11: camera unit 12: lidar unit
13: infrared marker 14: infrared camera 15: haptic gloves
151: bending sensor 152: contact sensor 20: experience user management unit
21: image calculation unit 22: image adjustment unit 23: lidar calculation unit
24: three-dimensional conversion unit 25: content generation unit 30: training management unit
31: experience matching unit 32: learning state analysis unit 33: learning progress analysis unit
34: correction selection unit 35: image reproduction unit 40: training display unit
50: training server 51: experience user information storage unit 52: training information storage unit
53: image storage unit 54: lidar storage unit 55: stereoscopic storage unit
56: content storage unit 57: analysis storage unit 58: terminal communication unit
60: mobile terminal T: experienced person S: experience area

Claims (6)

체험자의 동작정보를 수집하는 체험정보수집유닛;
상기 체험자의 동작정보를 3차원으로 형상화하여 형상데이터를 생성하는 체험자관리유닛;
상기 형상데이터와 기설정된 트레이닝정보를 비교 분석하여 상태데이터를 생성하는 학습상태분석부와, 기설정된 트레이닝정보에 대응하여 현재의 형상데이터와 이전의 형상데이터를 비교 분석하여 진도데이터를 생성하는 학습진도분석부 중 적어도 어느 하나를 포함하여 분석데이터를 생성하는 트레이닝관리유닛; 및
체험자의 식별을 위한 체험자정보와, 체험자의 동작정보와, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터가 저장되는 트레이닝서버;를 포함하고,
상기 체험정보수집유닛은,
체험자를 기준으로 상호 이격된 임의의 3점 이상에서 체험자를 촬영하여 임의 지점별 체험자에 대한 촬영데이터를 생성하는 카메라유닛; 및
상기 카메라유닛에 대한 기설정된 위치정보와 매칭되어 체험자에게 출력된 빛(레이저)의 반사를 추출하여 체험자의 동작정보에 대한 라이다데이터를 생성하는 라이다유닛;을 포함하며,
상기 체험자관리유닛은,
임의 지점별 체험자에 대한 촬영데이터를 3차원 공간에서 중첩시켜 제1중첩영상을 형성하는 영상계산부;
임의 지점별 체험자에 대한 촬영데이터로부터 3차원 공간에 대해 상대적인 깊이 알고리즘을 사용하여 상기 제1중첩영상을 1차 보정하는 영상조정부;
임의 지점별 체험자에 대한 라이다데이터를 3차원 공간에서 중첩시켜 제2중첩영상을 형성하는 라이다계산부; 및
상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합하여 3차원 공간에 대한 형상데이터로 변환시키는 입체변환부;를 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
An experience information collection unit that collects motion information of an experienced person;
An experience user management unit for generating shape data by shaping the motion information of the experienced person in three dimensions;
A learning state analysis unit that compares and analyzes the shape data and preset training information to generate state data, and a learning progress that generates progress data by comparing and analyzing the current shape data and previous shape data in response to the preset training information. A training management unit for generating analysis data including at least one of the analysis units; And
Including; a training server for storing the experience person information for identification of the experience person, the experience person's motion information, preset training information, the shape data, and the analysis data,
The experience information collection unit,
A camera unit that photographs the experienced person at three or more points separated from each other based on the experienced person, and generates photographing data for the experienced person at each point; And
Including; a lidar unit for generating lidar data on the motion information of the experiencer by extracting the reflection of light (laser) output to the experiencer by matching with preset location information of the camera unit,
The experience user management unit,
An image calculation unit for forming a first superimposed image by superimposing photographing data on an experienced person at each point in a three-dimensional space;
An image adjustment unit for primary correction of the first superimposed image using a depth algorithm relative to the three-dimensional space from the photographing data of the experienced person at each point;
A lidar calculation unit for forming a second superimposed image by superimposing lidar data on the experienced person at each point in a three-dimensional space; And
And a three-dimensional conversion unit that combines the first superimposed image and the second superimposed image corrected through the image adjustment unit and converts it into shape data for a three-dimensional space.
제1항에 있어서,
상기 체험자정보와 매칭되어 상기 트레이닝서버와 유선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 기설정된 트레이닝정보를 영상으로 표현하는 트레이닝표시유닛; 및
상기 체험자정보에 매칭되어 상기 트레이닝서버와 무선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 상기 형상데이터를 증강현실에서 영상으로 표현하는 휴대단말;
중 적어도 어느 하나를 더 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 1,
A training display unit that matches the experience user information and communicates with the training server by wire, and expresses at least preset training information from among preset training information, the shape data, and the analysis data as an image; And
A mobile terminal that is matched with the experience user information and wirelessly communicates with the training server, and expresses at least the shape data of preset training information, the shape data, and the analysis data as an image in augmented reality;
Augmented reality training system, characterized in that it further comprises at least any one of.
제2항에 있어서,
상기 체험자관리유닛은, 상기 형상데이터를 증강현실에서 360도 회전 가능한 컨텐츠로 제공하는 컨텐츠생성부;를 더 포함하고,
상기 휴대단말은,
상기 컨텐츠를 표현하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 2,
The experience user management unit further includes; a content generation unit that provides the shape data as content that can rotate 360 degrees in augmented reality,
The mobile terminal,
Augmented reality training system, characterized in that expressing the content.
제2항에 있어서,
상기 트레이닝관리유닛은, 상기 학습상태분석부와 상기 학습진도분석부 중 적어도 어느 하나의 분석 결과에 대응하여 기설정된 트레이닝정보 또는 상기 형상데이터에서 교정이 필요한 부위를 선택하는 교정선택부;를 더 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 2,
The training management unit may further include a calibration selection unit for selecting a portion to be corrected from preset training information or the shape data in response to an analysis result of at least one of the learning state analysis unit and the learning progress analysis unit. Augmented reality training system, characterized in that to.
제2항에 있어서,
상기 트레이닝관리유닛은, 기설정된 트레이닝정보와 상기 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제하는 영상복제부;를 더 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 2,
The training management unit further comprises an image duplicating unit that duplicates at least one of preset training information and the shape data in two or more.
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 체험정보수집유닛은, 체험자의 손에 착용하여 체험자의 손의 움직임을 감지하여 햅틱데이터를 생성하는 햅틱글러브;를 더 포함하고,
상기 입체변환부는,
상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합할 때, 상기 햅틱데이터를 추가로 결합하여 3차원 공간에 대한 상기 형상데이터를 보완하는 것을 특징으로 하는 증강현실 트레이닝 시스템.

The method according to any one of claims 1 to 5,
The experience information collection unit further includes a haptic glove worn on the hand of the experiencer to sense the movement of the hand of the experiencer to generate haptic data, and
The three-dimensional conversion unit,
When combining the first superimposed image and the second superimposed image corrected through the image adjustment unit, the haptic data is additionally combined to supplement the shape data for a three-dimensional space.

KR1020190113164A 2019-09-11 2019-09-11 Augmented reality training system KR102299381B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190113164A KR102299381B1 (en) 2019-09-11 2019-09-11 Augmented reality training system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190113164A KR102299381B1 (en) 2019-09-11 2019-09-11 Augmented reality training system

Publications (2)

Publication Number Publication Date
KR20210031333A true KR20210031333A (en) 2021-03-19
KR102299381B1 KR102299381B1 (en) 2021-09-06

Family

ID=75262135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190113164A KR102299381B1 (en) 2019-09-11 2019-09-11 Augmented reality training system

Country Status (1)

Country Link
KR (1) KR102299381B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102450736B1 (en) 2021-11-03 2022-10-05 이영규 Self training service system using metaverse

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160150215A (en) * 2015-06-19 2016-12-29 (주)블루클라우드 An exercising system based on augmented interactive contents and the method thereof
KR101950243B1 (en) 2018-10-17 2019-02-21 (주) 더조은 Golf training device for providing augmented reality or virtual reality experience
KR101962578B1 (en) * 2018-07-31 2019-07-17 김종범 A fitness exercise service providing system using VR

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160150215A (en) * 2015-06-19 2016-12-29 (주)블루클라우드 An exercising system based on augmented interactive contents and the method thereof
KR101962578B1 (en) * 2018-07-31 2019-07-17 김종범 A fitness exercise service providing system using VR
KR101950243B1 (en) 2018-10-17 2019-02-21 (주) 더조은 Golf training device for providing augmented reality or virtual reality experience

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102450736B1 (en) 2021-11-03 2022-10-05 이영규 Self training service system using metaverse

Also Published As

Publication number Publication date
KR102299381B1 (en) 2021-09-06

Similar Documents

Publication Publication Date Title
CN107004279A (en) Natural user interface camera calibrated
JP2022549853A (en) Individual visibility in shared space
CN106110627B (en) Sport and Wushu action correction device and method
CN110308789A (en) The method and system interacted for the mixed reality with peripheral equipment
KR101989447B1 (en) Dance motion feedback system providing video feedback to user using augmented reality
CN106055090A (en) Virtual reality and augmented reality control with mobile devices
CN103635891A (en) Massive simultaneous remote digital presence world
WO2012142202A1 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
CN110969905A (en) Remote teaching interaction and teaching aid interaction system for mixed reality and interaction method thereof
WO2019087564A1 (en) Information processing device, information processing method, and program
CN110544302A (en) Human body action reconstruction system and method based on multi-view vision and action training system
WO2013111146A2 (en) System and method of providing virtual human on human combat training operations
JP2010257081A (en) Image procession method and image processing system
KR20200025960A (en) Intelligent technology based augmented reality system
Bellarbi et al. A 3d interaction technique for selection and manipulation distant objects in augmented reality
KR102299381B1 (en) Augmented reality training system
US20170206798A1 (en) Virtual Reality Training Method and System
Kwon et al. An enhanced multi-view human action recognition system for virtual training simulator
US20230162458A1 (en) Information processing apparatus, information processing method, and program
WO2022023142A1 (en) Virtual window
Colvin et al. Multiple user motion capture and systems engineering
WO2022176450A1 (en) Information processing device, information processing method, and program
CN219302988U (en) Augmented reality device
JP2021056922A (en) Human movement support system and method thereof
KR102256607B1 (en) System and method for providing virtual reality content capable of multi-contents

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant