KR20210031333A - Augmented reality training system - Google Patents
Augmented reality training system Download PDFInfo
- Publication number
- KR20210031333A KR20210031333A KR1020190113164A KR20190113164A KR20210031333A KR 20210031333 A KR20210031333 A KR 20210031333A KR 1020190113164 A KR1020190113164 A KR 1020190113164A KR 20190113164 A KR20190113164 A KR 20190113164A KR 20210031333 A KR20210031333 A KR 20210031333A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- training
- information
- data
- shape data
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0062—Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0075—Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
- A63B2071/0638—Displaying moving images of recorded environment, e.g. virtual environment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B2071/0647—Visualisation of executed movements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/803—Motion sensors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/83—Special sensors, transducers or devices therefor characterised by the position of the sensor
- A63B2220/836—Sensors arranged on the body of the user
Landscapes
- Engineering & Computer Science (AREA)
- Physical Education & Sports Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 증강현실 트레이닝 시스템에 관한 것으로, 보다 구체적으로는 기설정된 트레이닝정보를 바탕으로 체험자가 간편하게 학습할 수 있고, 체험자의 트레이닝 상태를 증강현실에서 표현하여 체험자의 트레이닝 상태를 확인할 수 있도록 하는 증강현실 트레이닝 시스템에 관한 것이다.The present invention relates to an augmented reality training system, and more specifically, an augmented reality that allows an experienced person to learn easily based on preset training information, and expresses the experiencer's training status in augmented reality to confirm the experiencer's training status. It relates to a real training system.
일반적으로, 증강 현실(Augmented Reality)이란 가상 환경 및 가상 현실에서 파생한 용어로서, 현실 세계 위에 컴퓨터에 의해서 생성된 정보를 덧붙여 표현하는 것을 의미한다. 즉, 현실 세계 정보에는 사용자가 필요로 하지 않는 정보도 있고 때로는 사용자가 필요로 한 정보가 부족할 수도 있다. 그러나, 컴퓨터로 만든 가상 환경을 이용하면 필요로 하지 않는 정보를 단순하게 하거나 보이지 않는 정보들을 만들어낼 수도 있다. 즉, 증강 현실 시스템은 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호 작용이 이루어지도록 하는 것으로 가상 현실 시스템보다 더욱 향상된 몰입감을 제공한다는 이점이 있다.In general, augmented reality (Augmented Reality) is a term derived from a virtual environment and virtual reality, refers to the addition of information generated by a computer on the real world. That is, in the real world information, there may be information that the user does not need, and sometimes the information that the user needs may be insufficient. However, if you use a computer-generated virtual environment, you can simplify information you do not need or create invisible information. That is, the augmented reality system combines the real world with the virtual world to allow interaction with the user in real time, and has the advantage of providing a more improved sense of immersion than the virtual reality system.
또한, 현대인들은 실외의 미세먼지, 실외의 적절하지 않은 날씨 등으로 인해 실내 활동에 소요되는 시간이 증가하고 있으며, 활동성이 저하되어 비만, 우울증 등의 문제가 발생되었다. 이에 따라 최근에는 골프, 야구, 안무 등의 트레이닝에 대해 실내에서 가능한 시스템의 수요가 높아지고 있다.In addition, modern people are increasing the amount of time spent on indoor activities due to fine dust outdoors and inappropriate weather outdoors, and problems such as obesity and depression have occurred due to decreased activity. Accordingly, in recent years, there is an increasing demand for systems capable of indoors for training such as golf, baseball, and choreography.
본 발명의 목적은 종래의 문제점을 해결하기 위한 것으로서, 기설정된 트레이닝정보를 바탕으로 체험자가 간편하게 학습할 수 있고, 체험자의 트레이닝 상태를 증강현실에서 표현하여 체험자의 트레이닝 상태를 확인할 수 있도록 하는 증강현실 트레이닝 시스템을 제공함에 있다.An object of the present invention is to solve the problems of the prior art, and an augmented reality that allows an experienced person to easily learn based on preset training information, and to check the training status of an experienced person by expressing the experience person's training status in augmented reality. It is to provide a training system.
상술한 본 발명의 목적을 달성하기 위한 바람직한 실시예에 따르면, 본 발명에 따른 증강현실 트레이닝 시스템은 체험자의 동작정보를 수집하는 체험정보수집유닛; 상기 체험자의 동작정보를 3차원으로 형상화하여 형상데이터를 생성하는 체험자관리유닛; 상기 형상데이터와 기설정된 트레이닝정보를 비교 분석하여 상태데이터를 생성하는 학습상태분석부와, 기설정된 트레이닝정보에 대응하여 현재의 형상데이터와 이전의 형상데이터를 비교 분석하여 진도데이터를 생성하는 학습진도분석부 중 적어도 어느 하나를 포함하여 분석데이터를 생성하는 트레이닝관리유닛; 및 체험자의 식별을 위한 체험자정보와, 체험자의 동작정보와, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터가 저장되는 트레이닝서버;를 포함한다.According to a preferred embodiment for achieving the object of the present invention described above, the augmented reality training system according to the present invention includes an experience information collection unit that collects motion information of an experienced person; An experience user management unit for generating shape data by shaping the motion information of the experienced person in three dimensions; A learning state analysis unit that compares and analyzes the shape data and preset training information to generate state data, and a learning progress that generates progress data by comparing and analyzing the current shape data and previous shape data in response to the preset training information. A training management unit for generating analysis data including at least one of the analysis units; And a training server in which the experience user information for identification of the experience person, motion information of the experience person, preset training information, the shape data, and the analysis data are stored.
여기서, 상기 체험정보수집유닛은, 체험자를 기준으로 상호 이격된 임의의 3점 이상에서 체험자를 촬영하여 임의 지점별 체험자에 대한 촬영데이터를 생성하는 카메라유닛; 및 상기 카메라유닛에 대한 기설정된 위치정보와 매칭되어 체험자에게 출력된 빛(레이저)의 반사를 추출하여 체험자의 동작정보에 대한 라이다데이터를 생성하는 라이다유닛;을 포함한다.Here, the experience information collection unit includes: a camera unit that photographs an experienced person at three or more points spaced apart from each other based on the experience person and generates photographing data for the experience person at each point; And a lidar unit that generates lidar data for motion information of the experiencer by extracting reflection of light (laser) output to the experiencer by matching with preset location information for the camera unit.
여기서, 상기 체험자관리유닛은, 임의 지점별 체험자에 대한 촬영데이터를 3차원 공간에서 중첩시켜 제1중첩영상을 형성하는 영상계산부; 임의 지점별 체험자에 대한 촬영데이터로부터 3차원 공간에 대해 상대적인 깊이 알고리즘을 사용하여 상기 제1중첩영상을 1차 보정하는 영상조정부; 임의 지점별 체험자에 대한 라이다데이터를 3차원 공간에서 중첩시켜 제2중첩영상을 형성하는 라이다계산부; 및 상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합하여 3차원 공간에 대한 형상데이터로 변환시키는 입체변환부;를 포함한다.Here, the experience user management unit includes: an image calculation unit for forming a first superimposed image by superimposing photographing data on an experience person for each point in a three-dimensional space; An image adjustment unit for primary correction of the first superimposed image using a depth algorithm relative to the three-dimensional space from the photographing data of the experienced person at each point; A lidar calculation unit for forming a second superimposed image by superimposing lidar data on the experienced person at each point in a three-dimensional space; And a three-dimensional conversion unit that combines the first superimposed image and the second superimposed image corrected through the image adjustment unit and converts the first superimposed image into shape data for a three-dimensional space.
본 발명에 따른 증강현실 트레이닝 시스템은 상기 체험자정보와 매칭되어 상기 트레이닝서버와 유선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 기설정된 트레이닝정보를 영상으로 표현하는 트레이닝표시유닛; 및 상기 체험자정보에 매칭되어 상기 트레이닝서버와 무선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 상기 형상데이터를 증강현실에서 영상으로 표현하는 휴대단말; 중 적어도 어느 하나를 더 포함한다.The augmented reality training system according to the present invention is matched with the experience user information and communicated with the training server by wire, and a training display expressing at least preset training information among preset training information, the shape data, and the analysis data as an image unit; And a mobile terminal that is matched with the experience user information and wirelessly communicates with the training server, and expresses at least the shape data of preset training information, the shape data, and the analysis data as an image in augmented reality. It further includes at least any one of.
여기서, 상기 체험자관리유닛은, 상기 형상데이터를 증강현실에서 360도 회전 가능한 컨텐츠로 제공하는 컨텐츠생성부;를 더 포함하고, 상기 휴대단말은, 상기 컨텐츠를 표현한다.Here, the experience user management unit further includes a content generation unit that provides the shape data as content that can be rotated 360 degrees in augmented reality, wherein the mobile terminal expresses the content.
여기서, 상기 트레이닝관리유닛은, 상기 학습상태분석부와 상기 학습진도분석부 중 적어도 어느 하나의 분석 결과에 대응하여 기설정된 트레이닝정보 또는 상기 형상데이터에서 교정이 필요한 부위를 선택하는 교정선택부;를 더 포함한다.Here, the training management unit includes: a calibration selection unit for selecting a portion to be corrected from preset training information or the shape data in response to an analysis result of at least one of the learning state analysis unit and the learning progress analysis unit; Include more.
여기서, 상기 트레이닝관리유닛은, 기설정된 트레이닝정보와 상기 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제하는 영상복제부;를 더 포함한다.Here, the training management unit further includes an image duplication unit that duplicates at least one of the preset training information and the shape data in two or more.
여기서, 상기 체험정보수집유닛은, 체험자의 손에 착용하여 체험자의 손의 움직임을 감지하여 햅틱데이터를 생성하는 햅틱글러브;를 더 포함하고, 상기 입체변환부는, 상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합할 때, 상기 햅틱데이터를 추가로 결합하여 3차원 공간에 대한 상기 형상데이터를 보완한다.Here, the experience information collecting unit further includes a haptic glove worn on the hand of the experiencer to sense the movement of the hand of the experiencer to generate haptic data, wherein the three-dimensional conversion unit comprises: a first corrected by the image adjusting unit When the superimposed image and the second superimposed image are combined, the haptic data is further combined to supplement the shape data for a three-dimensional space.
여기서, 상기 체험정보수집유닛은, 체험자의 신체에 결합되는 다수의 적외선마커; 및 상기 카메라유닛에 대한 기설정된 위치정보와 매칭되어 상기 적외선마커의 위치를 추출하여 마커데이터를 생성하는 적외선카메라;를 더 포함하고, 상기 마커데이터는, 상기 영상조정부에서 1차 보정된 상기 제1중첩영상과 결합하여 상기 제1중첩영상을 2차 보정하거나, 상기 입체변환부에서 상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합할 때, 추가로 결합하여 3차원 공간에 대한 상기 형상데이터를 보완한다.Here, the experience information collection unit includes: a plurality of infrared markers coupled to the body of the experiencer; And an infrared camera that is matched with preset position information for the camera unit to extract the position of the infrared marker to generate marker data, wherein the marker data is the first corrected by the image adjustment unit. When the first superimposed image is secondarily corrected by combining with the superimposed image, or when the first superimposed image and the second superimposed image corrected through the image adjustment unit are combined in the stereoscopic conversion unit, the three-dimensional space is further combined. The shape data for is supplemented.
여기서, 상기 체험정보수집유닛은, 기설정된 트레이닝정보에 대응하여 체험자의 특정 부위에 부착되는 기준스티커;를 더 포함하고, 상기 트레이닝관리유닛은, 상기 기준스티커와 기설정된 트레이닝정보에 포함된 기준정보를 매칭시키는 체험자매칭부;를 더 포함한다.Here, the experience information collection unit further includes a reference sticker attached to a specific part of the experienced person in response to preset training information, and the training management unit further includes the reference sticker and reference information included in the preset training information It further includes; experience matching unit for matching.
여기서, 상기 트레이닝관리유닛은, 상기 형상데이터에 포함된 체험자의 기초자세와 기설정된 트레이닝정보에 포함된 트레이닝자세를 매칭시키는 체험자매칭부;를 더 포함한다.Here, the training management unit further includes an experienced person matching unit for matching the basic posture of the experienced person included in the shape data with the training posture included in the preset training information.
본 발명에 따른 증강현실 트레이닝 시스템에 따르면, 기설정된 트레이닝정보를 바탕으로 체험자가 간편하게 학습할 수 있고, 체험자의 트레이닝 상태를 증강현실에서 표현하여 체험자의 트레이닝 상태를 확인할 수 있다.According to the augmented reality training system according to the present invention, the experiencer can easily learn based on preset training information, and the training status of the experiencer can be confirmed by expressing the training status of the experiencer in augmented reality.
또한, 본 발명은 카메라유닛을 통해 체험자의 움직임을 그대로 획득할 수 있고, 라이다유닛을 통해 체험자의 움직임에 대한 깊이정보를 획득할 수 있으며, 상기 체험자관리유닛의 세부 구성을 통해 형상데이터에서 체험자의 움직임에 따른 입체감을 표현할 수 있다.In addition, according to the present invention, the movement of the experiencer can be obtained as it is through the camera unit, the depth information on the movement of the experiencer can be obtained through the lidar unit, and the experiencer from the shape data through the detailed configuration of the experiencer management unit. You can express a three-dimensional effect according to the movement of
또한, 본 발명은 트레이닝표시유닛과 휴대단말 중 적어도 어느 하나를 통해 체험자의 학습을 위한 기설정된 트레이닝정보 및 체험자의 트레이닝 상태를 간편하게 확인할 수 있다.In addition, according to the present invention, it is possible to conveniently check preset training information for learning of the experiencer and the training state of the experiencer through at least one of the training display unit and the portable terminal.
또한, 본 발명은 컨텐츠생성부를 통해 체험자의 트레이닝 상태를 다양한 각도에서 확인할 수 있다.In addition, the present invention can check the training status of the experiencer from various angles through the content generation unit.
또한, 본 발명은 교정선택부를 통해 트레이닝관리유닛의 분석 결과에 대응하여 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)를 보다 자세하게 확인할 수 있고, 교정이 필요한 부위에 대해 체험자의 트레이닝 상태를 자세하게 확인할 수 있다.In addition, the present invention is to check in more detail the areas requiring correction (eg, head, torso, arms, inclination of legs, rotation of the waist, position of the hips, etc.) in response to the analysis result of the training management unit through the correction selection unit. You can check the training status of the experienced person in detail for the area that needs correction.
또한, 본 발명은 영상복제부를 통해 증강현실에서 기설정된 트레이닝정보와 형상데이터를 둘 이상으로 표현할 수 있고, 기설정된 트레이닝정보가 안무에 대응되는 경우, 군무 또는 그룹 영상으로 재생 가능하며, 영상복제부의 조절 상태에 따라 단순 복사에 그치지 않고 다수가 촬영한 영상인 것처럼 재생 가능하다.In addition, the present invention can express two or more preset training information and shape data in augmented reality through the image replicating unit, and when the preset training information corresponds to the choreography, it is possible to reproduce the group dance or group image, and Depending on the adjustment status, it can be reproduced as if it were a video shot by many people, not just copying.
또한, 본 발명은 햅틱글러브를 통해 기설정된 트레이닝정보가 체험자가 도구를 파지하여 학습에 참여하는 경우, 체험자로 하여금 도구의 파지 상태를 자세하게 확인할 수 있다.In addition, according to the present invention, when the training information preset through the haptic glove participates in learning by gripping the tool, the experiencer can check the gripping state of the tool in detail.
또한, 본 발명은 적외선마커 및 적외선카메라를 통해 촬영데이터를 추가 보정하거나, 형상데이터의 정확도를 향상시킬 수 있다.In addition, according to the present invention, photographing data may be additionally corrected through an infrared marker and an infrared camera, or accuracy of shape data may be improved.
또한, 본 발명은 체험자매칭부를 통해 형상데이터의 방향와 기설정된 트레이닝정보의 방향을 보다 정확하게 일치시키고, 트레이닝관리유닛의 분석 결과에 대한 신뢰도를 향상시킬 수 있다.In addition, the present invention can more accurately match the direction of the shape data and the direction of preset training information through the experience person matching unit, and improve the reliability of the analysis result of the training management unit.
도 1은 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템을 도시한 평면도이다.
도 2는 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템을 도시한 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템에서 햅틱글러브를 도시한 평면도이다.1 is a plan view showing an augmented reality training system according to an embodiment of the present invention.
2 is a block diagram showing an augmented reality training system according to an embodiment of the present invention.
3 is a plan view showing a haptic glove in an augmented reality training system according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명에 따른 증강현실 트레이닝 시스템의 일 실시예를 설명한다. 이때, 본 발명은 실시예에 의해 제한되거나 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 공지된 기능 혹은 구성에 대해 구체적인 설명은 본 발명의 요지를 명확하게 하기 위해 생략될 수 있다.Hereinafter, an embodiment of an augmented reality training system according to the present invention will be described with reference to the accompanying drawings. At this time, the present invention is not limited or limited by the examples. In addition, in describing the present invention, detailed descriptions of known functions or configurations may be omitted to clarify the gist of the present invention.
도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 증강현실 트레이닝 시스템은 체험정보수집유닛(10)과, 체험자관리유닛(20)과, 트레이닝관리유닛(30)과, 트레이닝서버(50)를 포함하고, 트레이닝표시유닛(40)과 휴대단말(60) 중 적어도 어느 하나를 더 포함할 수 있다.1 to 3, the augmented reality training system according to an embodiment of the present invention includes an experience
여기서, 사용자인터페이스는 터치스크린, 키패드, 키보드, 스타일러스, 다른 입력장치와 같은 하나 이상의 입력 장치를 포함할 수 있다. 일예로, 사용자인터페이스에는 휴대단말(60)에 구비되는 터치스크린이 포함될 수 있다.Here, the user interface may include one or more input devices such as a touch screen, a keypad, a keyboard, a stylus, and other input devices. For example, the user interface may include a touch screen provided in the
체험정보수집유닛(10)은 체험자(T)의 동작정보를 수집한다.The experience
그러면, 사용자인터페이스에 시작신호가 입력되면, 트레이닝표시유닛(40)이 동작되어 기설정된 트레이닝정보가 시각적, 청각적으로 표현되고, 체험정보수집유닛(10)이 동작되어 체험영역(S)에 위치한 체험자(T)의 동작정보를 수집할 수 있다. 이때, 체험영역(S)에서 체험자(T)가 검색되지 않으면, 알람을 발생시킬 수 있다.Then, when the start signal is input to the user interface, the
체험정보수집유닛(10)은 체험자(T)를 기준으로 상호 이격된 임의의 3점 이상에서 체험자(T)를 촬영하여 임의 지점별 체험자(T)에 대한 촬영데이터를 생성하는 카메라유닛(11)과, 카메라유닛(11)에 대한 기설정된 위치정보와 매칭되어 체험자(T)에게 출력된 빛(레이저)의 반사를 추출하여 체험자(T)의 동작정보에 대한 라이다데이터를 생성하는 라이다유닛을 포함할 수 있다.The experience
본 발명의 일 실시예에서 카메라유닛(11)과 라이다유닛(12)은 각각 체험영역(S)을 기준으로 체험영역(S)의 둘레를 따라 3개가 상호 이격되어 가상의 삼각형의 꼭지점에 배치된 구조를 나타내지만, 카메라유닛(11)의 개수 및 위치를 한정하는 것은 아니고, 가상의 다각형의 꼭지점, 가상의 사면체의 꼭지점 등 공지된 다양한 형태를 통해 체험영역(S)에서 움직이는 체험자(T)를 안정되게 촬영할 수 있다.In one embodiment of the present invention, the
체험정보수집유닛(10)은 체험자(T)의 신체에 결합되는 다수의 적외선마커(13)와, 카메라유닛(11)에 대한 기설정된 위치정보와 매칭되어 적외선마커(13)의 위치를 추출하여 마커데이터를 생성하는 적외선카메라(14)를 더 포함할 수 있다.The experience
체험정보수집유닛(10)은 체험자(T)의 손에 착용하여 체험자(T)의 손의 움직임을 감지하여 햅틱데이터를 생성하는 햅틱글러브(15)를 더 포함할 수 있다. 햅틱글러브(15)에는 체험자(T)의 손의 움직임을 감지하는 굽힘센서(151)와, 체험자(T)의 손에 접촉되는 도구의 접촉 상태를 감지하는 접촉센서(152) 중 적어도 어느 하나가 구비될 수 있다.The experience
체험정보수집유닛(10)은 기설정된 트레이닝정보에 대응하여 체험자(T)의 특정 부위에 부착되는 기준스티커(미도시)를 더 포함할 수 있다. 일예로, 기준스티커(미도시)는 체험자(T)의 가슴 부위에 부착되는 타겟부를 포함할 수 있다.The experience
체험자관리유닛(20)은 체험자(T)의 동작정보를 3차원으로 형상화하여 형상데이터를 생성한다.The experience
체험자관리유닛(20)은 임의 지점별 체험자(T)에 대한 촬영데이터를 3차원 공간에서 중첩시켜 제1중첩영상을 형성하는 영상계산부(21)와, 임의 지점별 체험자(T)에 대한 촬영데이터로부터 3차원 공간에 대해 상대적인 깊이 알고리즘을 사용하여 제1중첩영상을 1차 보정하는 영상조정부(22)와, 임의 지점별 체험자(T)에 대한 라이다데이터를 3차원 공간에서 중첩시켜 제2중첩영상을 형성하는 라이다계산부(23)와, 영상조정부(22)를 통해 보정된 제1중첩영상과 제2중첩영상을 결합하여 3차원 공간에 대한 형상데이터로 변환시키는 입체변환부(24)를 포함할 수 있다.The experience
그러면, 촬영데이터와 라이다데이터는 시계열 순서에 따라 선입선출방식으로 영상계산부(21)와 라이다계산부(23)에 전달되고, 영상계산부(21)와 영상조정부(22)와 라이다계산부(23)와 입체변환부(24)를 통해 형상데이터로 변환된다. 여기서, 기설정된 트레이닝정보는 단위프레임별, 단위시간별로 시계열 순서에 따라 분할되어 연속적으로 표현될 수 있고, 이에 대응하여 형상데이터는 단위프레임별, 단위시간별로 시계열 순서에 따라 분할될 수 있다.Then, the photographing data and the lidar data are transmitted to the
체험정보수집유닛(10)이 햅틱글러브(15)를 포함하는 경우, 입체변환부(24)는 영상조정부(22)를 통해 보정된 제1중첩영상과 제2중첩영상을 결합할 때, 햅틱데이터를 추가로 결합하여 3차원 공간에 대한 형상데이터를 보완할 수 있다.When the experience
체험정보수집유닛(10)이 적외선카메라(14)를 포함하는 경우, 영상조정부(22)는 1차 보정된 제1중첩영상과 마커데이터를 결합하여 제1중첩영상을 2차 보정하거나, 입체변환부(24)는 영상조정부를 통해 보정된 제1중첩영상과 제2중첩영상을 결합할 때, 마커데이터를 추가로 결합하여 3차원 공간에 대한 형상데이터를 보완할 수 있다.When the experience
다른 표현으로, 체험정보수집유닛(10)이 적외선카메라(14)를 포함하는 경우, 마커데이터는 영상조정부(22)에서 1차 보정된 제1중첩영상과 결합하여 제1중첩영상을 2차 보정하거나, 입체변환부(24)에서 영상조정부(22)를 통해 보정된 제1중첩영상과 제2중첩영상을 결합할 때 추가로 결합하여 3차원 공간에 대한 형상데이터를 보완할 수 있다.In other words, when the experience
체험자관리유닛(20)은 형상데이터를 증강현실에서 360도 회전 가능한 컨텐츠로 제공하는 컨텐츠생성부(25)를 더 포함할 수 있다.The experience
그러면, 사용자인터페이스에 컨텐츠재생신호가 입력되면, 트레이닝서버(50)의 컨텐츠저장부(56)에 저장된 컨텐츠가 휴대단말(60)에 전송되고, 휴대단말(60)에서는 증강현실에서 컨텐츠를 시각적, 청각적으로 표현할 수 있다.Then, when a content reproduction signal is input to the user interface, the content stored in the
트레이닝관리유닛(30)은 형상데이터를 비교 분석하여 분석데이터를 생성한다.The
트레이닝관리유닛(30)은 형상데이터와 기설정된 트레이닝정보를 비교 분석하여 상태데이터를 생성하는 학습상태분석부(32)와, 기설정된 트레이닝정보에 대응하여 현재의 형상데이터와 이전의 형상데이터를 비교 분석하여 진도데이터를 생성하는 학습진도분석부(33) 중 적어도 어느 하나를 포함할 수 있다.The
이에 따라, 분석데이터에는 상태데이터와 형상데이터 중 적어도 어느 하나를 포함할 수 있다.Accordingly, the analysis data may include at least one of state data and shape data.
트레이닝관리유닛(30)은 학습상태분석부(32)와 학습진도분석부(33) 중 적어도 어느 하나의 분석 결과에 대응하여 기설정된 트레이닝정보 또는 형상데이터에서 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)를 선택하는 교정선택부(34)를 더 포함할 수 있다.The
그러면, 사용자인터페이스는 트레이닝표시유닛(40)에 표현되는 기설정된 트레이닝정보 또는 휴대단말(60)에 표현되는 형상데이터에서 교정이 필요한 위치를 입력할 수 있고, 교정선택부(34)는 입력된 위치를 포함하여 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)로 선택할 수 있다.Then, the user interface may input a position that requires correction from preset training information expressed on the
트레이닝관리유닛(30)은 기설정된 트레이닝정보와 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제하는 영상복제부(35)를 더 포함할 수 있다.The
그러면, 사용자인터페이스에 복제신호가 입력되면, 영상복제부(35)는 기설정된 트레이닝정보와 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제할 수 있다.Then, when a duplicate signal is input to the user interface, the
일예로, 체험정보수집유닛(10)이 기준스티커(미도시)를 포함하는 경우, 트레이닝관리유닛(30)은 기준스티커(미도시)와 기설정된 트레이닝정보에 포함된 기준정보를 매칭시키는 체험자매칭부(31)를 더 포함할 수 있다.For example, when the experience
다른 예로, 트레이닝관리유닛(30)은 형상데이터에 포함된 체험자(T)의 기초자세와 기설정된 트레이닝정보에 포함된 트레이닝자세를 매칭시키는 체험자매칭부(31)를 더 포함할 수 있다. 여기서, 체험자(T)의 기초자세는 최초 체험영역(S)에서 기설정된 트레이닝정보에 포함된 트레이닝자세에 따라 체험정보수집유닛(10)이 체험자(T)의 동작정보 중 일부로써 수집될 수 있다.As another example, the
트레이닝서버(50)는 체험자(T)의 식별을 위한 체험자정보와, 체험자(T)의 동작정보와, 기설정된 트레이닝정보와, 형상데이터와, 분석데이터가 저장된다. 트레이닝서버(50)에 저장되는 데이터는 체험자(T)의 동작정보에 대응하여 갱신될 수 있다.The
트레이닝서버(50)에는 체험자정보가 저장되는 체험자정보저장부(51), 기설정된 트레이닝정보가 저장되는 트레이닝정보저장부(52), 체험자(T)의 동작정보 중 촬영데이터와 햅틱글러브(15)에서 생성되는 햅틱데이터와 적외선카메라(14)에서 생성되는 마커데이터와 영상계산부(21)에서 생성되는 제1중첩영상과 영상조정부(22)에서 생성되는 보정영상이 상호 매칭되어 저장되는 영상저장부(53)와, 라이다유닛(12)에서 생성되는 라이다데이터와 라이다계산부(23)에서 생성되는 제2중첩영상이 상호 매칭되어 저장되는 라이다저장부(54)와, 입체변환부(24)에서 생성되는 형상데이터가 저장되는 입체저장부(55)와, 컨텐츠생성부(25)에서 생성되는 컨텐츠가 저장되는 컨텐츠저장부(56)와, 학습상태분석부(32)에서 생성되는 상태데이터와 학습진도분석부(33)에서 생성되는 진도데이터가 저장되는 분석저장부(57)가 포함될 수 있다.The
또한, 트레이닝서버(50)에는 휴대단말(60)과 무선 통신하는 단말통신부(58)가 더 포함될 수 있다.In addition, the
체험자정보는 휴대단말(60)과의 무선 통신을 통해 휴대단말(60)의 단말정보에서 추출하거나, 사용자인터페이스를 통해 입력될 수 있다.The experience user information may be extracted from terminal information of the
트레이닝표시유닛(40)은 체험자정보와 매칭되어 트레이닝서버(50)와 유선 또는 무선 통신되고, 기설정된 트레이닝정보와, 형상데이터와, 분석데이터 중 적어도 기설정된 트레이닝정보를 영상으로 표현한다. 트레이닝표시유닛(40)은 사용자인터페이스에 입력되는 시작신호 또는 별도의 표시신호에 따라 적어도 기설정된 트레이닝정보를 영상으로 표현할 수 있다.The
여기서, 트레이닝표시유닛(40)을 한정하는 것은 아니고, 홀로그램, 디스플레이 등 공지된 다양한 형태를 나타낼 수 있다.Here, the
휴대단말(60)은 체험자정보에 매칭되어 트레이닝서버(50)와 무선 통신되고, 기설정된 트레이닝정보와, 형상데이터와, 분석데이터 중 적어도 형상데이터를 증강현실에서 영상으로 표현한다.The
체험자관리유닛(20)이 컨텐츠생성부(25)를 포함하는 경우, 휴대단말(60)은 컨텐츠재생신호에 따라 컨텐츠생성부(25)에서 제공하는 컨텐츠를 표현할 수 있다.When the experience
휴대단말(60)에는 트레이닝서버(50)와 연동되는 트레이닝앱이 설치된다.A training app that works with the
상술한 증강현실 트레이닝 시스템에 따르면, 기설정된 트레이닝정보를 바탕으로 체험자(T)가 간편하게 학습할 수 있고, 체험자(T)의 트레이닝 상태를 증강현실에서 표현하여 체험자(T)의 트레이닝 상태를 확인할 수 있다.According to the augmented reality training system described above, the experienced person T can easily learn based on preset training information, and the training status of the experienced person T can be checked by expressing the training status of the experienced person T in augmented reality. have.
또한, 카메라유닛(11)을 통해 체험자(T)의 움직임을 그대로 획득할 수 있고, 라이다유닛(12)을 통해 체험자(T)의 움직임에 대한 깊이정보를 획득할 수 있으며, 상기 체험자관리유닛(20)의 세부 구성을 통해 형상데이터에서 체험자(T)의 움직임에 따른 입체감을 표현할 수 있다.In addition, through the
또한, 트레이닝표시유닛(40)과 휴대단말(60) 중 적어도 어느 하나를 통해 체험자(T)의 학습을 위한 기설정된 트레이닝정보 및 체험자(T)의 트레이닝 상태를 간편하게 확인할 수 있다.In addition, preset training information for learning of the experienced person T and the training state of the experienced person T can be easily checked through at least one of the
또한, 컨텐츠생성부(25)를 통해 체험자(T)의 트레이닝 상태를 다양한 각도에서 확인할 수 있다.In addition, through the
또한, 교정선택부(34)를 통해 트레이닝관리유닛(30)의 분석 결과에 대응하여 교정이 필요한 부위(일예로, 머리, 몸통, 팔, 다리의 기울기, 허리의 회전 상태, 엉덩이의 위치 등)를 보다 자세하게 확인할 수 있고, 교정이 필요한 부위에 대해 체험자(T)의 트레이닝 상태를 자세하게 확인할 수 있다.In addition, the area that needs correction in response to the analysis result of the
또한, 영상복제부(35)를 통해 증강현실에서 기설정된 트레이닝정보와 형상데이터를 둘 이상으로 표현할 수 있고, 기설정된 트레이닝정보가 안무에 대응되는 경우, 군무 또는 그룹 영상으로 재생 가능하며, 영상복제부(35)의 조절 상태에 따라 단순 복사에 그치지 않고 다수가 촬영한 영상인 것처럼 재생 가능하다.In addition, it is possible to express two or more preset training information and shape data in augmented reality through the
또한, 햅틱글러브(15)를 통해 기설정된 트레이닝정보가 체험자(T)가 도구를 파지하여 학습에 참여하는 경우, 체험자(T)로 하여금 도구의 파지 상태를 자세하게 확인할 수 있다.In addition, when training information preset through the
또한, 적외선마커(13) 및 적외선카메라(14)를 통해 촬영데이터를 추가 보정하거나, 형상데이터의 정확도를 향상시킬 수 있다.In addition, the photographing data may be additionally corrected through the
또한, 체험자매칭부(31)를 통해 형상데이터의 방향와 기설정된 트레이닝정보의 방향을 보다 정확하게 일치시키고, 트레이닝관리유닛(30)의 분석 결과에 대한 신뢰도를 향상시킬 수 있다.In addition, it is possible to more accurately match the direction of the shape data and the direction of preset training information through the experience
상술한 바와 같이 도면을 참조하여 본 발명의 바람직한 실시예를 설명하였지만, 해당 기술분야의 숙련된 당업자라면, 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변경시킬 수 있다.As described above, preferred embodiments of the present invention have been described with reference to the drawings, but those skilled in the art will variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. Can be modified or changed.
10: 체험정보수집유닛
11: 카메라유닛
12: 라이다유닛
13: 적외선마커
14: 적외선카메라
15: 햅틱글러브
151: 굽힘센서
152: 접촉센서
20: 체험자관리유닛
21: 영상계산부
22: 영상조정부
23: 라이다계산부
24: 입체변환부
25: 컨텐츠생성부
30: 트레이닝관리유닛
31: 체험자매칭부
32: 학습상태분석부
33: 학습진도분석부
34: 교정선택부
35: 영상복제부
40: 트레이닝표시유닛
50: 트레이닝서버
51: 체험자정보저장부
52: 트레이닝정보저장부
53: 영상저장부
54: 라이다저장부
55: 입체저장부
56: 컨텐츠저장부
57: 분석저장부
58: 단말통신부
60: 휴대단말
T: 체험자
S: 체험영역10: experience information collection unit 11: camera unit 12: lidar unit
13: infrared marker 14: infrared camera 15: haptic gloves
151: bending sensor 152: contact sensor 20: experience user management unit
21: image calculation unit 22: image adjustment unit 23: lidar calculation unit
24: three-dimensional conversion unit 25: content generation unit 30: training management unit
31: experience matching unit 32: learning state analysis unit 33: learning progress analysis unit
34: correction selection unit 35: image reproduction unit 40: training display unit
50: training server 51: experience user information storage unit 52: training information storage unit
53: image storage unit 54: lidar storage unit 55: stereoscopic storage unit
56: content storage unit 57: analysis storage unit 58: terminal communication unit
60: mobile terminal T: experienced person S: experience area
Claims (6)
상기 체험자의 동작정보를 3차원으로 형상화하여 형상데이터를 생성하는 체험자관리유닛;
상기 형상데이터와 기설정된 트레이닝정보를 비교 분석하여 상태데이터를 생성하는 학습상태분석부와, 기설정된 트레이닝정보에 대응하여 현재의 형상데이터와 이전의 형상데이터를 비교 분석하여 진도데이터를 생성하는 학습진도분석부 중 적어도 어느 하나를 포함하여 분석데이터를 생성하는 트레이닝관리유닛; 및
체험자의 식별을 위한 체험자정보와, 체험자의 동작정보와, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터가 저장되는 트레이닝서버;를 포함하고,
상기 체험정보수집유닛은,
체험자를 기준으로 상호 이격된 임의의 3점 이상에서 체험자를 촬영하여 임의 지점별 체험자에 대한 촬영데이터를 생성하는 카메라유닛; 및
상기 카메라유닛에 대한 기설정된 위치정보와 매칭되어 체험자에게 출력된 빛(레이저)의 반사를 추출하여 체험자의 동작정보에 대한 라이다데이터를 생성하는 라이다유닛;을 포함하며,
상기 체험자관리유닛은,
임의 지점별 체험자에 대한 촬영데이터를 3차원 공간에서 중첩시켜 제1중첩영상을 형성하는 영상계산부;
임의 지점별 체험자에 대한 촬영데이터로부터 3차원 공간에 대해 상대적인 깊이 알고리즘을 사용하여 상기 제1중첩영상을 1차 보정하는 영상조정부;
임의 지점별 체험자에 대한 라이다데이터를 3차원 공간에서 중첩시켜 제2중첩영상을 형성하는 라이다계산부; 및
상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합하여 3차원 공간에 대한 형상데이터로 변환시키는 입체변환부;를 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
An experience information collection unit that collects motion information of an experienced person;
An experience user management unit for generating shape data by shaping the motion information of the experienced person in three dimensions;
A learning state analysis unit that compares and analyzes the shape data and preset training information to generate state data, and a learning progress that generates progress data by comparing and analyzing the current shape data and previous shape data in response to the preset training information. A training management unit for generating analysis data including at least one of the analysis units; And
Including; a training server for storing the experience person information for identification of the experience person, the experience person's motion information, preset training information, the shape data, and the analysis data,
The experience information collection unit,
A camera unit that photographs the experienced person at three or more points separated from each other based on the experienced person, and generates photographing data for the experienced person at each point; And
Including; a lidar unit for generating lidar data on the motion information of the experiencer by extracting the reflection of light (laser) output to the experiencer by matching with preset location information of the camera unit,
The experience user management unit,
An image calculation unit for forming a first superimposed image by superimposing photographing data on an experienced person at each point in a three-dimensional space;
An image adjustment unit for primary correction of the first superimposed image using a depth algorithm relative to the three-dimensional space from the photographing data of the experienced person at each point;
A lidar calculation unit for forming a second superimposed image by superimposing lidar data on the experienced person at each point in a three-dimensional space; And
And a three-dimensional conversion unit that combines the first superimposed image and the second superimposed image corrected through the image adjustment unit and converts it into shape data for a three-dimensional space.
상기 체험자정보와 매칭되어 상기 트레이닝서버와 유선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 기설정된 트레이닝정보를 영상으로 표현하는 트레이닝표시유닛; 및
상기 체험자정보에 매칭되어 상기 트레이닝서버와 무선 통신되고, 기설정된 트레이닝정보와, 상기 형상데이터와, 상기 분석데이터 중 적어도 상기 형상데이터를 증강현실에서 영상으로 표현하는 휴대단말;
중 적어도 어느 하나를 더 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 1,
A training display unit that matches the experience user information and communicates with the training server by wire, and expresses at least preset training information from among preset training information, the shape data, and the analysis data as an image; And
A mobile terminal that is matched with the experience user information and wirelessly communicates with the training server, and expresses at least the shape data of preset training information, the shape data, and the analysis data as an image in augmented reality;
Augmented reality training system, characterized in that it further comprises at least any one of.
상기 체험자관리유닛은, 상기 형상데이터를 증강현실에서 360도 회전 가능한 컨텐츠로 제공하는 컨텐츠생성부;를 더 포함하고,
상기 휴대단말은,
상기 컨텐츠를 표현하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 2,
The experience user management unit further includes; a content generation unit that provides the shape data as content that can rotate 360 degrees in augmented reality,
The mobile terminal,
Augmented reality training system, characterized in that expressing the content.
상기 트레이닝관리유닛은, 상기 학습상태분석부와 상기 학습진도분석부 중 적어도 어느 하나의 분석 결과에 대응하여 기설정된 트레이닝정보 또는 상기 형상데이터에서 교정이 필요한 부위를 선택하는 교정선택부;를 더 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 2,
The training management unit may further include a calibration selection unit for selecting a portion to be corrected from preset training information or the shape data in response to an analysis result of at least one of the learning state analysis unit and the learning progress analysis unit. Augmented reality training system, characterized in that to.
상기 트레이닝관리유닛은, 기설정된 트레이닝정보와 상기 형상데이터 중 적어도 어느 하나를 둘 이상으로 복제하는 영상복제부;를 더 포함하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method of claim 2,
The training management unit further comprises an image duplicating unit that duplicates at least one of preset training information and the shape data in two or more.
상기 체험정보수집유닛은, 체험자의 손에 착용하여 체험자의 손의 움직임을 감지하여 햅틱데이터를 생성하는 햅틱글러브;를 더 포함하고,
상기 입체변환부는,
상기 영상조정부를 통해 보정된 제1중첩영상과 상기 제2중첩영상을 결합할 때, 상기 햅틱데이터를 추가로 결합하여 3차원 공간에 대한 상기 형상데이터를 보완하는 것을 특징으로 하는 증강현실 트레이닝 시스템.
The method according to any one of claims 1 to 5,
The experience information collection unit further includes a haptic glove worn on the hand of the experiencer to sense the movement of the hand of the experiencer to generate haptic data, and
The three-dimensional conversion unit,
When combining the first superimposed image and the second superimposed image corrected through the image adjustment unit, the haptic data is additionally combined to supplement the shape data for a three-dimensional space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190113164A KR102299381B1 (en) | 2019-09-11 | 2019-09-11 | Augmented reality training system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190113164A KR102299381B1 (en) | 2019-09-11 | 2019-09-11 | Augmented reality training system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210031333A true KR20210031333A (en) | 2021-03-19 |
KR102299381B1 KR102299381B1 (en) | 2021-09-06 |
Family
ID=75262135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190113164A KR102299381B1 (en) | 2019-09-11 | 2019-09-11 | Augmented reality training system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102299381B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102450736B1 (en) | 2021-11-03 | 2022-10-05 | 이영규 | Self training service system using metaverse |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160150215A (en) * | 2015-06-19 | 2016-12-29 | (주)블루클라우드 | An exercising system based on augmented interactive contents and the method thereof |
KR101950243B1 (en) | 2018-10-17 | 2019-02-21 | (주) 더조은 | Golf training device for providing augmented reality or virtual reality experience |
KR101962578B1 (en) * | 2018-07-31 | 2019-07-17 | 김종범 | A fitness exercise service providing system using VR |
-
2019
- 2019-09-11 KR KR1020190113164A patent/KR102299381B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160150215A (en) * | 2015-06-19 | 2016-12-29 | (주)블루클라우드 | An exercising system based on augmented interactive contents and the method thereof |
KR101962578B1 (en) * | 2018-07-31 | 2019-07-17 | 김종범 | A fitness exercise service providing system using VR |
KR101950243B1 (en) | 2018-10-17 | 2019-02-21 | (주) 더조은 | Golf training device for providing augmented reality or virtual reality experience |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102450736B1 (en) | 2021-11-03 | 2022-10-05 | 이영규 | Self training service system using metaverse |
Also Published As
Publication number | Publication date |
---|---|
KR102299381B1 (en) | 2021-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107004279A (en) | Natural user interface camera calibrated | |
JP2022549853A (en) | Individual visibility in shared space | |
CN106110627B (en) | Sport and Wushu action correction device and method | |
CN110308789A (en) | The method and system interacted for the mixed reality with peripheral equipment | |
KR101989447B1 (en) | Dance motion feedback system providing video feedback to user using augmented reality | |
CN106055090A (en) | Virtual reality and augmented reality control with mobile devices | |
CN103635891A (en) | Massive simultaneous remote digital presence world | |
WO2012142202A1 (en) | Apparatus, systems and methods for providing motion tracking using a personal viewing device | |
CN110969905A (en) | Remote teaching interaction and teaching aid interaction system for mixed reality and interaction method thereof | |
WO2019087564A1 (en) | Information processing device, information processing method, and program | |
CN110544302A (en) | Human body action reconstruction system and method based on multi-view vision and action training system | |
WO2013111146A2 (en) | System and method of providing virtual human on human combat training operations | |
JP2010257081A (en) | Image procession method and image processing system | |
KR20200025960A (en) | Intelligent technology based augmented reality system | |
Bellarbi et al. | A 3d interaction technique for selection and manipulation distant objects in augmented reality | |
KR102299381B1 (en) | Augmented reality training system | |
US20170206798A1 (en) | Virtual Reality Training Method and System | |
Kwon et al. | An enhanced multi-view human action recognition system for virtual training simulator | |
US20230162458A1 (en) | Information processing apparatus, information processing method, and program | |
WO2022023142A1 (en) | Virtual window | |
Colvin et al. | Multiple user motion capture and systems engineering | |
WO2022176450A1 (en) | Information processing device, information processing method, and program | |
CN219302988U (en) | Augmented reality device | |
JP2021056922A (en) | Human movement support system and method thereof | |
KR102256607B1 (en) | System and method for providing virtual reality content capable of multi-contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |