KR102216312B1 - Method and apparus providng virtual simulation with vr - Google Patents

Method and apparus providng virtual simulation with vr Download PDF

Info

Publication number
KR102216312B1
KR102216312B1 KR1020190145495A KR20190145495A KR102216312B1 KR 102216312 B1 KR102216312 B1 KR 102216312B1 KR 1020190145495 A KR1020190145495 A KR 1020190145495A KR 20190145495 A KR20190145495 A KR 20190145495A KR 102216312 B1 KR102216312 B1 KR 102216312B1
Authority
KR
South Korea
Prior art keywords
image
user terminal
information
user
external server
Prior art date
Application number
KR1020190145495A
Other languages
Korean (ko)
Inventor
빠 왼 아웅 빠
Original Assignee
빠 왼 아웅 빠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 빠 왼 아웅 빠 filed Critical 빠 왼 아웅 빠
Priority to KR1020190145495A priority Critical patent/KR102216312B1/en
Application granted granted Critical
Publication of KR102216312B1 publication Critical patent/KR102216312B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

The present invention relates to a method for providing a virtual scenario using virtual reality (VR) to provide a VR simulation related to various industrial sites and a device thereof. According to the present invention, a computer program stored in a computer-readable recording medium includes commands for allowing a processor of a first user terminal to execute the following steps: recognizing whether a camera of the first user terminal is activated; receiving, from an external server, at least one thumbnail image related to at least one variable image when it is recognized that the camera can be activated; when the at least one thumbnail image is received, transmitting the at least one thumbnail image to a second user terminal to allow the at least one thumbnail image to be displayed on the second user terminal; acquiring a first image including a user′s movement through the camera when the thumbnail image is transmitted to the second user terminal; transmitting the first image to the external server; receiving first motion recognition data related to the first image from the external server after transmitting the first image; recognizing a first thumbnail image selected by the user among the at least one thumbnail image based on the first motion recognition data; transmitting a second signal requesting a first variable image related to the first thumbnail image to the external server when the first thumbnail image is recognized; and allowing the first variable image to be displayed on the second user terminal as the second signal is transmitted.

Description

VR을 이용한 가상 시나리오 제공 방법 및 장치{METHOD AND APPARUS PROVIDNG VIRTUAL SIMULATION WITH VR}Virtual scenario provision method and device using VR {METHOD AND APPARUS PROVIDNG VIRTUAL SIMULATION WITH VR}

본 개시는 VR을 이용한 가상 시나리오 제공 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for providing a virtual scenario using VR.

건설 현장, 플랜트 산업 현장 또는 기타 산업 현장 등에서 근로하는 근로자들은 항상 안전 사고의 위험에 노출되어 있다. 안전 사고의 발생을 방지하기 위해 기업에서는 주기적으로 기계들을 다루는 방법을 가상으로 시뮬레이션하거나 또는 사고가 발생되었을 때를 가정하여 시뮬레이션을 수행하기도 한다.Workers working at construction sites, plant industry sites or other industrial sites are always at risk of safety accidents. In order to prevent the occurrence of safety accidents, companies periodically simulate how to deal with machines, or perform simulations assuming when an accident occurs.

그러나, 이러한 방법에는 제한된 공간, 시설 관리 문제, 초보자의 안전사고 위험 및 교육에 대한 소극적 대응 등 많은 어려움이 존재한다.However, this method has many difficulties such as limited space, facility management problems, risk of safety accidents for beginners, and passive response to education.

이러한 어려움을 해결하기 위해, VR(Virtual Reality)과 같은 가상 현실을 이용하여 각종 현장에 대한 가상 시나리오를 수행할 수도 있다.In order to solve this difficulty, virtual scenarios for various sites may be performed using virtual reality such as VR (Virtual Reality).

VR(Virtual Reality)은 인간의 시각 및 청각을 이용하여, 실제와 같은 경험을 제공할 수 있는 장치 또는 기술 등을 지칭한다. 이러한 VR은 구현 기술에 따라 VE(Virtual Environment), AR(Augmented Reality), AV(Augmented Virtuality), SR(Substitutional Reality) 및 MR(Mixed Reality) 등으로 구분될 수 있다.VR (Virtual Reality) refers to a device or technology capable of providing a realistic experience by using human vision and hearing. These VRs may be classified into Virtual Environment (VE), Augmented Reality (AR), Augmented Virtuality (AV), Substitutional Reality (SR), and Mixed Reality (MR), depending on the implementation technology.

이러한 VR을 이용하여 안전 교육 또는 각종 기계들의 사용법에 대한 교육을 제공하는 경우, 근로자의 미숙함으로 인하여 발생될 수 있는 사고는 예방될 수 있다. 또한, 근로자가 현장을 방문하기 위해 소요되는 시간 및 비용도 절감할 수 있다.In the case of providing safety education or education on how to use various machines using VR, accidents that may occur due to workers' immaturity can be prevented. It can also reduce the time and cost required for workers to visit the site.

다만, 이러한 VR을 수행할 수 있는 기기, 예를 들어 헤드 마운트 디스플레이(HMD)등은 가격이 비싸게 형성되어 있어, 현장에서 근무하는 모든 근로자들이 이러한 교육을 수행하기에는 실질적으로 어려울 수 있다.However, devices capable of performing such VR, for example, a head mounted display (HMD), are formed at a high price, so it may be practically difficult for all workers working in the field to perform such training.

따라서, 사용자 단말을 통해 VR을 구현함으로써, 산업 현장과 관련된 시나리오를 제공하는 방법에 대한 수요가 존재한다.Therefore, there is a demand for a method of providing a scenario related to an industrial site by implementing VR through a user terminal.

대한민국 공개특허 10-2019-0087912Republic of Korea Patent Publication 10-2019-0087912

본 개시는 전술한 배경기술에 대응하여 안출된 것으로, VR을 이용한 가상 시뮬레이션을 제공하는 방법을 제공하고자 한다.The present disclosure is conceived in response to the above-described background technology, and is intended to provide a method of providing a virtual simulation using VR.

본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위한 본 개시의 일 실시예에 따라, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다.According to an embodiment of the present disclosure for solving the above-described problem, a computer program stored in a computer-readable storage medium is disclosed.

컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 게임 서버로 하여금 이하의 단계들을 수행하기 위한 명령들을 포함하며, 상기 단계들은: 상기 제 1 사용자 단말의 카메라의 활성화 가부를 인식하는 단계; 상기 카메라의 활성화가 가능하다고 인식한 경우, 적어도 하나의 가변 영상과 관련된 적어도 하나의 썸네일 이미지를 외부 서버로부터 수신하는 단계; 상기 적어도 하나의 썸네일 이미지를 수신한 경우, 상기 적어도 하나의 썸네일 이미지를 제 2 사용자 단말에 전송함으로써, 상기 적어도 하나의 썸네일 이미지가 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계; 상기 썸네일 이미지를 상기 제 2 사용자 단말에 전송한 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 1 영상을 획득하는 단계; 상기 제 1 영상을 외부 서버에 전송하는 단계; 상기 제 1 영상을 전송한 후에 상기 외부 서버로부터 상기 제 1 영상과 관련된 제 1 모션 인식 데이터를 수신하는 단계; 상기 제 1 모션 인식 데이터에 기초하여, 상기 적어도 하나의 썸네일 이미지 중 사용자가 선택한 제 1 썸네일 이미지를 인식하는 단계; 상기 제 1 썸네일 이미지가 인식된 경우, 상기 제 1 썸네일 이미지와 관련된 제 1 가변 영상을 요청하는 제 2 신호를 상기 외부 서버에 전송하는 단계; 및 상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계; 를 포함할 수 있다.A computer program stored in a computer-readable storage medium, the computer program comprising instructions for causing a game server to perform the following steps, the steps comprising: recognizing whether or not a camera of the first user terminal is activated; Receiving at least one thumbnail image related to at least one variable image from an external server when it is recognized that activation of the camera is possible; When the at least one thumbnail image is received, transmitting the at least one thumbnail image to a second user terminal, thereby causing the at least one thumbnail image to be displayed on the second user terminal; When the thumbnail image is transmitted to the second user terminal, acquiring a first image including the user's movement through the camera; Transmitting the first image to an external server; Receiving first motion recognition data related to the first image from the external server after transmitting the first image; Recognizing a first thumbnail image selected by a user from among the at least one thumbnail image based on the first motion recognition data; When the first thumbnail image is recognized, transmitting a second signal for requesting a first variable image related to the first thumbnail image to the external server; And causing the first variable image to be displayed on the second user terminal by transmitting the second signal. It may include.

또한, 상기 제 2 사용자 단말은, 상기 제 1 사용자 단말과 페어링되는 단말일 수 있다.In addition, the second user terminal may be a terminal paired with the first user terminal.

또한, 상기 제 2 사용자 단말은, 상기 사용자의 머리에 착용되어 디스플레이부가 상기 사용자의 눈 앞에 위치되도록 만드는 장치에 설치될 수 있다.In addition, the second user terminal may be installed on a device that is worn on the user's head so that the display unit is positioned in front of the user's eyes.

또한, 상기 제 1 썸네일 이미지가 인식된 경우, 상기 제 1 썸네일 이미지와 관련된 제 1 가변 영상을 요청하는 제 2 신호를 상기 외부 서버에 전송하는 단계는, 상기 제 1 썸네일 이미지가 인식된 경우, 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계; 상기 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되는 경우, 상기 카메라를 통해 상기 사용자의 움직임이 포함된 제 2 영상을 획득하는 단계; 상기 제 2 영상을 상기 외부 서버에 전송하는 단계; 상기 제 2 영상을 전송한 후에 상기 외부 서버로부터 상기 제 2 영상과 관련된 제 2 모션 인식 데이터를 수신하는 단계; 및 상기 제 2 모션 인식 데이터에 기초하여, 상기 적어도 하나의 가상 버튼 중 상기 사용자가 선택한 제 1 가상 버튼을 인식하는 단계; 를 포함하고, 상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계는, 상기 제 1 가상 버튼과 관련된 지시 정보 및 상기 제 1 가상 버튼과 관련된 퀴즈 정보 중 적어도 하나를 포함하는 제 1 정보를 상기 제 1 가변 영상과 함께 디스플레이되도록 야기하는 단계; 를 포함할 수 있다.In addition, when the first thumbnail image is recognized, transmitting a second signal for requesting a first variable image related to the first thumbnail image to the external server may include, when the first thumbnail image is recognized, at least Causing a first virtual screen including one virtual button to be displayed on the second user terminal; When the first virtual screen including the at least one virtual button is displayed on the second user terminal, obtaining a second image including the user's movement through the camera; Transmitting the second image to the external server; Receiving second motion recognition data related to the second image from the external server after transmitting the second image; And recognizing a first virtual button selected by the user from among the at least one virtual button based on the second motion recognition data. Including, In response to transmitting the second signal, causing the first variable image to be displayed on the second user terminal, the instruction information related to the first virtual button and a quiz related to the first virtual button Causing first information including at least one of the information to be displayed together with the first variable image; It may include.

또한, 상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계는, 상기 수신된 제 1 정보가 상기 지시 정보인 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 3 영상을 획득하는 단계; 상기 제 3 영상을 상기 외부 서버에 전송하는 단계; 상기 제 3 영상을 전송한 후에 상기 외부 서버로부터 상기 제 3 영상과 관련된 제 3 모션 인식 데이터를 수신하는 단계; 상기 제 3 모션 인식 데이터에 기초하여 상기 지시 정보에 대한 수행률 정보를 생성하는 단계; 및 상기 수행률 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과를 산출하는 단계; 를 포함할 수 있다.In addition, as the second signal is transmitted, causing the first variable image to be displayed on the second user terminal may include, when the received first information is the instruction information, the user's movement through the camera. Acquiring a third image including this; Transmitting the third image to the external server; Receiving third motion recognition data related to the third image from the external server after transmitting the third image; Generating performance rate information for the indication information based on the third motion recognition data; And calculating a result of performing the first variable image based on the performance rate information. It may include.

또한, 상기 제 3 모션 인식 데이터에 기초하여 상기 지시 정보에 포함된 적어도 하나의 지시를 수행 수행률을 인식하는 단계는, 상기 지시 정보에 포함된 적어도 하나의 지시를 인식하는 단계; 상기 제 3 모션 인식 데이터 중에서 상기 적어도 하나의 지시에 대응하는 적어도 하나의 움직임 데이터를 결정하는 단계; 상기 적어도 하나의 움직임 데이터를 상기 적어도 하나의 지시에 대응하는 사전 결정된 전문가 움직임 데이터와 비교함으로써 일치율 정보를 생성하는 단계; 및 상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출하는 단계; 를 포함할 수 있다.Further, the step of recognizing a performance rate of performing at least one instruction included in the instruction information based on the third motion recognition data may include recognizing at least one instruction included in the instruction information; Determining at least one motion data corresponding to the at least one indication from among the third motion recognition data; Generating coincidence rate information by comparing the at least one motion data with predetermined expert motion data corresponding to the at least one indication; And calculating result information of performing the first variable image based on the matching rate information. It may include.

또한, 상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출하는 단계는, 상기 일치율 정보가 기 설정된 값 이상인 경우, 상기 적어도 하나의 움직임 데이터에 기초하여 강점 정보로 생성하는 단계; 를 포함할 수 있다.In addition, calculating result information of performing the first variable image based on the matching rate information may include: when the matching rate information is equal to or greater than a preset value, generating strength information based on the at least one motion data; It may include.

또한, 상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출하는 단계는, 상기 일치율 정보가 기 설정된 값 미만인 경우, 상기 적어도 하나의 움직임 데이터에 기초하여 약점 정보를 생성하는 단계; 를 포함할 수 있다.In addition, calculating result information of performing the first variable image based on the coincidence rate information may include: when the coincidence rate information is less than a preset value, generating weakness information based on the at least one motion data; It may include.

또한, 상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계, 상기 수신된 제 1 정보가 상기 퀴즈 정보인 경우, 상기 카메라를 통해 상기 사용자의 움직임이 포함된 제 4 영상을 획득하는 단계; 상기 제 4 영상을 상기 외부 서버에 전송하는 단계; 상기 제 4 영상을 전송한 후에 상기 외부 서버로부터 상기 제 4 영상과 관련된 제 4 모션 인식 데이터를 수신하는 단계; 상기 제 4 모션 인식 데이터에 기초하여, 상기 퀴즈 정보에 대한 정답률 정보를 생성하는 단계; 및 상기 정답률 정보에 기초하여 상기 퀴즈 정보가 포함된 상기 제 1 가변 영상을 수행한 결과를 산출하는 단계; 를 포함할 수 있다.In addition, as the second signal is transmitted, causing the first variable image to be displayed on the second user terminal, and when the received first information is the quiz information, the user's movement through the camera Acquiring a fourth image including this; Transmitting the fourth image to the external server; Receiving fourth motion recognition data related to the fourth image from the external server after transmitting the fourth image; Generating correct answer rate information for the quiz information based on the fourth motion recognition data; And calculating a result of performing the first variable image including the quiz information based on the correct answer rate information. It may include.

또한, 상기 제 1 가변 영상에 대한 피드백 패널 이미지를 포함하는 제 2 가변 영상이 제 2 사용자 단말에 디스플레이되도록 야기하는 단계; 및 상기 피드백 패널 이미지에 대응하는 피드백 움직임 영상을 획득하는 단계; 상기 피드백 움직임 영상을 상기 외부 서버에 전송하는 단계; 상기 외부 서버가 상기 피드백 움직임 영상에 대한 피드백 정보를 생성하도록 야기하는 단계; 를 포함할 수 있다.In addition, causing a second variable image including a feedback panel image for the first variable image to be displayed on a second user terminal; And obtaining a feedback motion image corresponding to the feedback panel image. Transmitting the feedback motion image to the external server; Causing the external server to generate feedback information for the feedback motion image; It may include.

또한, 제 1 사용자 단말로서, 통신부; 사용자의 움직임을 촬영하는 카메라; 상기 카메라의 활성화 가부를 인식하는 프로세서; 를 포함하고, 상기 프로세서는, 상기 카메라의 활성화가 가능하다고 인식한 경우, 상기 통신부를 통해 적어도 하나의 가변 영상과 관련된 적어도 하나의 썸네일 이미지를 외부 서버로부터 수신하고, 상기 적어도 하나의 썸네일 이미지를 수신한 경우, 상기 통신부를 통해 상기 적어도 하나의 썸네일 이미지를 제 2 사용자 단말에 전송함으로써, 상기 적어도 하나의 썸네일 이미지가 상기 제 2 사용자 단말에 디스플레이되도록 야기하고, 상기 썸네일 이미지를 상기 제 2 사용자 단말에 전송한 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 1 영상을 획득하고, 상기 제 1 영상을 외부 서버에 전송하도록 상기 통신부를 제어하고, 상기 제 1 영상을 전송한 후에 상기 통신부를 통해 상기 외부 서버로부터 상기 제 1 영상과 관련된 제 1 모션 인식 데이터를 수신하고, 상기 제 1 모션 인식 데이터에 기초하여, 상기 적어도 하나의 썸네일 이미지 중 사용자가 선택한 제 1 썸네일 이미지를 인식하고, 상기 제 1 썸네일 이미지가 인식된 경우, 상기 제 1 썸네일 이미지와 관련된 제 1 가변 영상을 요청하는 제 2 신호를 상기 외부 서버에 전송하도록 상기 통신부를 제어하고, 상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기할 수 있다.In addition, as a first user terminal, the communication unit; A camera that photographs the user's movement; A processor that recognizes whether or not the camera is activated; Including, wherein when it is recognized that the activation of the camera is possible, the processor receives at least one thumbnail image related to at least one variable image from an external server through the communication unit, and receives the at least one thumbnail image In one case, by transmitting the at least one thumbnail image to the second user terminal through the communication unit, the at least one thumbnail image is caused to be displayed on the second user terminal, and the thumbnail image is displayed on the second user terminal. In the case of transmission, the communication unit is controlled to obtain a first image including the user's movement through the camera, transmit the first image to an external server, and transmit the first image through the communication unit. Receives first motion recognition data related to the first image from an external server, recognizes a first thumbnail image selected by a user from among the at least one thumbnail image, based on the first motion recognition data, and the first thumbnail When an image is recognized, the communication unit is controlled to transmit a second signal for requesting a first variable image related to the first thumbnail image to the external server, and according to the transmission of the second signal, the first variable image This can cause it to be displayed on the second user terminal.

또한, 상기 프로세서는, 상기 제 1 썸네일 이미지가 인식된 경우, 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되도록 야기하고, 상기 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되는 경우, 상기 카메라를 통해 상기 사용자의 움직임이 포함된 제 2 영상을 획득하고, 상기 제 2 영상을 상기 외부 서버에 전송하도록 상기 통신부를 제어하고, 상기 제 2 영상을 전송한 후에 상기 외부 서버로부터 상기 제 2 영상과 관련된 제 2 모션 인식 데이터를 상기 통신부를 통해 수신하고, 상기 제 2 모션 인식 데이터에 기초하여, 상기 적어도 하나의 가상 버튼 중 상기 사용자가 선택한 제 1 가상 버튼을 인식하고, 상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하고, 상기 제 1 가상 버튼과 관련된 지시 정보 및 상기 제 1 가상 버튼과 관련된 퀴즈 정보 중 적어도 하나를 포함하는 제 1 정보를 상기 제 1 가변 영상과 함께 디스플레이되도록 야기할 수 있다.In addition, when the first thumbnail image is recognized, the processor causes a first virtual screen including at least one virtual button to be displayed on the second user terminal, and a second including the at least one virtual button 1 When a virtual screen is displayed on the second user terminal, controlling the communication unit to obtain a second image including the user's movement through the camera and to transmit the second image to the external server, After transmitting the second image, second motion recognition data related to the second image is received from the external server through the communication unit, and based on the second motion recognition data, the user of the at least one virtual button Recognizing the selected first virtual button and transmitting the second signal causes the first variable image to be displayed on the second user terminal, and instruction information related to the first virtual button and the first virtual button The first information including at least one of quiz information related to may be caused to be displayed together with the first variable image.

또한, 상기 수신된 제 1 정보가 상기 지시 정보인 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 3 영상을 획득하고, 상기 제 3 영상을 상기 외부 서버에 전송하도록 상기 통신부를 제어하고, 상기 제 3 영상을 전송한 후에 상기 외부 서버로부터 상기 제 3 영상과 관련된 제 3 모션 인식 데이터를 상기 통신부를 통해 수신하고, 상기 제 3 모션 인식 데이터에 기초하여 상기 지시 정보에 대한 수행률 정보를 생성하고, 상기 수행률 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과를 산출할 수 있다.In addition, when the received first information is the instruction information, controlling the communication unit to obtain a third image including a user's movement through the camera, and to transmit the third image to the external server, and the After transmitting the third image, receive third motion recognition data related to the third image from the external server through the communication unit, and generate performance rate information for the instruction information based on the third motion recognition data. , A result of performing the first variable image may be calculated based on the performance rate information.

또한, 상기 프로세서는, 상기 지시 정보에 포함된 적어도 하나의 지시를 인식하고, 상기 제 3 모션 인식 데이터 중에서 상기 적어도 하나의 지시에 대응하는 적어도 하나의 움직임 데이터를 결정하고, 상기 적어도 하나의 움직임 데이터를 상기 적어도 하나의 지시에 대응하는 사전 결정된 전문가 움직임 데이터와 비교함으로써 일치율 정보를 생성하고, 상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출할 수 있다. In addition, the processor recognizes at least one instruction included in the instruction information, determines at least one motion data corresponding to the at least one instruction from among the third motion recognition data, and the at least one motion data Concordance rate information may be generated by comparing the expert motion data corresponding to the at least one indication, and result information of performing the first variable image may be calculated based on the matching rate information.

본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical solutions obtainable in the present disclosure are not limited to the above-mentioned solutions, and other solutions that are not mentioned are clearly to those of ordinary skill in the technical field to which the present disclosure belongs from the following description. It will be understandable.

본 개시는 사용자 단말을 이용하여 각종 산업 현장과 관련된 VR 시뮬레이션을 제공할 수 있도록 한다.The present disclosure makes it possible to provide VR simulations related to various industrial sites using a user terminal.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description. .

다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.
도 1은 본 개시의 몇몇 실시예에 따른 가상 시뮬레이션을 제공하는 방법을 수행하기 위한 예시적인 가상 시나리오 제공 시스템을 도시한다.
도 2는 본 개시의 몇몇 실시예에 따른 프로세서가 제 2 사용자 단말에 적어도 하나의 가변 영상을 제공하는 방법의 일례를 설명하기 위한 흐름도이다.
도 3은 본 개시의 몇몇 실시예에 따른 프로세서가 적어도 하나의 정보를 제 1 가변 영상과 함께 제 2 사용자 단말에 디스플레이되도록 야기하는 방법의 일례를 설명하기 위한 흐름도이다.
도 4는 본 개시의 몇몇 실시예에 따른 프로세서가 수행률 정보에 기초하여 제 1 가변 영상을 수행한 결과를 산출하기 위한 방법의 일례를 설명하기 위한 흐름도이다.
도 5는 본 개시의 몇몇 실시예에 따른 프로세서가 적어도 하나의 움직임 데이터에 기초하여 강점 정보 또는 약점 정보를 생성하는 방법의 일례를 설명하기 위한 흐름도이다.
도 6은 본 개시의 몇몇 실시예에 따른 프로세서가 퀴즈 정보가 포함된 제 1 가변 영상을 제 2 사용자 단말에 제공하는 방법의 일례를 설명하기 위한 흐름도이다.
도 7은 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 일례를 설명하기 위한 도면이다.
도 8은 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 다른 일례를 설명하기 위한 도면이다.
도 9는 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 또 다른 일례를 설명하기 위한 도면이다.
도 10은 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 또 다른 일례를 설명하기 위한 도면이다.
도 11은 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.
Various aspects are now described with reference to the drawings, wherein like reference numbers are used collectively to refer to like elements. In the examples that follow, for illustrative purposes, a number of specific details are presented to provide a thorough understanding of one or more aspects. However, it will be apparent that such aspect(s) may be practiced without these specific details. In other instances, well-known structures and devices are shown in block diagram form to facilitate describing one or more aspects.
1 illustrates an exemplary virtual scenario providing system for performing a method of providing a virtual simulation according to some embodiments of the present disclosure.
FIG. 2 is a flowchart illustrating an example of a method of providing at least one variable image to a second user terminal by a processor according to some embodiments of the present disclosure.
3 is a flowchart illustrating an example of a method of causing a processor to display at least one piece of information together with a first variable image on a second user terminal according to some embodiments of the present disclosure.
4 is a flowchart illustrating an example of a method for calculating, by a processor, a result of performing a first variable image based on performance rate information, according to some embodiments of the present disclosure.
5 is a flowchart illustrating an example of a method of generating strength information or weakness information based on at least one motion data by a processor according to some embodiments of the present disclosure.
6 is a flowchart illustrating an example of a method of providing a first variable image including quiz information to a second user terminal by a processor according to some embodiments of the present disclosure.
7 is a diagram for describing an example of a third variable screen that can be displayed in a second user terminal according to some embodiments of the present disclosure.
FIG. 8 is a diagram for describing another example of a third variable screen that can be displayed in a second user terminal according to some embodiments of the present disclosure.
9 is a diagram for describing another example of a third variable screen that can be displayed on a second user terminal according to some embodiments of the present disclosure.
FIG. 10 is a diagram for describing another example of a third variable screen that can be displayed on a second user terminal according to some embodiments of the present disclosure.
11 shows a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.

다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 감지될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다. 구체적으로, 본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for illustrative purposes, a number of specific details are disclosed to aid in an overall understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art that this aspect(s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of one or more aspects. However, these aspects are exemplary and some of the various methods in the principles of the various aspects may be used, and the descriptions described are intended to include all such aspects and their equivalents. Specifically, as used herein, "an embodiment", "example", "aspect", "example" and the like are not construed as having any aspect or design being better or advantageous than other aspects or designs. May not.

이하, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.Hereinafter, the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted. In addition, in describing the embodiments disclosed in the present specification, when it is determined that detailed descriptions of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, detailed descriptions thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the present specification is not limited by the accompanying drawings.

비록 제 1, 제 2 등이 다양한 소자나 구성요소들을 서술하기 위해서 사용되나, 이들 소자나 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자나 구성요소를 다른 소자나 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제 1 소자나 구성요소는 본 발명의 기술적 사상 내에서 제 2 소자나 구성요소 일 수도 있음은 물론이다.Although the first, second, and the like are used to describe various devices or components, it goes without saying that these devices or components are not limited by these terms. These terms are only used to distinguish one device or component from another device or component. Therefore, it goes without saying that the first element or element mentioned below may be a second element or element within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다. In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or”. That is, unless specified otherwise or is not clear from the context, "X employs A or B" is intended to mean one of the natural inclusive substitutions. That is, X uses A; X uses B; Or, when X uses both A and B, “X uses A or B” can be applied to either of these cases. In addition, the term "and/or" as used herein should be understood to refer to and include all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.In addition, the terms "comprising" and/or "comprising" mean that the corresponding feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. It should be understood as not. In addition, unless otherwise specified or when the context is not clear as indicating a singular form, the singular in the specification and claims should be interpreted as meaning "one or more" in general.

더불어, 본 명세서에서 사용되는 용어 "정보" 및 "데이터"는 종종 서로 상호교환 가능하도록 사용될 수 있다.In addition, the terms “information” and “data” as used herein may often be used interchangeably with each other.

이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "unit" for constituent elements used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have a distinct meaning or role by themselves.

본 개시의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 개시를 설명하는데 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Objects and effects of the present disclosure, and technical configurations for achieving them will become apparent with reference to embodiments described in detail later with reference to the accompanying drawings. In describing the present disclosure, when it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the subject matter of the present disclosure, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present disclosure and may vary according to the intention or custom of users or operators.

본 개시내용의 청구범위에서의 방법에 대한 권리범위는, 각 단계들에 기재된 기능 및 특징들에 의해 발생되는 것이지, 방법을 구성하는 각각의 단계에서 그 순서의 선후관계를 명시하지 않는 이상, 청구범위에서의 각 단계들의 기재 순서에 영향을 받지 않는다. 예를 들어, A단계 및 B단계를 포함하는 방법으로 기재된 청구범위에서, A단계가 B단계 보다 먼저 기재되었다고 하더라도, A단계가 B단계에 선행해야 한다는 것으로 권리범위가 제한되지는 않는다.The scope of rights to the method in the claims of the present disclosure is generated by the functions and features described in each step, and unless a precedence relationship of the order is specified in each step constituting the method, the claim It is not affected by the order of description of each step in the range. For example, in the claims described in a method including steps A and B, even if step A is described before step B, the scope of the rights is not limited to that step A must precede step B.

그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present disclosure is not limited to the embodiments disclosed below, and may be implemented in various different forms. The present embodiments are provided only to make the present disclosure complete, and to completely inform the scope of the disclosure to those of ordinary skill in the art to which the present disclosure belongs, and the present disclosure is only defined by the scope of the claims. . Therefore, the definition should be made based on the contents throughout this specification.

본 개시에서, 가상 시나리오 시스템은 적어도 하나의 사용자 단말을 통해 산업 현장과 관련된 가변 영상을 제공할 수 있다. 또한, 가상 시나리오는 산업 현장과 관련된 시나리오 일 수 있다. 예를 들어, 건설 현장, 플랜트 현장, 목공 현장 등의 시나리오 등일 수 있다. 한편, 가변 영상은 사용자의 조작에 따라 화면이 변화될 수 있는 영상일 수 있다. 예를 들어, 사용자는 스마트폰 등이 조립되어 사용자의 눈 앞에 위치되도록 만드는 장치를 이용하여 가변 영상을 제공받을 수 있다. 이때, 사용자가 가변 영상을 통해 표시되는 지시들을 수행함으로써 수반되는 움직임은 사용자의 정면 또는 전방위에 구비될 수 있는 제 1 사용자 단말에 의해 촬영될 수 있다. 그리고, 제 1 사용자 단말은 촬영된 영상을 모션 인식이 가능한 외부 서버에 전송함으로써, 모션 인식 데이터를 획득할 수 있다. 따라서, 제 1 사용자 단말은 스마트폰을 통해 제공되고 있는 가변 영상이 사용자의 움직임에 따라 변화되도록 야기할 수 있다. 이하, 도 1 내지 도 11을 통해 본 개시에서의 가상 시나리오 시스템이 가변 영상을 제공하는 방법에 대해 설명한다.In the present disclosure, the virtual scenario system may provide a variable image related to an industrial site through at least one user terminal. Also, the virtual scenario may be a scenario related to an industrial site. For example, it may be a scenario such as a construction site, a plant site, or a woodworking site. Meanwhile, the variable image may be an image whose screen can be changed according to a user's manipulation. For example, a user may be provided with a variable image using a device that makes a smartphone or the like assembled and positioned in front of the user's eyes. In this case, the movement accompanying the user by performing the instructions displayed through the variable image may be photographed by a first user terminal that may be provided in front or in all directions of the user. Then, the first user terminal may obtain motion recognition data by transmitting the captured image to an external server capable of motion recognition. Accordingly, the first user terminal may cause the variable image provided through the smartphone to change according to the user's movement. Hereinafter, a method of providing a variable image by the virtual scenario system according to the present disclosure will be described with reference to FIGS. 1 to 11.

도 1은 본 개시의 몇몇 실시예에 따른 가상 시뮬레이션을 제공하는 방법을 수행하기 위한 예시적인 가상 시나리오 제공 시스템을 도시한다.1 illustrates an exemplary virtual scenario providing system for performing a method of providing a virtual simulation according to some embodiments of the present disclosure.

도 1을 참조하면, 가상 시나리오 제공 시스템은 제 1 사용자 단말(100), 제 2 사용자 단말(200), 외부 서버(300) 및 네트워크(400)를 포함할 수 있다. 다만, 상술한 구성 요소들은 가상 시나리오 제공 시스템을 구현하는데 있어서 필수적인 것은 아니어서, 가상 시나리오 제공 시스템은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 1, a system for providing a virtual scenario may include a first user terminal 100, a second user terminal 200, an external server 300, and a network 400. However, the above-described components are not essential in implementing the virtual scenario providing system, and thus the virtual scenario providing system may have more or fewer components than the above-listed components.

제 1 사용자 단말(100), 제 2 사용자 단말(200) 및 외부 서버 (300)는 네트워크(400)를 통해, 본 개시에 따른 가상 시나리오 제공 시스템을 위한 데이터를 상호 송수신할 수 있다.The first user terminal 100, the second user terminal 200, and the external server 300 may mutually transmit and receive data for the virtual scenario providing system according to the present disclosure through the network 400.

제 1 사용자 단말(100)은 예를 들어, 마이크로프로세서, 메인프레임 컴퓨터, 디지털 프로세서, 휴대용 디바이스 및 디바이스 제어기 등과 같은 임의의 타입의 컴퓨터 시스템 또는 컴퓨터 디바이스를 포함할 수 있다.The first user terminal 100 may comprise any type of computer system or computer device, such as, for example, a microprocessor, mainframe computer, digital processor, portable device and device controller, and the like.

본 개시에서, 제 1 사용자 단말(100)은 외부 서버(300)를 통해 적어도 하나의 가변 영상이 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다. 여기서, 적어도 하나의 가변 영상은 사용자와 관련된 산업 현장에 대한 영상일 수 있다. 예를 들어, 제 1 사용자 단말(100)은 제 1 사용자 단말(100)의 사용자를 촬영한 영상을 외부 서버(300)에 전송할 수 있다. 이 경우, 외부 서버(300)는 사용자가 촬영된 영상을 통해 사용자의 모션을 인식할 수 있다. 그리고, 사용자의 모션에 따라 변화되는 가변 영상을 제 2 사용자 단말(200)에 디스플레이되도록 야기하거나 또는 제 1 사용자 단말(100)에 전송할 수 있다. 다만, 이에 한정되는 것은 아니다.In the present disclosure, the first user terminal 100 may cause at least one variable image to be displayed on the second user terminal 200 through the external server 300. Here, the at least one variable image may be an image of an industrial site related to a user. For example, the first user terminal 100 may transmit an image photographing a user of the first user terminal 100 to the external server 300. In this case, the external server 300 may recognize the user's motion through the image captured by the user. In addition, a variable image that changes according to a user's motion may be caused to be displayed on the second user terminal 200 or may be transmitted to the first user terminal 100. However, it is not limited thereto.

적어도 하나의 가변 영상은 산업 현장에서 발생할 수 있는 다양한 상황을 나타낼 수 있다. 또한, 적어도 하나의 가변 영상은 산업 현장에서 발생할 수 있는 다양한 상황에 대한 조치를 학습하는데 사용될 수 있다. 다만, 이에 한정되지 않고, 적어도 하나의 가변 영상은 다양한 영상을 포함할 수 있다.At least one variable image may represent various situations that may occur in an industrial site. In addition, at least one variable image may be used to learn actions for various situations that may occur in the industrial field. However, the present invention is not limited thereto, and at least one variable image may include various images.

한편, 제 1 사용자 단말(100)은 프로세서(110), 저장부(120), 통신부(130) 및 카메라(140)를 포함할 수 있다. 다만 상술한 구성 요소들은 제 1 사용자 단말(100)을 구현하는데 있어서 필수적인 것은 아니어서 제 1 사용자 단말(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 여기서, 각각의 구성 요소들은 별개의 칩이나 모듈이나 장치로 구성될 수 있고, 하나의 장치 내에 포함될 수도 있다.Meanwhile, the first user terminal 100 may include a processor 110, a storage unit 120, a communication unit 130, and a camera 140. However, the above-described components are not essential for implementing the first user terminal 100, and the first user terminal 100 may have more or fewer components than the components listed above. Here, each component may be composed of a separate chip, module or device, or may be included in a single device.

프로세서(110)는 통상적으로 제 1 사용자 단말(100)의 전반적인 동작을 처리할 수 있다. 프로세서(110)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 저장부(120)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 110 may typically process the overall operation of the first user terminal 100. The processor 110 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. that are input or output through the above-described elements or by driving an application program stored in the storage unit 120. .

한편, 저장부(120)는 메모리 및/또는 영구저장매체를 포함할 수 있다. 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.Meanwhile, the storage unit 120 may include a memory and/or a permanent storage medium. Memory is a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory), RAM (Random Access). Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, optical disk It may include at least one type of storage medium.

저장부(120)는 프로세서(110)가 생성하거나 또는 결정한 임의의 형태의 정보 및 통신부(130)가 수신한 임의의 형태의 정보를 저장할 수 있다.The storage unit 120 may store information in any form generated or determined by the processor 110 and information in any form received by the communication unit 130.

통신부(130)는 제 1 사용자 단말(100)과 통신 시스템 사이, 제 1 사용자 단말(100)과 제 2 사용자 단말(200) 사이, 제 1 사용자 단말(100)과 외부 서버(300) 사이 또는 제 1 사용자 단말(100)과 네트워크(400) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 130 may be configured between the first user terminal 100 and the communication system, between the first user terminal 100 and the second user terminal 200, between the first user terminal 100 and the external server 300, or 1 It may include one or more modules that enable communication between the user terminal 100 and the network 400.

이러한 통신부(130)는 이동통신 모듈, 유선 인터넷 모듈 및 무선 인터넷 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 130 may include at least one of a mobile communication module, a wired Internet module, and a wireless Internet module.

제 2 사용자 단말(200)은, 사용자가 소유하고 있는 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc), VR(Virtual Reality) 기기, 헤드 마운트 디스플레이(Head Mounted Display), 스마트 글래스(smart glass), 웨어러블 장치(wearable device) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.The second user terminal 200 includes a personal computer (PC), a notebook (notebook), a mobile terminal, a smart phone, a tablet PC, and a virtual computer (VR) owned by the user. Reality) devices, head mounted displays, smart glasses, wearable devices, etc., and may include all types of terminals that can access wired/wireless networks. . However, it is not limited thereto.

본 개시에서, 제 2 사용자 단말(200)은 제 1 사용자 단말(100)과 페어링되어 제 1 사용자 단말(100) 또는 외부 서버(300)로부터 수신된 적어도 하나의 가변 영상을 디스플레이할 수 있다. 여기서, 페어링은 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신을 이용하여 수행될 수 있다. 다만, 이에 한정되는 것은 아니다.In the present disclosure, the second user terminal 200 may be paired with the first user terminal 100 to display at least one variable image received from the first user terminal 100 or the external server 300. Here, the pairing may be performed by using short-range communication such as infrared (Infrared Data Association) or Bluetooth (Bluetooth). However, it is not limited thereto.

또한, 본 개시에서의 제 2 사용자 단말(200)은 사용자의 머리에 착용되어 디스플레이부가 상기 사용자의 눈 앞에 위치되도록 만드는 장치(예를 들어, 헤드 마운트 장치(HMD))에 설치될 수 있다. 다만, 이에 한정되는 것은 아니다.In addition, the second user terminal 200 in the present disclosure may be installed on a device (eg, a head mount device (HMD)) that is worn on the user's head so that the display unit is positioned in front of the user's eyes. However, it is not limited thereto.

한편, 외부 서버(300)는, 예를 들어, 마이크로프로세서, 메인프레임 컴퓨터, 디지털 프로세서, 휴대용 디바이스 및 디바이스 제어기 등과 같은 임의의 타입의 컴퓨터 시스템 또는 컴퓨터 디바이스를 포함할 수 있다.Meanwhile, the external server 300 may include any type of computer system or computer device, such as, for example, a microprocessor, a mainframe computer, a digital processor, a portable device and a device controller.

본 개시에서의 외부 서버(300)는 제 1 사용자 단말(100) 및 제 2 사용자 단말(200)을 통해 산업 현장과 관련된 적어도 하나의 가변 영상을 표시할 수 있도록 플랫폼을 제공하는 서버일 수 있다. 다만, 이에 한정되는 것은 아니다.The external server 300 in the present disclosure may be a server that provides a platform to display at least one variable image related to an industrial site through the first user terminal 100 and the second user terminal 200. However, it is not limited thereto.

한편, 외부 서버(300)는, 프로세서(미도시), 저장부(미도시) 및 통신부(미도시)를 포함할 수 있다. 다만 상술한 구성 외부 서버(300)를 구현하는데 있어서 필수적인 것은 아니어서 외부 서버(300)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 여기서, 각각의 구성 요소들은 별개의 칩이나 모듈이나 장치로 구성될 수 있고, 하나의 장치 내에 포함될 수도 있다.Meanwhile, the external server 300 may include a processor (not shown), a storage unit (not shown), and a communication unit (not shown). However, since it is not essential to implement the above-described configuration external server 300, the external server 300 may have more or less components than those listed above. Here, each component may be composed of a separate chip, module or device, or may be included in a single device.

본 개시에서 네트워크(400)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.In the present disclosure, the network 400 may be configured regardless of its communication mode such as wired and wireless, and may be configured with various communication networks such as a personal area network (PAN) and a wide area network (WAN). have. In addition, the network may be a known World Wide Web (WWW), and may use a wireless transmission technology used for short-range communication such as infrared (IrDA) or Bluetooth.

본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.The techniques described herein may be used not only in the networks mentioned above, but also in other networks.

한편, 본 개시의 몇몇 실시예에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 외부 서버(300)를 통해 제 2 사용자 단말(200)에 산업 현장과 관련된 적어도 하나의 가변 영상을 제공할 수 있다. 이하, 도 2를 통해 제 1 사용자 단말(100)이 제 2 사용자 단말(200)에 적어도 하나의 가변 영상을 제공하는 방법에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the first user terminal 100 provides at least one variable image related to the industrial site to the second user terminal 200 through the external server 300 can do. Hereinafter, a method of providing at least one variable image to the second user terminal 200 by the first user terminal 100 will be described with reference to FIG. 2.

도 2는 본 개시의 몇몇 실시예에 따른 프로세서가 제 2 사용자 단말에 적어도 하나의 가변 영상을 제공하는 방법의 일례를 설명하기 위한 흐름도이다.FIG. 2 is a flowchart illustrating an example of a method of providing at least one variable image to a second user terminal by a processor according to some embodiments of the present disclosure.

도 2를 참조하면, 제 1 사용자 단말(100)의 프로세서(110)는 카메라(140)의 활성화 가부를 인식할 수 있다(S110).Referring to FIG. 2, the processor 110 of the first user terminal 100 may recognize whether the camera 140 is activated (S110).

구체적으로, 프로세서(110)는 카메라(140)가 켜져있는지 여부 또는 촬영 가능한 상태인지 여부를 인식할 수 있다. 또한, 프로세서(110)는 카메라가 꺼져있다고 인식한 경우, 카메라(140)를 활성화시킬 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may recognize whether the camera 140 is turned on or in a state in which a photograph is possible. In addition, the processor 110 may activate the camera 140 when it is recognized that the camera is turned off. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 카메라(140)의 활성화가 가능하다고 인식한 경우, 적어도 하나의 가변 영상과 관련된 적어도 하나의 썸네일(Thumbnail) 이미지를 외부 서버(300)로부터 수신할 수 있다(S120).On the other hand, when the processor 110 of the first user terminal 100 recognizes that the camera 140 can be activated, the at least one thumbnail image related to the at least one variable image is transmitted from the external server 300. Can receive (S120).

여기서, 적어도 하나의 썸네일 이미지는 가상 시나리오를 포함하는 적어도 하나의 가변 영상의 대표 이미지 일 수 있다. 여기서, 가상 시나리오는 산업 현장과 관련된 교육을 위한 시나리오일 수 있다.Here, the at least one thumbnail image may be a representative image of at least one variable image including a virtual scenario. Here, the virtual scenario may be a scenario for education related to an industrial site.

예를 들어, 프로세서(110)는 건설 현장과 관련된 시나리오의 썸네일 이미지, 목공 현장과 관련된 시나리오의 썸네일 이미지 또는 플랜트 현장과 관련된 시나리의 썸네일 이미지 중 적어도 하나의 썸네일 중 적어도 하나의 썸네일 이미지를 외부 서버(300)에 요청하여 수신할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may transfer at least one thumbnail image of at least one of a thumbnail image of a scenario related to a construction site, a thumbnail image of a scenario related to a carpentry site, or a thumbnail image of a scenario related to a plant site to an external server ( 300) can be requested. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 적어도 하나의 썸네일 이미지를 수신한 경우, 적어도 하나의 썸네일 이미지를 제 2 사용자 단말(200)에 전송하도록 통신부(130)를 제어함으로써, 적어도 하나의 썸네일 이미지가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다(S130).Meanwhile, when the processor 110 of the first user terminal 100 receives at least one thumbnail image, by controlling the communication unit 130 to transmit at least one thumbnail image to the second user terminal 200, at least It may cause one thumbnail image to be displayed on the second user terminal 200 (S130).

예를 들어, 제 1 사용자 단말(100)의 프로세서(110)는 건설 현장과 관련된 시나리오의 썸네일 이미지, 목공 현장과 관련된 시나리오의 썸네일 이미지 또는 플랜트 현장과 관련된 시나리의 썸네일 이미지 중 적어도 하나의 썸네일 중 적어도 하나의 썸네일 이미지를 제 2 사용자 단말(200)에 전송함으로써, 적어도 하나의 썸네일 이미지가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다.For example, the processor 110 of the first user terminal 100 is at least one of at least one of a thumbnail image of a scenario related to a construction site, a thumbnail image of a scenario related to a woodworking site, or a thumbnail image of a scenario related to a plant site. By transmitting one thumbnail image to the second user terminal 200, at least one thumbnail image may be caused to be displayed on the second user terminal 200.

다만, 이에 한정되는 것은 아니고, 프로세서(110)는 외부 서버(300)가 제 2 사용자 단말(200)로 적어도 하나의 썸네일 이미지를 전송하도록 함으로써, 적어도 하나의 썸네일 이미지가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수도 있다.However, the present invention is not limited thereto, and the processor 110 allows the external server 300 to transmit at least one thumbnail image to the second user terminal 200, so that at least one thumbnail image is converted to the second user terminal 200. May cause it to be displayed on.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 썸네일 이미지를 제 2 사용자 단말(200)에 전송한 경우, 카메라(140)를 통해 사용자의 움직임이 포함된 제 1 영상을 획득할 수 있다(S140).Meanwhile, when the processor 110 of the first user terminal 100 transmits the thumbnail image to the second user terminal 200, the first image including the user's movement may be obtained through the camera 140. (S140).

구체적으로, 프로세서(110)는 카메라(140)가 사용자의 움직임을 촬영하도록 제어할 수 있다. 이 경우, 프로세서(110)는 사용자의 움직임이 포함된 제 1 영상을 획득할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may control the camera 140 to photograph the user's movement. In this case, the processor 110 may acquire the first image including the user's movement. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 1 영상을 외부 서버(300)에 전송하도록 통신부(130)를 제어할 수 있다(S150).Meanwhile, the processor 110 of the first user terminal 100 may control the communication unit 130 to transmit the first image to the external server 300 (S150).

이 경우, 외부 서버(300)는 제 1 영상에 기초하여 모션 인식 데이터를 생성할 수 있다.In this case, the external server 300 may generate motion recognition data based on the first image.

구체적으로, 외부 서버(300)는 제 1 영상을 이미지화 하여 제 1 사용자의 관절, 신체의 일부 등을 인식할 수 있다. 또한, 외부 서버(300)는 적어도 하나의 이미지를 통해 인식된 제 1 사용자의 관절 또는 신체의 일부 등을 통해 사용자의 신체와 관련된 뼈대 등을 생성하여 움직임을 인식할 수 있다. 그리고, 외부 서버(300)는 인식된 제 1 사용자의 움직임에 기초하여 모션 인식 데이터를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 모션 인식과 관련된 내용은 공지의 기술로 자세한 설명은 생략하기로 한다.Specifically, the external server 300 may image the first image to recognize a joint or a part of a body of the first user. In addition, the external server 300 may recognize movement by generating a skeleton related to the user's body through a joint or a part of the body of the first user recognized through at least one image. In addition, the external server 300 may generate motion recognition data based on the recognized movement of the first user. However, it is not limited thereto. Hereinafter, information related to motion recognition is a known technique and a detailed description thereof will be omitted.

한편, 제 1 사용자 단말(100)의 통신부(130)는 제 1 영상을 전송한 후에 외부 서버(300)로부터 제 1 영상과 관련된 제 1 모션 인식 데이터를 수신할 수 있다(S160).Meanwhile, after transmitting the first image, the communication unit 130 of the first user terminal 100 may receive first motion recognition data related to the first image from the external server 300 (S160).

즉, 제 1 모션 인식 데이터는 사용자가 적어도 하나의 썸네일 이미지를 선택하는 모션일 수 있다. 다만, 이에 한정되는 것은 아니다.That is, the first motion recognition data may be a motion in which a user selects at least one thumbnail image. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 1 모션 인식 데이터에 기초하여, 적어도 하나의 썸네일 이미지 중 사용자가 선택한 제 1 썸네일 이미지를 인식할 수 있다(S170).Meanwhile, the processor 110 of the first user terminal 100 may recognize a first thumbnail image selected by the user from among at least one thumbnail image based on the first motion recognition data (S170).

예를 들어, 프로세서(110)는 제 1 모션 인식 데이터에 기초하여 사용자가 건설 현장과 관련된 제 1 썸네일 이미지를 선택했다고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may recognize that the user has selected the first thumbnail image related to the construction site based on the first motion recognition data. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 1 썸네일 이미지가 인식된 경우, 제 1 썸네일 이미지와 관련된 제 1 가변 영상을 요청하는 제 2 신호를 통신부(130)를 통해 외부 서버(300)에 전송할 수 있다(S180).Meanwhile, when the first thumbnail image is recognized, the processor 110 of the first user terminal 100 transmits a second signal for requesting a first variable image related to the first thumbnail image through the communication unit 130 to an external server ( 300) can be transmitted (S180).

일례로, 제 2 신호는 제 1 가변 영상을 제 1 사용자 단말(100)로 전송하도록 요청하는 신호일 수 있다. 다른 일례로, 제 2 신호는 제 1 가변 영상을 제 2 사용자 단말(200)로 전송하도록 요청하는 신호일 수 있다. 다만, 이에 한정되는 것은 아니다.As an example, the second signal may be a signal requesting to transmit the first variable image to the first user terminal 100. As another example, the second signal may be a signal requesting to transmit the first variable image to the second user terminal 200. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 2 신호를 전송함에 따라, 제 1 가변 영상이 상기 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다(S190).Meanwhile, the processor 110 of the first user terminal 100 may cause the first variable image to be displayed on the second user terminal 200 by transmitting the second signal (S190).

일례로, 프로세서(110)는 외부 서버(300)로부터 제 1 가변 영상을 수신한 경우, 제 2 사용자 단말(200)에 제 1 가변 영상을 전송하도록 통신부(130)를 제어함으로써, 제 1 가변 영상이 상기 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다.For example, when receiving the first variable image from the external server 300, the processor 110 controls the communication unit 130 to transmit the first variable image to the second user terminal 200, thereby controlling the first variable image. This may cause it to be displayed on the second user terminal 200.

다른 일례로, 프로세서(110)는 외부 서버(300)가 제 1 가변 영상을 제 2 사용자 단말(200)에 전송하도록 하는 제 2 신호를 전송함으로써, 제 1 가변 영상이 상기 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수도 있다. 다만, 이에 한정되는 것은 아니다.In another example, the processor 110 transmits a second signal that causes the external server 300 to transmit the first variable image to the second user terminal 200, so that the first variable image is transmitted to the second user terminal 200. ) To be displayed. However, it is not limited thereto.

상술한 구성에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 산업 현장과 관련된 적어도 하나의 썸네일 이미지가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다. 그리고, 프로세서(110)는 사용자가 적어도 하나의 썸네일 이미지 중 제 1 썸네일 이미지를 선택하는 입력을 인식할 수 있다. 이 경우, 프로세서(110)는 제 1 썸네일 이미지와 관련된 제 1 가변 영상이 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다. 따라서, 사용자는 제 2 사용자 단말(200)을 통해 산업 현장과 관련되고 가상 시나리오가 포함된 제 1 가변 영상을 제공받을 수 있다.According to the above-described configuration, the processor 110 of the first user terminal 100 may cause at least one thumbnail image related to an industrial site to be displayed on the second user terminal 200. Further, the processor 110 may recognize an input for the user to select a first thumbnail image from among at least one thumbnail image. In this case, the processor 110 may cause the first variable image related to the first thumbnail image to be displayed on the second user terminal 200. Accordingly, the user may be provided with a first variable image related to an industrial site and including a virtual scenario through the second user terminal 200.

한편, 본 개시의 몇몇 실시예에 따르면, 제 1 가변 영상은 사용자를 훈련하기 위한 영상 또는 사용자를 테스트하기 위한 영상일 수 있다. 이 경우, 사용자는 제 1 가변 영상을 통해 훈련을 할 것인지 또는 테스트를 할 것인지 여부를 결정할 수 있다. 이하 도 3 내지 도 5를 통해 제 1 사용자 단말(100)의 프로세서(110)가 훈련을 위해 지시 정보가 포함된 제 1 가변 영상 또는 테스트를 위하여 퀴즈 정보가 포함된 제 1 가변 영상 중 적어도 하나를 제공하는 방법에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the first variable image may be an image for training a user or an image for testing a user. In this case, the user may determine whether to perform training or testing through the first variable image. Hereinafter, the processor 110 of the first user terminal 100 may display at least one of a first variable image including instruction information for training or a first variable image including quiz information for testing through FIGS. 3 to 5. Explain how to provide.

도 3은 본 개시의 몇몇 실시예에 따른 프로세서가 적어도 하나의 정보를 제 1 가변 영상과 함께 제 2 사용자 단말에 디스플레이되도록 야기하는 방법의 일례를 설명하기 위한 흐름도이다.3 is a flowchart illustrating an example of a method of causing a processor to display at least one piece of information together with a first variable image on a second user terminal according to some embodiments of the present disclosure.

도 3을 참조하면, 제 1 사용자 단말(100)의 프로세서(110)는 제 1 썸네일 이미지가 인식된 경우, 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다(S210).Referring to FIG. 3, when the first thumbnail image is recognized, the processor 110 of the first user terminal 100 displays a first virtual screen including at least one virtual button on the second user terminal 200. It can be caused to be (S210).

여기서, 적어도 하나의 가상 버튼은 제 1 가변 화면과 관련된 적어도 하나의 시나리오를 선택하기 위한 버튼일 수 있다.Here, the at least one virtual button may be a button for selecting at least one scenario related to the first variable screen.

예를 들어, 적어도 하나의 가상 버튼은 제 1 가변 영상을 통해 훈련을 선택하기 위한 버튼일 수 있다. 다른 예를 들어, 적어도 하나의 가상 버튼은 제 1 가변 영상을 통한 테스트를 선택하기 위한 버튼일 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the at least one virtual button may be a button for selecting training through the first variable image. For another example, the at least one virtual button may be a button for selecting a test through the first variable image. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 제 2 사용자 단말(200)에 디스플레이되는 경우, 카메라(140)를 통해 사용자의 움직임이 포함된 제 2 영상을 획득할 수 있다(S220).On the other hand, when the first virtual screen including at least one virtual button is displayed on the second user terminal 200, the processor 110 of the first user terminal 100 detects the movement of the user through the camera 140. The included second image may be acquired (S220).

구체적으로, 프로세서(110)는 카메라(140)가 사용자의 움직임을 촬영하도록 제어할 수 있다. 이 경우, 프로세서(110)는 사용자의 움직임이 포함된 제 2 영상을 획득할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may control the camera 140 to photograph the user's movement. In this case, the processor 110 may acquire a second image including the user's movement. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 2 영상을 외부 서버(300)에 전송하도록 통신부(130)를 제어할 수 있다(S230).Meanwhile, the processor 110 of the first user terminal 100 may control the communication unit 130 to transmit the second image to the external server 300 (S230).

이 경우, 외부 서버(300)는 제 2 영상에 기초하여 제 2 모션 인식 데이터를 생성할 수 있다.In this case, the external server 300 may generate second motion recognition data based on the second image.

한편, 제 1 사용자 단말(100)의 통신부(130)는 제 2 영상을 전송한 후에 외부 서버(300)로부터 제 2 영상과 관련된 제 2 모션 인식 데이터를 수신할 수 있다(S240).Meanwhile, after transmitting the second image, the communication unit 130 of the first user terminal 100 may receive second motion recognition data related to the second image from the external server 300 (S240).

여기서, 제 2 모션 인식 데이터는 사용자가 적어도 하나의 버튼을 선택하는 모션에 대한 데이터일 수 있다. 이 경우, 프로세서(110)는 제 2 모션 인식 데이터에 기초하여 사용자가 선택한 적어도 하나의 버튼을 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Here, the second motion recognition data may be data on motion in which the user selects at least one button. In this case, the processor 110 may recognize at least one button selected by the user based on the second motion recognition data. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 2 모션 인식 데이터에 기초하여, 적어도 하나의 가상 버튼 중 사용자가 선택한 제 1 가상 버튼을 인식된 경우(S250, Yes), 제 2 신호를 외부 서버(300)에 전송하도록 통신부(130)를 제어함으로써, 제 1 가상 버튼과 관련된 지시 정보 및 제 1 가상 버튼과 관련된 퀴즈 정보 중 적어도 하나를 포함하는 제 1 정보를 제 1 가변 영상과 함께 디스플레이되도록 야기할 수 있다(S260).Meanwhile, when the processor 110 of the first user terminal 100 recognizes the first virtual button selected by the user among at least one virtual button based on the second motion recognition data (S250, Yes), the second signal By controlling the communication unit 130 to transmit the data to the external server 300, first information including at least one of instruction information related to the first virtual button and quiz information related to the first virtual button together with the first variable image It can be caused to be displayed (S260).

예를 들어, 프로세서(110)는 제 1 가상 버튼이 제 1 가변 영상을 통해 훈련을 수행하기 위한 버튼인 경우, 제 1 가변 영상에 지시 정보가 포함되어 디스플레이되도록 야기할 수 있다. 여기서, 지시 정보는 제 1 가변 화면 내에서 수행해야할 동작을 지시하는 내용이 포함된 정보일 수 있다. 즉, 사용자는 제 1 가변 화면 내에서 디스플레이되고 있는 지시에 따름으로써, 제 1 가변 영상과 관련된 시나리오를 훈련할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, when the first virtual button is a button for performing training through the first variable image, the processor 110 may cause the first variable image to contain and display instruction information. Here, the indication information may be information including content indicating an operation to be performed in the first variable screen. That is, the user can train a scenario related to the first variable image by following an instruction displayed in the first variable screen. However, it is not limited thereto.

다른 예를 들어, 프로세서(110)는 제 1 가상 버튼이 제 1 가변 영상을 통해 테스트를 수행하기 위한 버튼인 경우, 제 1 가변 영상에 퀴즈 정보가 포함되어 디스플레이되도록 야기할 수 있다. 여기서, 퀴즈 정보는 제 1 가변 화면 내에서 수행해야할 동작과 관련된 질문이 포함된 정보일 수 있다. 따라서, 사용자는 제 1 가변 화면 내에서 디스플레이되고 있는 퀴즈에 대응하는 동작을 수행함으로써, 제 1 가변 영상과 관련된 테스트를 수행할 수 있다. 다만, 이에 한정되는 것은 아니다.For another example, when the first virtual button is a button for performing a test through the first variable image, the processor 110 may cause the first variable image to include quiz information and display it. Here, the quiz information may be information including a question related to an operation to be performed in the first variable screen. Accordingly, the user may perform a test related to the first variable image by performing an operation corresponding to the quiz displayed in the first variable screen. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 2 모션 인식 데이터에 기초하여, 적어도 하나의 가상 버튼 중 사용자가 선택한 제 1 가상 버튼을 인식되지 않은 경우(S250, Yes), 제 2 신호를 외부 서버(300)에 전송하지 않을 수도 있다. 이 경우, 프로세서(110)는 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 제 2 사용자 단말(200)에 다시 디스플레이되도록 야기할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, when the processor 110 of the first user terminal 100 does not recognize the first virtual button selected by the user among at least one virtual button based on the second motion recognition data (S250, Yes), the second The signal may not be transmitted to the external server 300. In this case, the processor 110 may cause the first virtual screen including at least one virtual button to be displayed again on the second user terminal 200. However, it is not limited thereto.

상술한 구성에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 훈련 또는 테스트의 수행이 가능한 제 1 가변 영상을 사용자에게 제공할 수 있다.According to the above-described configuration, the processor 110 of the first user terminal 100 may provide the user with a first variable image capable of performing training or testing.

한편, 본 개시의 몇몇 실시예에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 사용자가 제 1 가변 영상을 통해 수행한 훈련 또는 테스트의 결과가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다. 이하, 도 4 내지 도 6을 통해 프로세서(110)가 훈련 또는 테스트의 결과가 제 2 사용자 단말(200)에 디스플레이되도록 야기하는 방법에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the first user terminal 100 may display the result of the training or test performed by the user through the first variable image on the second user terminal 200. Can cause. Hereinafter, a method of causing the processor 110 to display the results of training or testing on the second user terminal 200 will be described with reference to FIGS. 4 to 6.

도 4는 본 개시의 몇몇 실시예에 따른 프로세서가 수행률 정보에 기초하여 제 1 가변 영상을 수행한 결과를 산출하기 위한 방법의 일례를 설명하기 위한 흐름도이다.4 is a flowchart illustrating an example of a method for calculating, by a processor, a result of performing a first variable image based on performance rate information, according to some embodiments of the present disclosure.

도 4를 참조하면, 제 1 사용자 단말(100)의 프로세서(110)는 수신된 제 1 정보가 지시 정보인 경우, 카메라(140)를 통해 사용자의 움직임이 포함된 제 3 영상을 획득할 수 있다(S310).Referring to FIG. 4, the processor 110 of the first user terminal 100 may acquire a third image including the user's movement through the camera 140 when the received first information is instruction information. (S310).

여기서, 제 3 영상은 사용자가 제 1 가변 영상에 디스플레이 중인 지시 정보에 기초하여 수행한 동작을 촬영한 영상일 수 있다. 다만, 이에 한정되는 것은 아니다.Here, the third image may be an image obtained by photographing an operation performed by the user based on the indication information being displayed on the first variable image. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 3 영상을 외부 서버(300)에 전송하도록 통신부(130)를 제어할 수 있다(S320).Meanwhile, the processor 110 of the first user terminal 100 may control the communication unit 130 to transmit the third image to the external server 300 (S320).

이 경우, 외부 서버(300)는 제 3 영상에 기초하여 제 3 모션 인식 데이터를 생성할 수 있다. 즉, 제 3 모션 인식 데이터는 사용자가 제 1 가변 화면에 디스플레이중인 지시 정보에 따라 적어도 하나의 지시를 수행한 모션일 수 있다. 다만, 이에 한정되는 것은 아니다.In this case, the external server 300 may generate third motion recognition data based on the third image. That is, the third motion recognition data may be a motion in which at least one instruction is performed by the user according to instruction information being displayed on the first variable screen. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 통신부(130)는 제 3 영상을 전송한 후에 외부 서버(300)로부터 제 3 영상과 관련된 제 3 모션 인식 데이터를 수신할 수 있다(S330).Meanwhile, after transmitting the third image, the communication unit 130 of the first user terminal 100 may receive third motion recognition data related to the third image from the external server 300 (S330).

이 경우, 프로세서(110)는 제 3 모션 인식 데이터에 기초하여 사용자의 움직임을 인식할 수 있다.In this case, the processor 110 may recognize the user's movement based on the third motion recognition data.

예를 들어, 프로세서(110)가 제 2 사용자 단말(200)을 통해 디스플레이중인 제 1 가변 영상에는 "웨이퍼(wafer)를 검사하기 위하여 정면에 보이는 머신을 조작하시오"라는 지시 정보가 포함되어 있을 수 있다. 이 경우, 프로세서(110)는 제 3 모션 인식 데이터에 기초하여, 사용자가 제 1 가변 화면에 디스플레이된 지시 내용을 수행했는지 여부를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the first variable image displayed by the processor 110 through the second user terminal 200 may include instruction information indicating "operate the machine shown in front to inspect the wafer". have. In this case, the processor 110 may recognize whether the user has performed the instruction content displayed on the first variable screen based on the third motion recognition data. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 3 모션 인식 데이터에 기초하여 지시 정보에 대한 수행률 정보를 생성할 수 있다(S340).Meanwhile, the processor 110 of the first user terminal 100 may generate performance rate information for the instruction information based on the third motion recognition data (S340).

여기서, 수행률 정보는 사용자가 제 1 가변 화면에 디스플레이중인 지시 정보에 기초하여 적어도 하나의 동작을 수행한 정보일 수 있다. 예를 들어, 지시 정보에는 총 5개의 지시가 포함되어 있을 수 있다. 그리고, 프로세서(110)는 제 3 모션 인식 데이터에 기초하여 사용자가 총 5개의 지시 중 4개를 수행했다고 인식할 수 있다. 이 경우, 프로세서(110)는 제 1 가변 화면에 디스플레이 중인 지시 정보 중에서 사용자가 80%의 지시를 수행했다는 수행률 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.Here, the performance rate information may be information in which the user has performed at least one operation based on indication information displayed on the first variable screen. For example, the instruction information may include a total of five instructions. Further, the processor 110 may recognize that the user has performed 4 of the total 5 instructions based on the third motion recognition data. In this case, the processor 110 may generate performance rate information indicating that the user has performed an instruction of 80% from the instruction information displayed on the first variable screen. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 사용자는 수행률 정보에 기초하여 제 1 가변 영상을 수행한 결과를 산출할 수 있다(S350).Meanwhile, a user of the first user terminal 100 may calculate a result of performing the first variable image based on the performance rate information (S350).

구체적으로, 프로세서(110)는 수행률 정보에 기초하여, 사용자가 제 1 가변 영상을 통해 제 1 가변 영상과 관련된 시나리오를 잘 수행했는지 여부가 포함된 결과를 산출할 수 있다. 이 경우, 프로세서(110)는 결과가 제 2 사용자 단말(200)에 디스플레이될 수 있도록 야기할 수 있다.Specifically, the processor 110 may calculate a result including whether the user has successfully performed a scenario related to the first variable image through the first variable image based on the performance rate information. In this case, the processor 110 may cause the result to be displayed on the second user terminal 200.

예를 들어, 프로세서(110)는 지시 정보 및 제 3 모션 인식 데이터에 기초하여 사용자가 지시 정보에 포함된 지시 중 80%를 수행했다고 인식한 경우, "80점"이라는 결과가 제 2 사용자 단말(200)에 디스플레이될 수 있도록 야기할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, if the processor 110 recognizes that the user has performed 80% of the instructions included in the instruction information based on the instruction information and the third motion recognition data, the result of “80 points” is the second user terminal ( 200) can be caused to be displayed. However, it is not limited thereto.

상술한 구성에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 제 2 사용자 단말(200)에 디스플레이되는 제 1 가변 영상에 지시 정보가 포함될 수 있도록 함으로써, 산업 현장과 관련된 훈련 시나리오를 제공할 수 있다. 또한, 프로세서(110)는 제 1 가변 화면을 통해 제공된 훈련 시나리오를 사용자가 잘 수행했는지 여부를 인식함으로써, 사용자에게 훈련의 결과를 제공할 수 있다.According to the above configuration, the processor 110 of the first user terminal 100 provides a training scenario related to an industrial site by allowing instruction information to be included in the first variable image displayed on the second user terminal 200. can do. In addition, the processor 110 may provide a training result to the user by recognizing whether the user has successfully performed the training scenario provided through the first variable screen.

한편, 본 개시의 몇몇 실시예에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 제 3 모션 인식 데이터에 기초하여 사용자가 적어도 하나의 지시를 수행한 동작이 강점인지 또는 약점인지 여부를 인식할 수 있다. 이하, 도 5를 통해 프로세서(110)가 강점 정보 또는 약점 정보를 생성하는 방법에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the first user terminal 100 determines whether the operation performed by the user at least one instruction is a strength or a weakness, based on the third motion recognition data. I can recognize it. Hereinafter, a method of generating strength information or weakness information by the processor 110 will be described with reference to FIG. 5.

도 5는 본 개시의 몇몇 실시예에 따른 프로세서가 적어도 하나의 움직임 데이터에 기초하여 강점 정보 또는 약점 정보를 생성하는 방법의 일례를 설명하기 위한 흐름도이다.5 is a flowchart illustrating an example of a method of generating strength information or weakness information based on at least one motion data by a processor according to some embodiments of the present disclosure.

도 5를 참조하면, 제 1 사용자 단말(100)의 프로세서(110)는 지시 정보에 포함된 적어도 하나의 지시를 인식할 수 있다(S341).Referring to FIG. 5, the processor 110 of the first user terminal 100 may recognize at least one instruction included in the instruction information (S341).

예를 들어, 프로세서(110)는 지시 정보에 포함된 "웨이퍼(wafer)를 검사하는 머신의 조작부를 오른쪽으로 이동 시키세요"라는 적어도 하나의 지시를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may recognize at least one instruction "Move the operation unit of the machine inspecting the wafer to the right" included in the instruction information. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 3 모션 인식 데이터 중에서 적어도 하나의 지시에 대응하는 적어도 하나의 움직임 데이터를 결정할 수 있다(S342).Meanwhile, the processor 110 of the first user terminal 100 may determine at least one motion data corresponding to at least one instruction from among the third motion recognition data (S342).

구체적으로, 프로세서(110)는 적어도 하나의 지시를 인식하고, 인식된 적어도 하나의 지시를 수행한 적어도 하나의 움직임 데이터를 결정할 수 있다.Specifically, the processor 110 may recognize at least one instruction and determine at least one motion data that has performed the recognized at least one instruction.

예를 들어, 프로세서(110)는 제 3 모션 인식 데이터 중에서, 사용자가 제 1 가변 영상에 포함된 웨이퍼를 검사하는 머신의 조작부를 오른쪽으로 이동시킨 움직임 데이터를 인식할 수 있다. 이 경우, 프로세서(110)는 상기 움직임 데이터가 "웨이퍼(wafer)를 검사하는 머신의 조작부를 오른쪽으로 이동 시키세요"라는 지시와 관련된 데이터라고 결정할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, among the third motion recognition data, the processor 110 may recognize motion data in which a user moves a manipulation unit of a machine that inspects a wafer included in the first variable image to the right. In this case, the processor 110 may determine that the motion data is data related to an instruction indicating "Move the operation unit of the machine inspecting the wafer to the right". However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 적어도 하나의 움직임 데이터를 적어도 하나의 지시에 대응하는 사전 결정된 전문가 움직임 데이터와 비교함으로써 일치율 정보를 생성할 수 있다(S343).Meanwhile, the processor 110 of the first user terminal 100 may generate coincidence rate information by comparing at least one motion data with predetermined expert motion data corresponding to the at least one instruction (S343).

여기서, 사전 결정된 전문가 움직임 데이터는 전문가가 적어도 하나의 머신을 조작한 움직임에 대한 모션 인식 데이터 일 수 있다. 또한, 사전 결정된 전문가 움직임 데이터는 제 1 가변 영상과 함께 수신되어 있을 수 있다. 다만, 이에 한정되는 것은 아니다.Here, the predetermined expert motion data may be motion recognition data for a motion that the expert manipulates at least one machine. In addition, predetermined expert motion data may be received together with the first variable image. However, it is not limited thereto.

한편, 일치율 정보는 사용자와 관련된 적어도 하나의 움직임 데이터와 사전 결정된 전문가 움직임 데이터를 비교한 정보일 수 있다.Meanwhile, the match rate information may be information obtained by comparing at least one motion data related to a user with predetermined expert motion data.

구체적으로, 프로세서(110)는 제 1 가변 영상 내에서 사용자가 적어도 하나의 지시를 수행한 적어도 하나의 움직임 데이터를 인식할 수 있다. 또한, 프로세서(110)는 상기 적어도 하나의 움직임 데이터와 전문가 움직임 데이터를 비교하여, 움직임의 일치율을 비교할 수 있다. 그리고, 프로세서(110)는 인식된 일치율에 기초하여 일치율 정보를 생성할 수 있다.Specifically, the processor 110 may recognize at least one motion data for which the user has performed at least one instruction in the first variable image. Further, the processor 110 may compare the at least one motion data and the expert motion data to compare a match rate of motion. Further, the processor 110 may generate matching rate information based on the recognized matching rate.

예를 들어, 프로세서(110)는 전문가 움직임 데이터를 통해 웨이퍼를 검사하는 머신을 조작하기 위하여, 전문가는 조작부를 오른쪽으로 15도 이동시켰다는 데이터를 인식할 수 있다. 또한, 프로세서(110)는 사용자와 관련된 적어도 하나의 움직임 데이터를 통해 사용자는 웨이퍼를 검사하는 머신을 조작하기 위하여, 조작부를 오른쪽으로 10도 이동시켰다는 데이터를 인식할 수 있다. 이 경우, 프로세서(110)는 사용자와 관련된 적어도 하나의 움직임 데이터가 적어도 하나의 지시에 대응하는 사전 결정된 전문가 움직임 데이터와 66%의 일치율을 보인다는 일치율 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may recognize data that the expert has moved the manipulation unit 15 degrees to the right in order to manipulate the machine inspecting the wafer through the expert motion data. In addition, the processor 110 may recognize data indicating that the user has moved the manipulation unit 10 degrees to the right in order to manipulate the machine inspecting the wafer through at least one motion data related to the user. In this case, the processor 110 may generate coincidence rate information indicating that at least one motion data related to the user has a match rate of 66% with predetermined expert motion data corresponding to the at least one instruction. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 일치율 정보에 기초하여 제 1 가변 영상을 수행한 결과 정보를 산출할 수 있다.Meanwhile, the processor 110 of the first user terminal 100 may calculate result information of performing the first variable image based on the matching rate information.

구체적으로, 프로세서(110)는 일치율 정보가 기 설정된 값 이상인 경우(S344, Yes), 적어도 하나의 움직임 데이터에 기초하여 결과 정보를 강점 정보로 생성할 수 있다(S345).Specifically, when the match rate information is greater than or equal to a preset value (S344, Yes), the processor 110 may generate result information as strength information based on at least one motion data (S345).

여기서, 기 설정된 값은 제 1 사용자 단말(100)의 저장부(120)에 사전 저장되어 있을 수 있다. 다만, 이에 한정되는 것은 아니다.Here, the preset value may be pre-stored in the storage unit 120 of the first user terminal 100. However, it is not limited thereto.

한편, 프로세서(110)는 강점 정보가 생성된 경우, 강점 정보가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, when the strength information is generated, the processor 110 may cause the strength information to be displayed on the second user terminal 200. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 일치율 정보가 기 설정된 값 미만인 경우(S344, No), 적어도 하나의 움직임 데이터에 기초하여 결과 정보를 약점 정보로 생성할 수 있다(S346).Meanwhile, when the match rate information is less than a preset value (S344, No), the processor 110 of the first user terminal 100 may generate result information as weakness information based on at least one motion data (S346). .

이 경우, 프로세서(110)는 약점 정보가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다. 다만, 이에 한정되는 것은 아니다.In this case, the processor 110 may cause the weakness information to be displayed on the second user terminal 200. However, it is not limited thereto.

상술한 구성에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 제 3 모션 인식 데이터에 포함된 적어도 하나의 움직임 데이터를 사전 결정된 전문가 움직임 데이터와 비교함으로써, 적어도 하나의 움직임 데이터에 대해 강점을 나타내는지 또는 약점을 나타내는지 등의 정보를 생성할 수 있다. 그리고, 프로세서(110)는 생성된 강점 정보 또는 약점 정보가 제 2 사용자 단말(200)에 디스플레이되도록 야기함으로써 사용자에게 정보를 제공할 수 있다.According to the above-described configuration, the processor 110 of the first user terminal 100 compares at least one motion data included in the third motion recognition data with predetermined expert motion data, thereby giving strength to at least one motion data. It is possible to generate information such as whether or not it represents a weakness or weakness. In addition, the processor 110 may provide information to the user by causing the generated strength information or weakness information to be displayed on the second user terminal 200.

한편, 본 개시의 몇몇 실시예에 따르면, 프로세서(110)는 제 1 가변 영상을 통하여 테스트와 관련된 시나리오를 제공할 수도 있다. 이하, 도 6을 통해 프로세서(110)가 테스트와 관련된 시나리오를 제공하는 방법에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 may provide a test-related scenario through the first variable image. Hereinafter, a method in which the processor 110 provides a test-related scenario will be described with reference to FIG. 6.

도 6은 본 개시의 몇몇 실시예에 따른 프로세서가 퀴즈 정보가 포함된 제 1 가변 영상을 제 2 사용자 단말에 제공하는 방법의 일례를 설명하기 위한 흐름도이다.6 is a flowchart illustrating an example of a method of providing a first variable image including quiz information to a second user terminal by a processor according to some embodiments of the present disclosure.

도 6을 참조하면, 제 1 사용자 단말(100)의 프로세서(110)는 수신된 제 1 정보가 퀴즈 정보인 경우, 카메라(140)를 통해 사용자의 움직임이 포함된 제 4 영상을 획득할 수 있다(S410).Referring to FIG. 6, when the received first information is quiz information, the processor 110 of the first user terminal 100 may obtain a fourth image including the user's movement through the camera 140. (S410).

여기서, 제 4 영상은 사용자가 제 1 가변 영상에 디스플레이중인 퀴즈 정보에 기초하여 수행한 동작을 촬영한 영상일 수 있다. 다만, 이에 한정되는 것은 아니다.Here, the fourth image may be an image obtained by photographing an operation performed by the user based on quiz information displayed on the first variable image. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 통신부(130)는 제 4 영상을 외부 서버(300)에 전송할 수 있다(S420).Meanwhile, the communication unit 130 of the first user terminal 100 may transmit the fourth image to the external server 300 (S420).

이 경우, 외부 서버(300)는 제 4 영상에 기초하여 제 4 모션 인식 데이터를 생성할 수 있다. 즉, 제 4 모션 인식 데이터는 사용자가 제 1 가변 화면에 디스플레이중인 퀴즈 정보에 따라 적어도 하나의 동작을 수행한 모션일 수 있다. 다만, 이에 한정되는 것은 아니다.In this case, the external server 300 may generate fourth motion recognition data based on the fourth image. That is, the fourth motion recognition data may be a motion in which a user performs at least one operation according to quiz information displayed on the first variable screen. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 4 영상을 전송한 후에 외부 서버(300)로부터 제 4 영상과 관련된 제 4 모션 인식 데이터를 통신부(130)를 통해 수신할 수 있다(S430).Meanwhile, the processor 110 of the first user terminal 100 may receive the fourth motion recognition data related to the fourth image from the external server 300 through the communication unit 130 after transmitting the fourth image ( S430).

이 경우, 프로세서(110)는 제 4 모션 인식 데이터에 기초하여 사용자의 움직임을 인식할 수 있다.In this case, the processor 110 may recognize the user's movement based on the fourth motion recognition data.

예를 들어, 프로세서(110)가 제 2 사용자 단말(200)을 통해 디스플레이중인 제 1 가변 영상에는 "웨이퍼를 검사하기 위하여 동작되어야 하는 머신을 조작하시오"라는 퀴즈 정보가 포함되어 있을 수 있다. 이 경우 프로세서(110)는 제 4 모션 인식 데이터에 기초하여, 사용자가 제 1 가변 화면에 디스플레이된 퀴즈와 관련된 동작을 수행했는지 여부를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the first variable image displayed by the processor 110 through the second user terminal 200 may include quiz information “Operate a machine to be operated to inspect a wafer”. In this case, the processor 110 may recognize whether the user has performed an operation related to the quiz displayed on the first variable screen based on the fourth motion recognition data. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 제 4 모션 인식 데이터에 기초하여, 퀴즈 정보에 대한 정답률 정보를 생성할 수 있다(S440).Meanwhile, the processor 110 of the first user terminal 100 may generate correct answer rate information for the quiz information based on the fourth motion recognition data (S440).

여기서, 정답률 정보는 제 1 가변 화면에 디스플레이중인 퀴즈 정보에 대한 정답에 해당하는 동작을 사용자가 수행했는지 여부에 기초하여 생성되는 정보일 수 있다.Here, the correct answer rate information may be information generated based on whether the user has performed an operation corresponding to the correct answer to the quiz information displayed on the first variable screen.

예를 들어, 프로세서(110)가 제 2 사용자 단말(200)에 디스플레이되도록 야기한 퀴즈 정보가 포함된 제 1 가변 영상에는 "웨이퍼를 검사하기 위하여 동작되어야 하는 머신을 조작하시오"라는 퀴즈가 포함되어 있을 수 있다. 그리고, 프로세서(110)는 제 4 모션 인식 데이터에 기초하여, 사용자가 상기 퀴즈에 대해 올바른 머신을 조작하였는지 여부를 인식할 수 있다. 이 경우, 프로세서(110)는 사용자가 수행한 적어도 하나의 동작에 대하여 정답 또는 오답 여부를 인식할 수 있다. 그리고, 프로세서(110)는 적어도 하나의 동작에 대한 정답 및 오답 여부를 판별하여 정답률 정보를 생성할 수 있다. 예를 들어, 프로세서(110)는 퀴즈 정보에 포함된 5개의 퀴즈 중 사용자가 5개를 모두 맞췄다고 인식한 경우, 정답률이 100%라는 정답률 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the first variable image including the quiz information that caused the processor 110 to be displayed on the second user terminal 200 may include a quiz that says "Operate a machine that must be operated to inspect a wafer". I can. Further, the processor 110 may recognize whether the user has operated the correct machine for the quiz based on the fourth motion recognition data. In this case, the processor 110 may recognize whether a correct answer or an incorrect answer has been made to at least one operation performed by the user. Further, the processor 110 may generate correct answer rate information by determining whether a correct answer or an incorrect answer for at least one operation is performed. For example, when the processor 110 recognizes that the user has corrected all five of five quizzes included in the quiz information, the processor 110 may generate correct answer rate information indicating that the correct answer rate is 100%. However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 정답률 정보에 기초하여 퀴즈 정보가 포함된 상기 제 1 가변 영상을 수행한 결과를 산출할 수 있다(S450).Meanwhile, the processor 110 of the first user terminal 100 may calculate a result of performing the first variable image including quiz information based on the correct answer rate information (S450).

구체적으로, 프로세서(110)는 정답률 정보에 기초하여, 사용자가 제 1 가변 영상을 통해 제 1 가변 영상과 관련된 시나리오를 잘 수행했는지 여부가 포함된 결과를 산출할 수 있다. 이 경우, 프로세서(110)는 결과가 제 2 사용자 단말(200)에 디스플레이될 수 있도록 야기할 수 있다.Specifically, the processor 110 may calculate a result including whether or not the user has successfully performed a scenario related to the first variable image through the first variable image, based on the correct answer rate information. In this case, the processor 110 may cause the result to be displayed on the second user terminal 200.

한편, 본 개시의 몇몇 실시예에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 제 2 사용자 단말(100)에서 디스플레이중인 지시 정보가 포함된 제 1 가변 영상 또는 퀴즈 정보가 포함된 제 1 가변 영상과 관련된 시나리오의 종료를 인식할 수 있다. 이때, 프로세서(110)는 사용자에게 제 1 가변 영상에 대한 피드백을 요청하는 피드백 정보가 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the first user terminal 100 includes a first variable image including instruction information being displayed by the second user terminal 100 or a first variable image including quiz information. 1 It is possible to recognize the end of the scenario related to the variable video. In this case, the processor 110 may cause the user to display feedback information requesting a feedback on the first variable image to be displayed on the second user terminal 200.

구체적으로, 프로세서(110)는 제 1 가변 영상에 대한 피드백 패널 이미지를 포함하는 제 2 가변 영상이 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다. 여기서, 피드백 패널 이미지는 적어도 하나의 피드백을 요청하는 정보가 포함된 이미지 일 수 있다.Specifically, the processor 110 may cause the second variable image including the feedback panel image for the first variable image to be displayed on the second user terminal 200. Here, the feedback panel image may be an image including at least one piece of information requesting feedback.

예를 들어, 피드백 패널 이미지는 "좋음", "보통" 또는 "나쁨"등의 텍스트를 통해 생성되는 이미지일 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the feedback panel image may be an image generated through text such as "good", "normal", or "bad". However, it is not limited thereto.

한편, 제 1 사용자 단말(100)의 프로세서(110)는 카메라(140)를 통해 피드백 패널 이미지에 대응하는 피드백 움직임 영상을 획득할 수 있다. 이 경우, 프로세서(110)는 피드백 움직임 영상을 외부 서버(300)에 전송함으로써, 외부 서버(300)가 피드백 움직임 영상에 대한 피드백 정보를 생성하도록 야기할 수 있다. 이 경우, 외부 서버(300)는 피드백 정보에 기초하여 적어도 하나의 시나리오에 대한 보정 등을 수행할 수도 있다.Meanwhile, the processor 110 of the first user terminal 100 may obtain a feedback motion image corresponding to the feedback panel image through the camera 140. In this case, the processor 110 may cause the external server 300 to generate feedback information for the feedback motion image by transmitting the feedback motion image to the external server 300. In this case, the external server 300 may correct at least one scenario based on the feedback information.

상술한 바에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 산업 현장과 관련된 테스트가 포함되는 제 1 가변 영상을 사용자에게 제공할 수 있다.As described above, the processor 110 of the first user terminal 100 may provide a user with a first variable image including a test related to an industrial site.

한편, 본 개시의 몇몇 실시예에 따라 제 1 사용자 단말(100)의 프로세서(110)가 제 2 사용자 단말(200)에 디스플레이되도록 야기하는 가변 화면에는 산업 현장과 관련되는 시나리오를 진행하기 위한 각종 머신들, 지시 정보 또는 퀴즈 정보 등이 포함되어 있을 수 있다. 이하, 도 7을 통해 본 개시에 따른 가변 화면의 일례를 설명한다.Meanwhile, in a variable screen that causes the processor 110 of the first user terminal 100 to be displayed on the second user terminal 200 according to some embodiments of the present disclosure, various machines for performing scenarios related to the industrial site Fields, instructional information, or quiz information may be included. Hereinafter, an example of a variable screen according to the present disclosure will be described with reference to FIG. 7.

도 7은 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 일례를 설명하기 위한 도면이다.7 is a diagram for describing an example of a third variable screen that can be displayed in a second user terminal according to some embodiments of the present disclosure.

도 7을 참조하면, 제 3 가변 화면(500)은 시나리오 정보(510) 및 적어도 하나의 제 1 오브젝트(520)를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 7, the third variable screen 500 may include scenario information 510 and at least one first object 520. However, it is not limited thereto.

제 3 가변 화면(500)은 산업 현장과 관련된 적어도 하나의 시나리오를 수행하기 위한 화면일 수 있다.The third variable screen 500 may be a screen for executing at least one scenario related to an industrial site.

예를 들어, 제 1 사용자 단말(100)의 프로세서(110)는 산업 현장과 관련된 시나리오의 썸네일 이미지 중 적어도 하나의 썸네일 이미지를 선택하는 모션 데이터를 수신한 경우, 제 3 가변 화면이 제 2 사용자 단말(200)에 디스플레이되도록 야기할 수 있다.For example, when the processor 110 of the first user terminal 100 receives motion data for selecting at least one thumbnail image among thumbnail images of a scenario related to an industrial site, the third variable screen is displayed in the second user terminal. It can cause it to be displayed at 200.

시나리오 정보(510)는 제 3 가변 화면(500) 내에서 수행하는 동작과 관련된 설명이 포함된 정보일 수 있다. 또한, 시나리오 정보(510)는 지시 정보 또는 퀴즈 정보를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.The scenario information 510 may be information including a description related to an operation performed in the third variable screen 500. In addition, the scenario information 510 may include instruction information or quiz information. However, it is not limited thereto.

예를 들어, 시나리오 정보(510)는 결함 웨이퍼 확인(Check the defect wafer)이라는 정보가 디스플레이될 수 있다. 따라서, 사용자는 현재 수행중인 동작이 결함 웨이퍼를 확인하는 동작이라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the scenario information 510 may display information such as Check the defect wafer. Accordingly, the user can recognize that the operation currently being performed is an operation to check the defective wafer. However, it is not limited thereto.

한편, 적어도 하나의 제 1 오브젝트(520)는 사용자가 조작하는 머신일 수 있다. 예를 들어, 사용자는 제 3 가변 화면(500)에 포함된 질문 정보 또는 지시 정보 등에 기초하여 적어도 하나의 제 1 오브젝트(520)를 조작하는 움직임을 수행할 수 있다. 이 경우, 프로세서(110)는 사용자의 동작을 촬영하여 외부 서버(300)로 전송하도록 통신부(130)를 제어함으로써, 적어도 하나의 제 1 오브젝트(520)가 사용자의 움직임에 대응되어 디스플레이되도록 야기할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the at least one first object 520 may be a machine operated by a user. For example, the user may perform a movement of manipulating at least one first object 520 based on question information or instruction information included in the third variable screen 500. In this case, the processor 110 controls the communication unit 130 to capture the user's motion and transmit it to the external server 300, thereby causing at least one first object 520 to be displayed in response to the user's motion. I can. However, it is not limited thereto.

도 8은 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 다른 일례를 설명하기 위한 도면이다.FIG. 8 is a diagram for describing another example of a third variable screen that can be displayed in a second user terminal according to some embodiments of the present disclosure.

도 8을 참조하면, 제 2 사용자 단말(200)에 디스플레이중인 제 3 가변 화면은 실제로 사용자가 현실을 바라보는 화면과 유사한 시점으로 구현될 수 있다.Referring to FIG. 8, the third variable screen displayed on the second user terminal 200 may be implemented as a viewpoint similar to the screen actually viewed by the user.

구체적으로, 제 3 가변 화면에는 사용자의 신체의 일부에 대응하는 적어도 하나의 제 1 오브젝트, 머신과 관련된 적어도 하나의 제 2 오브젝트 및 적어도 하나의 제 1 오브젝트와 상호 작용하는 적어도 하나의 제 3 오브젝트를 포함할 수 있다. 여기서, 적어도 하나의 제 1 오브젝트는 사용자의 손, 손목, 손등 및 팔 등이 포함될 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, on the third variable screen, at least one first object corresponding to a part of the user's body, at least one second object related to the machine, and at least one third object interacting with the at least one first object are displayed. Can include. Here, the at least one first object may include a user's hand, wrist, back of hand, and arm. However, it is not limited thereto.

여기서, 적어도 하나의 제 3 오브젝트는 제어 패널, 컨트롤러 또는 조이 스틱 등과 관련된 오브젝트 일 수 있다.Here, the at least one third object may be an object related to a control panel, a controller, or a joy stick.

한편, 사용자는 적어도 하나의 제 3 오브젝트를 통해 적어도 하나의 제 2 오브젝트를 조작할 수 있다.Meanwhile, a user may manipulate at least one second object through at least one third object.

구체적으로, 제 1 사용자 단말(100)의 프로세서(110)는 사용자가 적어도 하나의 제 3 오브젝트를 조작하는 움직임을 촬영할 수 있다. 그리고, 제 1 사용자 단말(100)의 프로세서(110)는 사용자의 움직임을 촬영한 제 3 영상을 외부 서버(200)에 전송하도록 통신부(130)를 제어할 수 있다. 이 경우, 외부 서버(300)는 제 3 영상에 기초하여 제 3 모션 인식 데이터를 생성할 수 있다. 또한, 제 3 모션 인식 데이터가 생성된 경우, 제 1 사용자 단말(100)의 프로세서(110)는 통신부(130)를 통해 외부 서버(300)로부터 제 3 모션 인식 데이터를 수신할 수 있다.Specifically, the processor 110 of the first user terminal 100 may capture a motion of a user manipulating at least one third object. In addition, the processor 110 of the first user terminal 100 may control the communication unit 130 to transmit a third image of the user's movement to the external server 200. In this case, the external server 300 may generate third motion recognition data based on the third image. In addition, when the third motion recognition data is generated, the processor 110 of the first user terminal 100 may receive the third motion recognition data from the external server 300 through the communication unit 130.

한편, 프로세서(110)는 제 3 모션 인식 데이터에 기초하여, 적어도 하나의 제 2 오브젝트의 움직임의 변화를 인식할 수 있다.Meanwhile, the processor 110 may recognize a change in motion of at least one second object based on the third motion recognition data.

구체적으로, 프로세서(110)는 제 3 모션 인식 데이터에 기초하여, 사용자가 적어도 하나의 제 3 오브젝트를 통해 적어도 하나의 제 2 오브젝트를 조작하는 움직임을 인식할 수 있다. 이 경우, 제 2 사용자 단말(200)에 디스플레이중인 적어도 하나의 제 2 오브젝트는 사용자의 움직임에 따라 동작할 수 있다.Specifically, the processor 110 may recognize a motion of a user manipulating at least one second object through at least one third object, based on the third motion recognition data. In this case, at least one second object displayed on the second user terminal 200 may operate according to the user's movement.

즉, 사용자는 제 3 가변 화면에 디스플레이중인 적어도 하나의 제 3 오브젝트를 조작하는 움직임을 수행함으로써, 적어도 하나의 제 2 오브젝트를 구동시킬 수 있다. 다만, 이에 한정되는 것은 아니다.That is, the user may drive at least one second object by performing a movement to manipulate at least one third object being displayed on the third variable screen. However, it is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 제 1 사용자 단말(100)의 프로세서(110)는 적어도 하나의 제 2 오브젝트가 조작된 움직임 및 사전 결정된 전문가 데이터와 비교하여 세부 피드백을 생성할 수도 있다. Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the first user terminal 100 may generate detailed feedback by comparing the manipulated motion of at least one second object and predetermined expert data.

구체적으로, 프로세서(110)는 제 3 모션 인식 데이터에 기초하여 사용자가 적어도 하나의 제 2 오브젝트를 통해 수행한 동작의 결과인 제 1 결과 값을 인식할 수 있다.Specifically, the processor 110 may recognize a first result value that is a result of an operation performed by the user through at least one second object based on the third motion recognition data.

예를 들어, 제 3 가변 화면에는 "웨이퍼에 포함된 불량 소자를 검출하시오"라는 지시 정보가 디스플레이되고 있을 수 있다. 이때, 프로세서(110)는 제 3 모션 인식 데이터에 기초하여 사용자가 적어도 하나의 제 2 오브젝트의 조작을 통해 80%의 불량 소자를 검출했다고 인식할 수 있다. 이 경우, 프로세서(110)는 제 1 결과 값이 80점이라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, on the third variable screen, instruction information indicating "Detect a defective element included in the wafer" may be displayed. In this case, the processor 110 may recognize that 80% of defective elements have been detected by the user through manipulation of at least one second object based on the third motion recognition data. In this case, the processor 110 may recognize that the first result value is 80 points. However, it is not limited thereto.

한편, 프로세서(110)는 제 1 결과 값이 인식된 경우, 제 1 결과 값과 전문가 데이터를 비교하여 세부 피드백을 생성할 수 있다.Meanwhile, when the first result value is recognized, the processor 110 may generate detailed feedback by comparing the first result value with expert data.

예를 들어, 프로세서(110)는 전문가 데이터에 기초하여 생성된 결과 값이 제 2 결과 값이 90점인 경우, 제 1 결과 값과 제 2 결과 값은 10점의 차이가 난다는 정보 등을 세부 피드백 정보로 생성하여 제 3 가변 화면에 디스플레이할 수도 있다. 다만, 이에 한정되는 것은 아니다. 이 경우, 사용자는 제 3 가변 화면에 포함된 적어도 하나의 제 3 오브젝트를 통해 적어도 하나의 제 2 오브젝트를 조작한 동작에 대해 세부 피드백을 받을 수 있다.For example, if the result value generated based on the expert data is a second result value of 90 points, the processor 110 provides detailed feedback on information that the first result value and the second result value differ by 10 points. It may be generated as information and displayed on a third variable screen. However, it is not limited thereto. In this case, the user may receive detailed feedback on an operation of manipulating at least one second object through at least one third object included in the third variable screen.

상술한 구성에 따르면, 사용자가 제 2 사용자 단말(200)을 통해 제공하는 적어도 하나의 산업 현장과 관련된 가상 시나리오는 좀 더 실제 상황과 유사하도록 디스플레이될 수 있다.According to the above-described configuration, a virtual scenario related to at least one industrial site provided by the user through the second user terminal 200 may be displayed to be more similar to the actual situation.

한편, 제 3 가변 화면에 포함된 지시 정보 또는 퀴즈 정보가 디스플레이되는 위치는 사용자의 조작 또는 설정에 따라 변경될 수 있다. 이하, 도 9를 통해 제 3 가변 화면의 또 다른 일례를 설명한다.Meanwhile, the position at which the instruction information or quiz information included in the third variable screen is displayed may be changed according to a user's manipulation or setting. Hereinafter, another example of the third variable screen will be described with reference to FIG. 9.

도 9는 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 또 다른 일례를 설명하기 위한 도면이다.9 is a diagram for describing another example of a third variable screen that can be displayed on a second user terminal according to some embodiments of the present disclosure.

도 9를 참조하면, 제 2 사용자 단말(200)에 디스플레이중인 제 3 가변 화면은 적어도 하나의 제 2 오브젝트, 적어도 하나의 제 3 오브젝트 및 사용자의 신체 전체와 관련된 적어도 하나의 제 4 오브젝트를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 9, a third variable screen displayed on the second user terminal 200 may include at least one second object, at least one third object, and at least one fourth object related to the entire user's body. I can. However, it is not limited thereto.

한편, 제 3 가변 화면에 포함된 지시 정보 또는 퀴즈 정보는 사용자의 조작에 따라 또는 가상 시나리오에 따라 배치되는 위치가 변화될 수 있다.Meanwhile, the position of instruction information or quiz information included in the third variable screen may change according to a user's manipulation or a virtual scenario.

구체적으로, 사용자는 제 3 가변 화면에 포함된 지시 정보 또는 퀴즈 정보 중 적어도 하나를 이동시키는 움직임을 수행할 수 있다. 이 경우, 제 1 사용자 단말(100)의 프로세서(110)는 사용자의 움직임을 촬영한 제 4 영상을 외부 서버(200)에 전송하도록 통신부(130)를 제어할 수 있다. 한편, 외부 서버(300)는 제 4 영상에 기초하여 제 4 모션 인식 데이터를 생성할 수 있다. 그리고, 제 4 모션 인식 데이터가 생성된 경우, 제 2 사용자 단말(200)에 디스플레이중인 지시 정보 또는 퀴즈 정보는 제 4 모션 인식 데이터에 기초하여 이동된 위치에 디스플레이될 수 있다.Specifically, the user may perform a movement of moving at least one of instruction information or quiz information included in the third variable screen. In this case, the processor 110 of the first user terminal 100 may control the communication unit 130 to transmit a fourth image of the user's movement to the external server 200. Meanwhile, the external server 300 may generate fourth motion recognition data based on the fourth image. In addition, when the fourth motion recognition data is generated, instruction information or quiz information being displayed on the second user terminal 200 may be displayed at the moved position based on the fourth motion recognition data.

즉, 제 3 가변 화면에 디스플레이중인 지시 정보 또는 퀴즈 정보가 배치되는 위치는 사용자의 움직임에 기초하여 변화될 수 있다. 다만, 이에 한정되는 것은 아니고, 지시 정보 또는 퀴즈 정보가 제 3 가변 화면 내에서 디스플레이되는 위치는 시나리오에 따라 기 설정되어 제 1 사용자 단말(100)의 저장부(120) 또는 외부 서버(300)의 저장부에 저장되어 있을 수도 있다.That is, a position at which instruction information or quiz information being displayed on the third variable screen is arranged may be changed based on a user's movement. However, the present invention is not limited thereto, and the position at which the instruction information or quiz information is displayed in the third variable screen is preset according to the scenario, and the storage unit 120 of the first user terminal 100 or the external server 300 It may be stored in the storage.

상술한 구성에 따르면, 제 3 가변 화면에 디스플레이되는 지시 정보 또는 퀴즈 정보는 적어도 하나의 오브젝트에 의해 가려지더라도, 사용자의 조작에 따라 배치되는 위치가 변경될 수 있다.According to the above-described configuration, even if the instruction information or quiz information displayed on the third variable screen is covered by at least one object, the position to be arranged may be changed according to a user's manipulation.

한편, 제 2 사용자 단말(200)에 디스플레이중인 가변 화면에 포함된 적어도 하나의 시나리오를 바라보는 시점은 사용자의 조작에 따라 변경될 수 있다. 이하, 도 10을 통해 제 2 사용자 단말(200)에서 디스플레이중인 가변 화면의 또 다른 일례를 설명한다.On the other hand, the viewpoint of viewing at least one scenario included in the variable screen displayed on the second user terminal 200 may be changed according to a user's manipulation. Hereinafter, another example of the variable screen displayed in the second user terminal 200 will be described with reference to FIG. 10.

도 10은 본 개시의 몇몇 실시예에 따른 제 2 사용자 단말에서 디스플레이될 수 있는 제 3 가변 화면의 또 다른 일례를 설명하기 위한 도면이다.FIG. 10 is a diagram for describing another example of a third variable screen that can be displayed on a second user terminal according to some embodiments of the present disclosure.

도 10을 참조하면, 제 2 사용자 단말(200)에는 제 4 가변 화면이 디스플레이될 수 있다. 여기서, 제 4 가변 화면은 적어도 하나의 제 4 오브젝트의 반대편에서, 제 4 오브젝트를 바라보는 시점으로 생성된 화면일 수 있다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 10, a fourth variable screen may be displayed on the second user terminal 200. Here, the fourth variable screen may be a screen generated as a viewpoint of viewing the fourth object from the opposite side of the at least one fourth object. However, it is not limited thereto.

구체적으로, 사용자는 제 4 가변 화면의 시점을 이동하는 움직임을 수행할 수 있다.Specifically, the user may perform a movement to move the viewpoint of the fourth variable screen.

예를 들어, 제 4 가변 화면에는 제 4 가변 화면의 시점을 조작하기위한 가상 조이스틱 등이 디스플레이되어 있을 수도 있다. 다만 이에 한정되는 것은 아니다. 이 경우, 제 1 사용자 단말(100)의 프로세서(110)는 사용자의 움직임을 촬영한 제 5 영상을 외부 서버(200)에 전송하도록 통신부(130)를 제어할 수 있다. 한편, 외부 서버(300)는 제 5 영상에 기초하여 제 5 모션 인식 데이터를 생성할 수 있다. 그리고, 제 5 모션 인식 데이터가 생성된 경우, 제 2 사용자 단말(200)에 디스플레이중인 제 4 가변 화면의 시점은 변화될 수 있다. 다만, 이에 한정되는 것은 아니다.For example, a virtual joystick or the like for manipulating the viewpoint of the fourth variable screen may be displayed on the fourth variable screen. However, it is not limited thereto. In this case, the processor 110 of the first user terminal 100 may control the communication unit 130 to transmit a fifth image of the user's movement to the external server 200. Meanwhile, the external server 300 may generate fifth motion recognition data based on the fifth image. In addition, when the fifth motion recognition data is generated, the viewpoint of the fourth variable screen displayed on the second user terminal 200 may be changed. However, it is not limited thereto.

한편, 본 개시에서 적어도 하나의 오브젝트, 적어도 하나의 가변 화면을 바라보는 시점 또는 적어도 하나의 가변 화면과 관련된 설정 등은 적어도 하나의 산업 현장과 관련된 시나리오에 기초하여 변경될 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, at least one object, a viewpoint of viewing at least one variable screen, or a setting related to at least one variable screen may be changed based on a scenario related to at least one industrial site. However, it is not limited thereto.

상술한 구성에 따르면, 제 2 사용자 단말(200)에서 디스플레이중인 제 4 가변 화면은 사용자의 조작에 의해 시점이 변경될 수도 있다. 따라서, 사용자는 적어도 하나의 산업 현장과 관련된 시나리오를 다양한 각도에서 체험해볼 수 있다.According to the above-described configuration, the viewpoint of the fourth variable screen displayed by the second user terminal 200 may be changed by a user's manipulation. Accordingly, the user can experience scenarios related to at least one industrial site from various angles.

도 11은 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.11 shows a general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.

본 개시내용이 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시내용 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.While the present disclosure has generally been described above with respect to computer-executable instructions that may be executed on one or more computers, those skilled in the art will appreciate that the present disclosure may be implemented in combination with other program modules and/or as a combination of hardware and software. I will know.

일반적으로, 본 명세서에서의 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로시져, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.In general, modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. Further, to those skilled in the art, the method of the present disclosure is not limited to single-processor or multiprocessor computer systems, minicomputers, mainframe computers, as well as personal computers, handheld computing devices, microprocessor-based or programmable household appliances, and the like (each of which It will be appreciated that it may be implemented with other computer system configurations, including one or more associated devices).

본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in a distributed computing environment where certain tasks are performed by remote processing devices that are connected through a communication network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

컴퓨터는 통상적으로 다양한컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체 로서, 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. Computers typically include a variety of computer-readable media. A computer-accessible medium includes volatile and non-volatile media, transitory and non-transitory media, and removable and non-removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media.

컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computer-readable storage media include volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media implemented in any method or technology for storing information such as computer-readable instructions, data structures, program modules or other data. Includes the medium. Computer-readable storage media include RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage, or other magnetic storage. Devices, or any other medium that can be accessed by a computer and used to store desired information.

컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer-readable transmission media typically implement computer-readable instructions, data structures, program modules or other data on a modulated data signal such as a carrier wave or other transport mechanism. Includes all information transmission media. The term modulated data signal refers to a signal in which one or more of the characteristics of the signal is set or changed to encode information in the signal. By way of example, and not limitation, computer-readable transmission media include wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above-described media are also intended to be included within the scope of computer-readable transmission media.

컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An exemplary environment 1100 is shown that implements various aspects of the present disclosure, including a computer 1102, which includes a processing device 1104, a system memory 1106, and a system bus 1108. do. System bus 1108 couples system components, including but not limited to, system memory 1106 to processing device 1104. The processing unit 1104 may be any of a variety of commercially available processors. Dual processors and other multiprocessor architectures may also be used as processing unit 1104.

시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 1108 may be any of several types of bus structures that may be additionally interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 1106 includes read-only memory (ROM) 1110 and random access memory (RAM) 1112. The basic input/output system (BIOS) is stored in non-volatile memory 1110 such as ROM, EPROM, EEPROM, etc. This BIOS is a basic input/output system that helps transfer information between components in the computer 1102, such as during startup Includes routines. RAM 1112 may also include high speed RAM such as static RAM for caching data.

컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)-이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음-, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 예를 들어, USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.The computer 1102 also includes an internal hard disk drive (HDD) 1114 (e.g., EIDE, SATA)-this internal hard disk drive 1114 can also be configured for external use within a suitable chassis (not shown). Yes-, magnetic floppy disk drive (FDD) 1116 (for example, to read from or write to removable diskette 1118), and optical disk drive 1120 (e.g., CD-ROM For reading the disk 1122 or reading from or writing to other high-capacity optical media such as DVD). The hard disk drive 1114, magnetic disk drive 1116, and optical disk drive 1120 are each connected to the system bus 1108 by a hard disk drive interface 1124, a magnetic disk drive interface 1126, and an optical drive interface 1128. ) Can be connected. The interface 1124 for implementing an external drive includes, for example, at least one or both of USB (Universal Serial Bus) and IEEE 1394 interface technologies.

이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 저장 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 저장 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer readable media provide non-volatile storage of data, data structures, computer executable instructions, and the like. In the case of computer 1102, drives and media correspond to storing any data in a suitable digital format. Although the description of the computer-readable storage medium above refers to a removable optical medium such as a HDD, a removable magnetic disk, and a CD or DVD, those skilled in the art may include a zip drive, a magnetic cassette, a flash memory card, a cartridge, It will be appreciated that other types of computer-readable storage media, such as etc., may also be used in the exemplary operating environment and that any such media may contain computer-executable instructions for performing the methods of the present disclosure. .

운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules, including the operating system 1130, one or more application programs 1132, other program modules 1134, and program data 1136, may be stored in the drive and RAM 1112. All or part of the operating system, applications, modules, and/or data may also be cached in RAM 1112. It will be appreciated that the present disclosure may be implemented on a number of commercially available operating systems or combinations of operating systems.

사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may input commands and information to the computer 1102 through one or more wired/wireless input devices, for example, a pointing device such as a keyboard 1138 and a mouse 1140. Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. These and other input devices are often connected to the processing unit 1104 through the input device interface 1142, which is connected to the system bus 1108, but the parallel port, IEEE 1394 serial port, game port, USB port, IR interface, It can be connected by other interfaces such as etc.

모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also connected to the system bus 1108 through an interface such as a video adapter 1146. In addition to the monitor 1144, the computer generally includes other peripheral output devices (not shown) such as speakers, printers, etc.

컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 서버 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148 via wired and/or wireless communication. The remote computer(s) 1148 may be a workstation, server computer, router, personal computer, portable computer, microprocessor-based entertainment device, peer device, or other common network node, and is generally It includes many or all of the described components, but for brevity, only memory storage device 1150 is shown. The logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or to a larger network, eg, a wide area network (WAN) 1154. Such LAN and WAN networking environments are common in offices and companies, and facilitate an enterprise-wide computer network such as an intranet, all of which can be connected to a worldwide computer network, for example the Internet.

LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 서버에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 1102 is connected to the local network 1152 via a wired and/or wireless communication network interface or adapter 1156. Adapter 1156 may facilitate wired or wireless communication to LAN 1152, which also includes a wireless access point installed therein to communicate with wireless adapter 1156. When used in a WAN networking environment, the computer 1102 may include a modem 1158, connected to a communication server on the WAN 1154, or through the Internet, etc. to establish communication through the WAN 1154 Have means. The modem 1158, which may be an internal or external and a wired or wireless device, is connected to the system bus 1108 through a serial port interface 1142. In a networked environment, program modules described for the computer 1102 or portions thereof may be stored in the remote memory/storage device 1150. It will be appreciated that the network connections shown are exemplary and other means of establishing communication links between computers may be used.

컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.Computer 1102 is associated with any wireless device or entity deployed and operated in wireless communication, e.g., a printer, scanner, desktop and/or portable computer, portable data assistant (PDA), communication satellite, wireless detectable tag. It operates to communicate with any equipment or place and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Thus, the communication may be a predefined structure as in a conventional network or may simply be ad hoc communication between at least two devices.

Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) allows you to connect to the Internet, etc. without wires. Wi-Fi is a wireless technology such as a cell phone that allows such devices, for example computers, to transmit and receive data indoors and outdoors, ie anywhere within the coverage area of a base station. Wi-Fi networks use a wireless technology called IEEE 802.11 (a, b, g, etc.) to provide a secure, reliable and high-speed wireless connection. Wi-Fi can be used to connect computers to each other, to the Internet, and to a wired network (using IEEE 802.3 or Ethernet). Wi-Fi networks can operate in unlicensed 2.4 and 5 GHz radio bands, for example at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products that include both bands (dual band). have.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.A person of ordinary skill in the art of the present disclosure includes various exemplary logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein, electronic hardware, (convenience). For the sake of clarity, it will be appreciated that it may be implemented by various forms of program or design code or a combination of both (referred to herein as "software"). To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the particular application and design constraints imposed on the overall system. A person of ordinary skill in the art of the present disclosure may implement the described functions in various ways for each particular application, but such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다. The various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program or media accessible from any computer-readable device. For example, computer-readable storage media include magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CD, DVD, etc.), smart cards, and flash Memory devices (eg, EEPROM, cards, sticks, key drives, etc.), but are not limited thereto. The term “machine-readable medium” includes, but is not limited to, wireless channels and various other media capable of storing, holding, and/or transmitting instruction(s) and/or data.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on the design priorities, it is to be understood that within the scope of the present disclosure a specific order or hierarchy of steps in processes may be rearranged. The appended method claims provide elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be apparent to those of ordinary skill in the art, and general principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not limited to the embodiments presented herein, but is to be interpreted in the widest scope consistent with the principles and novel features presented herein.

Claims (14)

컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은 제 1 사용자 단말의 프로세서로 하여금 이하의 단계들을 수행하기 위한 명령들을 포함하며, 상기 단계들은:
상기 제 1 사용자 단말의 카메라의 활성화 가부를 인식하는 단계;
상기 카메라의 활성화가 가능하다고 인식한 경우, 적어도 하나의 가변 영상과 관련된 적어도 하나의 썸네일 이미지를 외부 서버로부터 수신하는 단계;
상기 적어도 하나의 썸네일 이미지를 수신한 경우, 상기 적어도 하나의 썸네일 이미지를 제 2 사용자 단말에 전송함으로써, 상기 적어도 하나의 썸네일 이미지가 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계;
상기 썸네일 이미지를 상기 제 2 사용자 단말에 전송한 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 1 영상을 획득하는 단계;
상기 제 1 영상을 외부 서버에 전송하는 단계;
상기 제 1 영상을 전송한 후에 상기 외부 서버로부터 상기 제 1 영상과 관련된 제 1 모션 인식 데이터를 수신하는 단계;
상기 제 1 모션 인식 데이터에 기초하여, 상기 적어도 하나의 썸네일 이미지 중 사용자가 선택한 제 1 썸네일 이미지를 인식하는 단계;
상기 제 1 썸네일 이미지가 인식된 경우, 상기 제 1 썸네일 이미지와 관련된 제 1 가변 영상을 요청하는 제 2 신호를 상기 외부 서버에 전송하는 단계; 및
상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계;
를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored on a computer-readable storage medium, comprising:
The computer program includes instructions for causing a processor of the first user terminal to perform the following steps, the steps:
Recognizing whether or not the camera of the first user terminal is activated;
Receiving at least one thumbnail image related to at least one variable image from an external server when it is recognized that activation of the camera is possible;
When the at least one thumbnail image is received, transmitting the at least one thumbnail image to a second user terminal, thereby causing the at least one thumbnail image to be displayed on the second user terminal;
When the thumbnail image is transmitted to the second user terminal, acquiring a first image including the user's movement through the camera;
Transmitting the first image to an external server;
Receiving first motion recognition data related to the first image from the external server after transmitting the first image;
Recognizing a first thumbnail image selected by a user from among the at least one thumbnail image based on the first motion recognition data;
When the first thumbnail image is recognized, transmitting a second signal for requesting a first variable image related to the first thumbnail image to the external server; And
Causing the first variable image to be displayed on the second user terminal as the second signal is transmitted;
Containing,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 제 2 사용자 단말은,
상기 제 1 사용자 단말과 페어링되는 단말인,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The second user terminal,
A terminal paired with the first user terminal,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 제 2 사용자 단말은,
상기 사용자의 머리에 착용되어 디스플레이부가 상기 사용자의 눈 앞에 위치되도록 만드는 장치에 설치되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The second user terminal,
Installed on a device worn on the user's head so that the display unit is positioned in front of the user's eyes,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 제 1 썸네일 이미지가 인식된 경우, 상기 제 1 썸네일 이미지와 관련된 제 1 가변 영상을 요청하는 제 2 신호를 상기 외부 서버에 전송하는 단계는,
상기 제 1 썸네일 이미지가 인식된 경우, 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계;
상기 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되는 경우, 상기 카메라를 통해 상기 사용자의 움직임이 포함된 제 2 영상을 획득하는 단계;
상기 제 2 영상을 상기 외부 서버에 전송하는 단계;
상기 제 2 영상을 전송한 후에 상기 외부 서버로부터 상기 제 2 영상과 관련된 제 2 모션 인식 데이터를 수신하는 단계; 및
상기 제 2 모션 인식 데이터에 기초하여, 상기 적어도 하나의 가상 버튼 중 상기 사용자가 선택한 제 1 가상 버튼을 인식하는 단계;
를 포함하고,
상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계는,
상기 제 1 가상 버튼과 관련된 지시 정보 및 상기 제 1 가상 버튼과 관련된 퀴즈 정보 중 적어도 하나를 포함하는 제 1 정보를 상기 제 1 가변 영상과 함께 디스플레이되도록 야기하는 단계;
를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
When the first thumbnail image is recognized, transmitting a second signal for requesting a first variable image related to the first thumbnail image to the external server,
Causing a first virtual screen including at least one virtual button to be displayed on the second user terminal when the first thumbnail image is recognized;
When the first virtual screen including the at least one virtual button is displayed on the second user terminal, obtaining a second image including the user's movement through the camera;
Transmitting the second image to the external server;
Receiving second motion recognition data related to the second image from the external server after transmitting the second image; And
Recognizing a first virtual button selected by the user from among the at least one virtual button based on the second motion recognition data;
Including,
In response to transmitting the second signal, causing the first variable image to be displayed on the second user terminal,
Causing first information including at least one of instruction information related to the first virtual button and quiz information related to the first virtual button to be displayed together with the first variable image;
Containing,
A computer program stored on a computer-readable storage medium.
제 4 항에 있어서,
상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계는,
상기 수신된 제 1 정보가 상기 지시 정보인 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 3 영상을 획득하는 단계;
상기 제 3 영상을 상기 외부 서버에 전송하는 단계;
상기 제 3 영상을 전송한 후에 상기 외부 서버로부터 상기 제 3 영상과 관련된 제 3 모션 인식 데이터를 수신하는 단계;
상기 제 3 모션 인식 데이터에 기초하여 상기 지시 정보에 대한 수행률 정보를 생성하는 단계; 및
상기 수행률 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과를 산출하는 단계;
를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 4,
In response to transmitting the second signal, causing the first variable image to be displayed on the second user terminal,
If the received first information is the indication information, obtaining a third image including a user's movement through the camera;
Transmitting the third image to the external server;
Receiving third motion recognition data related to the third image from the external server after transmitting the third image;
Generating performance rate information for the indication information based on the third motion recognition data; And
Calculating a result of performing the first variable image based on the performance rate information;
Containing,
A computer program stored on a computer-readable storage medium.
제 5 항에 있어서,
상기 제 3 모션 인식 데이터에 기초하여 상기 지시 정보에 포함된 적어도 하나의 지시를 수행 수행률을 인식하는 단계는,
상기 지시 정보에 포함된 적어도 하나의 지시를 인식하는 단계;
상기 제 3 모션 인식 데이터 중에서 상기 적어도 하나의 지시에 대응하는 적어도 하나의 움직임 데이터를 결정하는 단계;
상기 적어도 하나의 움직임 데이터를 상기 적어도 하나의 지시에 대응하는 사전 결정된 전문가 움직임 데이터와 비교함으로써 일치율 정보를 생성하는 단계; 및
상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출하는 단계;
를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 5,
Recognizing a performance rate of performing at least one instruction included in the instruction information based on the third motion recognition data,
Recognizing at least one instruction included in the instruction information;
Determining at least one motion data corresponding to the at least one indication from among the third motion recognition data;
Generating coincidence rate information by comparing the at least one motion data with predetermined expert motion data corresponding to the at least one indication; And
Calculating result information of performing the first variable image based on the matching rate information;
Containing,
A computer program stored on a computer-readable storage medium.
제 6 항에 있어서,
상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출하는 단계는,
상기 일치율 정보가 기 설정된 값 이상인 경우, 상기 적어도 하나의 움직임 데이터에 기초하여 강점 정보로 생성하는 단계;
를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 6,
Calculating result information of performing the first variable image based on the matching rate information,
Generating strength information based on the at least one motion data when the coincidence rate information is greater than or equal to a preset value;
Containing,
A computer program stored on a computer-readable storage medium.
제 6 항에 있어서,
상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출하는 단계는,
상기 일치율 정보가 기 설정된 값 미만인 경우, 상기 적어도 하나의 움직임 데이터에 기초하여 약점 정보를 생성하는 단계;
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 6,
Calculating result information of performing the first variable image based on the matching rate information,
Generating weakness information based on the at least one motion data when the match rate information is less than a preset value;
A computer program stored on a computer-readable storage medium.
제 4 항에 있어서,
상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는 단계,
상기 수신된 제 1 정보가 상기 퀴즈 정보인 경우, 상기 카메라를 통해 상기 사용자의 움직임이 포함된 제 4 영상을 획득하는 단계;
상기 제 4 영상을 상기 외부 서버에 전송하는 단계;
상기 제 4 영상을 전송한 후에 상기 외부 서버로부터 상기 제 4 영상과 관련된 제 4 모션 인식 데이터를 수신하는 단계;
상기 제 4 모션 인식 데이터에 기초하여, 상기 퀴즈 정보에 대한 정답률 정보를 생성하는 단계; 및
상기 정답률 정보에 기초하여 상기 퀴즈 정보가 포함된 상기 제 1 가변 영상을 수행한 결과를 산출하는 단계;
를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 4,
Causing the first variable image to be displayed on the second user terminal by transmitting the second signal,
When the received first information is the quiz information, obtaining a fourth image including the user's movement through the camera;
Transmitting the fourth image to the external server;
Receiving fourth motion recognition data related to the fourth image from the external server after transmitting the fourth image;
Generating correct answer rate information for the quiz information based on the fourth motion recognition data; And
Calculating a result of performing the first variable image including the quiz information based on the correct answer rate information;
Containing,
A computer program stored on a computer-readable storage medium.
제 1 항에 있어서,
상기 제 1 가변 영상에 대한 피드백 패널 이미지를 포함하는 제 2 가변 영상이 제 2 사용자 단말에 디스플레이되도록 야기하는 단계;
상기 피드백 패널 이미지에 대응하는 피드백 움직임 영상을 획득하는 단계;
상기 피드백 움직임 영상을 상기 외부 서버에 전송하는 단계; 및
상기 외부 서버가 상기 피드백 움직임 영상에 대한 피드백 정보를 생성하도록 야기하는 단계;
를 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
Causing a second variable image including a feedback panel image for the first variable image to be displayed on a second user terminal;
Obtaining a feedback motion image corresponding to the feedback panel image;
Transmitting the feedback motion image to the external server; And
Causing the external server to generate feedback information for the feedback motion image;
Containing,
A computer program stored on a computer-readable storage medium.
제 1 사용자 단말로서,
통신부;
사용자의 움직임을 촬영하는 카메라;
상기 카메라의 활성화 가부를 인식하는 프로세서;
를 포함하고,
상기 프로세서는,
상기 카메라의 활성화가 가능하다고 인식한 경우, 상기 통신부를 통해 적어도 하나의 가변 영상과 관련된 적어도 하나의 썸네일 이미지를 외부 서버로부터 수신하고,
상기 적어도 하나의 썸네일 이미지를 수신한 경우, 상기 통신부를 통해 상기 적어도 하나의 썸네일 이미지를 제 2 사용자 단말에 전송함으로써, 상기 적어도 하나의 썸네일 이미지가 상기 제 2 사용자 단말에 디스플레이되도록 야기하고,
상기 썸네일 이미지를 상기 제 2 사용자 단말에 전송한 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 1 영상을 획득하고,
상기 제 1 영상을 외부 서버에 전송하도록 상기 통신부를 제어하고,
상기 제 1 영상을 전송한 후에 상기 통신부를 통해 상기 외부 서버로부터 상기 제 1 영상과 관련된 제 1 모션 인식 데이터를 수신하고,
상기 제 1 모션 인식 데이터에 기초하여, 상기 적어도 하나의 썸네일 이미지 중 사용자가 선택한 제 1 썸네일 이미지를 인식하고,
상기 제 1 썸네일 이미지가 인식된 경우, 상기 제 1 썸네일 이미지와 관련된 제 1 가변 영상을 요청하는 제 2 신호를 상기 외부 서버에 전송하도록 상기 통신부를 제어하고,
상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하는
제 1 사용자 단말.
As a first user terminal,
Communication department;
A camera that photographs the user's movement;
A processor that recognizes whether or not the camera is activated;
Including,
The processor,
When it is recognized that activation of the camera is possible, at least one thumbnail image related to at least one variable image is received from an external server through the communication unit,
When the at least one thumbnail image is received, by transmitting the at least one thumbnail image to a second user terminal through the communication unit, the at least one thumbnail image is caused to be displayed on the second user terminal,
When the thumbnail image is transmitted to the second user terminal, a first image including the user's movement is obtained through the camera,
Controlling the communication unit to transmit the first image to an external server,
After transmitting the first image, receiving first motion recognition data related to the first image from the external server through the communication unit,
Recognizing a first thumbnail image selected by a user from among the at least one thumbnail image, based on the first motion recognition data,
When the first thumbnail image is recognized, controlling the communication unit to transmit a second signal requesting a first variable image related to the first thumbnail image to the external server,
Causing the first variable image to be displayed on the second user terminal by transmitting the second signal
The first user terminal.
제 11 항에 있어서,
상기 프로세서는,
상기 제 1 썸네일 이미지가 인식된 경우, 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되도록 야기하고,
상기 적어도 하나의 가상 버튼이 포함된 제 1 가상 화면이 상기 제 2 사용자 단말에 디스플레이되는 경우, 상기 카메라를 통해 상기 사용자의 움직임이 포함된 제 2 영상을 획득하고,
상기 제 2 영상을 상기 외부 서버에 전송하도록 상기 통신부를 제어하고,
상기 제 2 영상을 전송한 후에 상기 외부 서버로부터 상기 제 2 영상과 관련된 제 2 모션 인식 데이터를 상기 통신부를 통해 수신하고,
상기 제 2 모션 인식 데이터에 기초하여, 상기 적어도 하나의 가상 버튼 중 상기 사용자가 선택한 제 1 가상 버튼을 인식하고,
상기 제 2 신호를 전송함에 따라, 상기 제 1 가변 영상이 상기 제 2 사용자 단말에 디스플레이되도록 야기하고,
상기 제 1 가상 버튼과 관련된 지시 정보 및 상기 제 1 가상 버튼과 관련된 퀴즈 정보 중 적어도 하나를 포함하는 제 1 정보를 상기 제 1 가변 영상과 함께 디스플레이되도록 야기하는,
제 1 사용자 단말.
The method of claim 11,
The processor,
When the first thumbnail image is recognized, causing a first virtual screen including at least one virtual button to be displayed on the second user terminal,
When the first virtual screen including the at least one virtual button is displayed on the second user terminal, a second image including the movement of the user is obtained through the camera,
Controlling the communication unit to transmit the second image to the external server,
After transmitting the second image, second motion recognition data related to the second image is received from the external server through the communication unit,
Recognizing a first virtual button selected by the user among the at least one virtual button based on the second motion recognition data,
By transmitting the second signal, causing the first variable image to be displayed on the second user terminal,
Causing first information including at least one of instruction information related to the first virtual button and quiz information related to the first virtual button to be displayed together with the first variable image,
The first user terminal.
제 12 항에 있어서,
상기 수신된 제 1 정보가 상기 지시 정보인 경우, 상기 카메라를 통해 사용자의 움직임이 포함된 제 3 영상을 획득하고,
상기 제 3 영상을 상기 외부 서버에 전송하도록 상기 통신부를 제어하고,
상기 제 3 영상을 전송한 후에 상기 외부 서버로부터 상기 제 3 영상과 관련된 제 3 모션 인식 데이터를 상기 통신부를 통해 수신하고,
상기 제 3 모션 인식 데이터에 기초하여 상기 지시 정보에 대한 수행률 정보를 생성하고,
상기 수행률 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과를 산출하는,
제 1 사용자 단말.
The method of claim 12,
When the received first information is the indication information, a third image including a user's movement is acquired through the camera,
Controlling the communication unit to transmit the third image to the external server,
After transmitting the third image, receiving third motion recognition data related to the third image from the external server through the communication unit,
Generate performance rate information for the instruction information based on the third motion recognition data,
Calculating a result of performing the first variable image based on the performance rate information,
The first user terminal.
제 13 항에 있어서,
상기 프로세서는,
상기 지시 정보에 포함된 적어도 하나의 지시를 인식하고,
상기 제 3 모션 인식 데이터 중에서 상기 적어도 하나의 지시에 대응하는 적어도 하나의 움직임 데이터를 결정하고,
상기 적어도 하나의 움직임 데이터를 상기 적어도 하나의 지시에 대응하는 사전 결정된 전문가 움직임 데이터와 비교함으로써 일치율 정보를 생성하고,
상기 일치율 정보에 기초하여 상기 제 1 가변 영상을 수행한 결과 정보를 산출하는,
제 1 사용자 단말.
The method of claim 13,
The processor,
Recognizing at least one instruction included in the instruction information,
Determining at least one motion data corresponding to the at least one indication from among the third motion recognition data,
Generating coincidence rate information by comparing the at least one motion data with predetermined expert motion data corresponding to the at least one indication,
Calculating result information of performing the first variable image based on the matching rate information,
The first user terminal.
KR1020190145495A 2019-11-14 2019-11-14 Method and apparus providng virtual simulation with vr KR102216312B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190145495A KR102216312B1 (en) 2019-11-14 2019-11-14 Method and apparus providng virtual simulation with vr

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190145495A KR102216312B1 (en) 2019-11-14 2019-11-14 Method and apparus providng virtual simulation with vr

Publications (1)

Publication Number Publication Date
KR102216312B1 true KR102216312B1 (en) 2021-02-17

Family

ID=74732075

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190145495A KR102216312B1 (en) 2019-11-14 2019-11-14 Method and apparus providng virtual simulation with vr

Country Status (1)

Country Link
KR (1) KR102216312B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102319649B1 (en) * 2021-03-10 2021-10-29 세종대학교산학협력단 Remote training method and apparatus for drone flight in mixed reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005134536A (en) * 2003-10-29 2005-05-26 Omron Corp Work training support system
KR20150003591A (en) * 2013-07-01 2015-01-09 엘지전자 주식회사 Smart glass
KR20160040750A (en) * 2014-10-03 2016-04-15 주식회사 마당 Motion recognition with Virtual Reality based Realtime Interactive Korea Cargo Vessel Learning System
KR20190087912A (en) 2018-01-17 2019-07-25 대구보건대학교산학협력단 Simulation apparatus and method for training first aid treatment using augmented reality and virtual reality
JP2019531550A (en) * 2016-06-13 2019-10-31 株式会社ソニー・インタラクティブエンタテインメント HMD transition to focus on specific content in virtual reality environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005134536A (en) * 2003-10-29 2005-05-26 Omron Corp Work training support system
KR20150003591A (en) * 2013-07-01 2015-01-09 엘지전자 주식회사 Smart glass
KR20160040750A (en) * 2014-10-03 2016-04-15 주식회사 마당 Motion recognition with Virtual Reality based Realtime Interactive Korea Cargo Vessel Learning System
JP2019531550A (en) * 2016-06-13 2019-10-31 株式会社ソニー・インタラクティブエンタテインメント HMD transition to focus on specific content in virtual reality environment
KR20190087912A (en) 2018-01-17 2019-07-25 대구보건대학교산학협력단 Simulation apparatus and method for training first aid treatment using augmented reality and virtual reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102319649B1 (en) * 2021-03-10 2021-10-29 세종대학교산학협력단 Remote training method and apparatus for drone flight in mixed reality

Similar Documents

Publication Publication Date Title
US11385760B2 (en) Augmentable and spatially manipulable 3D modeling
US9355452B2 (en) Camera and sensor augmented reality techniques
US10950205B2 (en) Electronic device, augmented reality device for providing augmented reality service, and method of operating same
US10342484B2 (en) Wearable device configuration interaction
CN108566323A (en) A kind of T-Box automated testing methods and system
US10614590B2 (en) Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium
US9996947B2 (en) Monitoring apparatus and monitoring method
CN109621415A (en) Display control method and device in 3D game, computer storage medium
CN113868102A (en) Method, electronic device and computer program product for information display
EP3631712B1 (en) Remote collaboration based on multi-modal communications and 3d model visualization in a shared virtual workspace
CN109471805A (en) Resource testing method and device, storage medium, electronic equipment
US11529737B2 (en) System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
KR101653878B1 (en) Block and user terminal for modeling 3d shape and the method for modeling 3d shape using the same
US9871546B2 (en) Wearable terminal mountable on part of body of user
KR102216312B1 (en) Method and apparus providng virtual simulation with vr
US8806337B2 (en) System and method for representation of avatars via personal and group perception, and conditional manifestation of attributes
CN112965911B (en) Interface abnormity detection method and device, computer equipment and storage medium
CN107944337A (en) A kind of low target intelligent-tracking method and system, storage medium and electric terminal
US11676311B1 (en) Augmented reality replica of missing device interface
US20220277221A1 (en) System and method for improving machine learning training data quality
US20230245330A1 (en) System and method for facial un-distortion in digital images using multiple imaging sensors
WO2018061175A1 (en) Screen image sharing system, screen image sharing method, and program
Lindvall et al. Survey of Virtual and Augmented Reality lmplementations for Development of Prototype for Practical Technician Training
Tsoi et al. Improving the Robustness of Social Robot Navigation Systems
Ahmadi et al. System for utilizing eye tracking in a virtual maritime environment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant