KR101165375B1 - Method for providing an education information using a virtual reality - Google Patents

Method for providing an education information using a virtual reality Download PDF

Info

Publication number
KR101165375B1
KR101165375B1 KR1020110002650A KR20110002650A KR101165375B1 KR 101165375 B1 KR101165375 B1 KR 101165375B1 KR 1020110002650 A KR1020110002650 A KR 1020110002650A KR 20110002650 A KR20110002650 A KR 20110002650A KR 101165375 B1 KR101165375 B1 KR 101165375B1
Authority
KR
South Korea
Prior art keywords
virtual
information
indication information
image
output
Prior art date
Application number
KR1020110002650A
Other languages
Korean (ko)
Inventor
김창수
조무영
Original Assignee
(주)루먼텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)루먼텍 filed Critical (주)루먼텍
Priority to KR1020110002650A priority Critical patent/KR101165375B1/en
Application granted granted Critical
Publication of KR101165375B1 publication Critical patent/KR101165375B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A learning information supplying method using virtual reality is provided to extract motion of a performer in virtual reality through movement path of a light and to output virtual reality information to a virtual reality output screen. CONSTITUTION: A server extracts indication information from optical motion information(200). If the indication information is extracted, a controlling unit determines information which indication information indicates(300). The server performs a function related to the first indication information(400). The server changes a virtual icon according to second indication information(500). The server outputs new virtual information(600).

Description

가상현실을 이용한 학습정보 제공방법{METHOD FOR PROVIDING AN EDUCATION INFORMATION USING A VIRTUAL REALITY}METHOD FOR PROVIDING AN EDUCATION INFORMATION USING A VIRTUAL REALITY}

본 발명은 가상현실에서 사용자의 움직임을 추적하여 다양한 정보를 제공하는 가상현실을 이용한 정보 제공방법에 관한 것이다. The present invention relates to an information providing method using virtual reality that provides various information by tracking a user's movement in virtual reality.

과학 기술의 발전에 따라 다양한 정보 제공 매체가 이용되고 있다. With the development of science and technology, various information providing media have been used.

이중, 텔레비젼(TV) 또는 인터넷은 사용자의 시각에 의해 인지될 수 있는 다양한 영상 정보를 제공하고 있다. 이러한 영상 정보는 단순한 문자일 수도 있으나, 다양한 종류의 정지 이미지일 수도 있으며, 연속적으로 변화되는 동영상일 수도 있다. Among them, televisions (TVs) or the Internet provide various image information that can be perceived by the user's vision. The image information may be a simple text, various kinds of still images, or may be a continuously changing video.

상기한 바와 같은 동영상은 영화나 드라마와 같이 단순 정보일 수도 있으나, 각종 수험생들의 교육을 목적으로한 동영상일 수도 있고, 대통령 또는 국회의원 등의 투표현황을 제공하는 동영상일 수도 있으며, 일기예보와 같이 그래픽이 요구되는 동영상일 수도 있다. 또한, 상기한 바와 같은 동영상은 일반 기업체에서 회의용 또는 영업용으로 제작한 동영상일 수도 있다.The video as described above may be simple information such as a movie or a drama, but may be a video for educational purposes of various examinees, a video providing a voting status of the president or a member of the National Assembly, or a graphic such as a weather forecast. This may be a required video. In addition, the video as described above may be a video produced by a general company for meetings or sales.

한편, 최근에는 별도의 배경이 없는 스튜디오에서 진행자의 동작을 추출한 후, 가상현실과 진행자의 동작을 결합시키는 형태의 가상현실을 이용한 다양한 서비스들이 제공되고 있다. On the other hand, recently, after extracting the operator's motion in a studio without a separate background, various services using virtual reality in the form of combining the virtual reality and the host's motion have been provided.

예를 들어, 투표현황을 발표하는 가상현실의 경우, 진행자는 배경으로 쓰이는 블루 스크린 및 카메라가 놓여져 있는 스튜디오에서, 별도의 모니터를 통해 출력되는 자신의 모습 및 영상들을 모니터링하면서, 영상 내의 각종 버튼 등을 선택하는 동작들을 통해 다양한 정보들을 제공하고 있다.For example, in the case of virtual reality that announces the voting status, the presenter monitors his / her appearance and images output through a separate monitor in a studio where a blue screen and a camera are used as backgrounds, and various buttons in the image. Various operations are provided through selecting operations.

또 다른 예로서, 외국어 학습용으로 제작되는 동영상의 경우, 다양한 장소가 가상현실로 출력되는 상태에서, 진행자가 가상현실에 나오는 다양한 상황 등을 외국어로 전달해 줌으로써, 학습자들이 보다 현실감을 느끼면서 외국어를 학습할 수 있도록 하는 교육 환경을 제공하고 있다.As another example, in the case of a video produced for learning a foreign language, the presenter delivers a variety of situations, such as virtual reality, in a variety of places output in virtual reality, so that learners learn a foreign language while feeling more real. It provides an educational environment that makes it possible.

그러나, 상기한 바와 같은 가상현실 속에서, 진행자는 단순히 음성으로 자신의 의사를 표현하거나 또는 동영상에 출력되는 버튼 등의 이미지들을 선택 또는 드래그하는 방법에 의해 다양한 정보들을 사용자들에게 제공할 수 있을 뿐, 진행자 자신이 직접 자신이 원하는 문자와 같은 이미지를 생성하여 사용자들에게 정보를 제공하지는 못하고 있다. However, in the virtual reality as described above, the presenter can simply provide a variety of information to the user by simply expressing his or her intention by voice or selecting or dragging images such as buttons output on a video. For example, the presenter himself cannot generate information such as a character that he / she wants to provide information to users.

한편, 상기와 같은 문제점을 극복하기 위해, 최근에는 가상 스튜디오에서 동작하는 진행자의 손가락 움직임을 추출하여, 손가락이 형상화하는 정보를 출력하는 기술이 개발되고 있으나, 이러한 손가락 움직인 인식 방법은 그 인식률이 떨어지기 때문에 널리 이용되기 어렵다는 문제점이 있다.On the other hand, in order to overcome the above problems, recently, a technique for extracting the finger movement of the presenter operating in the virtual studio and outputting the information shaped by the finger has been developed. There is a problem that it is difficult to be widely used because it falls.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 가상현실의 진행자의 움직임을 광의 이동 경로를 통해 추출하여, 진행자가 의도하는 가상정보를 가상현실이 출력되는 화면에 출력시킬 수 있는, 가상현실을 이용한 학습정보 제공방법을 제공하는 것을 기술적 과제로 한다. The present invention is to solve the above-described problems, using the virtual reality, which can extract the motion of the host of the virtual reality through the movement path of the light, and output the virtual information intended by the host on the screen on which the virtual reality is output It is a technical task to provide a method of providing learning information.

상술한 기술적 과제를 달성하기 위한 본 발명에 따른 가상현실을 이용한 학습정보 제공방법은, 카메라로부터 수신된 영상신호로부터, 진행자 영상을 추출하며, 가상현실 배경이미지에 상기 진행자 영상을 결합시켜 가상이미지를 생성하는 단계; 상기 영상신호로부터 추출된 광움직임정보를 이용하여 진행자 동작을 판단하며, 이를 이용해 지시정보를 추출하는 단계; 상기 지시정보가, 기 저장되어 있는 가상정보를 출력하도록 하는 제1지시정보이면, 상기 제1지시정보에 해당되는 가상정보를 추출하는 단계; 및 상기 제1지시정보에 의해 추출된 가상정보를 상기 가상이미지에 결합시킨 학습정보를 생성하여 출력하는 단계를 포함한다.Learning information providing method using the virtual reality according to the present invention for achieving the above technical problem, extracting the host image from the image signal received from the camera, by combining the presenter image to the virtual reality background image to the virtual image Generating; Determining an operator's operation using optical motion information extracted from the video signal and extracting indication information using the motion information; Extracting virtual information corresponding to the first indication information if the indication information is first indication information for outputting previously stored virtual information; And generating and outputting learning information combining the virtual information extracted by the first indication information to the virtual image.

상술한 해결 수단에 따라 본 발명은 다음과 같은 효과를 제공한다. According to the above solution, the present invention provides the following effects.

즉, 본 발명은 가상현실의 진행자의 움직임을 광의 이동 경로를 통해 추출하여, 진행자가 의도하는 가상정보를 가상현실이 출력되는 화면에 출력시켜 줌으로써, 진행자가 원하는 가상정보를 사용자에게 즉각적으로 제공할 수 있다는 효과를 제공한다. That is, the present invention extracts the movement of the host of the virtual reality through the movement path of the light, and outputs the virtual information intended by the host on the screen where the virtual reality is output, thereby providing the desired virtual information to the user immediately Can provide the effect.

도 1은 본 발명이 적용되는 가상현실 시스템의 구성도.
도 2는 본 발명에 따른 가상현실을 이용한 학습정보 제공방법의 일실시예 흐름도.
도 3은 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 지시정보 추출과정을 상세하게 나타낸 일실시예 흐름도.
도 4 및 도 5는 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 기 저장된 가상정보를 출력하도록 하는 제1지시정보에 따라 학습정보를 제공하고 있는 예시도.
도 6 및 도 7은 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 가상아이콘을 변경하도록 하는 제2지시정보에 따라 학습정보를 제공하고 있는 예시도.
도 8 및 도 9는 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 새로운 가상정보를 생성하여 출력하도록 하는 제3지시정보에 따라 학습정보를 제공하고 있는 예시도.
1 is a block diagram of a virtual reality system to which the present invention is applied.
Figure 2 is a flow diagram of an embodiment of a learning information providing method using a virtual reality according to the present invention.
Figure 3 is a flow diagram illustrating an embodiment of the indication information extraction process in detail of the learning information providing method using the virtual reality according to the present invention.
4 and 5 are exemplary diagrams for providing learning information according to the first instruction information for outputting previously stored virtual information in the method for providing learning information using virtual reality according to the present invention.
6 and 7 are exemplary diagrams for providing learning information according to the second instruction information for changing the virtual icon of the learning information providing method using the virtual reality according to the present invention.
8 and 9 are exemplary views of providing learning information according to the third instruction information for generating and outputting new virtual information in the method of providing learning information using virtual reality according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명이 적용되는 가상현실 시스템의 구성도이다. 1 is a block diagram of a virtual reality system to which the present invention is applied.

본 발명이 적용되는 가상현실 시스템은 도 1에 도시된 바와 같이, 가상펜(13)을 소지한 진행자의 영상(이하, 간단히 '진행자 영상'이라 함)과 가상펜으로로부터 출력되는 광의 움직임 정보(이하, 간단히 '광움직임정보'라 함)를 수집하기 위한 가상 스튜디오(10) 및 가상 스튜디오를 통해 수집된 진행자 영상과 가상현실 배경 이미지를 결합하여 가상이미지를 생성하는 한편, 광움직임정보로부터 추출된 지시정보를 이용하여 가상정보를 생성하며, 생성된 가상정보를 가상이미지에 매칭시켜 학습정보를 생성하기 위한 서버(20), 서버에서 생성되어 네트워크를 통해 전송된 학습정보를 사용자가 모니터링할 수 있도록 출력하기 위한 사용자 단말기(30)를 포함한다. In the virtual reality system to which the present invention is applied, as shown in FIG. 1, an image of a presenter carrying a virtual pen 13 (hereinafter, simply referred to as an 'advanced image') and motion information of light output from the virtual pen ( Hereinafter, the virtual studio 10 and the virtual reality background image collected through the virtual studio 10 and the virtual studio for collecting the 'photo motion information' are simply generated to generate a virtual image, and extracted from the photo motion information. The virtual information is generated using the indication information, and the server 20 for generating the learning information by matching the generated virtual information with the virtual image, so that the user can monitor the learning information generated by the server and transmitted through the network. And a user terminal 30 for outputting.

가상 스튜디오(10)는, LED와 같은 광을 출력하는 가상펜(13)을 소지한 진행자에 의해 발생되는 광움직임정보 및 진행자 영상을 수집하기 위한 공간으로서, 이를 위해 가상 스튜디오에는 배경 화면으로 쓰이는 블루 스크린(12), 진행자 영상과 광움직임정보를 수집하기 위한 카메라(11) 및 진행자가 자신의 움직임을 모니터링하도록 하기 위한 모니터(14)가 구비되어 있다.The virtual studio 10 is a space for collecting light motion information and a host image generated by a host having a virtual pen 13 that outputs light such as an LED. A screen 12, a camera 11 for collecting the presenter image and light motion information, and a monitor 14 for allowing the presenter to monitor his / her movement are provided.

가상펜(13)은 LED(light emitting diode)와 같이 광을 발생시키는 장치로서, 진행자가 자신의 손가락 끝에 끼운 상태로 이용할 수 있도록 구성되거나 또는 진행자가 손에 쥐고 이용할 수 있도록 구성될 수 있다.The virtual pen 13 is a device that generates light, such as a light emitting diode (LED), and may be configured to be used by the presenter while being placed at the tip of his or her finger, or may be configured to be used by the presenter.

또한, 가상펜에는 광출력을 온오프할 수 있도록 하는 스위치가 형성될 수도 있다. 따라서, 진행자는 가상정보를 생성하고자 하는 경우에만 가상펜의 광출력을 온상태로 유지할 수 있다. In addition, the virtual pen may be provided with a switch for turning the light output on and off. Therefore, the facilitator may keep the optical output of the virtual pen ON when only the virtual information is to be generated.

즉, 가상펜은 광을 출력하는 장치로서, 진행자가 손에 쥐거나 또는 손가락 등에 부착시킨 상태로 이용할 수 있도록 구성될 수 있으며, 손가락의 움직임에 의해 온오프될 수 있도록 소형으로 만들어지는 것이 바람직하다. 이러한 가상펜은 현재 이용 가능한 모든 광원을 이용하여 제작될 수 있으며, 현재 이용되고 있는 일반적인 스위칭 기능을 이용하여 온오프될 수 있도록 구성될 수 있는바, 가상펜에 대한 상세한 설명은 생략된다. In other words, the virtual pen is a device that outputs light, and may be configured to be used by a presenter while holding it in a hand or attached to a finger, and the like, and is preferably made small so that it can be turned on and off by the movement of a finger. . Such a virtual pen may be manufactured using all currently available light sources, and may be configured to be turned on and off using a general switching function currently used, and thus, a detailed description of the virtual pen will be omitted.

블루 스크린(12), 카메라(11) 및 모니터(14)는 현재 일반적으로 이용되고 있는 것들이 적용될 수 있으므로 그에 대한 상세한 설명은 생략된다.
The blue screen 12, the camera 11, and the monitor 14 may be applied to those which are generally used, and thus detailed description thereof will be omitted.

서버(20)는 가상 스튜디오에 설치되어 있는 카메라(14)로부터 전송되어온 진행자 영상을, 기 작업되어 생성되어진 가상현실 배경이미지와 결합시켜 가상이미지를 생성하는 기능을 수행한다. 즉, 가상이미지는 진행자 영상과 가상현실 배경이미지를 결합시킨 이미지를 말한다.The server 20 combines the presenter image transmitted from the camera 14 installed in the virtual studio with the virtual reality background image generated in advance to generate a virtual image. In other words, the virtual image refers to an image combining the host image and the virtual reality background image.

또한, 서버는 진행자가 소지하고 있는 가상펜으로부터 출력되는 광움직임정보를 분석하여, 진행자가 의도하는 지시정보를 추출하는 한편, 지시정보에 해당되는 가상정보를 생성하며, 생성된 가상정보를 가상이미지와 매칭시키는 기능을 수행한다.In addition, the server analyzes the optical motion information output from the virtual pen possessed by the host, extracts the instruction information intended by the host, generates virtual information corresponding to the instruction information, and generates the virtual image as a virtual image. And matching function.

즉, 가상펜에 의해 출력되는 광의 움직임이 광움직임정보를 형성하며, 서버는 카메라를 통해 전송되어온 광움직임정보를 분석하여 광움직임정보가 의도하는 지시정보를 추출한다. 여기서, 지시정보는 광움직임정보에 의해 추출되는 것이지만 광움직임정보가 진행자에 의해 생성되는 것임으로, 결국, 지시정보는 진행자가 의도하는 바를 포함하고 있는 정보를 말한다. That is, the motion of the light output by the virtual pen forms the light motion information, and the server analyzes the light motion information transmitted through the camera and extracts the indication information intended by the light motion information. Here, the indication information is extracted by the light motion information, but the light motion information is generated by the facilitator. Consequently, the indication information refers to information including the intention of the facilitator.

한편, 서버는 추출된 지시정보를 이용하여 지시정보와 매칭되어 있는 가상정보를 생성하며, 생성된 가상정보를 가상이미지와 매칭시켜 학습정보를 생성하는 기능을 수행한다. Meanwhile, the server generates virtual information matched with the indication information by using the extracted indication information, and generates learning information by matching the generated virtual information with the virtual image.

즉, 학습정보란, 진행자 영상과 가상현실 배경이미지가 결합된 가상이미지에, 광움직임정보에 의해 생성된 가상정보가 매칭된 것으로서, 서버는 학습정보를 네트워크를 통해 사용자 단말기로 전송하는 기능을 수행한다. That is, the learning information is a virtual image combined with a facilitator image and a virtual reality background image, and virtual information generated by optical motion information is matched. The server transmits the learning information to a user terminal through a network. do.

여기서, 지시정보란 가상펜에서 출력되는 광움직임정보로부터 추출된 정보로서, 상기한 바와 같이 실질적으로는 진행자가 의도하고 있는 목적 또는 기능이라 할 수 있으며, 이러한 지시정보는 다음과 같이 세 개의 대분류로 구분될 수 있다. Here, the indication information is information extracted from the optical motion information output from the virtual pen, and can be referred to as the purpose or function substantially intended by the facilitator as described above, and the indication information is divided into three main categories as follows. Can be distinguished.

제1지시정보는, 서버에 이미 저장되어 있는 가상정보를 출력하도록 하는 정보가 될 수 있다. 예를 들어, 가상 스튜디오에 설치된 모니터를 통해 출력되는 가상이미지에 특정 가상정보와 매칭되어 있는 버튼(가상아이콘이)이 출력되어 있다면, 진행자는 모니터를 통해 자신의 가상펜의 위치를 버튼에 위치시킨 후, 기 설정되어 있는 동작으로 버튼을 선택할 수 있으며, 이때, 서버는 상기 동작(광움직임정보)을 분석하여 상기 동작(광움직임정보)이 제1지시정보라는 것을 파악한 후, 상기 버튼과 매칭되어 있는 가상정보를 현재 출력되고 있는 가상이미지에 함께 출력시킬 수 있다. The first indication information may be information for outputting virtual information already stored in the server. For example, if a button (virtual icon) that matches specific virtual information is displayed on the virtual image output through the monitor installed in the virtual studio, the presenter places the position of his virtual pen on the button through the monitor. Afterwards, a button may be selected as a preset operation. At this time, the server analyzes the operation (glow information) to determine that the operation (glow information) is the first indication information, and then matches the button. The virtual information can be displayed together with the virtual image currently being output.

제2지시정보는, 현재 가상이미지에 출력되고 있는 특정 매체(이하, 간단히 '가상아이콘'이라 함)를 다양한 형태로 변형시키도록 하는 정보가 될 수 있다. 예를 들어, 가상 스튜디오에 설치된 모니터를 통해 출력되는 가상이미지에 책과 같은 가상아이콘이 출력되어 있다면, 진행자는 모니터를 통해 자신의 가상펜의 위치를 책에 위치시킨 후, 자신이 원하는 위치로 가상펜을 이동시키는 동작을 취할 수 있으며, 이때, 서버는 상기 동작(광움직임정보)을 분석하여 상기 동작이 제2지시정보라는 것을 파악한 후, 현재 출력되고 있는 가상아이콘(책)을 진행자가 최종적으로 지시하고 있는 가상펜의 위치로 이동시킬 수 있다. 이때, 가상정보는 가상아이콘이 이동하는 것 자체가 될 수 있다. 따라서, 제2지시정보에 의해 생성되는 학습정보는, 가상이미지에 이미 출력되고 있는 가상아이콘이 현재 출력되고 있는 가상이미지 상에서 그 위치를 이동하는 것 자체가 될 수 있다.The second indication information may be information for transforming a specific medium (hereinafter, simply referred to as a 'virtual icon') currently output in the virtual image into various forms. For example, if a virtual icon such as a book is displayed on the virtual image output through the monitor installed in the virtual studio, the presenter places the position of his virtual pen on the book through the monitor and then virtualizes it to the desired position. The operation of moving the pen may be performed. In this case, the server analyzes the operation (motion information) to determine that the operation is the second indication information, and then the presenter finally displays the virtual icon (book) currently being output. You can move it to the position of the virtual pen you are pointing to. At this time, the virtual information may be the movement of the virtual icon itself. Therefore, the learning information generated by the second instruction information may be a movement of the position of the virtual icon already output on the virtual image on the virtual image currently output.

제3지시정보는, 서버에 저장되어 있지 않은 새로운 가상정보를 새롭게 생성하도록 하는 정보가 될 수 있다. 예를 들어, 가상 스튜디오에 설치된 모니터를 통해 출력되는 가상이미지에 막대 그래프를 표시할 수 있는 도표(예를 들어, X축으로는 학년, Y축으로는 남학생수를 표시할 수 있도록 형성되어 있는 도표)가 출력되어 있다면, 진행자는 모니터를 통해 자신의 가상펜을 도표에서 자신이 원하는 학년 및 자신이 선택하고자 하는 남학생수가 매칭되는 지점에 위치시킨 후, 기 설정된 동작을 취할 수 있으며, 이때, 서버는 상기 동작을 분석하여 상기 동작이 제3지시정보라는 것을 파악한 후, 현재 출력되고 있는 도표상에, 진행자가 선택한 학년의 남학생수에 해당되는 막대 그래프를 생성하여 출력시킬 수 있다. 이때, 가상정보는 새롭게 출력된 막대 그래프일 수 있다. 따라서, 제3지시정보에 의해 생성되는 학습정보는, 가상이미지에 이미 출력되고 있는 도표(가상현실 배경이미지 또는 가상아이콘이 될 수 있음)와, 사용자에 의해 새롭게 생성된 막대 그래프(가상정보)가 결합된 정보가 될 수 있다. The third indication information may be information for newly generating new virtual information not stored in the server. For example, a chart that can display a bar graph on a virtual image output through a monitor installed in a virtual studio (for example, a chart formed to display the number of male students on the X axis and the number of male students on the Y axis). ) Is displayed, the host can place his virtual pen on the chart at the point where the grade he wants and the number of male students he wants to select in the chart match, and then take a preset action. After analyzing the operation to determine that the operation is the third instruction information, a bar graph corresponding to the number of male students of the grade selected by the facilitator may be generated and output on the currently output chart. In this case, the virtual information may be a newly output bar graph. Accordingly, the learning information generated by the third instruction information includes a chart (which may be a virtual reality background image or a virtual icon) already output on the virtual image, and a bar graph (virtual information) newly generated by the user. It can be combined information.

한편, 상기 설명 및 이하의 설명에서는, 서버를 통해 최종적으로 출력되는 정보, 즉, 사용자 단말기에서 출력되는 정보를 학습정보라는 용어를 사용하여 설명하겠으나, 학습정보라는 용어는 설명의 편의상 사용된 것에 불과한 것으로서, 본 발명이 학습이라는 사전적 용어에 해당되는 분야에만 한정되어 적용되는 것은 아니다. 즉, 본 발명은 유치원, 초중고등학교, 대학교 또는 각종 학원에서 교육용으로 널리 이용될 수 있겠으나, 각종 선거결과를 알려주는 선거방송용으로도 이용될 수 있으며, 날씨, 증권 등과 같은 다양한 정보들을 제공하는 방송용으로도 이용될 수 있다. Meanwhile, in the above description and the following description, the information finally output through the server, that is, the information output from the user terminal will be described using the term learning information, but the term learning information is merely used for convenience of description. As the present invention is not limited to the field corresponding to the dictionary term learning. That is, the present invention may be widely used for education in kindergarten, elementary and junior high school, university or various institutes, but may also be used for election broadcasting to inform various election results, and for broadcasting to provide various information such as weather and securities. It can also be used as.

그러나, 이하에서는 설명의 편의상, 학습과 관련된 분야에서 응용될 수 있는 내용들을 실시예로 하여 본 발명이 설명된다.
However, hereinafter, the present invention will be described with reference to embodiments that can be applied to fields related to learning for convenience of description.

사용자 단말기(30)는 서버로부터 전송되는 학습정보를 사용자가 확인할 수 있도록 출력하는 기능을 수행한다. 이러한 사용자 단말기는 현재 일반적으로 이용되고 있는 개인용 컴퓨터(PC), 아이폰, 아이패드, PDA 등과 같이 개인에 의해 사용되는 장치가 될 수 있으며, TV 또는 모니터와 같이 많은 사용자들이 함께 시청할 수 있는 장치가 될 수도 있다.
The user terminal 30 performs a function of outputting the user to check the learning information transmitted from the server. Such a user terminal may be a device used by an individual such as a personal computer (PC), an iPhone, an iPad, a PDA, and the like, which are commonly used today, and a device that many users can watch together such as a TV or a monitor. It may be.

도 2는 본 발명에 따른 가상현실을 이용한 학습정보 제공방법의 일실시예 흐름도이다. 또한, 도 3은 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 지시정보 추출과정을 상세하게 나타낸 일실시예 흐름도이다. 2 is a flowchart illustrating a method for providing learning information using virtual reality according to the present invention. In addition, Figure 3 is a flow chart illustrating in detail the process of extracting the indication information of the learning information providing method using the virtual reality according to the present invention.

본 발명에 따른 가상현실을 이용한 학습정보 제공방법을 구현하기 위하여, 서버에는 가상현실 배경이미지에 대한 정보, 광움직임정보를 분석하여 지시정보를 추출할 수 있는 광인식 프로그램 및 가상현실의 구현에 필요한 다양한 응용프로그램들이 저장된다(100). 한편, 본 발명에서 언급되는 가상현실이란 가상현실 배경이미지와 진행자 영상이 믹싱되어 사용자 단말기에서 출력되는 가상의 현실을 말하는 것으로서, 보다 간단히 설명하면 가상이미지라 할 수도 있다. 즉, 본 발명은 가상이미지(가상현실) 상에 가상정보를 출력하는 것으로서, 가상이미지와 가상정보에 의해 사용자에게 전달되는 정보가 학습정보이다.In order to implement the learning information providing method using the virtual reality according to the present invention, the server is required for the implementation of the optical recognition program and virtual reality that can extract the indication information by analyzing the information on the virtual reality background image, optical motion information Various applications are stored (100). Meanwhile, the virtual reality referred to in the present invention refers to a virtual reality that is output from a user terminal by mixing a virtual reality background image and a host image, and may be referred to simply as a virtual image. That is, the present invention outputs virtual information on a virtual image (virtual reality), and the information transmitted to the user by the virtual image and the virtual information is learning information.

가상 스튜디오에는 상기한 바와 같이 블루 스크린(12), 카메라(11) 및 모니터(14)가 기본적으로 구비되어 있으며, 진행자가 가상 스튜디오에서 가상펜(13)을 소지한 상태로 동작을 취하면, 서버는 카메라(11)로부터 수집된 영상에서 진행자 영상만을 추출하여 추출된 진행자 영상을 가상현실 배경이미지와 결합시켜 가상이미지를 생성하여 저장하거나 또는 사용자 단말기(30)로 전송하는 한편, 카메라로부터 전송되어온 광움직임정보로부터 지시정보를 추출한다(200). In the virtual studio, as described above, the blue screen 12, the camera 11, and the monitor 14 are basically provided. When the host takes an operation with the virtual pen 13 in the virtual studio, the server Extracts only the facilitator image from the image collected from the camera 11 and combines the extracted facilitator image with the virtual reality background image to generate and store a virtual image or transmit the image to the user terminal 30, while transmitting the light from the camera. Instruction information is extracted from the motion information (200).

즉, 진행자는 사용자 단말기를 통해 서버로부터 전송되는 학습정보를 시청하고 있는 사용자에게, 특별한 가상정보를 제공하고자 하는 경우에는, 손에 쥐고 있는 가상펜(13)의 버튼을 선택하여, 광이 출력되고 있는 상태에서, 가상 스튜디오의 현실 공간에 문자, 기호 또는 이미지 등을 형상화한다. 이때, 진행자는 모니터(14)를 통해 출력되는 가상이미지에서 자신의 위치 또는 가상펜의 위치를 확인한 후, 가상이미지 중 원하는 위치에 가상펜을 위치시킨 후, 기 설정된 동작을 취해, 광움직임정보를 서버로 전송할 수 있다. That is, the facilitator selects a button of the virtual pen 13 held in the hand and outputs light when a special virtual information is to be provided to the user watching the learning information transmitted from the server through the user terminal. In the state of being present, the characters, symbols, images and the like are imaged in the real space of the virtual studio. At this time, the facilitator checks his position or the position of the virtual pen in the virtual image output through the monitor 14, places the virtual pen at a desired position among the virtual images, takes a preset operation, and provides optical motion information. You can send it to the server.

이때, 서버는 카메라를 통해 전송되는 영상에서 광이 수신되고 있는지를 판단하여, 광이 수신되고 있다고 판단되면, 광인식 프로그램을 구동시켜 광움직임정보를 분석하여, 진행자가 의도하는 지시정보를 추출한다. At this time, the server determines whether the light is being received from the image transmitted through the camera, and if it is determined that the light is being received, the optical recognition program is driven to analyze the light motion information and extract the instruction information intended by the facilitator. .

여기서, 광인식 프로그램을 이용하여 광의 이동경로를 추출하는 구체적인 방법은 다양하게 설정될 수 있으며, 그 일예가 도 3에 도시되어 있다. 즉, 서버는 가상펜을 이동시키는 진행자의 동작에 의해 발생된 광움직임정보를 이용하여, 가상펜을 통해 출력되는 광의 이동경로(이하, 간단히 '진행자 동작'이라 함)를 추출하며, 추출된 진행자 동작을 기 저장되어 판단용 지시정보와 비교한다. 상기 비교결과, 진행자 동작과 일치되는 판단용 지시정보가 있는 경우, 서버는 상기 판단용 지지정보와 매칭되어 있는 지시정보를 추출한다. Here, a specific method of extracting a movement path of light using the light recognition program may be variously set, and an example thereof is illustrated in FIG. 3. That is, the server extracts a movement path of light output through the virtual pen (hereinafter, simply referred to as 'operator motion') by using the optical motion information generated by the operator's motion of moving the virtual pen. The operation is stored in advance and compared with the indication information for determination. As a result of the comparison, when there is determination instruction information that matches the presenter's operation, the server extracts instruction information that matches the determination support information.

이를 위해, 우선, 서버는 원본 영상, 즉, 진행자 영상에서 가상펜(13)에서 방출되는 색상 범위에 해당되는 픽셀을 검출한다(202). 이러한 검출은 카메라로부터 전송되어온 광움직임정보로부터 검출된다.To this end, first, the server detects a pixel corresponding to a color range emitted from the virtual pen 13 in the original image, that is, the facilitator image (202). This detection is detected from the light motion information transmitted from the camera.

다음으로, 서버는 검출된 픽셀로 마스크 영상을 생성한다(204).Next, the server generates a mask image from the detected pixels (204).

다음으로, 서버는 마스킹된 픽셀 범위 영역을 계산한다(206).Next, the server calculates 206 a masked pixel range region.

다음으로, 서버는 마스킹 영역의 크기가 일정 범위 이하인지의 여부를 판단한다(208). Next, the server determines whether the size of the masking area is equal to or less than a predetermined range (208).

상기 판단결과, 일정 범위 이하가 아닌 경우에는 마스킹 영역에 대한 외곽 경계 제거 필터를 적용하여 마스킹 영역이 일정 범위가 되도록 한다(210). 즉, 마스킹 영역이 너무 큰 경우에는 진행자가 가상펜을 통해 지시하고자 했던 위치가 정확하지 않을 수도 있음으로 상기와 같이 마스킹 영역을 줄이는 과정을 수행한다. 또한, 가상펜 이외의 다른 광원에서 발생된 광이거나 또는 가상펜에서 발생되는 광과 색상이 동일한 물체로부터 반사된 광의 경우에도 마스킹 영역이 일정 범위를 초과하게 되므로, 이러한 경우에는 감지된 마스킹 영역은 제외될 수 있다.As a result of the determination, if it is not below the predetermined range, the outer boundary removing filter for the masking region is applied to make the masking region within a predetermined range (210). In other words, if the masking area is too large, the presenter may not be able to correct the position indicated by the virtual pen, thereby reducing the masking area. In addition, even in the case of light generated from a light source other than the virtual pen or light reflected from an object having the same color as the light generated by the virtual pen, the masking area exceeds a predetermined range, in which case the detected masking area is excluded. Can be.

상기 판단결과, 일정 범위 이하인 경우, 서버는 마스킹 영역의 중심점을 가상펜의 위치로 결정한다(212).As a result of the determination, if less than a predetermined range, the server determines the center point of the masking area as the position of the virtual pen (212).

상기 과정들을 통해 가상펜의 위치, 즉, 진행자가 가상펜을 통해 지시한 위치가 판단되면, 서버는 지속적으로 가상펜의 위치를 상기 과정들을 통해 추적하여 진행자 동작을 추출하며, 추출된 진행자 동작을 기 설정된 판단용 지시정보들과 비교하여, 진행자가 지시하고자 하는 지시정보를 추출한다(214). 여기서, 판단용 지시정보란 가상펜의 이동 경로를 나타내는 진행자 동작과 대응될 수 있는 정보를 말하는 것으로서, 각각의 판단용 지시정보는 제1지시정보 내지 제3지시정보 중 어느 하나와 매칭되어 있다. 따라서, 진행자 동작과 판단용 지시정보를 분석하여, 진행자 동작과 일치되는 정보를 갖는 판단용 지시정보가 추출되면, 서버는 추출된 판단용 지시정보와 매칭되어 있는 지시정보를 추출한다. When the location of the virtual pen, ie, the location indicated by the facilitator through the virtual pen, is determined through the above processes, the server continuously tracks the location of the virtual pen through the above processes to extract the facilitator motion and extracts the extracted facilitator motion. In operation 214, the instruction information to be instructed by the presenter is extracted by comparing with the predetermined determination indication information. Here, the determination instruction information refers to information that may correspond to a facilitator operation indicating a movement path of the virtual pen, and each determination instruction information is matched with any one of the first indication information and the third indication information. Accordingly, when the determination instruction information having the information that matches the operator operation is extracted by analyzing the presenter operation and the determination instruction information, the server extracts the indication information matching the extracted determination instruction information.

상기한 바와 같은 과정에 따라 지시정보가 추출되면, 제어부는 지시정보가 구체적으로 어떠한 정보를 지시하고 있는지를 판단한다(300). 즉, 지시정보가 상기한 바와 같이 크게 세 가지로 분류되는 경우, 서버는 지시정보 추출과정(200)에서 추출된 지시정보가 구체적으로 어떤 기능을 수행하도록 하는 것인지를 판단한다.When the indication information is extracted according to the above-described process, the controller determines in detail what information the indication information indicates (300). That is, when the indication information is classified into three types as described above, the server determines what function the indication information extracted in the indication information extraction process 200 performs in detail.

예를 들어, 지시정보가 기 저정되어 있는 가상정보를 출력하도록 하는 것인지(제1지시정보) 또는 가상아이콘을 변경하도록 하는 것인지(제2지시정보) 또는 새로운 가상정보를 생성하여 출력하도록 하는 것인지(제3지시정보)를 판단한다.For example, whether the instruction information is to output predetermined virtual information (first instruction information) or to change a virtual icon (second instruction information) or to generate and output new virtual information ( Third indication information).

이후, 서버는 판단된 내용에 따라, 제1지시정보와 관련된 기능을 수행하거나(400), 제2지시정보와 관련된 기능을 수행하거나(500), 제3지시정보와 관련된 기능을 수행하여(600) 가상정보를 생성한 후, 생성된 가상정보를 가상이미지와 결합시켜 최종적으로 학습정보를 출력한다(700). Subsequently, according to the determined content, the server performs a function related to the first indication information (400), performs a function related to the second indication information (500), or performs a function related to the third indication information (600). After generating the virtual information, the generated virtual information is combined with the virtual image and finally outputs the learning information (700).

한편, 상기에서는 지시정보가 세 가지로 구분되어 있으나, 더 다양하게 분류될 수 있으며, 또한, 대분류 외에, 중분류, 소분류로 구분될 수 있는바, 서버는 지시정보가 최종적으로 요구하는 기능을 수행한다.On the other hand, the indication information is divided into three, but may be classified more variously, and in addition to the large classification, can be divided into the middle classification, small classification bar, the server performs the function required finally the indication information. .

이하에서는, 도 4 내지 도 9를 참조하여, 상기한 바와 같은 세 가지 지시정보에 해당되는 일예가 설명된다.
Hereinafter, an example corresponding to the three pieces of indication information as described above will be described with reference to FIGS. 4 to 9.

도 4 및 도 5는 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 기 저장된 가상정보를 출력하도록 하는 제1지시정보에 따라 학습정보를 제공하고 있는 예시도로서, 사용자 단말기를 통해 출력되는 화면을 나타낸 것이다. 한편, 이하의 설명 중, 가상아이콘은 가상현실 배경이미지가 될 수 있으나, 가상현실 배경이미지가 여러 개의 블록으로 구성되어 있는 경우에는, 가상현실 배경이미지를 구성하는 블록들 중 어느 하나가 될 수 있는바, 가상현실 배경이미지가 하나의 객체로 구성되어 있다면, 가상현실 배경이미지가 가상아이콘이 될 수도 있다.4 and 5 are exemplary views in which learning information is provided according to first instruction information for outputting previously stored virtual information in a method of providing learning information using virtual reality according to the present invention. It is shown. Meanwhile, in the following description, the virtual icon may be a virtual reality background image, but if the virtual reality background image is composed of several blocks, it may be any one of the blocks constituting the virtual reality background image. If the virtual reality background image is composed of one object, the virtual reality background image may be a virtual icon.

예를 들어, 가상현실 배경이미지(910)가 도 4에 도시된 바와 같이 다양한 버튼들로 구성된 화면인 경우, 가상아이콘(911)은 가상현실 배경이미지를 구성하는 버튼들 중의 어느 하나가 될 수 있다. 한편, 가상현실 배경이미지 및 가상아이콘과 진행자 영상이 포함된 전체의 화면은 상기한 바와 같이 가상이미지가 될 수 있다. 즉, 상기한 바와 같은 가상이미지(또는 가상현실 배경이미지) 상에 진행자 영상(920)이 표시되어 있는 가상현실의 경우, 서버는 진행자의 손가락 또는 손에 부착되어 있는 가상펜(13)의 움직임을 추적하여 상기한 바와 같이 지시정보를 추출한다(200). 여기서 가상현실 배경이미지(910)는 복수의 버튼 형태로 구성된 것으로, 이러한 버튼들 중 사용자에 의해 선택된 버튼(911)이 가상아이콘이라고 할 수 있다.For example, when the virtual reality background image 910 is a screen composed of various buttons as shown in FIG. 4, the virtual icon 911 may be any one of the buttons constituting the virtual reality background image. . Meanwhile, the entire screen including the virtual reality background image, the virtual icon, and the host image may be a virtual image as described above. That is, in the case of the virtual reality in which the presenter image 920 is displayed on the virtual image (or the virtual reality background image) as described above, the server may detect the movement of the virtual pen 13 attached to the presenter's finger or hand. The tracking information is extracted as described above (200). Here, the virtual reality background image 910 is configured in the form of a plurality of buttons, and among these buttons, the button 911 selected by the user may be referred to as a virtual icon.

이때, 상기한 바와 같이 가상펜을 이동시키는 진행자의 동작, 즉, 가상펜을 통해 출력되는 광의 이동경로를 말하는 진행자 동작이 'V'형태로 분석되고, 이러한 형태에 대한 지시정보가, 해당 진행자 동작이 이루어진 위치에 놓여져 있는 가상아이콘과 매칭되어 있는 기 저장된 가상정보를 출력하도록 하는 제1지시정보인 경우(300), 서버는 진행자의 동작이 이루어진 좌표에 출력되고 있는 가상아이콘(911)을 추출하는 한편, 추출된 가상아이콘과 매칭되어 있는 가상정보를 도 4에 도시된 바와 같은 가상이미지 상의 기 설정된 위치에 출력한다.At this time, as described above, the operation of the presenter who moves the virtual pen, that is, the presenter's motion that refers to the movement path of the light output through the virtual pen, is analyzed in the form of 'V', and the instruction information on the shape is displayed. In the case of the first instruction information for outputting the pre-stored virtual information matched with the virtual icon placed at the position (300), the server extracts the virtual icon 911 outputted at the coordinates at which the moderator's operation was made. Meanwhile, the virtual information matched with the extracted virtual icon is output to a predetermined position on the virtual image as shown in FIG. 4.

예를 들어, 도 4에 도시된 가상현실에서, 진행자가 '그래프'라고 표시되어 있는 가상아이콘(911) 위에서 'V'형태로 진행자 동작을 취한 경우, 서버는 해당 가상아이콘(911)과 매칭되어 있는 그래프를 가상이미지 상에 출력할 수 있다.For example, in the virtual reality illustrated in FIG. 4, when the moderator performs the moderator action in the form of 'V' on the virtual icon 911 marked as 'graph', the server is matched with the corresponding virtual icon 911. You can output the graph on the virtual image.

또한, 도 5에 도시된 바와 같이, 가상현실 배경이미지(또는 가상아이콘)로 지구본(910)이 출력되고 있는 경우, 진행자가 지구본의 특정 위치, 예를 들어, 우리나라의 지도 위에서, 상기한 바와 같은 진행자 동작을 취했다면, 서버는 상기 진행자 동작을, 우리나라의 지도를 도 5에 도시된 바와 같이 확대하여 출력하라는 지시정보로 판단하여 우리나라의 지도를 출력할 수 있다.In addition, as illustrated in FIG. 5, when the globe 910 is output as a virtual reality background image (or a virtual icon), the presenter may perform the process as described above on a specific location of the globe, for example, a map of Korea. If the moderator action is taken, the server may output the map of Korea by judging the moderator action as the instruction information to enlarge and output the map of Korea as shown in FIG. 5.

이때, 출력되는 가상정보는 상기한 바와 같이 지도일 수도 있으나, 해당 지구본 상에서 해당 지역을 파낸 형태로 들어올려지는 3차원 모형일 수도 있으며, 해당 지역의 인구, 자원 등의 표도 함께 제공될 수 있다. In this case, the output virtual information may be a map as described above, but may be a three-dimensional model that is lifted up in a form of digging out the corresponding area on the globe, and may also be provided with a table of the population, resources, etc. of the corresponding area.

한편, 도 4 및 도 5에서 진행자 동작이 이루어진 위치가 상기한 바와 같이 기 설정되어 있는 가상정보와 매칭되어 있지 않은 가상아이콘인 경우, 서버는 별도의 리액션을 취하지 않을 수도 있다. Meanwhile, in the case where the moderator operation is performed in FIG. 4 and FIG. 5, the virtual icon does not match the preset virtual information as described above, the server may not take a separate reaction.

그러나, 이 경우, 진행자 동작이 제2지시정보에 해당될 수도 있으며, 따라서, 서버는 진행자 동작에 따른 도형, 문자, 숫자 등을 가상이미지 상에 출력할 수도 있다, However, in this case, the presenter's operation may correspond to the second instruction information. Therefore, the server may output figures, letters, numbers, etc. according to the presenter's operation on the virtual image.

또한, 도 5에서, 진행자 동작(가상펜의 광의 이동경로)이 지구본의 왼쪽 끝에서 오른쪽 끝으로 이동되는 경우, 이러한 진행자 동작이 기 설정된 가상정보를 출력하도록 하는 어떠한 지시정보와도 매칭되지는 않으나, 제2지시정보에 해당되는 진행자 동작과 일치된다면, 서버는 이러한 진행자 동작을 제2지시정보라고 판단할 수 있으며, 이 경우, 가상현실 배경이미지(또는 가상아이콘)로 출력되고 있는 지구본을 왼쪽에서 오른쪽으로 즉, 시계 반대방향으로 회전시킬 수도 있다. In addition, in FIG. 5, when the presenter motion (the movement path of the light of the virtual pen) is moved from the left end of the globe to the right end, the presenter motion does not match any indication information for outputting preset virtual information. If it matches the presenter's action corresponding to the second indication information, the server may determine the presenter's action as the second indication information. In this case, the globe displayed as the virtual reality background image (or a virtual icon) is displayed on the left side. It may be rotated to the right, ie counterclockwise.

즉, 서버는 하나의 가상아이콘(910 또는 911)에 대하여, 제1지시정보, 제2지시정보 및 제3지시정보를 복합적으로 판단하여, 이에 따라 각각의 가상정보를 출력하게 된다.That is, the server determines the first indication information, the second indication information, and the third indication information for one virtual icon 910 or 911 in combination, and outputs the respective virtual information accordingly.

부연하여 설명하면, 본 발명에서의 제1지시정보에 의한 가상정보는 상기에서 설명된 바와 같이, 가상아이콘(910)과 매칭되어 서버에 기 저장되어 있는 가상정보(그래프 또는 우리나라 확대 지도)이며, 제2지시정보에 의한 가상정보는 진행자 동작에 따라 가상아이콘을 회전시키거나 이동시키는 정보를 말한다.
In detail, the virtual information according to the first indication information according to the present invention is virtual information (graph or an enlarged map of Korea) that is previously stored in the server by matching with the virtual icon 910, as described above. The virtual information by the second indication information refers to information for rotating or moving the virtual icon according to the operator's operation.

도 6 및 도 7은 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 가상아이콘을 변경하도록 하는 제2지시정보에 따라 학습정보를 제공하고 있는 예시도로서, 사용자 단말기를 통해 출력되는 화면을 나타낸 것이다. 6 and 7 are exemplary diagrams of providing learning information according to second instruction information for changing a virtual icon in a method of providing learning information using virtual reality according to the present invention, and showing a screen output through a user terminal. will be.

상기한 바와 같이, 제2지시정보는 진행자 동작에 따라 가상아이콘을 회전시키거나 이동시키도록 하는 정보를 말하는 것으로서, 지시정보 추출결과 제2지시정보인 경우, 서버는 가상이미지 상에 출력되어 있는 각종 가상아이콘을 진행자 동작에 따라 이동시키거나 회전시킬 수 있다. As described above, the second instruction information refers to information for rotating or moving the virtual icon according to the operator's operation. When the instruction information extraction result is the second instruction information, the server outputs various kinds of information output on the virtual image. The virtual icon can be moved or rotated according to the moderator's motion.

예를 들어, 도 6에 도시된 바와 같이, 가상아이콘으로 핸드폰(910)이 출력되고 있는 가상이미지 상에서, 진행자 동작이, 핸드폰이 위치되어 있는 제1좌표로부터 시작되어 또 다른 제2좌표에서 종료된 경우, 서버는 진행자의 동작을 제2지시정보로 파악하여, 핸드폰을 제1좌표에서 제2좌표로 이동시키는 가상정보를 출력할 수 있다.For example, as shown in FIG. 6, on the virtual image in which the mobile phone 910 is output as a virtual icon, the moderator operation starts from the first coordinate where the mobile phone is located and ends at another second coordinate. In this case, the server may grasp the operator's operation as the second instruction information and output virtual information for moving the mobile phone from the first coordinate to the second coordinate.

또한, 도 7에 도시된 바와 같이, 가상아이콘으로 책(910)이 출력되고 있는 가상이미지 상에서, 진행자 동작이 제1페이지의 일측 끝단인 제1좌표에서, 제2페이지의 일측 끝단인 제2좌표로 이동되는 경우, 서버는 진행자의 동작을 제2지시정보로 파악하여, 책의 책장을 넘기는 가상정보를 출력할 수도 있다. Also, as shown in FIG. 7, on the virtual image in which the book 910 is output as a virtual icon, the presenter's motion is the first coordinate at one end of the first page, and the second coordinate at one end of the second page. When moving to, the server may grasp the host's operation as the second instruction information and output virtual information for turning over the bookshelf of the book.

이때, 본 발명은 상기한 바와 같이 책의 내용을 보여주기 위해서, 전자책 정보를 가지고 있는 별도의 전자책 서버를 구비할 수도 있으며, 전자책 서버와 본 발명에 적용되는 서버를 연동시킬 수도 있다. 또한, 본 발명은 TTS 등의 기술을 이용하여, 서버가 직접 책의 텍스트를 읽어주도록 할 수도 있으며, 이때, 진행자는 서버가 읽어주는 내용에 따라 상기한 바와 같이 책장을 넘겨주는 등의 진행자 동작을 수행함으로써, 보다 리얼한 가상현실을 제공할 수 있다. At this time, the present invention may be provided with a separate e-book server having the e-book information, in order to show the contents of the book as described above, may be linked to the e-book server and the server applied to the present invention. In addition, the present invention may allow the server to read the text of the book directly by using a technology such as TTS, in which case, the presenter performs the presenter's operation such as handing over the bookcase as described above according to the contents read by the server. By doing this, more realistic virtual reality can be provided.

한편, 도 6 및 도 7에 도시된 가상현실에서도, 서버는 제1지시정보로 파악되는 진행자 동작이 추출되면, 그에 따라 제1지시정보에 해당되는 가상정보, 예를 들어, 책 페이지 속의 동물의 확대 사진 등을 가상이미지 상에 출력할 수 있다.
Meanwhile, even in the virtual reality illustrated in FIGS. 6 and 7, when the presenter's motion identified as the first instruction information is extracted, the server may extract the virtual information corresponding to the first instruction information, for example, the animal in the book page. An enlarged picture or the like can be output on the virtual image.

도 8 및 도 9는 본 발명에 따른 가상현실을 이용한 학습정보 제공방법 중 새로운 가상정보를 생성하여 출력하도록 하는 제3지시정보에 따라 학습정보를 제공하고 있는 예시도로서, 사용자 단말기를 통해 출력되는 화면을 나타낸 것이다. 8 and 9 are exemplary views of providing learning information according to the third instruction information for generating and outputting new virtual information in the learning information providing method using the virtual reality according to the present invention. The screen is displayed.

제3지시정보는 상기한 바와 같이, 기 저장되어 있지 않은 새로운 가상정보를 생성하여 가상이미지 상에 출력하도록 하는 정보를 말하는 것으로서, 서버는 지시정보 추출과정에서 추출된 지시정보가 제3지시정보인 경우에는 제3지시정보가 요구하는 다양한 새로운 가상정보를 생성하여 출력할 수 있다. As described above, the third indication information refers to information for generating new virtual information that is not stored and outputting the same on the virtual image. The server indicates that the indication information extracted in the process of extracting the indication information is the third indication information. In this case, various new virtual information required by the third indication information may be generated and output.

예를 들어, 도 8에 도시된 바와 같이, 진행자가, 가상아이콘(또는 가상현실 배경이미지)(910)인 칠판에 해당되는 위치에서, '1 + 1 ='이라는 문자를 순차적으로 입력하는 진행자 동작을 취하는 경우, 서버는 '1', '+', '1', '='이라는 문자들을 독립적으로 인식하는 한편, '+'라는 기호를 전후하여, 숫자로 판단되는 문자와, 그 결과를 출력하도록 하는 '='라는 기호가 있기 때문에, 이를 더하기로 인식하여, 1과 1을 더한 2라는 숫자를 가상현실의 가상아이콘(칠판)(910)에 출력할 수 있으며, 따라서, 학습자들은 진행자가 입력한 정보와 더불어 그 합산값인 '2'라는 숫자를 확인할 수 있다. For example, as shown in FIG. 8, a moderator operation of sequentially inputting the characters '1 + 1 =' at a position corresponding to a blackboard that is a virtual icon (or a virtual reality background image) 910. , The server recognizes the characters '1', '+', '1' and '=' independently, and before and after the symbol '+', it outputs the characters judged as numbers and the result Since there is a symbol '=' to be recognized, it can be recognized as adding, and the numbers 1 and 2 plus 2 can be output to the virtual icon (blackboard) 910 of the virtual reality, so that the learners input the presenter. In addition to one piece of information, you can see the number '2'.

즉, 'l'이라는 진행자 동작이 입력되는 경우, 해당 좌표에서 'l'이라는 진행자 동작과 매칭되는 제1지시정보 또는 제2지시정보가 없다면, 서버는 이를 입력된 형상 그대로 출력하도록 하는 제3지시정보로 파악하여 'l'을 가상아이콘인 칠판상에 출력한다.That is, when a moderator action of 'l' is input, if there is no first instruction information or second instruction information matching the operator action of 'l' in the corresponding coordinates, the third instruction to output it as it is is input. It grabs the information and prints 'l' on the virtual icon blackboard.

이후, 서버는 '+' 및 'l'에 대하여도 동일한 원리에 따라 가상이미지에 출력한다. Subsequently, the server outputs the '+' and 'l' to the virtual image according to the same principle.

한편, 서버는 '='이라는 문자를 출력한 후, '1+1='을 전체적으로 수학식으로 판단하여, '2'라는 숫자를 '='뒤에 자동적으로 출력할 수 있다.On the other hand, after outputting the character '=', the server may determine '1 + 1 =' as a whole equation and automatically output the number '2' after '='.

그러나, '=' 뒤에 새로운 진행자 동작이 입력되어야 자동적으로 합산값을 출력하도록 설정되어 있는 경우에는 자동적으로 합산값이 출력되지 않을 수도 있다. 즉, 이 경우에는 '=' 뒤에 또 다른 진행자 동작, 예를 들어 'V'와 같은 진행자 동작이 들어오면, 이 진행자 동작을 합산값 출력 지시로 판단하여, 서버가 합산값을 출력하게 된다.However, when the new moderator action is input after '=', the sum value may not be automatically output when the sum value is set to be automatically output. That is, in this case, when another moderator operation such as 'V' is entered after '=', the server determines that the moderator operation is the sum value output instruction, and the server outputs the sum value.

한편, 이 경우, 진행자는 각자의 사용자 단말기(30)를 통해 해당 내용을 모니터링하고 있는 학생들에게 질문을 할 수 있으며, 이에 따라 학생들은 각자의 사용자 단말기를 통해 상기 연산에 대한 답을 입력할 수 있다. 입력된 답은 서버로 전송되며, 각 사용자 단말기의 사용자 정보 또는 단말기 정보를 알고 있는 서버는, 가상이미지 상에 각 사용자가 전송한 답을 도 8에 도시된 바와 같이 출력하는 한편, 자동적으로 판단된 합산값 또는 진행자에 의해 입력된 값과 비교하여 정답 여부를 가상이미지 상에 출력할 수 있다. 이때, 후자의 경우, 즉, 진행자에 의해 입력된 값을 합산값으로 하여 학생들이 입력한 값과 비교하기 위해서, 서버는 진행자에 의해 입력된 숫자를 단순히 문자가 아니라 숫자 '1'로 인식하는 기능을 탑재하고 있어야 하는바, 이러한 문자 인식 기술은 현재 일반적으로 이용되고 있는 기술들이 적용될 수 있다. In this case, the facilitator may ask a question to the students who are monitoring the corresponding contents through their respective user terminals 30, and thus the students may input answers to the calculation through their respective user terminals. . The input answer is transmitted to the server, and the server knowing the user information or the terminal information of each user terminal outputs the answer transmitted by each user on the virtual image as shown in FIG. The answer may be output on the virtual image by comparing with the sum value or the value input by the moderator. At this time, in the latter case, that is, in order to compare the values input by the facilitator with the values input by the students, the server recognizes the number input by the facilitator as a number '1' instead of simply a character. It should be equipped with the bar, such a character recognition technology can be applied to the techniques currently used in general.

즉, 본 발명은 가상이미지 상에 가상정보가 출력된 학습정보를 일방적으로 사용자 단말기로 전송하는 것이 아니라, 각 사용자 단말기로부터 수신된 정보들도, 별도의 연산 또는 가공을 통해 가상이미지 상에 함께 출력시킬 수도 있다.That is, the present invention does not unilaterally transmit the learning information output of the virtual information on the virtual image to the user terminal, but also output the information received from each user terminal on the virtual image through a separate operation or processing. You can also

따라서, 가상현실이 외국어 학습을 위한 가상현실인 경우, 진행자는 가상현실에서 요구되는 각종 단어 또는 대화를 가상펜을 통하여 가상 스튜디오의 현실 공간에 쓸 수 있으며, 서버는 가상펜으로부터 출력되는 광의 이동경로를 분석하여 진행자가 쓴 문자, 숫자 또는 이미지를 그대로 가상이미지 상에 문자, 숫자 또는 이미지로 삽입할 수 있다. 또한, 사용자 단말기를 통해 가상현실을 모니터링하고 있는 사용자(학습자)들은 진행자가 가상이미지 상에 쓴 문자, 숫자 또는 이미지를 사용자 단말기를 통해 출력되고 있는 가상현실에서 확인할 수 있을 뿐만 아니라, 그에 따라 각종 문자 또는 숫자를 서버로 전송할 수 있으며, 서버는 사용자 단말기로부터 전송되어온 정보들을 가상이미지 상에 출력할 수 있다. Therefore, when the virtual reality is a virtual reality for foreign language learning, the presenter can write various words or conversations required in the virtual reality to the virtual space of the virtual studio through the virtual pen, and the server moves the path of the light output from the virtual pen. Analyze the characters, numbers or images written by the facilitator can be inserted into the virtual image as letters, numbers or images. In addition, users (learners) monitoring the virtual reality through the user terminal can not only check the letters, numbers or images written on the virtual image by the host in the virtual reality is output through the user terminal, and accordingly various characters Alternatively, the number may be transmitted to the server, and the server may output the information transmitted from the user terminal on the virtual image.

또한, 도 9는 도표(910)가 가상아이콘(또는 가상현실 배경이미지)로 출력되고 있는 가상이미지를 나타낸 것으로서, 예를 들어, 가상 도표가 A, B, C, D, E, F 항목들 각각에 대하여, 10 내지 100까지의 숫자 중 어느 하나와 매칭되는 그래프를 표시할 수 있도록 하는 도표인 경우(도 9에서는 이미, A부터 C까지는 숫자가 매칭되어 있는 그래프가 출력되어 있음), 진행자가 도표 중 원하는 항목(도 9에서는 진행자가 D항목 상단을 지시하고 있음) 및 원하는 값(도 9에서는 진행자가 대략 60에 해당되는 위치를 지시하고 있음)의 교차점을 선택하면, 서버는 교차점을 선택한 진행자 동작을 제3지시정보로 파악하여, 해당 교차점에 도 9에 도시된 바와 같이 그래프(점선으로 표시된 그래프를 말함)를 출력할 수 있다. 즉, 도 9에서는 그래프가 가상정보로 출력되고 있다.In addition, FIG. 9 illustrates a virtual image in which the table 910 is output as a virtual icon (or a virtual reality background image). For example, the virtual table may be A, B, C, D, E, and F items, respectively. In the case of a chart for displaying a graph that matches any one of numbers from 10 to 100 (in Fig. 9, a graph in which numbers are matched from A to C is already output). If you select the intersection point of the desired item (the presenter indicates the top of item D in FIG. 9) and the desired value (the presenter indicates the position corresponding to approximately 60 in FIG. 9), the server selects the intersection. 3 may be identified as the third instruction information, and a graph (referring to a graph indicated by a dotted line) may be output at a corresponding intersection as shown in FIG. 9. That is, in FIG. 9, the graph is output as virtual information.

부연하여 설명하면, 도 9에서 가상정보로 출력된 그래프는, 그 값이 기 저장 또는 설정되어 있던 것이 아니며, 진행자가 도표판 상에서 임의로 선택한 좌표에 의해 새롭게 생성된 것임을 알 수 있다.In detail, it can be seen that the graph output as virtual information in FIG. 9 is not pre-stored or set in value, but newly generated by coordinates arbitrarily selected by the facilitator on the chart board.

따라서, 도 9에 도시된 바와 같은 실시예는, 각종 선거 방송에서, 실시간으로 변화되는 각 후보자들의 투표율을 진행자가 실시간으로 수정해 나갈 수 있도록 하는 방법에 적용될 수 있다.
Accordingly, the embodiment as illustrated in FIG. 9 may be applied to a method for allowing a host to modify in real time the turnout rate of each candidate that is changed in real time in various election broadcasts.

한편, 본 발명은 상기한 바와 같은 실시예들 뿐만 아니라 다양한 방법으로 구현될 수 있다.On the other hand, the present invention can be implemented in various ways as well as the embodiments as described above.

예를 들어, 본 발명은 제1지시정보에 따라 가상이미지 상에, 문자, 도형, 밑줄 또는 지도 위에 길 표시하기와 같은 가상정보를 출력할 수 있다.For example, according to the first indication information, the present invention may output virtual information such as marking a character, a figure, an underline or a road on a map according to the first indication information.

또한, 본 발명은 제2지시정보에 따라 가상이미지 상의 가상아이콘을 이동시키거나, 회전시키거나, 확대 또는 축소시킬 수 있다.In addition, the present invention can move, rotate, enlarge or reduce the virtual icon on the virtual image according to the second instruction information.

또한, 본 발명은 제2지시정보에 따라 가상아이콘으로 출력되는 문서를 펼치거나 페이지를 넘기는 동작을 수행할 수 있다. 즉, 본 발명은 가상 도서관을 가상이미지로 하여, 아이들이 읽고 싶어하는 책을 진행자가 가상펜으로 선택하면, 선택된 책을 꺼내어 화면 중앙에 펼치고, 진행자가 제2지시정보에 따라 책의 페이지를 넘겨가며 학생들에게 책을 읽어 줄 수도 있다. In addition, the present invention may perform an operation of spreading or turning over a document output as a virtual icon according to the second indication information. That is, according to the present invention, when the presenter selects a book that the children want to read as a virtual pen, the presenter takes out the selected book and spreads it in the center of the screen, and the presenter turns the page of the book according to the second instruction information. You can also read to students.

또한, 본 발명은 공룡이 뛰노는 들판을 가상현실 배경이미지로 하여, 진행자(선생님)가 학생들이 보고싶어하는 공룡 가까이로 가서 해당 공룡(가상아이콘)을 가상펜으로 들어올리고 이리저리 돌려보면서 관련 제원을 설명하도록 할 수 있다. 이 경우, 본 발명은 제1지시정보에 따른 가상정보(관련 제원이 나타난 제원표) 및 제2지시정보에 따른 가상정보(공룡을 3차원적으로 돌려보면서 보여주는 것)를 복합적으로 수행하게 된다. In addition, the present invention using the field where the dinosaurs play virtual reality background image, the host (teacher) to go to the dinosaurs that students want to see close up the dinosaur (virtual icon) with a virtual pen and explain about the related specifications You can do that. In this case, the present invention performs a combination of the virtual information (the specification table in which the relevant specification appears) and the virtual information according to the second instruction information (showing while turning the dinosaur three-dimensionally) according to the first instruction information.

상기와 동일한 개념으로서, 본 발명은 박물관이나 미술관 배경을 가상현실 배경이미지로 하여, 아이들이 보고싶어하는 전시물(가상아이콘)을 진행자가 가상펜으로 선택, 이동, 회전, 확대하여 전시물을 자세히 관찰할 수 있게 해주고, 관련 제원을 설명하는 표나 그래프를 펼쳐서 보여줄 수도 있다. As the same concept as above, the present invention allows the host to select, move, rotate, and enlarge the exhibits (virtual icons) that the children want to see using the virtual reality background image as a virtual pen to observe the exhibits in detail. You may want to expand the table or graph to explain the specifications.

또한, 본 발명은 제3지시정보에 따라, 가상아이콘 또는 가상현실 배경이미지로 출력되는 도표 상에, 꺾은선 그래프, 막대 그래프, 파이그래프 등의 다양한 그래프를 가상정보로 출력할 수 있다. In addition, according to the third indication information, various graphs such as a line graph, a bar graph, a pie graph, and the like may be output as virtual information on a table output as a virtual icon or a virtual reality background image.

한편, 상기와 같은 지시정보들을 생성하기 위한 진행자 동작으로는 상기한 바와 같은 'V'뿐만 아니라, 다양한 제스쳐 예를 들어, 'O, X, 세모, 네모'와 같은 다양한 도형 등이 적용될 수 있다. On the other hand, as a moderator operation for generating the indication information as described above, not only 'V' as described above, but also various gestures, for example, various shapes such as 'O, X, triangle, square', and the like may be applied.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.  그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

10 : 가상 스튜디오 11 : 카메라
12 : 블루 스크린 13 : 가상펜
14 : 모니터
910 : 가상현실 배경이미지 또는 가상아이콘
911 : 가상아이콘 920 : 진행자 영상
10: virtual studio 11: camera
12: blue screen 13: virtual pen
14: monitor
910: virtual reality background image or virtual icon
911: virtual icon 920: host video

Claims (10)

카메라로부터 수신되며, 가상펜을 소지한 진행자의 영상인 진행자 영상과, 상기 가상펜으로부터 출력되는 광의 움직임 정보인 광움직임정보를 포함한 영상신호로부터, 상기 진행자 영상을 추출하여, 가상현실 배경이미지에 상기 진행자 영상을 결합시켜 가상이미지를 생성하는 단계;
상기 영상신호로부터 상기 광움직임정보를 추출하고, 추출된 상기 광움직임정보를 이용하여 상기 진행자 동작을 판단하며, 이를 이용해 지시정보를 추출하는 단계;
상기 지시정보가, 기 저장되어 있는 가상정보를 출력하도록 하는 제1지시정보이면, 상기 제1지시정보에 해당되는 가상정보를 추출하는 단계; 및
상기 제1지시정보에 의해 추출된 가상정보를 상기 가상이미지에 결합시킨 학습정보를 생성하여 출력하는 단계를 포함하며,
상기 제1지시정보에 해당되는 가상정보를 추출하는 단계는,
상기 지시정보가 상기 제1지시정보인 경우, 상기 가상이미지 상에서, 상기 진행자 동작이 이루어진 좌표에 상기 제1지시정보와 매칭될 수 있는 가상아이콘이 출력되어 있는지를 판단하는 단계;
상기 판단결과, 출력되어 있지 않은 경우에는 상기 제1지시정보에 대한 별도의 동작을 수행하지 않는 단계; 및
상기 판단결과, 출력되어 있는 경우에는 상기 가상아이콘에 매칭되어 있는 가상정보를 추출하는 단계를 포함하는 가상현실을 이용한 학습정보 제공방법.
The presenter image is extracted from a video signal including a facilitator image received from a camera and a facilitator image of a facilitator carrying a virtual pen and light motion information, which is motion information of light output from the virtual pen, and extracted into the virtual reality background image. Generating a virtual image by combining the presenter image;
Extracting the optical motion information from the image signal, determining the facilitator motion by using the extracted optical motion information, and extracting the indication information using the optical motion information;
Extracting virtual information corresponding to the first indication information if the indication information is first indication information for outputting previously stored virtual information; And
Generating and outputting learning information combining the virtual information extracted by the first indication information with the virtual image,
Extracting the virtual information corresponding to the first indication information,
If the indication information is the first indication information, determining whether a virtual icon that can be matched with the first indication information is output on a coordinate at which the facilitator motion is performed on the virtual image;
Not performing a separate operation on the first indication information when it is not output as a result of the determination; And
And if it is outputted, extracting the virtual information matched with the virtual icon.
삭제delete 제 1 항에 있어서,
상기 지시정보를 추출하는 단계는,
상기 광움직임정보를 이용하여 상기 가상펜에서 방출되는 광의 색상 범위에 해당되는 픽셀들을 검출하는 단계;
검출된 상기 픽셀들 각각에 대응되는 마스크 영상들을 생성하는 단계;
상기 마스크 영상들에 의해 형성되는 마스킹 영역의 범위를 계산하는 단계;
상기 마스킹 영역의 크기가 기 설정된 범위 이하인지의 여부를 판단하는 단계;
상기 판단결과, 기 설정된 범위 이하가 아닌 경우에는 상기 마스킹 영역에 대한 외곽 경계 제거 필터를 적용하여 상기 마스킹 영역이 일정 범위가 되도록 한 후, 상기 마스킹 영역의 중심점을 상기 가상펜의 위치로 결정하는 단계;
상기 판단결과, 기 설정된 범위 이하인 경우, 상기 마스킹 영역의 중심점을 상기 가상펜의 위치로 결정하는 단계;
상기 가상펜의 연속된 이동 경로를 통해 상기 진행자 동작을 판단하며, 기 설정된 판단용 지시정보 중 상기 진행자 동작과 대응되는 판단용 지시정보와 매칭되는 지시정보를 추출하는 단계를 포함하는 가상현실을 이용한 학습정보 제공방법.
The method of claim 1,
Extracting the indication information,
Detecting pixels corresponding to a color range of light emitted from the virtual pen using the light motion information;
Generating mask images corresponding to each of the detected pixels;
Calculating a range of a masking area formed by the mask images;
Determining whether the size of the masking area is less than or equal to a preset range;
If the determination result is not less than the preset range, applying an outer boundary elimination filter for the masking region so that the masking region is within a predetermined range, and determining the center point of the masking region as the position of the virtual pen. ;
Determining the center point of the masking area as the position of the virtual pen when the determination result is less than or equal to a preset range;
Determining the presenter's operation through a continuous movement path of the virtual pen, and extracting the indication information matched with the determining indication information corresponding to the presenter's operation from preset determination indication information. How to provide learning information.
삭제delete 제 1 항에 있어서,
상기 진행자 동작은, 선, 도형, 문자, 숫자 중 어느 하나인 것을 특징으로 하는 가상현실을 이용한 학습정보 제공방법.
The method of claim 1,
The facilitator operation, learning information providing method using a virtual reality, characterized in that any one of the lines, figures, letters, numbers.
삭제delete 제 1 항에 있어서,
상기 지시정보가, 상기 제1지시정보가 아니며, 상기 가상이미지 상에 출력된 가상아이콘을 변경시키도록 하는 제2지시정보이면, 상기 제2지시정보에 따라 상기 가상아이콘을 변경시킨 가상정보를 추출하는 단계를 더 포함하는 가상현실을 이용한 학습정보 제공방법.
The method of claim 1,
If the instruction information is not the first instruction information and is second instruction information for changing the virtual icon output on the virtual image, the virtual information for which the virtual icon is changed according to the second instruction information is extracted. Learning information providing method using a virtual reality further comprising the step of.
제 7 항에 있어서,
상기 제2지시정보에 따라 상기 가상아이콘을 변경시킨 가상정보를 추출하는 단계는,
상기 지시정보가 상기 제1지시정보가 아니면, 상기 제2지시정보인지의 여부를 판단하는 단계;
판단결과, 상기 제2지시정보가 아니면, 상기 지시정보에 대한 별도의 동작을 수행하지 않는 단계;
판단결과, 상기 제2지시정보이면, 상기 가상이미지 상에서, 상기 진행자 동작이 이루어진 좌표에 상기 제2지시정보와 매칭될 수 있는 가상아이콘이 출력되어 있는지를 판단하는 단계;
가상아이콘이 출력되어 있지 않다면, 별도의 동작을 수행하지 않는 단계; 및
가상아이콘이 출력되어 있다면, 상기 제2지시정보에 따라 상기 가상아이콘의 위치 또는 크기 또는 회전방향 중 적어도 어느 하나를 변경시킨 가상정보를 추출하는 단계를 더 포함하는 가상현실을 이용한 학습정보 제공방법.
The method of claim 7, wherein
Extracting the virtual information in which the virtual icon is changed according to the second indication information,
Determining whether the indication information is the second indication information if the indication information is not the first indication information;
If it is not determined that the second indication information is determined, not performing a separate operation on the indication information;
Determining, if the second indication information, on the virtual image, determining whether a virtual icon that can be matched with the second indication information is output on a coordinate at which the facilitator operation is performed;
If the virtual icon is not output, not performing a separate operation; And
And if the virtual icon is output, extracting virtual information in which at least one of a position, a size, and a rotation direction of the virtual icon is changed according to the second indication information.
제 1 항에 있어서,
상기 지시정보가, 상기 제1지시정보가 아니며, 새로운 가상정보를 생성하여 출력하도록 하는 제3지시정보이면, 상기 제3지시정보에 따라 새로운 가상정보를 생성하여 추출하는 단계를 더 포함하는 가상현실을 이용한 학습정보 제공방법.
The method of claim 1,
If the indication information is not the first indication information and is third indication information for generating and outputting new virtual information, generating and extracting new virtual information according to the third indication information. Learning information providing method using.
제 9 항에 있어서,
상기 제3지시정보에 따라 추출되는 상기 가상정보는,
문자, 도형, 숫자, 그래프, 그림 중 적어도 어느 하나인 것을 특징으로 하는 학습정보 제공방법.
The method of claim 9,
The virtual information extracted according to the third indication information,
Learning information providing method, characterized in that at least one of letters, figures, numbers, graphs, pictures.
KR1020110002650A 2011-01-11 2011-01-11 Method for providing an education information using a virtual reality KR101165375B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110002650A KR101165375B1 (en) 2011-01-11 2011-01-11 Method for providing an education information using a virtual reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110002650A KR101165375B1 (en) 2011-01-11 2011-01-11 Method for providing an education information using a virtual reality

Publications (1)

Publication Number Publication Date
KR101165375B1 true KR101165375B1 (en) 2012-07-12

Family

ID=46716770

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110002650A KR101165375B1 (en) 2011-01-11 2011-01-11 Method for providing an education information using a virtual reality

Country Status (1)

Country Link
KR (1) KR101165375B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974900B1 (en) 2008-11-04 2010-08-09 한국전자통신연구원 Marker recognition apparatus using dynamic threshold and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974900B1 (en) 2008-11-04 2010-08-09 한국전자통신연구원 Marker recognition apparatus using dynamic threshold and method thereof

Similar Documents

Publication Publication Date Title
AU2021261950B2 (en) Virtual and augmented reality instruction system
CN113950822A (en) Virtualization of a physical active surface
Kounlaxay et al. Design of Learning Media in Mixed Reality for Lao Education.
Patil et al. E-learning system using Augmented Reality
Feiersinger et al. Image–action–space: Situating the screen in visual practice
Köhlmann et al. Alternative concepts for accessible virtual classrooms for blind users
US20240078751A1 (en) Systems and methods for educating in virtual reality environments
Borhani et al. Survey of annotations in extended reality systems
Shatte et al. Hand-held mobile augmented reality for collaborative problem solving: A case study with sorting
KR20210076432A (en) Apparatus and method for providing immersive learning content through text recognition
KR101165375B1 (en) Method for providing an education information using a virtual reality
Antoniac Augmented reality based user interface for mobile applications and services
KR20110107707A (en) Online learning apparatus for augmented reality and method thereof
Behm et al. Enhancing accessibility of engineering lectures for deaf & hard of hearing (DHH): real-time tracking text displays (RTTD) in classrooms
KR20160084583A (en) System and method for implementing interactive augmented reality
Sarker Understanding how to translate from children’s tangible learning apps to mobile augmented reality through technical development research
AlKassim et al. Sixth sense technology: Comparisons and future predictions
US12079903B1 (en) Real screens in extended reality
Porta Freehand interaction with a paper-based input interface
Chu et al. A Study on AR Authoring using Mobile Devices for Educators.
Jacob et al. A Web Based System for Visualizing Array Algorithms in the Modern Classroom
Lilja Touch Gesture Visualizations in Screencasts–Designing a Pictorial Language Using an Autobiographical Design Method
Bonner THE FUTURE OF HEAD-MOUNTED AUGMENTED REALITY IN EDUCATION: THREE PROTOTYPE APPLICATIONS
Bucciero et al. Augmenting Local and Remote Cultural Visits with Mixed Reality
Ruiz Mixed Reality Book

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150611

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160627

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170703

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190703

Year of fee payment: 8